看了中国大学MOOC zju的<数据结构>2019夏的第九次开课.做了一些PTA上的习题,没有全做,因为做得慢,老是不会,加上并不能做到一有空就学习,所以做不完了,给跪了Orz. 以后有时间的话,再把剩下的补完吧,估计下次这门网课的内容以及习题变化不多,尤其是后者应该还是这些题目,还有机会再做,那时候就当练练手,防止生疏.这次就先这样吧. 坚持就是胜利! 03-树1 树的同构 #include <stdio.h> #define MAX 10 typedef struct node…
课程结课了,把做的习题都记录一下,告诉自己多少学了点东西,也能给自己一点鼓励. ps:题目都在cxsjsxmooc.openjudge.cn上能看到,参考答案在差不多结课的时候也会在mooc上放出来. 程序设计与算法(一)C语言程序设计 第一周习题(2019夏季) 001:输出第二个整数 #include <iostream> #include <cstdio> using namespace std; int main(){ int a, b, c; cin >> a…
1.公户变私户(事务+行级锁) 2.私户的数量上限 3.班级的管理 4.课程记录管理 5.学习记录的初始化 6.展示和编辑学习记录…
作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www.showmeai.tech/article-detail/248 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容 ShowMeAI为斯坦福CS224n<自然语言处理与深度学习(Natural Language Processing with Deep Learn…
更新于2015/6/16日,因图片地址失效,请在此地址查看:http://note.youdao.com/share/?id=1c249ae6dc6150cbf692adec67b23a33&type=note 谢谢! 这几天在学习linux的一些知识,在这里记录学习记录.       以下是一些综合实践题: 课程综合实践题 实践描述:随着慕课网的不断发展,用户量不断上涨,MySQL数据量越来越庞大,占用磁盘空间越来越多,假设现有的服务器硬盘空间告急了.慕课网的服务器运维攻城狮坐不住了,向领导汇…
From: http://www.cnblogs.com/agmcs/p/4445583.html 各种查询方式:http://www.360doc.com/content/12/0608/11/9369336_216812259.shtml Flask-SQLAlchemy库让flask更方便的使用SQLALchemy,是一个强大的关系形数据库框架,既可以使用orm方式操作数据库,也可以使用原始的SQL命令. Flask-Migrate 是一个数据迁移框架,需要通过Flask-script库来…
Melanie Tosik目前就职于旅游搜索公司WayBlazer,她的工作内容是通过自然语言请求来生产个性化旅游推荐路线.回顾她的学习历程,她为期望入门自然语言处理的初学者列出了一份学习资源清单. displaCy网站上的可视化依赖解析树 https://demos.explosion.ai/displacy/?text=Great%2C%20this%20is%20just%20what%20I%20needed!&model=en&cpu=1&cph=0 记得我曾经读到过这样…
通过Cisco Packet Tracer学习计算机网络知识 本人大三狗一枚,一直以来都在学java, python, web开发的我,经过一番决定,毅然决然要开始深入学习计算机网络!通过Cisco packet tracer来辅助理解,这款软件说实话是真的好用,用来模拟网络设备,再方便不过了!但是想安装官网最新版的有点麻烦,以下是下载过程 在官网可以下载到最新的版本:https://www.netacad.com/courses/packet-tracer 然后点击橙色的按钮SignUP to…
(转载)林轩田机器学习基石课程学习笔记1 - The Learning Problem When Can Machine Learn? Why Can Machine Learn? How Can Machine Learn? How Can Machine Learn Better? 每个部分由四节课组成,总共有16节课.那么,从这篇开始,我们将连续对这门课做课程笔记,共16篇,希望能对正在看这们课的童鞋有所帮助.下面开始第一节课的笔记:The Learning Problem. 一.What…
主要是对 BERT: Pre-training of Deep Bidirectional Transformers for Language Understandingtichu提出的BERT 清华和华为提出的ERNIE: Enhanced Language Representation with Informative Entities 百度提出的ERNIE: Enhanced Representation through Knowledge Integration 这三个模型的学习记录 B…