【Coursera】Fifth week(3)】的更多相关文章

对于公钥系统,我们现在已经有了保证它 Confidentially 的一种方法:SSL.SSL利用了公钥的概念. 那么 who we are talking to? Integrity Certificate Authorities Integrity 服务器发送给我们的公钥,是加以签名(signed)的,被 third-party certification authority 认证(validated). 我们并不是从 Coursera 得到的证书,而是从 GoDaddy 处得到的认证的证书…
前言 Coursera 的 Internet History,Technology,and Security 进入最后一周的学习了,在这最后一周内,需要进行的内容是 public-key 公钥系统的讲解 和 一些改进.随着课程的结束,这个暑假也接近尾声了,回想已经结束的暑假生活,是充实而又有意义的,是一个很令人难忘的暑假. 初识这门课程,以 生动的历史 开篇,随后切入 并不乏味的 技术介绍篇,最后以对 网络安全 这一相对其它而言 "新兴" 的方向的介绍收尾.主讲人Chuck幽默风趣,从…
Review -Terminology(术语): Confidentiallity & Integrity 泄密 & 欺骗 Confidentiallity: Prevent unauthorized viewing of private information. 防止第三方窃取信息. Integrity: Information is from who you think it is from and has not been modified(修改) since it was sent…
今天学习了Coursera上University of Michigan开的互联网的历史.技术和安全课程的FirstWeek内容. 先是吐槽下这个Coursera,认证非常麻烦,PC端需要摄像头拍照.只能用AppStore上的应用下载了一个Coursera,再自拍了一张. 课程安排也是有点奇怪,原本以为每一周有每一周的学习任务,但是到后面发现,每一周(类似每个章节)有个终止时间,也就是说只要在终止时间之前完成就可以完成目标,并不是很在意你是什么时候完成的.还好是今天注册的,明天(7/16)就截止…
一.最大间隔分类器 1. 函数间隔:\(γ^{i} = y^{i}(w^{T} x + b)\), 改变w和b的量级,对分类结果不会产生任何影响,但是会改变函数间隔的大小.因此,直接对函数间隔求最大值是没有任何意义的.因为可以通过任意改变w.b的量级,使得函数间隔任意大. Q1: 函数间隔的式子中,\(w^{T} x + b\)的结果在几何意义上代表什么?或则假设有两个样点\(x_i\)和\(x_j\),如果\(w^{T} x _i+ b\)的值大于\(w^{T} x_j + b\),是否表明\…
前言 这个Internet History 有些令人劝退.电脑无法播放视频.手机不能播放.最后百度了改了hosts文件才可以. 附上解决方法: 解决coursera可以登录但无法播放视频 第一周 第三讲 第三讲主要围绕这张图展开 布莱切利公园被很多人认为是现代计算机科学的发源地. 1939年 9月4日,图灵前往布莱切利公园报道. 图灵和其他人员说服力丘吉尔,从此以后布莱切利公园得到了所需的所有资源. 布莱切利公园重建了整套系统之后,英国人就开始用波兰人的方法,破解英格玛机器. 图灵明白了他们的方…
对这门课程的安全部分进行一个小结. 往期随笔 第八周第一节 第八周第二节 第九周第一节 第九周第二节 前言:为什么互联网要提及安全 因为security牵扯到我们每一个人,有人每时每刻都想着要偷取别人的个人信息来卖钱. 我们对于这个世界 太普通了,大部分想偷取我们利益的人,基本都是想拿走我们的银行卡,然后在冻结银行卡之前,买一些东西给他们维持生计. 没有完美的安全措施. 两个术语:贯穿着整个安全的课程 Confidentially : 防止信息被第三方查看 Integrity : 防止被第三方欺…
Security Introduction People With Bad Intent 今天,Bob 向 Alice 发送了一条 "Hello,Allice!" 的信息,他们希望这条信息只有他们两个人知道,但是邪恶的 C 出现了,他通过非法的手段窃听了这条信息,当然,在这之后,有一堆 无处不在的 贪图Alice美色的 坏人(看来Alice长的很漂亮..),同样的也想要窃听他们之间的对话,怀着邪恶的目的. Paranoia(偏执狂) Who is out to get you? If…
Application Layer:Use the services of the TCP layer Quick Review Link Layer(Ethernet):gets the data onto the link,and manages collisions(冲突) on a single hops. Internet Layer(IP):moves the data over one hop,trying to get it "closer" to its destin…
DNS:Domain Name System The Domain Name System convert user-friendly names,like www.umich.edu, to network-friendly IP address, like 141.211.32.166 . 也就是说 DNS 主要的工作是 域名的转换. 网络号和IP地址很重要,是因为它们把网络连接的地址 编译成计算机语言(encode).但我们人并不是那么在意这个东西,www.facebook.com 和 w…
Transport Layer 在学习完 Link Layer(Ethernet),Internetwork Layer(IP)之后,我们来到了TCP/IP协议簇的上半部分. Review:Magic of IP 它做了啥?想办法把数据报从一个网络 通过 5 - 20 个路由器 转递到另外一个网络. 保持对网络中 畅通 或者 堵塞的路径 的跟踪,如果有可能的话想办法选择更好的路径. 但是不能保证 数据能到达目的地,如果转递过程中出现了差错,数据报会被丢弃. 这使得 它非常快速,和可伸缩性(sca…
Ethernet 在 PARC(Xerox) 发明. 第一个 Local-Area-Network (LAN 局域网). 把 PCs 连接到 激光打印机上. 在夏威夷大学,被早期的无线网络 Aloha 所启发. Bob 确实从无线网络中受到了启发:共享同一个媒介.他所发明的 Ethernet 的线路,不谈在天花板上运行,确实很像一个巨型的 无线电广播(giant radio).所以,这种简单的设计为早期的 Ethernet 带来了许多好处,虽然很简单,但是它降低了整个线路的价格,并且让速率变得更…
The Ethernet Story Bob Metcalfe Bob 参与了 Xerox 研究项目,着手解决建造一个处处连接个人计算机的架构.当时,他们刚刚完成了 Internet 的开端 -具有 packet switching 机制的 ARPANET. 与此同时,他们开发了第一台激光打印机(有争议),Ears.速度是一秒一页,500个小点一英寸.从数学的角度来看,一秒是200兆. 当时的互联方法存在着许多的问题.其中的一个问题是,他们全部都像全垒打一样(they were all home…
Store and Forward Networking 在长途连接中,路由的数量 取决于 最优路径(花费最少).也就是说被地理条件所限制. 所以 Store and Forward Networking 的特性之一就是 较少的转发(sharing). 在某一瞬间,某一条信息通过某一个连接(介于两个路由之间),其它的信息在路线上等待这个过程的完成. Research Networks 1960-1980s 三个问题: 如何 避免 在所有的结对计算机之间 进行直接的连接? 如何 更高效的 转发信息…
前言 终于看完了接近一半课程的 History 的内容. 在这两周的时间里面,了解了互联网的起源,发展,以及现在互联网的情况.听了许多故事,有让人会心一笑的,也有令人感慨万千的.见到了许多令人景仰的科学家,游遍了美国的东部和西部.练习了英语听力,培养了耐心(19min 视频看了 3h). 打算做一个时间的流程图(恩之后会补上). 随笔目录: (1)第一周 (2)第二周 上 (3)第二周 下 (4)第三周 上 (5)第三周 下 (6)第四周 上 (7)第四周 下 历史的进程 1938 - 1945…
Netscape JavaScript and Firefox 当Microsoft收购Netscape失败之后: JavaScript 创造并用于与 Visual Basic 竞争(1995). Netscape 逐渐走向开源,成立Mozilla,在这之后Mozilla 开发出了Firefox(90年代晚期). Firefox 的 search box 给Mozilla 带来非常巨大的资金利润. 很多伟大的人放弃了他们自身的利益,因为开源能够帮助到他人而选择开源. Did the Micros…
1994: year of the web (1)网景(Netscape)成立. (2)www conference 在CERN 举办. (3)www conference 在芝加哥举办. (4)十月,Tim Berners-Lee 在MIT成立了(W3C). (5)11月8号,微软发布Windows 95 beta 2. Netscape 网景 Mitchell Baker,是Mozilla基金会的主席.2005年美国时代杂志评选她为全球100位最具影响力的人物之一. 20世纪九十年代,Net…
拾遗 Steve Jobs与World Wide Web 如果你有仔细观察Robert Cailliau的视频的话,你会发现他工作所用的电脑为NeXT电脑. Jobs 也对web 产生了一定的影响,众所周知,他创立了Apple,在被Apple 扫地出门之后,他建立了一所新公司,叫做NeXT.NeXT是一个大胆的,以Unix为基础的,高度网络化,高清晰度,高性能的电脑. NeXT was a bold, Unix-based, highly-networked, high-definition d…
The Early World-Wide-Web 关于CERN 欧洲核子研究组织,除了它为世界物理学所作出的卓越贡献,它还是世界上第一个网站,第一个网络服务器,第一个浏览器的诞生地. Robert Cailliau Cailliau 是一位信息工程师和计算机科学家,1990年,他在CERN协助Tim Berners-Lee搭建了世界上第一个World-Wide-Web.而且他也是第一届"www"会议的组织者. 起初,构建这个网络的目的是为了物理届的相关文件进行方便的交流. ···for…
The First Two Packets on the Internet Leonard Kleinrock Kleinrock 是一名工程师和计算机科学家,他在APRANET网络中起到了至关重要的角色. He played an influential role in the development of the ARPANET, the precursor to the Internet, at UCLA. 他早期研究Packet Switching的相关机制,在1964年他出版了一本书,…
全球互联网的始祖 APRANET APRANET 是 DARPA(美国国防部高级研究计划局) 开发的世界上第一个运营PacketSwitching(分包交换)的网络. 鉴于二战后世界格局两极化的历史背景(美苏冷战),美国加快了研究科学技术的脚步.APRANET就是那个时代的必然产物. 美国国防部认为,如果仅有一个集中的军事指挥中心,万一这个中心被原苏联的核武器摧毁,全国的军事指挥将处于瘫痪状态,其后果将不堪设想,因此有必要设计这样一个分散的指挥系统--它由一个个分散的指挥点组成,当部分指挥点被摧…
一.问题 主方向的概念是什么?为什么降低维度的方法是使方差最大化? 假设某两个特征之间成线性关系,在二维平面上的表示就是数据点呈线性分布,那么可以通过将数据在主方向上进行投影,得到一个一维的数据,这个一维的数据保留了原始数据大部分的信息. 两个特征之间成线性关系,但是由于一些噪声的影响,所以数据分布并不严格处在一条直线上面.所谓的主方向就是要找到一个向量使得这个向量和预想中的直线大致符合.然后这样的一个向量应该满足什么要求呢?显然,应当使得所有的数据点到这个向量(直线)的距离总和最小,在数学表达…
一.高斯混合模型 软分类算法,即对每一个样本,计算其属于各个分布的概率,概率值最大的就是这个样本所属的分类. 对于训练样本的分布,看成为多个高斯分布加权得到的.其中每个高斯分布即为某一特定的类. 高斯混合模型和高斯判别分析非常像,唯一的区别就是在高斯混合模型中,每个样本所属的类别标签是未知的. 为了计算每个样本属于各个分布的概率Z,对每个高斯分布的参数进行初始化,然后以此计算概率Z,再根据Z来对所有参数进行优化,直到收敛. 二.EM算法 1.Jensen不等式 若二阶导数的不等号方向逆转(f(x…
一.协方差矩阵 协方差矩阵为对称矩阵. 在高斯分布中,方差越大,数据分布越分散,方差越小发,数据分布越集中. 在协方差矩阵中,假设矩阵为二维,若第二维的方差大于第一维的方差,则在图像上的体现就是:高斯分布呈现一个椭圆形,且主轴对应的就是方差大的第二维度.简而言之,若对角线元素相等,则高斯分布的图形是圆形,反之则分布图形为椭圆形. 若协方差矩阵的非对角元素为0,则高斯分布图形平行于坐标轴,反之则不平行. 为什么当样本数量远小于特征向量的维数n时,协方差逆矩阵不存在(矩阵不满秩)? 在多变量高斯分布…
偏差方差权衡 使用较小的神经网络,类似于参数较少的情况,容易导致高偏差和欠拟合,但计算代价较小使用较大的神经网络,类似于参数较多的情况,容易导致高方差和过拟合,虽然计算代价比较大,但是可以通过归一化手段来调整而更加适应数据. 通常选择较大的神经网络并采用归一化处理会比采用较小的神经网络效果要好. 对于神经网络中的隐藏层的层数的选择,通常从一层开始逐渐增加层数,为了更好地作选择,可以把数据分为训练集.交叉验证集和测试集,针对不同隐藏层层数的神经网络训练神经网络, 然后选择交叉验证集代价最小的神经网…
一.经验风险最小化 1.有限假设类情形 对于Chernoff bound 不等式,最直观的解释就是利用高斯分布的图象.而且这个结论和中心极限定律没有关系,当m为任意值时Chernoff bound均成立,但是中心极限定律不一定成立. 随着模型复杂度(如多项式的次数.假设类的大小等)的增长,训练误差逐渐降低,而一般误差先降低到最低点再重新增长.训练误差降低,是因为模型越复杂,对于训练集合的拟合就越好.对于一般误差,最左边的端点表示欠拟合(高偏差),最右边的端点表示过拟合(高方差),最小化一般误差时…
一.算法说明 为了便于计算类条件概率\(P(x|c)\),朴素贝叶斯算法作了一个关键的假设:对已知类别,假设所有属性相互独立. 当使用训练完的特征向量对新样本进行测试时,由于概率是多个很小的相乘所得,可能会出现下溢出,故对乘积取自然对数解决这个问题. 在大多数朴素贝叶斯分类器中计算特征向量时采用的都是词集模型,即将每个词的出现与否作为一个特征.而在该分类器中采用的是词袋模型,即文档中每个词汇的出现次数作为一个特征. 当新样本中有某个词在原训练词中没有出现过,会使得概率为0,故使用拉普拉斯平滑处理…
一.线性回归 1.批量梯度下降法 每次对参数进行一次迭代时,都要扫描一遍输入全集 算法可以收敛到局部最优值 当迭代多次之后,每次迭代参数的改变越小 2.随机梯度下降法 对于一个输入样本,对参数进行一次更新 算法通常不会收敛到局部最优值,整个过程类似在上山迂回下山,有时可能上山,有时可能下山,但算法的最后都会得到局部最优值附近的一个值 若输入数据非常多的时候,随机梯度下降比批量梯度下降更加合适 3.概率解释 在原式子里加入一个"error term",之后得到这个"error…
[1]机器学习管道 [2]滑动窗口 Answer:C ((200-20)/4)2 = 2025 [3]人工数据 [4]标记数据 Answer:B (10000-1000)*10 /(8*60*60) = 3.125 [5]上限分析 测验 Answer:D 忽略窗口的宽度,只考虑step:     (1000/2) * (1000/2) * 2 = 500000 Answer:B 10 * 10000 / (4*60) = 417 Answer:AB C 错误.上限分析不能提供增加训练数据. D…
[1]大规模数据 [2]随机梯度下降 [3]小批量梯度下降 [4]随机梯度下降的收敛 Answer:BD A 错误.学习率太小,算法容易很慢 B 正确.学习率小,效果更好 C 错误.应该是确定阈值吧 D 正确.曲线不下降,说明学习率选的太大 [5]在线学习 [6] Answer:BC A 错误.随机梯度下降,J(θ)不一定每次都减小 D 错误.随机梯度下降适合大数据量任务 Answer:CD A 错误. B 错误.不是因为使用parallelizaion Answer:AD B 错误.不需要保存…