# coding=utf-8 #共轭梯度算法求最小值 import numpy as np from scipy import optimize def f(x, *args): u, v = x a, b, c, d, e, f,g,h = args return a*u**g+ b*u*v + c*v**h + d*u + e*v + f def gradf(x, *args): u, v = x a, b, c, d, e, f,g,h = args gu = g*a*u + b*v +
前言 论文“Deep Boltzmann Machines”是Geoffrey Hinton和他的大牛学生Ruslan Salakhutdinov在论文“Reducing the Dimensionality of Data with Neural Networks”合作后的又一次联合发表的一篇有深远影响的论文,这篇论文第一次提出了DBM及其学习方法,对DBM原理.来源都做了详细讲解. 论文内容 前面介绍的都是BM原理及其训练,可以不用管它,下面直接从第3节开始…… 3.DBM 一般情况下,我们
1 Unsupervised Learning 1.1 k-means clustering algorithm 1.1.1 算法思想 1.1.2 k-means的不足之处 1.1.3 如何选择K值 1.1.4 Spark MLlib 实现 k-means 算法 1.2 Mixture of Gaussians and the EM algorithm 1.3 The EM Algorithm 1.4 Principal Components
HInton第8课,之所以说之二三,是因为训练RNN的四种方法之一:长短时记忆在lecture7中介绍过了,这里介绍的是第二和第三种方法:HF优化和Echo (这个字觉得翻译成回声是不是欠妥,所以保留着,不过个人觉得"回显"不错)状态网络.这课有两个论文作为背景可以看<Generating Text with Recurrent Neural Networks>和<Echo state network - Scholarpedia>. 一."Hessi