概述 在机器学习中,感知机(perceptron)是二分类的线性分类模型,属于监督学习算法.输入为实例的特征向量,输出为实例的类别(取+1和-1). 感知机对应于输入空间中将实例划分为两类的分离超平面.感知机旨在求出该超平面,为求得超平面导入了基于误分类的损失函数,利用梯度下降法 对损失函数进行最优化(最优化). 感知机的学习算法具有简单而易于实现的优点,分为原始形式和对偶形式.感知机预测是用学习得到的感知机模型对新的实例进行预测的,因此属于判别模型. 感知机由Rosenblatt于1957年提…
最近对NLP中情感分类子方向的研究有些兴趣,在此整理下个人阅读的笔记(持续更新中): 1. Thumbs up? Sentiment classification using machine learning techniques 年份:2002:关键词:ML:引用量:9674:推荐指数(1-5):2 描述:基于电影评价,使用传统ML模型(Navie Bayes, maximum entropy classification和SVM)做情感分析. 心得: (1)主题分类(Topic Classi…
0 - 算法描述 感知机算法是一类二分类算法,其问题描述为,给定一个训练数据集 $$T=\{(x_1,y_1),(x_2,y_2),\cdots,(x_N,y_N)\},$$ 其中$x_i\in \mathbb{R}^n,y_i\in\{-1,1\},i=1,2,\cdots,N$,求参数$w,b$,使得以下损失函数极小化问题的解 $$\min_{w,b}L(w,b)=\min -\sum_{x_i\in M}y_i(w\cdot x_i+b),$$ 其中$M$为误分类点的集合. 下一节给出损失…
1. Frank Rosenblatt 首先介绍的是神经网络的开山祖师,先放张图拜拜 Frank Rosenblatt出生在纽约,父亲是医生,其1956年在Cornell大学拿到博士学位后,留校任教,研究方向为心理学和认知心理学.1957年,Frank提出了Perceptron的理论.1960年,在计算机运算能力还不强的时候,其使用基于硬件结构搭建了一个神经网络,大概长下面这样(跪).   但是和所有先驱一样,Frank开创性的工作并没有在当时得到认可.当时两位科学家 Marvin Minksy…
之所以写这篇随笔,是因为参考文章(见文尾)中的的代码是Python2的,放到Python3上无法运行,我花了些时间debug,并记录了调试经过. 参考文章中的代码主要有两处不兼容Python3,一个是lambda函数的使用,另一个是map()的使用. 先放我修改调试后的代码和运行结果,再记录调试经过. 源代码: #coding=utf-8 from functools import reduce # for py3 class Perceptron(object): def __init__(s…
前几天认把感知机这一章读完了,顺带做了点笔记 现在把笔记做第三次的整理 (不得不说博客园的LaTex公式和markdown排版真的不太舒服,该考虑在服务器上建一个博客了) 零.总结 适用于具有线性可分的数据集的二分类问题,可以说是很局限了 感知机本质上是一个分离超平面 在向量维数(特征数)过高时,选择对偶形式算法 在向量个数(样本数)过多时,应选择原始算法 批量梯度下降和随机梯度下降的区别和优势 参考链接:随机梯度下降(Stochastic gradient descent)和 批量梯度下降(B…
二类分类的线性分类模型,属于判别模型,利用梯度下降法对损失函数进行极小化求得感知机模型分为原始形式和对偶形式,是神经网络和支持向量机的基础 由输入控件到输出控件的如下函数: f(x)=sign(W.X+b) 损失函数定义为: 其中||w||为w的L2范式 L1范式约束一般为: L2范式约束一般为: 误分点xi到超平面s的距离是 因此损失函数其中M是误分点的集合 目标是: 感知机学习问题转化为求解此式的最优化问题,最优化方法是随机梯度下降法(stochastic gradient descent)…
3.1 MNIST 本章介绍分类,使用MNIST数据集.该数据集包含七万个手写数字图片.使用Scikit-Learn函数即可下载该数据集: >>> from sklearn.datasets import fetch_mldata >>> mnist = fetch_mldata('MNIST original') >>> X, y = mnist["data"], mnist["target"] >>…
软分类:y 的取值只有正负两个离散值,例如 {0, 1} 硬分类:y 是正负两类区间中的连续值,例如 [0, 1] 一.感知机 主要思想:分错的样本数越少越好 用指示函数统计分错的样本数作为损失函数,不可微: 对错误分类样本,∑ -yi * f(xi) = ∑ -yi * WTxi  (因为求和项一定大于0,所以损失函数越小表示错误分类的样本越少) 二.线性判别分析 主要思想:同一类别的样本方差足够小,不同类别之间分散开(类内小,类间大) Rayleigh quotient 和 generali…
目录 1. 感知机原理 2. 损失函数 3. 优化方法 4. 感知机的原始算法 5. 感知机的对偶算法 6. 从图形中理解感知机的原始算法 7. 感知机算法(PLA)的收敛性 8. 应用场景与缺陷 9. 其他 10. 参考资料 1. 感知机原理 感知机是二分类的线性分类模型,本质上想找到一条直线或者分离超平面对数据进行线性划分 适用于线性可分的数据集,否则感知机不会收敛 假设有一个数据集\(D = {(x_1, y_1), (x_2, y_2), ..., (x_N, y_N)}\),其中\(x…