1- 问题提出 2- 线性回归 3- 理论推导 4- Python/Spark实现 # -*- coding: utf-8 -*- from pyspark import SparkContext theta = [0, 0] alpha = 0.001 sc = SparkContext('local') def func_theta_x(x): return sum([i * j for i, j in zip(theta, x)]) def cost(x): thx = func_thet…
1- 问题提出 2- 逻辑回归 3- 理论推导 4- Python/Spark实现 # -*- coding: utf-8 -*- from pyspark import SparkContext from math import * theta = [0, 0, 0] #初始theta值 alpha = 0.001 #学习速率 def inner(x, y): return sum([i*j for i,j in zip(x,y)]) def func(lst): h = (1 + exp(-…
原文:http://blog.csdn.net/abcjennifer/article/details/7732417 本文为Maching Learning 栏目补充内容,为上几章中所提到单参数线性回归.多参数线性回归和 逻辑回归的总结版.旨在帮助大家更好地理解回归,所以我在Matlab中分别对他们予以实现,在本文中由易到难地逐个介绍.     本讲内容: Matlab 实现各种回归函数 ========================= 基本模型 Y=θ0+θ1X1型---线性回归(直线拟合…
最近开始学习Coursera上的斯坦福机器学习视频,我是刚刚接触机器学习,对此比较感兴趣:准备将我的学习笔记写下来, 作为我每天学习的签到吧,也希望和各位朋友交流学习. 这一系列的博客,我会不定期的更新,希望大家多多批评指正. Supervised Learning(监督学习) 在监督学习中,我们的数据集包括了算法的输出结果,比如具体的类别(分类问题)或数值(回归问题),输入和输出存在某种对应关系. 监督学习大致可分为回归(classification)和分类(regression). 回归:对…
1.线性回归 假设线性函数如下: 假设我们有10个样本x1,y1),(x2,y2).....(x10,y10),求解目标就是根据多个样本求解theta0和theta1的最优值. 什么样的θ最好的呢?最能反映这些样本数据之间的规律呢? 为了解决这个问题,我们需要引入误差分析预测值与真实值之间的误差为最小. 2.梯度下降算法 梯度下降的场景: 梯度下降法的基本思想可以类比为一个下山的过程.假设这样一个场景:一个人被困在山上,需要从山上下来(i.e. 找到山的最低点,也就是山谷). 但此时山上的浓雾很…
Linear Regreesion          在现实生活中普遍存在着变量之间的关系,有确定的和非确定的.确定关系指的是变量之间可以使用函数关系式表示,还有一种是属于非确定的(相关),比如人的身高和体重,一样的身高体重是不一样的.       线性回归:            1: 函数模型(Model):                              假设有训练数据                            那么为了方便我们写成矩阵的形式            …
在现实生活中普遍存在着变量之间的关系,有确定的和非确定的.确定关系指的是变量之间可以使用函数关系式表示,还有一种是属于非确定的(相关),比如人的身高和体重,一样的身高体重是不一样的.       线性回归:            1: 函数模型(Model):                              假设有训练数据                            那么为了方便我们写成矩阵的形式                           2: 损失函数(cost)…
ON THE EVOLUTION OF MACHINE LEARNING: FROM LINEAR MODELS TO NEURAL NETWORKS We recently interviewed Reza Zadeh (@Reza_Zadeh). Reza is a Consulting Professor in the Institute for Computational and Mathematical Engineering at Stanford University and a…
这篇博客从一种方式推导了Linear regression 线性回归的概率解释,内容来自Standford公开课machine learning中Andrew老师的讲解. 线性回归的概率解释 在Linear regression中我们人为的定义了,损失函数,然而我们并没有说明为什么我们会选择最小二乘作为我们的损失函数. 下面是一种概率解释:让我们回到一开始的式子来看一看,一开始我们定义线性回归方程,其中是我们的误差项,那么对于我们假设它是独立同分布(IID)的高斯分布,即(假设它为高斯分布,我们…
1. 主要观点 线性模型是线性回归和线性分类的基础 线性回归和线性分类模型的差异主要在于损失函数形式上,我们可以将其看做是线性模型在多维空间中“不同方向”和“不同位置”的两种表现形式 损失函数是一种优化技术的具体载体,影响损失函数不同形式的因素主要有: 和谁比:和什么目标比较损失 怎么比:损失比较的具体度量方式和量纲是什么 比之后如何修正参数:如果将损失以一种适当的形式反馈给原线性模型上,以修正线性模式参数 在这篇文章中,笔者会先分别介绍线性回归(linear regression)和线性分类(…