NLP之基于logistic回归的文本分类
数据集下载: 链接:https://pan.baidu.com/s/17EL37CQ-FtOXhtdZHQDPgw
提取码:0829
逻辑斯蒂回归
@
1.理论
1.1 多分类
若用logistc进行五分类,可以进行5次二分类,把情感标签当作5维向量。
softmax常用于多分类,当类别数为2时,和logistic等价。他把一些输入映射为0-1之间的实数,并且归一化保证和为1,因此多分类的概率之和也刚好为1。
而softmax是在输出层神经元输出结果\(X(x_1,x_2···x_n)\)之后,设\(p_i=\frac{e^{x_i}}{\sum_{i=1}^ne^{x_i}}\)
1.2 公式
\(sigmoid(x)=\frac{1}{1+e^{-z}}\)
\(softmax(x_i)=\frac{e^{x_i}}{\sum_j e^{x_j}}\)
\(Cost:J(θ)=-\frac{1}{m}[{\sum_{i=1}^m}((y^{(i)})logh_θ(x^{(i)})+(1-y^{(i)}))log(1-h_θ(x^{(i)}))+λ{\sum_{j=1}^nθ_j^2}]\)
\(hypothesis:h_θ(x)=sigmoid(θ^Tx)=\frac{1}{1+e^{-θ^Tx}}\)
\(gradient=\frac{\partial J(θ_0,θ_1)}{\partial θ_j}=\frac{1}{m}{\sum_{i=1}^m}[(h_θ(x^{(i)})-y^{(i)})x_j^{(i)}+λθ_j]\)
\(GradientDescent:θ_j=θ_j-α\frac{\partial J(θ_0,θ_1)}{\partial θ_j}=θ_j-\frac{α}{m}{\sum_{i=1}^m}[(h_θ(x^{(i)})-y^{(i)})x_j^{(i)}+λθ_j]\)
2.实验
2.1 实验步骤
- 读取数据
- 训练
- 构建词频矩阵,进行标准化
- 构建逻辑回归模型,自动拟合训练
- 测试
2.2 代码
本实验所用数据集已经过脱敏处理,所以可以直接使用,若在实际应用中对中英文文本进行分类,还需要进行数据预处理,将其转化为数字
"""
Task: 基于逻辑斯蒂回归的文本分类
Author: ChengJunkai @github.com/Cheng0829
Email: chengjunkai829@gmail.com
Date: 2022/09/03
Reference: Tae Hwan Jung(Jeff Jung) @graykode
"""
'''
数据集说明:
train.csv结构:
id article word_seg class
0 991700 509221 410256··· 816903 597526··· 14
test.csv结构:
id article word_seg
0 111111 222222 333333··· 444444 555555···
文章索引“id”、中文文字索引“article”、词语索引“word_seg”、文章类别“class”。
对于class,测试集是不包含该字段的,这就是我们需要分类的类别,也就是模型的输出y。
数据集都经过了脱敏处理,也就是说我们打开数据集文件看到的都是一些数字,
这些数字其实代表的就是一个字或词或标点符号。
本实验只从词的角度,只分析“word_seg”作为输入特征,“class”作为分类标记进行训练。不使用article字段
'''
import pandas as pd
from sklearn.linear_model import LogisticRegression
from sklearn.feature_extraction.text import CountVectorizer
import time
# 读取csv文件(前n行)
def read(train_set_path, test_set_path):
n = 100 # 只读前100行样本
# 法1:选择性读取
train_data = pd.read_csv(train_set_path, header=0, usecols=['word_seg', 'class'], nrows=n) # 训练集
test_data = pd.read_csv(test_set_path, header=0, usecols=['id', 'word_seg'], nrows=n) # 测试集
# 法2:读取数据,并删除不相关字段
# train_data = pd.read_csv(train_set_path, nrows=n) #训练集
# test_data = pd.read_csv(test_set_path, nrows=n) #测试集
# train_data.drop(columns=['id','article'], inplace=True)
# test_data.drop(columns=['article'], inplace=True) #保留id
return train_data, test_data
# 训练拟合模型
def train(train_data):
# 将文本中的词语转换为词频矩阵
'''
CountVectorizer是属于常见的特征数值计算类,是一个文本特征提取方法。
对于每一个训练文本,它只考虑每种词汇在该训练文本中出现的频率。
CountVectorizer会将文本中的词语转换为词频矩阵,它通过fit_transform函数计算各个词语出现的次数。
'''
vectorizer = CountVectorizer(ngram_range=(1, 2), min_df=3, max_df=0.9, max_features=100000)
'''
ngram_range:词组切分的长度范围,ngram_range(1,2)是指将text根据N-gram规则,分别对每个词/每2个词进行划分
min_df:单词出现次数小于这个值,则认为不是关键词(占比小,影响度小)
max_df:表示有某单词出现的文档数与语料库文档数的最大百分比(太常见则没有区分度)
stop_words:设置停用词
# TF-IDF -> max_df, min_df
max_features:默认为None,可设为int,对所有关键词的词频进行降序排序,只取前max_features个作为关键词集
'''
# CountVectorizer会将文本中的词语转换为词频矩阵,它通过fit_transform函数计算各个词语出现的次数。
# 拟合生成标准化词频矩阵
"""
fit_transform() = fit() + transform()
fit():求得训练集X的均值,方差,最大值,最小值等属性 -> 和logistic.fit()不同
transform():在fit的基础上,进行标准化,降维,归一化等操作
Tips:正确做法:先对训练集用fit_transform进行fit,找到均值方差并标准化,然后在测试集中只transform,这样可以保证训练集和测试集的处理方式一样
"""
# fit_transform()的作用就是先拟合数据,然后转化它将其转化为标准形式。相当于fit+transform
x_train = vectorizer.fit_transform(train_data['word_seg'])
"""fit_transform/transform返回值的结构
(sample_i,number_j) count
1.sample_i是第i个样本的序号,
2.number_j是该单词/词组在整个数据集单词/词组中的序号
(对于不同样本文档中相同的单词/词组,它们的number_j相同,但不同的单词/词组的序号不重复)
在计算x_train.shape时,只会计算不同的单词/词组
3.count是该单词/词组在该样本文档的频数
"""
y_train = train_data['class'] - 1 # 类别默认是从0开始的,所以这里需要-1
# 构建逻辑回归模型
logistic_model = LogisticRegression(C=4, dual=False)
"""LogisticRegression
C:正浮点型.正则化强度的倒数(默认为1.0)
dual = True则用对偶形式;dual = False则用原始形式(默认为False)
"""
# 拟合,训练
logistic_model.fit(x_train, y_train)
"""
LogisticRegression.fit(x,y):根据给定的训练数据对模型进行拟合。
输入为样本的词频矩阵和样本类别
"""
return vectorizer, logistic_model
# 保存预测结果
def save(test_data, y_test, save_path):
# 保存结果
y_test = y_test.tolist() # 把(n,)的一维矩阵y_test转化为矩阵列表形式存储
test_data['class'] = y_test + 1 # 新建一个class列,存入类别值(类别还原+1)
data_result = test_data.loc[:, ['id', 'class']] # 根据index索引所有行和id,class列
"""
pandas的loc函数:locate定位函数.
1.定位行列:data.loc[行索引, 列名]
2.只定位行:data.loc[行索引]
3.只定位列:data.loc[:, 列名]
"""
data_result.to_csv(save_path, index=False)
if __name__=="__main__":
chars = '*' * 20
'''1.读取数据'''
# old_time = time.time()
train_data, test_data = read('./train_set.csv', './test_set.csv')
# current_time = time.time()
# print(chars + '读取完成!用时{}s'.format(round(current_time-old_time,2)) + chars + '\n')
'''2.训练'''
vectorizer, logistic_model = train(train_data)
'''3.预测'''
x_test = vectorizer.transform(test_data['word_seg']) # 矩阵标准化
y_test = logistic_model.predict(x_test) # (n,)
"""
LogisticRegression.predict(x,y):根据训练模型对测试集进行预测。
输入为测试样本的词频矩阵,输出为(n,)的一维矩阵
"""
'''4.保存'''
# save(test_data, y_test,save_path='./result.csv')
print('Over!')
Tips:
若用logistc进行五分类,可以进行5次二分类,把情感标签当作5维向量。
softmax常用于多分类,当类别数为2时,和logistic等价。他把一些输入映射为0-1之间的实数,并且归一化保证和为1,因此多分类的概率之和也刚好为1。
NLP之基于logistic回归的文本分类的更多相关文章
- 基于Spark Mllib的文本分类
基于Spark Mllib的文本分类 文本分类是一个典型的机器学习问题,其主要目标是通过对已有语料库文本数据训练得到分类模型,进而对新文本进行类别标签的预测.这在很多领域都有现实的应用场景,如新闻网站 ...
- Spark2.0机器学习系列之4:Logistic回归及Binary分类(二分问题)结果评估
参数设置 α: 梯度上升算法迭代时候权重更新公式中包含 α : http://blog.csdn.net/lu597203933/article/details/38468303 为了更好理解 α和 ...
- 利用logistic回归解决多分类问题
利用logistic回归解决手写数字识别问题,数据集私聊. from scipy.io import loadmat import numpy as np import pandas as pd im ...
- 基于Logistic回归和sigmoid函数的分类算法推导
此部分内容是对机器学习实战一书的第五章的数学推导,主要是对5.2节代码实现中,有一部分省去了相关的公式推导,这里进行了推导,后续会将算法进行java实现.此部分同样因为公式较多,采用手写推导,拍照记录 ...
- 基于深度学习的文本分类案例:使用LSTM进行情绪分类
Sentiment classification using LSTM 在这个笔记本中,我们将使用LSTM架构在电影评论数据集上训练一个模型来预测评论的情绪.首先,让我们看看什么是LSTM? LSTM ...
- 基于Naive Bayes算法的文本分类
理论 什么是朴素贝叶斯算法? 朴素贝叶斯分类器是一种基于贝叶斯定理的弱分类器,所有朴素贝叶斯分类器都假定样本每个特征与其他特征都不相关.举个例子,如果一种水果其具有红,圆,直径大概3英寸等特征,该水果 ...
- 基于Text-CNN模型的中文文本分类实战 流川枫 发表于AI星球订阅
Text-CNN 1.文本分类 转眼学生生涯就结束了,在家待就业期间正好有一段空闲期,可以对曾经感兴趣的一些知识点进行总结. 本文介绍NLP中文本分类任务中核心流程进行了系统的介绍,文末给出一个基于T ...
- 基于Text-CNN模型的中文文本分类实战
Text-CNN 1.文本分类 转眼学生生涯就结束了,在家待就业期间正好有一段空闲期,可以对曾经感兴趣的一些知识点进行总结. 本文介绍NLP中文本分类任务中核心流程进行了系统的介绍,文末给出一个基于T ...
- Logistic回归分析之多分类Logistic回归
Logistic回归分析(logit回归)一般可分为3类,分别是二元Logistic回归分析.多分类Logistic回归分析和有序Logistic回归分析.logistic回归分析类型如下所示. Lo ...
随机推荐
- 化整为零优化重用,Go lang1.18入门精炼教程,由白丁入鸿儒,go lang函数的定义和使用EP07
函数是基于功能或者逻辑进行聚合的可复用的代码块.将一些复杂的.冗长的代码抽离封装成多个代码片段,即函数,有助于提高代码逻辑的可读性和可维护性.不同于Python,由于 Go lang是编译型语言,编译 ...
- Spring源码 14 IOC refresh方法9
参考源 https://www.bilibili.com/video/BV1tR4y1F75R?spm_id_from=333.337.search-card.all.click https://ww ...
- iOS影视应用+全网视频下载
又一个新的iOS影视伪装 打开软件连续点击3次列表,然后关闭重新打开即可变身,无广告全免费高画质,还有电视直播 下载地址:https://apps.apple.com/cn/app/贴画壁纸/id16 ...
- Python自学教程7:字典类型有什么用
字典是Python中的一个重要操作,如果字典玩得顺,很多其他的数据类型就可以一通百通. Python字典的定义 字典使用一对大括号进行定义,键值对之间使用逗号隔开,键和值使用冒号分隔. 键必须是不可变 ...
- React报错之Parameter 'props' implicitly has an 'any' type
正文从这开始~ 总览 当我们没有为函数组件或者类组件的props声明类型,或忘记为React安装类型声明文件时,会产生"Parameter 'props' implicitly has an ...
- 基于Vue3实现一个前端埋点上报插件并打包发布到npm
前端埋点对于那些营销活动的项目是必须的,它可以反应出用户的喜好与习惯,从而让项目的运营者们能够调整策略优化流程提高用户体验从而获取更多的$.这篇文章将实现一个Vue3版本的埋点上报插件,主要功能有 通 ...
- 三 单例模式【Singleton Pattern】 来自CBF4LIFE 的设计模式
这个模式是很有意思,而且比较简单,但是我还是要说因为它使用的是如此的广泛,如此的有人缘,单例就是单一.独苗的意思,那什么是独一份呢?你的思维是独一份,除此之外还有什么不能山寨的呢?我们举个比较难复制的 ...
- HTTP2指纹识别(一种相对不为人知的网络指纹识别方法)
这是关于网络指纹识别的两部分系列的第二部分 上一部分我介绍了有关TLS 指纹识别方法(以及在不同客户端的指纹有何区别): https://mp.weixin.qq.com/s/BvotXrFXwYvG ...
- KingbaseES ksqlrc文件介绍
ksqlrc文件作用 ksql在连接到数据库后但在接收正常的命令之前,会尝试读取并执行该文件中的命令,如果加上-X参数,则跳过该文件. 系统级的启动文件是ksqlrc,文件在安装好的KingbaseE ...
- KingabseES 锁机制
KingabseES的锁机制 目录 KingabseES的锁机制 一.前言 二.锁机制 三.表级锁 ( Table-Level Locks ) 1.访问共享(ACCESS SHARE) 2.行共享(R ...