句法分析是自然语言处理领域的一个关键问题,如能将其有效解决,一方面,可对相应树库构建体系的正确性和完善性进行验证;另一方面,也可直接服务于各种上层应用,比如搜索引擎用户日志分析和关键词识别,比如信息抽取.自动问答.机器翻译等其他自然语言处理相关的任务. 短语结构和依存结构是目前句法分析中研究最广泛的两类文法体系.这里先大概介绍下依存结构. 依存文法最早由法国语言学家L.Tesniere在其著作<结构句法基础>(1959年)中提出,对语言学的发展产生了深远的影响,特别是在计算语言学界备受推崇.…
从官网搬过来的 囧rz 哈工大讯飞语言云 由哈工大 和科大讯飞 联合研发的中文自然语言处理云服务平台.结合了哈工大“语言技术平台——LTP” 高效.精准的自然语言处理核心技术和讯飞公司在全国性大规模云计算服务方面的 丰富经验,显著提升 LTP 对外服务的稳定性和吞吐量,为广大用户提供电信级稳定 性和支持全国范围网络接入的语言云服务,有效支持包括中小企业在内开发者的商 业应用需要. 作为基于云端的服务,语言云具有如下一些优势: 免安装:用户无需调用静态库或下载模型文件,只需要根据API参数集构造H…
分词 中文分词 (Word Segmentation, WS) 指的是将汉字序列切分成词序列. 因为在汉语中,词是承载语义的最基本的单元.分词是信息检索.文本分类.情感分析等多项中文自然语言处理任务的基础. 例如,句子 国务院总理李克强调研上海外高桥时提出,支持上海积极探索新机制. 正确分词的结果是 国务院/  总理/  李克强/  调研/  上海/  外高桥/  时/  提出/  ,/  支持/  上海/  积极/  探索/  新/  机制/  . 如果分词系统给出的切分结果是 国务院/  总…
前言 LTP语言云平台 不支持离线调用: 支持分词.词性标注.命名实体识别.依存句法分析.语义角色标注: 不支持自定义词表,但是你可以先用其他支持自定义分词的工具(例如中科院的NLPIR)把文本进行分词,再让ltp帮你标注 支持C#.Go.Java.JavaScript.Nodejs.PHP.Python.R.Ruby等语言调用: 还有一些错误响应.频率限制.重要说明(这几个我至今也没用到): 正文 官方网址:http://www.ltp-cloud.com/ 使用文档:http://www.l…
这是一个基于CRF的中文依存句法分析器,内部CRF模型的特征函数采用 双数组Trie树(DoubleArrayTrie)储存,解码采用特化的维特比后向算法.相较于<最大熵依存句法分析器的实现>,分析速度翻了一倍,达到了1262.8655 sent/s 开源项目 本文代码已集成到HanLP中开源项目中,最新hanlp1.7版本已经发布 CRF简介 CRF是序列标注场景中常用的模型,比HMM能利用更多的特征,比MEMM更能抵抗标记偏置的问题.在生产中经常使用的训练工具是CRF++,关于CRF++的…
ZH奶酪:Ubuntu 14.04安装LAMP(Linux,Apache,MySQL,PHP) 之前已经介绍过LAMP的安装,这边文章主要讲解一下LAMP的配置. 1.配置Apache (1)调整KeepAlive设置(参考[1].[2]): 在内存非常充足的服务器上,不管是否关闭 KeepAlive 功能,服务器性能不会有明显变化: 如果服务器内存较少,或者服务器有非常大量的文件系统访问时,或者主要处理动态网页服务,关闭 KeepAlive 后可以节省很多内存,而节省出来的内存用于文件系统Ca…
正则匹配: .除换行符所有的 ?表示0次或者1次 *表示0次或者n次 a(bc)+表示bc至少出现1次 ^x.*g$表示字符串以x开头,g结束 |或者 http://regexr.com/ 依存句法分析得到的 dobj : direct object直接宾语  用来表示潜在的Intent,指代消解里面也用到依存句法分析得到的结果 两种语法结构能够揭示句子中不同的信息,所以当你在其他任务中,需要用到句子中的短语结构就用constituent ,而需要用到词与词之间的依赖关系就用dependency…
  依存句法分析的效果虽然没有像分词.NER的效果来的好,但也有其使用价值,在日常的工作中,我们免不了要和其打交道.笔者这几天一直在想如何分析依存句法分析的结果,一个重要的方面便是其可视化和它的图分析.   我们使用的NLP工具为jieba和LTP,其中jieba用于分词,LTP用于词性标注和句法分析,需要事件下载pos.model和parser.model文件.   本文使用的示例句子为: 2018年7月26日,华为创始人任正非向5G极化码(Polar码)之父埃尔达尔教授举行颁奖仪式,表彰其对…
代码 import os from pprint import pprint from pyltp import Segmentor, Postagger, Parser, NamedEntityRecognizer, SementicRoleLabeller class LtpParser: def __init__(self): LTP_DIR = "../model/ltp_data_v3.4.0/" self.segmentor = Segmentor() # load_wit…
如何用textgenrnn处理中文 1. 什么是textgenrnn? textgenrnn是建立在Keras和TensorFlow之上的,可用于生成字级别和词级别文本.网络体系结构使用注意力加权来加速训练过程并提高质量,并允许调整大量超参数,如RNN模型大小.RNN层和双向RNN.对细节感兴趣的读者,可以在Github上或类似的介绍博客文章中阅读有关textgenrnn及其功能和体系结构的更多信息. Github项目地址: https://github.com/minimaxir/textge…