#环境需求 Python2 
 1 #!/bin/python
# -*- coding: utf- -*- import struct
import sys
import binascii
import pdb try:
reload(sys)
sys.setdefaultencoding('utf-8')
except:
pass # 搜狗的scel词库就是保存的文本的unicode编码,每两个字节一个字符(中文汉字或者英文字母)
# 找出其每部分的偏移位置即可
# 主要两部分
# .全局拼音表,貌似是所有的拼音组合,字典序
# 格式为(index,len,pinyin)的列表
# index: 两个字节的整数 代表这个拼音的索引
# len: 两个字节的整数 拼音的字节长度
# pinyin: 当前的拼音,每个字符两个字节,总长len
#
# .汉语词组表
# 格式为(same,py_table_len,py_table,{word_len,word,ext_len,ext})的一个列表
# same: 两个字节 整数 同音词数量
# py_table_len: 两个字节 整数
# py_table: 整数列表,每个整数两个字节,每个整数代表一个拼音的索引
#
# word_len:两个字节 整数 代表中文词组字节数长度
# word: 中文词组,每个中文汉字两个字节,总长度word_len
# ext_len: 两个字节 整数 代表扩展信息的长度,好像都是10
# ext: 扩展信息 前两个字节是一个整数(不知道是不是词频) 后八个字节全是0
#
# {word_len,word,ext_len,ext} 一共重复same次 同音词 相同拼音表 # 拼音表偏移,
startPy = 0x1540; # 汉语词组表偏移
startChinese = 0x2628; # 全局拼音表 GPy_Table = {} # 解析结果
# 元组(词频,拼音,中文词组)的列表
GTable = [] def byte2str(data):
'''''将原始字节码转为字符串'''
i = ;
length = len(data)
ret = u''
while i < length:
x = data[i] + data[i + ]
t = unichr(struct.unpack('H', x)[])
if t == u'\r':
ret += u'\n'
elif t != u' ':
ret += t
i +=
return ret # 获取拼音表
def getPyTable(data):
if data[:] != "\x9D\x01\x00\x00":
return None
data = data[:]
pos =
length = len(data)
while pos < length:
index = struct.unpack('H', data[pos] + data[pos + ])[]
# print index,
pos +=
l = struct.unpack('H', data[pos] + data[pos + ])[]
# print l,
pos +=
py = byte2str(data[pos:pos + l])
# print py
GPy_Table[index] = py
pos += l # 获取一个词组的拼音 def getWordPy(data):
pos =
length = len(data)
ret = u''
while pos < length:
index = struct.unpack('H', data[pos] + data[pos + ])[]
ret += GPy_Table[index]
pos +=
return ret # 获取一个词组
def getWord(data):
pos =
length = len(data)
ret = u''
while pos < length:
index = struct.unpack('H', data[pos] + data[pos + ])[]
ret += GPy_Table[index]
pos +=
return ret # 读取中文表
def getChinese(data):
# import pdb
# pdb.set_trace() pos =
length = len(data)
while pos < length:
# 同音词数量
same = struct.unpack('H', data[pos] + data[pos + ])[]
# print '[same]:',same, # 拼音索引表长度
pos +=
py_table_len = struct.unpack('H', data[pos] + data[pos + ])[]
# 拼音索引表
pos +=
py = getWordPy(data[pos: pos + py_table_len]) # 中文词组
pos += py_table_len
for i in xrange(same):
# 中文词组长度
c_len = struct.unpack('H', data[pos] + data[pos + ])[]
# 中文词组
pos +=
word = byte2str(data[pos: pos + c_len])
# 扩展数据长度
pos += c_len
ext_len = struct.unpack('H', data[pos] + data[pos + ])[]
# 词频
pos +=
count = struct.unpack('H', data[pos] + data[pos + ])[] # 保存
GTable.append((count, py, word)) # 到下个词的偏移位置
pos += ext_len def deal(file_name):
print '-' *
f = open(file_name, 'rb')
data = f.read()
f.close() if data[:] != "\x40\x15\x00\x00\x44\x43\x53\x01\x01\x00\x00\x00":
print "确认你选择的是搜狗(.scel)词库?"
sys.exit()
# pdb.set_trace() print "词库名:", byte2str(data[0x130:0x338]) # .encode('GB18030')
print "词库类型:", byte2str(data[0x338:0x540]) # .encode('GB18030')
print "描述信息:", byte2str(data[0x540:0xd40]) # .encode('GB18030')
print "词库示例:", byte2str(data[0xd40:startPy]) # .encode('GB18030') getPyTable(data[startPy:startChinese])
getChinese(data[startChinese:]) if __name__ == '__main__': # 将要转换的词库添加在这里就可以了
#o = [u'明星【官方推荐】.scel',]C:\Users\samsung\Desktop\文本分类资料\生活\理财_65\博彩类_7彩票词汇大全.scel
o =[u"北方民族大学.scel"] for f in o:
deal(f) # 保存结果
f = open('8.txt', 'w')
for word in GTable:
# GTable保存着结果,是一个列表,每个元素是一个元组(词频,拼音,中文词组),有需要的话可以保存成自己需要个格式
# 我没排序,所以结果是按照上面输入文件的顺序
#f.write(unicode(word).encode('GB18030')) # 最终保存文件的编码,可以自给改
f.write(word[])
f.write('\n')
f.close()

搜狗词库转txt的更多相关文章

  1. 将搜狗词库.scel格式转化为.txt格式

    由于项目中要用到词库,而下载的搜狗词库是.scel格式,所以就用python脚本将搜狗词库.scel格式文件转化为.txt格式文件. #!/bin/python # -*- coding: utf-8 ...

  2. (转载)Windows下小狼毫输入法(Rime)的安装与配置(含导入搜狗词库)

    div id="cnblogs_post_body" class="blogpost-body"> 最近彻底烦透了搜狗拼音输入法的各种流氓行为,自动升级不 ...

  3. CentOS安装搜狗词库

    中文输入使用ibus-pinyin. 在ibus-pinyin里使用搜狗词库 # wget http://hslinuxextra.googlecode.com/files/sougou-phrase ...

  4. Fcitx使用搜狗词库与皮肤

    在 \(\text{Linux}\) 环境下,\(\text{Fcitx}\) 确实是最好用的开源输入法之一.然而 \(\text{Windows}\) 下的巨头输入法 -- 搜狗,对 \(\text ...

  5. Elementary OS 使用fcitx安装搜狗词库、搜狗输入法(Linux通用)

    刚开始接触Linux的小伙伴可能比较懵逼,我要使用ibus输入法还是fcitx(小企鹅)输入法,其实这两种都不能说是输入法,Linux中输入法的使用是依赖于输入法框架的,其中搜狗输入法和百度输入法都是 ...

  6. 将搜狗词库(.scel格式)转化为txt格式

    参考:http://blog.csdn.net/zhangzhenhu/article/details/7014271 #!/usr/bin/python # -*- coding: utf-8 -* ...

  7. 使用Java将搜狗词库文件(文件后缀为.scel)转为.txt文件

    要做一个根据词库进行筛选主要词汇的功能,去搜狗下载专业词汇词库时,发现是.scel文件,且通过转换工具(http://tools.bugscaner.com/sceltotxt/)转换为txt时报错如 ...

  8. 解析搜狗词库(python)

    #!/usr/bin/python # -*- coding: utf-8 -*- import struct import sys import binascii import pdb #搜狗的sc ...

  9. 中州韵输入法(rime)导入搜狗词库

    rime是一个非常优秀的输入法,linux平台下的反应速度远超搜狗,也没有隐私风险.2012年开始接触它,到后来抛弃了它,因为rime自带的词库真的太弱了,也懒得折腾.最近发现一个词库转换软件叫ime ...

随机推荐

  1. 08: mysql主从原理

    1.1 mysql主从同步   参考博客:https://www.cnblogs.com/kevingrace/p/6256603.html 1.mysql主从同步(复制)概念 1. 将Mysql某一 ...

  2. P-残缺的棋盘

    Input 输入包含不超过10000 组数据.每组数据包含6个整数r1, c1, r2, c2, r3, c3 (1<=r1, c1, r2, c2, r3, c3<=8). 三个格子A, ...

  3. CVE-2016-8655,af_packet Linux 內核通殺提權漏洞淺析

    簡單寫一下思路 這個東西需要namespace方面的支援, 首先open socket , 一連串路徑(packet_set_ring()->init_prb_bdqc()->prb_se ...

  4. Node.js+koa2

    const Koa = require('koa') const app = new Koa() const bodyParser = require('koa-bodyparser') app.us ...

  5. 03.AutoMapper 之反向映射与逆向扁平化(Reverse Mapping and Unflattening)

    https://www.jianshu.com/p/d72400b337e0 AutoMapper现在支持更丰富的反向映射支持. 假设有以下实体: public class Order { publi ...

  6. arcgis server10.2发布地图服务报错

    发布地图服务时,读取了本机电脑中的切片方案.发布服务,报打包成功,但发布失败错误. 解决办法:给arcgis账户,赋予读写权限即可.重复发布服务,成功发布.

  7. 第一次整合ssm环境后,对请求流程的理解 ,以及一些配置(有错就更新)

    工程结构图: 显示层(handler/controller): request请求到springmvc的前端控制器,从处理器映射器找相应的handler(用@RequestMapping(" ...

  8. Mongo --01 介绍、安装、优化报警

    目录 一 . NoSQL 介绍 二.MongoDB简介 三.MongoDB特点 四. mongo应用场景 五. 安装配置mongodb 六.优化报警 一 . NoSQL 介绍 NoSQL,指的是非关系 ...

  9. 035-OpenStack 关闭安全组

    OpenStack Neutron的安全组默认会对每个网口开启MAC/IP过滤功能(防arp欺骗),不是该网口的MAC/IP发出的包会被宿主机丢弃.这种限制会导致vNF的上行网口转发的数据包被丢弃,无 ...

  10. Beta冲刺-(2/3)

    这个作业属于哪个课程 https://edu.cnblogs.com/campus/xnsy/SoftwareEngineeringClass1/ 这个作业要求在哪里 https://edu.cnbl ...