要做一个根据词库进行筛选主要词汇的功能,去搜狗下载专业词汇词库时,发现是.scel文件,且通过转换工具(http://tools.bugscaner.com/sceltotxt/)转换为txt时报错如下,只能通过Java程序来转换了。

核心代码如下,涉及到四个类:FileProcessing、SougouScelFileProcessing、SougouScelModel、TxtFileProcessing

文件FileProcessing .java

package cn.ucmed.impl;

import java.io.File;
import java.io.IOException; public abstract class FileProcessing {
protected String targetDir; /**
* 解析单个文件
*
* @param filePath 要解析的源文件路径
* @param targetFilePath 解析后的文件路径
* @param isAppend 是否为内容追加,不追加则会覆盖内容
*/
public abstract void parseFile(String filePath, String targetFilePath, boolean isAppend); /**
* 合并解析多个文件
*
* @param fileDirPath 要解析的源文件夹路径
* @param targetFilePath 解析后的文件路径
* @param isAppend 是否为内容追加,不追加则会覆盖内容
* @throws IOException
*/
public abstract void parseFiles(String fileDirPath, String targetFilePath, boolean isAppend) throws IOException; /**
* 解析单个或者多个文件,如果是多个文件则生成对应的txt文件,{@link #setTargetDir(String)},
* 如果targetDir不设置,则在当前文件夹下生成相应的txt文件
*
* @param filePath 源文件路径
* @param isAppend false:覆盖内容 true:附加内容
*/
public abstract void parseFile(String filePath, boolean isAppend); /**
* 创建文件夹
*
* @param targetFilePath 目标文件
* @return
*/
protected void createParentDir(String targetFilePath) {
if (!targetFilePath.endsWith(".txt")) {
throw new IllegalStateException("文件格式错误,后缀必须为.txt,此格式为 " + targetFilePath);
}
String path = targetFilePath.substring(0, targetFilePath.lastIndexOf("/") + 1);
File file = new File(path);
if (!file.exists()) {
file.mkdirs();
}
} /**
* 解析单个文件
*
* @param filePath 文件路径
*/
public void parseFile(String filePath) {
parseFile(filePath, false);
} public String getTargetDir() {
return targetDir;
} /**
* 解析后的txt文件存放路径
*
* @param targetDir 文件夹路径
*/
public void setTargetDir(String targetDir) {
this.targetDir = targetDir;
}
}
SougouScelFileProcessing.java
package cn.ucmed.impl;

import lombok.extern.slf4j.Slf4j;

import java.io.*;
import java.util.*; @Slf4j
public class SougouScelFileProcessing extends FileProcessing {
protected static String encoding = "UTF-16LE";
protected ByteArrayOutputStream output = new ByteArrayOutputStream(); /**
* 解析单个或者多个文件,如果是多个文件则生成对应的txt文件,{@link #setTargetDir(String)},
* 如果targetDir不设置,则在当前文件夹下生成相应的txt文件
*
* @param filePath 源文件路径
* @param isAppend false:覆盖内容 true:附加内容
*/
@Override
public void parseFile(String filePath, boolean isAppend) {
File file = new File(filePath);
if (file.isDirectory()) {
File items[] = file.listFiles();
for (int i = 0; i < items.length; i++) {
if (!items[i].getName().endsWith(".scel")) {
continue;
} if (targetDir == null) {
parseFile(items[i].getAbsolutePath(), items[i].getAbsolutePath().replace(".scel", ".txt"),
isAppend);
} else {
parseFile(items[i].getAbsolutePath(), targetDir + "/" + items[i].getName().replace(".scel", ".txt"),
isAppend);
} }
} else {
parseFile(filePath, file.getAbsolutePath().replace(".scel", ".txt"), isAppend);
} } /**
* 解析单个scel文件
*
* @param filePath 源文件路径
* @param targetFilePath
* @param isAppend false:覆盖内容 true:附加内容
*/
@Override
public void parseFile(String filePath, String targetFilePath, boolean isAppend) {
if (!targetFilePath.endsWith(".txt")) {
throw new IllegalStateException("文件格式错误,后缀必须为.txt,此格式为 " + targetFilePath);
}
if (!filePath.endsWith(".scel")) {
return;
}
File input = new File(filePath);
if (input.length() < 8) {
// 假如文件小于8字节,不去考虑它
return;
}
FileInputStream in = null;
SougouScelModel model = null;
try {
in = new FileInputStream(input);
model = read(in);
if (model == null) {
return;
}
writeToTargetFile(model, targetFilePath, isAppend);
} catch (IOException e) {
log.info(e.getMessage());
e.printStackTrace();
} } /**
* 解析多个文件夹,将解析后的内容放到一个文件里
*
* @param fileDirPath 源文件夹路径
* @param targetFilePath 目标文件路径
* @param isAppend false:覆盖内容 true:附加内容
* @throws FileNotFoundException
*/
@Override
public void parseFiles(String fileDirPath, String targetFilePath, boolean isAppend) throws IOException {
if (!targetFilePath.endsWith(".txt")) {
throw new IllegalStateException("文件格式错误,后缀必须为.txt,此格式为 " + targetFilePath);
}
File dir = new File(fileDirPath);
if (!dir.exists() || !dir.isDirectory()) {
throw new IllegalStateException("scel文件夹路径错误 " + targetFilePath);
}
File scels[] = dir.listFiles();
ArrayList<SougouScelModel> models = new ArrayList<>();
for (int i = 0; i < scels.length; i++) {
if (!scels[i].getName().endsWith(".scel")) {
continue;
}
FileInputStream in = null;
SougouScelModel model = null;
in = new FileInputStream(scels[i]);
model = read(in);
if (model != null) {
models.add(model);
}
}
writeToTargetFile(models, targetFilePath, isAppend);
} private void writeToTargetFile(SougouScelModel model, String targetFilePath, boolean isAppend) throws IOException {
List<SougouScelModel> models = new ArrayList<>();
models.add(model);
writeToTargetFile(models, targetFilePath, isAppend); } /**
* 将搜狗scel文件解析后的内容写入txt文件
*
* @param models
* @param targetFilePath
* @param isAppend
* @throws IOException
*/
private void writeToTargetFile(List<SougouScelModel> models, String targetFilePath, boolean isAppend)
throws IOException {
createParentDir(targetFilePath);
FileOutputStream out = new FileOutputStream(targetFilePath, isAppend);
int count = 0;
for (int k = 0; k < models.size(); k++) {
// 词<拼音,词>
Map<String, List<String>> words = models.get(k).getWordMap();
Set<Map.Entry<String, List<String>>> set = words.entrySet();
Iterator<Map.Entry<String, List<String>>> iter = set.iterator();
if (isAppend) {
out.write("\r\n".getBytes());
}
while (iter.hasNext()) {
Map.Entry<String, List<String>> entry = iter.next();
List<String> list = entry.getValue(); int size = list.size();
for (int i = 0; i < size; i++) {
String word = list.get(i);
out.write((entry.getKey() + " ").getBytes());
// 写入txt文件
out.write((word + "\n").getBytes());
count++; }
} }
out.close();
log.info("生成" + targetFilePath.substring(targetFilePath.lastIndexOf("/") + 1) + "成功!,总计写入: " + count + " 条数据!"); } private SougouScelModel read(InputStream in) {
SougouScelModel model = new SougouScelModel();
DataInputStream input = new DataInputStream(in);
int read;
try {
byte[] bytes = new byte[4];
input.readFully(bytes);
assert (bytes[0] == 0x40 && bytes[1] == 0x15 && bytes[2] == 0 && bytes[3] == 0);
input.readFully(bytes);
int flag1 = bytes[0];
assert (bytes[1] == 0x43 && bytes[2] == 0x53 && bytes[3] == 0x01);
int[] reads = new int[]{8};
model.setName(readString(input, 0x130, reads));
model.setType(readString(input, 0x338, reads));
model.setDescription(readString(input, 0x540, reads));
model.setSample(readString(input, 0xd40, reads));
read = reads[0];
input.skip(0x1540 - read);
read = 0x1540;
input.readFully(bytes);
read += 4;
assert (bytes[0] == (byte) 0x9D && bytes[1] == 0x01 && bytes[2] == 0 && bytes[3] == 0);
bytes = new byte[128];
Map<Integer, String> pyMap = new LinkedHashMap<Integer, String>();
while (true) {
int mark = readUnsignedShort(input);
int size = input.readUnsignedByte();
input.skip(1);
read += 4;
assert (size > 0 && (size % 2) == 0);
input.readFully(bytes, 0, size);
read += size;
String py = new String(bytes, 0, size, encoding);
pyMap.put(mark, py);
if ("zuo".equals(py)) {
break;
}
}
if (flag1 == 0x44) {
input.skip(0x2628 - read);
} else if (flag1 == 0x45) {
input.skip(0x26C4 - read);
} else {
throw new RuntimeException("出现意外,联系作者");
}
StringBuffer buffer = new StringBuffer();
Map<String, List<String>> wordMap = new LinkedHashMap<String, List<String>>();
while (true) {
int size = readUnsignedShort(input);
if (size < 0) {
break;
}
int count = readUnsignedShort(input);
int len = count / 2;
assert (len * 2 == count);
buffer.setLength(0);
for (int i = 0; i < len; i++) {
int key = readUnsignedShort(input);
buffer.append(pyMap.get(key)).append("'");
}
buffer.setLength(buffer.length() - 1);
String py = buffer.toString();
List<String> list = wordMap.get(py);
if (list == null) {
list = new ArrayList<String>();
wordMap.put(py, list);
}
for (int i = 0; i < size; i++) {
count = readUnsignedShort(input);
if (count > bytes.length) {
bytes = new byte[count];
}
input.readFully(bytes, 0, count);
String word = new String(bytes, 0, count, encoding);
// 接下来12个字节可能是词频或者类似信息
input.skip(12);
list.add(word);
}
}
model.setWordMap(wordMap);
return model;
} catch (IOException e) {
log.info(e.getMessage());
e.printStackTrace();
} finally {
try {
in.close();
} catch (IOException e) {
e.printStackTrace();
}
}
return null;
} protected String readString(DataInputStream input, int pos, int[] reads) throws IOException {
int read = reads[0];
input.skip(pos - read);
read = pos;
output.reset();
while (true) {
int c1 = input.read();
int c2 = input.read();
read += 2;
if (c1 == 0 && c2 == 0) {
break;
} else {
output.write(c1);
output.write(c2);
}
}
reads[0] = read;
return new String(output.toByteArray(), encoding);
} protected final int readUnsignedShort(InputStream in) throws IOException {
int ch1 = in.read();
int ch2 = in.read();
if ((ch1 | ch2) < 0) {
return Integer.MIN_VALUE;
}
return (ch2 << 8) + (ch1 << 0);
}
}
SougouScelModel.java
package cn.ucmed.impl;

import lombok.Data;
import lombok.ToString; import java.util.List;
import java.util.Map; @Data
@ToString
public class SougouScelModel {
private Map<String, List<String>> wordMap;
private String name;
private String type;
private String description;
private String sample;
}
TxtFileProcessing.java
package cn.ucmed.impl;

import lombok.extern.slf4j.Slf4j;

import java.io.*;
import java.util.ArrayList;
import java.util.HashSet;
import java.util.List; @Slf4j
public class TxtFileProcessing extends FileProcessing { // 文字编码
private String encoding = "UTF-8"; @Override
public void parseFile(String filePath, String targetFilePath, boolean isAppend) {
if (!targetFilePath.endsWith(".txt")) {
throw new IllegalStateException("文件格式错误,后缀必须为.txt,此格式为 " + targetFilePath);
}
if (!filePath.endsWith(".txt")) {
return;
}
File inputFile = new File(filePath);
if (!inputFile.exists()) {
log.info(filePath + " 文件不存在");
} else {
ArrayList<String> content = new ArrayList<>();
HashSet<String> set = new HashSet<>();
createParentDir(targetFilePath);
File outputFile = new File(targetFilePath);
if (!isAppend) {
// 假如不是附加内容,删除
if (outputFile.exists()) {
log.info(outputFile.getAbsolutePath() + " 文件存在,删除...");
outputFile.delete();
}
} else {
// 读取原有的txt文件内容
content.addAll(readTargetFile(outputFile));
}
content.addAll(readSourceFile(inputFile));
// 去重
for (int i = 0; i < content.size(); i++) {
set.add(content.get(i));
}
// 写入目标文件
writeToTargetFile(set, outputFile); } } @Override
public void parseFile(String filePath, boolean isAppend) {
File file = new File(filePath);
if (file.isDirectory()) {
File items[] = file.listFiles();
for (int i = 0; i < items.length; i++) {
if (!items[i].getName().endsWith(".txt")) {
continue;
} if (targetDir == null) {
parseFile(items[i].getAbsolutePath(), items[i].getAbsolutePath().replace(".txt", "解析.txt"),
isAppend);
} else {
parseFile(items[i].getAbsolutePath(), targetDir + "/" + items[i].getName(),
isAppend);
} }
} else {
parseFile(filePath, file.getAbsolutePath().replace(".txt", "解析.txt"), isAppend);
}
} @Override
public void parseFiles(String fileDirPath, String targetFilePath, boolean isAppend) throws IOException {
if (!targetFilePath.endsWith(".txt")) {
throw new IllegalStateException("文件格式错误,后缀必须为.txt,此格式为 " + targetFilePath);
}
File fileDir = new File(fileDirPath);
if (!fileDir.isDirectory() || !fileDir.exists()) {
throw new IllegalStateException("文件夹路径错误 " + targetFilePath);
}
File file[] = fileDir.listFiles();
ArrayList<String> content = new ArrayList<>();
HashSet<String> set = new HashSet<>();
createParentDir(targetFilePath);
File outputFile = new File(targetFilePath);
if (!isAppend) {
// 假如不是附加内容,删除
if (outputFile.exists()) {
log.info(outputFile.getAbsolutePath() + " 文件存在,删除...");
outputFile.delete();
}
} else {
// 读取原有的txt文件内容
content.addAll(readSourceFile(outputFile));
}
for (int i = 0; i < file.length; i++) {
if (file[i].getName().endsWith(".txt")) {
content.addAll(readSourceFile(file[i]));
}
}
// 去重
for (int i = 0; i < content.size(); i++) {
set.add(content.get(i));
}
// 写入目标文件
writeToTargetFile(set, outputFile); } /**
* 将内容写入目标文件
*
* @param set 词库合集
* @param outputFile 目标文件
*/
private void writeToTargetFile(HashSet<String> set, File outputFile) {
StringBuffer buff = new StringBuffer();
for (String content : set) {
buff.append(content);
buff.append("\r\n");
}
String content = buff.toString(); FileOutputStream out = null;
try {
out = new FileOutputStream(outputFile);
out.write(content.getBytes()); } catch (IOException e) {
log.info(e.getMessage());
e.printStackTrace();
} finally {
try {
out.close();
} catch (IOException e) {
log.info(e.getMessage());
e.printStackTrace();
}
}
log.info("生成" + outputFile.getName() + "成功!,总计写入: " + set.size() + " 条数据!");
} /**
* 读取源文件,获取中文词库
*
* @param file 源文件
* @return 中文词库集合
*/
private List<String> readSourceFile(File file) {
ArrayList<String> content = new ArrayList<>();
try {
// 判断文件是否存在
if (file.isFile() && file.exists()) {
// 考虑到编码格式
InputStreamReader read = new InputStreamReader(new FileInputStream(file), encoding);
BufferedReader bufferedReader = new BufferedReader(read);
String lineTxt = null; while ((lineTxt = bufferedReader.readLine()) != null) {
String newStr = new String(lineTxt.getBytes("UTF-8"));
String split[] = newStr.split(" ");
for (int i = 0; i < split.length; i++) {
if (i % 2 == 0) {
// 拼音字母
} else {
// 中文词库
content.add(split[i]);
}
}
}
bufferedReader.close();
read.close();
} else {
log.info("找不到源文件 " + file.getAbsolutePath());
}
} catch (Exception e) {
log.info(e.getMessage());
e.printStackTrace();
}
return content; } /**
* 读取已解析好的的词库文件
*
* @param file 词库文件
* @return 词库内容
*/
private List<String> readTargetFile(File file) {
ArrayList<String> content = new ArrayList<>();
try {
// 判断文件是否存在
if (file.isFile() && file.exists()) {
// 考虑到编码格式
InputStreamReader read = new InputStreamReader(new FileInputStream(file), encoding);
BufferedReader bufferedReader = new BufferedReader(read);
String lineTxt = null; while ((lineTxt = bufferedReader.readLine()) != null) {
String newStr = new String(lineTxt.getBytes("UTF-8"));
if (!newStr.trim().isEmpty()) {
content.add(newStr);
}
}
bufferedReader.close();
read.close();
} else {
System.err.println("找不到目标文件 " + file.getAbsolutePath());
}
} catch (Exception e) {
log.info(e.getMessage());
e.printStackTrace();
}
return content;
}
}

测试用例:

public static void main(String[] args) {
//单个scel文件转化
FileProcessing scel = new SougouScelFileProcessing();
scel.parseFile("./resolver/src/main/java/cn/ucmed/constant/药品名称大全.scel", "./resolver/src/main/java/cn/ucmed/constant/药品名称大全.txt", true); //多个scel文件转化为一个txt (格式:拼音字母 词)
try {
scel.parseFiles("/Users/ST_iOS/Desktop/test/ciku", "/Users/ST_iOS/Desktop/test/ciku/txt/汇总.txt", false);
} catch (IOException e) {
e.printStackTrace();
}
//多个scel文件转化为多个txt文件, 转化后文件的存储位置
scel.setTargetDir("/Users/ST_iOS/Desktop/test/ciku/多对多");
scel.parseFile("/Users/ST_iOS/Desktop/test/ciku", false);
}

本文转自:https://blog.csdn.net/imhxl/article/details/52585968

使用Java将搜狗词库文件(文件后缀为.scel)转为.txt文件的更多相关文章

  1. 将搜狗词库.scel格式转化为.txt格式

    由于项目中要用到词库,而下载的搜狗词库是.scel格式,所以就用python脚本将搜狗词库.scel格式文件转化为.txt格式文件. #!/bin/python # -*- coding: utf-8 ...

  2. (转载)Windows下小狼毫输入法(Rime)的安装与配置(含导入搜狗词库)

    div id="cnblogs_post_body" class="blogpost-body"> 最近彻底烦透了搜狗拼音输入法的各种流氓行为,自动升级不 ...

  3. Fcitx使用搜狗词库与皮肤

    在 \(\text{Linux}\) 环境下,\(\text{Fcitx}\) 确实是最好用的开源输入法之一.然而 \(\text{Windows}\) 下的巨头输入法 -- 搜狗,对 \(\text ...

  4. Elementary OS 使用fcitx安装搜狗词库、搜狗输入法(Linux通用)

    刚开始接触Linux的小伙伴可能比较懵逼,我要使用ibus输入法还是fcitx(小企鹅)输入法,其实这两种都不能说是输入法,Linux中输入法的使用是依赖于输入法框架的,其中搜狗输入法和百度输入法都是 ...

  5. CentOS安装搜狗词库

    中文输入使用ibus-pinyin. 在ibus-pinyin里使用搜狗词库 # wget http://hslinuxextra.googlecode.com/files/sougou-phrase ...

  6. java算法面试题:编写一个程序,将a.txt文件中的单词与b.txt文件中的单词交替合并到c.txt文件中,a.txt文件中的单词用回车符分隔,b.txt文件中用回车或空格进行分隔。

    package com.swift; import java.io.BufferedReader; import java.io.BufferedWriter; import java.io.File ...

  7. 解析搜狗词库(python)

    #!/usr/bin/python # -*- coding: utf-8 -*- import struct import sys import binascii import pdb #搜狗的sc ...

  8. 搜狗词库转txt

    #环境需求 Python2 1 #!/bin/python # -*- coding: utf- -*- import struct import sys import binascii import ...

  9. 中州韵输入法(rime)导入搜狗词库

    rime是一个非常优秀的输入法,linux平台下的反应速度远超搜狗,也没有隐私风险.2012年开始接触它,到后来抛弃了它,因为rime自带的词库真的太弱了,也懒得折腾.最近发现一个词库转换软件叫ime ...

随机推荐

  1. RDD的转换操作,分三种:单value,双value交互,(k,v)对

    import org.apache.spark.rdd.RDDimport org.apache.spark.{Partitioner, SparkConf, SparkContext} object ...

  2. Linux : Nginx相关

    nginx安装参考链接: https://www.cnblogs.com/kaid/p/7640723.html 自定义编译目录: https://blog.csdn.net/ainuser/arti ...

  3. STM32 串口通信基础知识

    1.串口通信简介 通信接口的两种方式: 并行通信 -传输原理:数据各个位同时传输. -优点:速度快 -缺点:占用引脚资源多 串行通信 -传输原理:数据按位顺序传输. -优点:占用引脚资源少 -缺点:速 ...

  4. vb.net 多线程爬虫抓取免费代理IP

    Class Program Public Shared masterPorxyList As List(Of proxy) = New List(Of proxy)() Public Class pr ...

  5. js获取页面所有搜索条件

    <div class="search">        产品简码:@Html.TextBox("ProCode", "")    ...

  6. Go是如何生活在内存条里的【译】

    原文:A visual guide to Go Memory Allocator from scratch (Golang) 当我第一次开始试图了解 Go 的内存分配器时,觉得它真令人抓狂.所有的所有 ...

  7. ElasticSearch 查询索引

    GET iis_qr_2019-07/_search #查询iis_qr_2019-07索引下的所有日志 GET iis_qr_2019-07/_search?_source=c-ip,time #只 ...

  8. django--JWT认证

    目录 JWT认证 JWT简介 安装 djang-jwt开发 配置 手动签发jwt token 基于django_restframework-jwt的全局认证 全局启用 局部启用禁用:任何一个cbv类首 ...

  9. 架构师小跟班:推荐46个非常经典的Linux面试题

    大家都知道,做后端开发,做着做着就变成全栈了.一般服务器维护应该是运维的事情,但很多很多公司都是后端工程师在做.所以,基本的Linux系统维护也是后端工程师的必修课.问题一: 绝对路径用什么符号表示? ...

  10. JavaScript之二十三种设计模式

    23种JavaScript设计模式   原文链接:https://boostlog.io/@sonuton/23-javascript-design-patterns-5adb006847018500 ...