安装使用离线版本的维基百科(Wikipedia)
1 相关背景
平常大家在上网查询一些基本概念的时候常常会参考维基百科上面的资料,但是由于方校长研制的GFW(长城防火墙系统)强大的屏蔽功能,好多链接打开以后,不出意外会出现著名的“404NOT FOUND”,下载离线版的维基百科就可以轻松解决这个问题喽,而且维基百科中文版和英文版查询时都是十分的方便(下载维基数据库源文件可能稍微费时)。
我的计算机环境是windows 7.
2 需要下载的文件和软件
需要下载两个文件:WikiTaxi阅读检索工具和离线wikipedia的数据文件。
① 阅读检索工具wikiTaxi的下载链接:
② 离线版维基数据文件的下载地址:http://zh.wikipedia.org/wiki/Wikipedia:%E6%95%B0%E6%8D%AE%E5%BA%93%E4%B8%8B%E8%BD%BD
如下图所示 :
点击中文版下载处的链接,在一串以日期命名的列表中,选择最近的日期的链接,例如我选择的是20130712,点击进入,点击名称为:zhwiki-20130712-pages-articles.xml.bz2的文件进行下载。如图所示:
3 软件的安装使用
WikiTaxi是一个小巧的绿色免安装版的软件,下载以后解压缩就可以直接使用。
首先把wikiTaxi的压缩包(解压缩以后可以直接使用,无需安装)和离线版维基的数据库文件(此文件不需要解压缩)放到同一个文件加下,便于操作。如下图所示(图中的WikiTaxi已经解压缩):
然后打开WikiTaxi_1.3.0文件夹,如下图所示
这时,我们就可以开始导入离线维基百科数据库的工作了,
先新建一个文本文档“CH_Wiki.txt”(新建文本文档的名字可以随意命名为别的名称),把此文本文档的后缀名称改为“.taxi”(如上图所示,是改好后的效果)。
打开WikiTaxi_Importer.exe文件,①选择离线文件路径;②选择新建好的CH_Wiki.txt文件的路径,如下图所示:
路径选择好以后,直接点击Import Now! 按钮就可以了。
整个导入过程大概要十几分钟左右。
写入完成以后关掉这个小窗口,我们找到WikiTaxi,exe ,双击运行就可以查询。
程序运行效果图一:
效果图二:
注意:
1、英文版的wiki,安装使用方法是类似的,但是数据库文件较大在9G左右,请大家合理分配硬盘空间。
2、下载数据库源文件的时候一定要下载名称为“zhwiki-XXXXXXXX-pages-articles.xml.bz2”(其中XXXXXX为具体的时间),例如我下载的是“zhwiki-20130712-pages-articles.xml.bz2”,如果下载错误的数据库文件,会在用“WikiTaxi_Importer”写入的时候出现错误。
3、参考文章,一并表示感谢
③:WikiTaxi网站(官方网站)
安装使用离线版本的维基百科(Wikipedia)的更多相关文章
- JWPL工具处理维基百科wikipedia数据用于NLP
JWPL处理维基百科数据用于NLP 处理zhwiki JWPL是一个Wikipedia处理工具,主要功能是将Wikipedia dump的文件经过处理.优化导入mysql数据库,用于NLP过程.以下以 ...
- 搜索和浏览离线 Wikipedia 维基百科(中/英)数据工具
为什么使用离线维基百科?一是因为最近英文维基百科被封,无法访问:二是不受网络限制,使用方便,缺点是不能及时更新,可能会有不影响阅读的乱码. 目前,主要有两种工具用来搜索和浏览离线维基百科数据:Kiwi ...
- 使用JWPL (Java Wikipedia Library)操作维基百科数据
使用JWPL (Java Wikipedia Library)操作维基百科数据 1. JWPL介绍 JWPL(Java Wikipedia Library)是一个开源的访问wikipeida数据的Ja ...
- 110G离线维基百科数据免费拿
110G离线维基百科数据免费拿.. 资料获取方式,关注公总号RaoRao1994,查看往期精彩-所有文章,即可获取资源下载链接 更多资源获取,请关注公总号RaoRao1994
- wikipedia 维基百科 语料 获取 与 提取 处理 by python3.5
英文维基百科 https://dumps.wikimedia.org/enwiki/ 中文维基百科 https://dumps.wikimedia.org/zhwiki/ 全部语言的列表 https: ...
- 中英文维基百科语料上的Word2Vec实验
最近试了一下Word2Vec, GloVe 以及对应的python版本 gensim word2vec 和 python-glove,就有心在一个更大规模的语料上测试一下,自然而然维基百科的语料进入了 ...
- 学习笔记TF018:词向量、维基百科语料库训练词向量模型
词向量嵌入需要高效率处理大规模文本语料库.word2vec.简单方式,词送入独热编码(one-hot encoding)学习系统,长度为词汇表长度的向量,词语对应位置元素为1,其余元素为0.向量维数很 ...
- Windows下基于python3使用word2vec训练中文维基百科语料(一)
在进行自然语言处理之前,首先需要一个语料,这里选择维基百科中文语料,由于维基百科是 .xml.bz2文件,所以要将其转换成.txt文件,下面就是相关步骤: 步骤一:下载维基百科中文语料 https:/ ...
- 维基百科 MediaWiki API 解析
使用开放的 API 做一个自己的小项目,是一个很好的学习方法.但好像开放的 API 选择并不多.这里给大家多一个选择,简单介绍一下维基百科使用的 MediaWiki API. 简介 先简单介绍几个容易 ...
随机推荐
- laravel.url
通过php artisan route:list 可以看到当前应用的路由情况, 在前端页面中如果要修改一个实体,需要用到实体.update,涉及的uri为实体/{实体},所用的http方法为put. ...
- 深入浅出KNN算法
概述 K最近邻(kNN,k-NearestNeighbor)分类算法 所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表. kNN算法的核心思想是如果一个样本在特征 ...
- 146-PHP 使用<<<和HTML混编(二)
<?php $html=<<<HTM1 <title>PHP输出HTML代码</title> <body> <a href=#> ...
- 093-PHP数组比较
<?php $arra=array('hello','hi'); //定义多个数组 $arrb=array(1=>'hi',0=>'hello'); $arrc=array(1,2) ...
- HDU 4921 Map DFS+状态压缩+乘法计数
算最多十条链,能截取某前缀段,每种方案都可以算出一个权值,每种方案的概率都是总数分之一,问最后能构成的所有可能方案数. 对计数原理不太敏感,知道是DFS先把链求出来,但是想怎么统计方案的时候想了好久, ...
- 框架基础学习之--详解web+maven+spring+mybatis+struts框架文件夹作用
详解web+maven+spring+mybatis+struts框架文件夹作用 1.程序名 2.Mybatis,mybatis是数据持久层,就是和对象类有关系的东西 3.存放java文件,xml,p ...
- 前端第二篇---前端基础之CSS
前端第二篇---前端基础之CSS 目录 一.css介绍 二.css语法 三.css的几种引入方式 四.css选择器 五.css属性相关 六.盒子模型 拓展 一.css介绍 CSS(Cascading ...
- OpenPose 开源库安装
一.下载openpose下载openpose 使用Git直接下载openpose git clone https://github.com/CMU-Perceptual-Computing-Lab/o ...
- phi
给定 \(T\) 个正整数 \(n\) ,对于每个 \(n\) ,输出做小的 \(m\) ,使得 \(\phi (m)\ge n\). 思路1:搞个线性欧拉函数筛,后缀最大值,二分查找 思路2:直接求 ...
- 覆盖.project
<?xml version="1.0" encoding="UTF-8"?> <projectDescription> <name ...