ps:一个从csdn迁移到hexo等静态博客的java程序

github:https://github.com/dataiyangu/csdn2hexo

我的个人博客:https://mmmmmm.me

博客源码:https://github.com/dataiyangu/dataiyangu.github.io

功能

概述:利用爬虫爬取指定用户的CSDN博客文章转为md格式,目的是完成博客迁移

爬取的方式:

  1. 1 默认轮询从第一页开始往后
  2. 2 专栏方式
  3. 3 指定某篇文章
  4. 4 指定页数
  5. 5 分类

设置生成的md文件命名规则:

  1. 可选值:date title date根据日期命名,title根据文章名命名

设置md文件的头部信息

title=

author=

tags=

categories=

是否显示csdn中的锚点"文章目录"字样,以及下面具体的锚点 默认false(因为csdn中是集成了[toc]功能的,hexo并没有集成)

anchor=false

是否开启版权声明 默认false(csdn文章头部有我们自定的版权声明,false即为去掉。)

copyright=false

工具

html2markdown

Jsoup

提示

  • 运行过程中可能出现异常(小概率): 因为csdn有反爬虫机制,如果迁移过程中出现”应该是被反爬虫了,换个wifi或者网络试试~~~~~~~~~~~~~~~~~~~~~~~ “,那你就照着我打的这个日志去做吧,哈哈
  • 运行./start.sh 之前需要给这个脚本赋予权限,执行 chmod 777 ./start.shg
  • 需要jdk1.8

用法:

方式一:

git clone 到本地,进入target目录,修改config.properties中的某些配置(视自己情况而修改)

运行

  1. java -jar csdn2hexo-1.0-SNAPSHOT.jar

方式二:

git clone 到本地,进入target目录,修改config.properties中的某些配置(视自己情况而修改)

运行 ./start.sh a,b,c 1,2,3 articleName tips:这里的a,b,c 是hexo标签,逗号隔开 1,2,3是hexo分类,逗号隔开 articleName是文章标题,不写的话默认标题是csdn的文章标题。这三个参数如果不写的话默认是配置文件中的内容

方式三:

git clone 到本地,通过idea import本project,

修改src/main/resource目录中的config.properties文件(视自己情况而修改)

修改读取配置文件的路径:找到com.github.csccoder.csdn2md.util.PropertiesUtil

  1. package com.github.csccoder.csdn2md.util;
  2. public class PropertiesUtil {
  3. public static String getProperties(String key){
  4. String value = null;
  5. try {
  6. Properties pp = new Properties();
  7. //通过idea运行程序
  8. InputStream inputStream = Main.class.getClassLoader().getResourceAsStream("config.properties");
  9. //通过java -jar 或者 ./start.sh运行程序
  10. //String filePath = System.getProperty("user.dir")+ "/config.properties";
  11. //InputStream inputStream = new BufferedInputStream(new FileInputStream(filePath));
  12. pp.load(inputStream);
  13. value= (String) pp.get(key);
  14. return value;
  15. } catch (IOException e) {
  16. e.printStackTrace();
  17. return value;
  18. }
  19. }
  20. }

找到 Main 这个类运行即可

展示

运行命令:

文件夹产生

将文件夹中_posts和images文件中的内容拷贝到自己博客对应的位置

本地启动hexo博客测试

查看效果

查看头部信息

查看头部信息显示效果



配置文件信息展示

  1. # md文章头部配置
  2. #分类和标签逗号隔开
  3. title=
  4. author=Leesin.Dong
  5. tags=a,b,c
  6. categories=a,b,c
  7. # 文件命名规则 可选值:date title ,date根据日期命名,title根据文章名命名
  8. MdFileName_type=date
  9. # csdn host 这里如果没有自定义域名的话不用改
  10. csdn_host=https://blog.csdn.net
  11. # csdn用户名
  12. casn_name=dataiyangu
  13. # 文件保存的绝对路径,即img html post这三个文件夹的父文件夹
  14. file_Path=/Users/leesin/Desktop/hexo_blog_md
  15. # 设置下载的文件夹名字
  16. html_path=html
  17. image_path=images
  18. md_path=_posts
  19. # 设置下载的方式,默认是从第一页往后不断的下载的
  20. #可选的方式:
  21. # 1 默认轮询从第一页开始往后
  22. # 2 专栏方式
  23. # 3 指定某篇文章
  24. # 4 指定页数
  25. # 5 分类
  26. url_way=2
  27. # 具体的五种抓取方法的地址填写(视自己情况而定)
  28. # 比如 我的: https://blog.csdn.net/dataiyangu/article/category/8118370
  29. # 下面的几种情况只写 https://blog.csdn.net/dataiyangu 后面的内容即可,后面写什么自己手动点到相应的页面粘贴过来就行了
  30. url_way_1=/article/list/
  31. url_way_2=/column/info/32118
  32. url_way_3=/article/details/88525801
  33. url_way_4=/article/list/2
  34. url_way_5=/article/category/8118370
  35. #是否显示csdn中的锚点"文章目录"字样,以及下面具体的锚点 默认false
  36. anchor=false
  37. #是否开启版权声明 默认false
  38. copyright=false

利用爬虫爬取指定用户的CSDN博客文章转为md格式,目的是完成博客迁移博文到Hexo等静态博客的更多相关文章

  1. 微博API怎么爬取其它未授权用户的微博/怎么爬取指定用户公布的微博

    获取某个用户最新发表的微博列表:http://open.weibo.com/wiki/2/statuses/user_timeline 原接口已经被封.很多人都在问怎么获取指定用户的微博,于是写这篇B ...

  2. 利用爬虫爬取LOL官网上皮肤图片

    今天在浏览网页时,看到一篇很有意思的文章,关于网络爬虫的.该文章是讲述如何利用request爬取英雄联盟官网皮肤图片.看过文章后觉得挺有用的,把代码拿过来运行了一下,果真爬取成功.下面给大家分享一下代 ...

  3. 利用Python爬虫爬取指定天猫店铺全店商品信息

    本编博客是关于爬取天猫店铺中指定店铺的所有商品基础信息的爬虫,爬虫运行只需要输入相应店铺的域名名称即可,信息将以csv表格的形式保存,可以单店爬取也可以增加一个循环进行同时爬取. 源码展示 首先还是完 ...

  4. 一个简单的定向python爬虫爬取指定页面的jpg图片

    import requests as r import re resul=r.get("http://www.imooc.com/course/list") urlinfo=re. ...

  5. 利用python爬取海量疾病名称百度搜索词条目数的爬虫实现

    实验原因: 目前有一个医疗百科检索项目,该项目中对关键词进行检索后,返回的结果很多,可惜结果的排序很不好,影响用户体验.简单来说,搜索出来的所有符合疾病中,有可能是最不常见的疾病是排在第一个的,而最有 ...

  6. 利用Scrapy爬取所有知乎用户详细信息并存至MongoDB

    欢迎大家关注腾讯云技术社区-博客园官方主页,我们将持续在博客园为大家推荐技术精品文章哦~ 作者 :崔庆才 本节分享一下爬取知乎用户所有用户信息的 Scrapy 爬虫实战. 本节目标 本节要实现的内容有 ...

  7. 利用Python网络爬虫爬取学校官网十条标题

    利用Python网络爬虫爬取学校官网十条标题 案例代码: # __author : "J" # date : 2018-03-06 # 导入需要用到的库文件 import urll ...

  8. 如何利用Python网络爬虫爬取微信朋友圈动态--附代码(下)

    前天给大家分享了如何利用Python网络爬虫爬取微信朋友圈数据的上篇(理论篇),今天给大家分享一下代码实现(实战篇),接着上篇往下继续深入. 一.代码实现 1.修改Scrapy项目中的items.py ...

  9. Python爬虫之利用BeautifulSoup爬取豆瓣小说(一)——设置代理IP

    自己写了一个爬虫爬取豆瓣小说,后来为了应对请求不到数据,增加了请求的头部信息headers,为了应对豆瓣服务器的反爬虫机制:防止请求频率过快而造成“403 forbidden”,乃至封禁本机ip的情况 ...

随机推荐

  1. 声明式语法重写基于容器CICD构建流水线

    调试了一下午,一句话都不想说了,看代码. ----- 参考文档 https://blog.csdn.net/weixin_42010394/article/details/90670945 实践代码 ...

  2. python自动化之函数封装

    函数最重要的目的是方便我们重复使用相同的一段程序. 将一些操作隶属于一个函数,以后你想实现相同的操作的时候,只用调用函数名就可以,而不需要重复敲所有的语句. 前面一些记录了selenium的各种API ...

  3. 70、saleforce的Json输出

    List<Merchandise__c> merchandise = [select Id,Name,Price__c,Quantity__c from Merchandise__c li ...

  4. vue消息提示Message

    https://www.iviewui.com/components/message this.$Message.info(config) this.$Message.success(config) ...

  5. 在使用 Eclisp 生成 实体(sql Server) 出现错误 :Unable to locate JAR/zip in file system as specified by the driver definition: sqljdbc.jar.

    错误: 解决方法: 第一步:点击 JAR List 第二步:  点击  Remove  JAR/ZIP 第三步: 再添加一下 sqljdbc.jar

  6. java入门经验分享——记面向对象先导课程学习感想

    选择在暑期学习面向对象先导课程的初衷是为大二下学期面向对象课程做一些铺垫,接触入门java语言.在接触java的过程中,就编程语言的学习方法而言,我从刚入学时的手慌脚乱四处寻求帮助到现在慢慢养成了自己 ...

  7. jmeter 不同线程组之间传递变量1

    一 采用全局变量在不同线程组之间传递变量的坑 ${__setProperty(newcompanyId,${companyId},)}; 不采用全局变量传递参数,请求报文格式如下: 正确的报文: {& ...

  8. ng-repeat如何限制循环次数

    如果items 里有20条数据,如果你要循环 items, 只想循环5条 你可以这么做:   ng-repeat="item in items|limitTo:5"

  9. 進階gdb之core dump的除錯

    core dump的除錯 Basic Perl等語言處理的可以說是User的資料, C可以說在那邊把資料在記憶體移來移去, 組語可說把資料在暫存器搬來搬去, 越低階的處理表示握有的資源越少 所以C處理 ...

  10. Java技术专区-虚拟机系列-堆快照(获取)

    1.JVM-堆快照(Snapshot) 1.1 输出方式-获取hprof文件 启动参数配置OOM时触发打印堆快照 (1)tomcat启动方式添加参数 (添加环境变量) export JAVA_OPTS ...