记得n年前项目需要一个灵活的爬虫工具,就组织了一个小团队用Java实现了一个爬虫框架,可以根据目标网站的结构.地址和需要的内容,做简单的配置开发,即可实现特定网站的爬虫功能.因为要考虑到各种特殊情形,开发还耗了不少人力.后来发现了Python下有这个Scrapy工具,瞬间觉得之前做的事情都白费了.对于一个普通的网络爬虫功能,Scrapy完全胜任,并把很多复杂的编程都包装好了.本文会介绍如何Scrapy构建一个简单的网络爬虫. 一个基本的爬虫工具,它应该具备以下几个功能: 通过HTTP(S)请求,