Go语言 之捧腹网爬虫案例
package main import (
"fmt"
"net/http"
"os"
"regexp"
"strings"
) var urls = "https://www.pengfu.com/xiaohua_%d.html" func DoHttpGet(urls string) (str string) { //创建一个Client
client := &http.Client{} //使用指定的方法、网址和可选的主题创建并返回一个新的*Request
request, err := http.NewRequest("GET", urls, nil)
if err != nil {
fmt.Println(err)
}
//添加请求头
request.Header.Add("User-Agent", "Mozilla/5.0 (iPhone; CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko) Version/9.0 Mobile/13B143 Safari/601.1")
response, _ := client.Do(request) defer response.Body.Close()
buf := make([]byte, 1024*10)
for {
n, _ := response.Body.Read(buf)
if n == 0 {
break
}
str += string(buf[:n])
}
return
} func SaveDataToLocal(index int, c chan<- int) {
//网络请求
str := DoHttpGet(fmt.Sprintf(urls, index))
//正则匹配所有的网址
regex := regexp.MustCompile(`<h1 class="dp-b"><a href="(.*?)" target="_blank">`)
findResult := regex.FindAllStringSubmatch(str, -1) var writeStr []string
//便利当前页所有的网址
for _, data := range findResult {
fmt.Println(data[1])
//网络请求详情页面
s := DoHttpGet(data[1])
//正则匹配标题
titleRegex := regexp.MustCompile(`<h1>(.*)</h1>`)
titleResult := titleRegex.FindAllStringSubmatch(s, 1)
title := strings.TrimSpace(titleResult[0][1]) //正则匹配内容
contentRegex := regexp.MustCompile(`<div class="content-txt pt10">\s?\n?(.*)<a`)
contentResult := contentRegex.FindAllStringSubmatch(s, 1)
content := strings.TrimSpace(contentResult[0][1]) //将标题与内容存到切片
writeStr = append(writeStr, fmt.Sprintf(`{"title": "%s", "content" : "%s"}`, title, content))
}
//创建json文件
f, err := os.Create(fmt.Sprintf("./page/%d.json", index))
if err != nil {
fmt.Println(err)
}
defer f.Close()
//将数据写入文件
f.WriteString(strings.Join(writeStr, ",") + "\n") //通知主协程爬取完毕
c <- index
} func ToDoWork(start, end int) {
//创建通道:通知每页爬取完毕
c := make(chan int)
//每一页都创建一个协程
for i := start; i <= end; i++ {
//将每一页数据保存到文件中
go SaveDataToLocal(i, c)
} for i := start; i <= end; i++ {
//阻塞等待协程通知
fmt.Printf("第%d页爬取完成\n", <-c)
}
} func main() {
//输入开始页与结束页
var start, end int
fmt.Print("请输入开始页码:")
fmt.Scan(&start)
if start <= 0 {
fmt.Println("参数不正确,请输入大于0的数字")
return
}
fmt.Print("请输入结束页码:")
fmt.Scan(&end)
if start > end {
fmt.Println("参数不正确,结束页码必须大于开始页码")
} //逻辑处理函数
ToDoWork(start, end)
}
运行:

结果:
{"title": "都是二胎惹的祸", "content" : " 小区门口修车师傅生意特好。人实在,只要不换零件,常常不收钱或只收个块把钱辛苦钱。最近发现他心黑了,价钱明显上调,就连充个气也收1块钱。旁边书报亭大妈是知情人,: 唉,多担待一下吧!他家上个月二胎,一窝生了四个带把的。。。。"},{"title": "讨价还价", "content" : "去小卖部买烟,10块钱一盒的,给老板100,老板喜咪咪的看着我说:“我没零钱找你,就让我闺女陪你一晚抵账得了。”我一激动:“你老别介啊,我攒个私房钱出来偷偷买烟,真的很不容易啊!”老板:“怎么,你不愿意?要不然我去把我闺女叫出来!”我:“别!别!这钱你不用找了,千万别让您闺女知道我藏私房钱啊!”老板:“好女婿,只要你经常来买东西,我保证不说!哈哈哈”"},{"title": "猪没事就是涨价了", "content" : "前天和同事去逛超市,说好久没买肉吃了,于是去看猪肉,结果看到的最便宜的猪肉都要十八块多,同事当场惊呼:“猪怎么了,这是!”卖肉的师傅笑着说:“猪没事,就是涨价了。”"},{"title": "心宽", "content" : "刚才在QQ上有个还在上大学的姑娘突然跟我讲:“朋友介绍我去打工,今天晚上要到一个酒吧领舞,现在有点不敢去。”我:“有什么不敢去的?”姑娘:“刚才在小摊上只吃了碗牛肉面,怕到时候饿。”──姑娘,你心太宽了!"},{"title": "缺心眼", "content" : "昨天路过单位餐厅门口的金鱼池,正好看到一条小金鱼蹦到外边了,还在张嘴,就捡起来扔到池子里。回到家跟老婆聊天时随口说起,老婆抱怨着说,“我说你个缺心眼的,怎么不去向它要幢别墅呢!”"},{"title": "贵重物品", "content" : "下车时导游小姐说:“请带好您的贵重物品。”他拉着我的手说:“快走,贵重物品。”"},{"title": "镇静剂", "content" : "医生:“去给那位今天出院的病人注射一针镇静剂。”护士不解:“都可以出院了,还打镇静剂干嘛?”医生:“等下要结账,我怕他受不了!”"},{"title": "欢迎下次再来", "content" : "我一大学同学毕业后搞了一年营销,发奋考上公务员,分到民政局婚姻登记处。头天上班,一大早就来了对新人登记,那男的客气,给了一包烟和一包糖,同学很激动,麻利的办好手续,起身握手送别,很有礼貌地说了句:欢迎下次再来。"},{"title": "我们在睡觉", "content" : "公司一女同事中午外出吃饭。手机落公司,然后她老公一个劲的打电话,旁边一哥们吃完午睡,很是反感,在电话响起的第N回后,哥们很气愤的拿起电话,吼道:“我们在睡觉,你老打电话,烦不烦。”不一会儿办公室门口就出现了个男的。"},{"title": "不白之冤", "content" : "老先生已有60多岁,而头发胡须却都是黑的。朋友开玩笑地说:“如果用年龄为标准来衡量,您的头发胡须可说是抱冤受屈了!”老先生惊问何故,朋友答道:“它们蒙受了不白之冤呀。”"}
页数过多会比较慢,在第二次网络请求时可以创建协程解决,有代码优化的可以评论。
Go语言 之捧腹网爬虫案例的更多相关文章
- python3制作捧腹网段子页爬虫
0x01 春节闲着没事(是有多闲),就写了个简单的程序,来爬点笑话看,顺带记录下写程序的过程.第一次接触爬虫是看了这么一个帖子,一个逗逼,爬取煎蛋网上妹子的照片,简直不要太方便.于是乎就自己照猫画虎, ...
- Go语言之进阶篇爬捧腹网
1.爬捧腹网 网页规律: https://www.pengfu.com/xiaohua_1.html 下一页 +1 https://www.pengfu.com/xiaohua_2.html 主页 ...
- Android实战:手把手实现“捧腹网”APP(三)-----UI实现,逻辑实现
Android实战:手把手实现"捧腹网"APP(一)-–捧腹网网页分析.数据获取 Android实战:手把手实现"捧腹网"APP(二)-–捧腹APP原型设计.实 ...
- Android实战:手把手实现“捧腹网”APP(二)-----捧腹APP原型设计、实现框架选取
Android实战:手把手实现"捧腹网"APP(一)-–捧腹网网页分析.数据获取 Android实战:手把手实现"捧腹网"APP(二)-–捧腹APP原型设计.实 ...
- Android实战:手把手实现“捧腹网”APP(一)-----捧腹网网页分析、数据获取
Android实战:手把手实现"捧腹网"APP(一)-–捧腹网网页分析.数据获取 Android实战:手把手实现"捧腹网"APP(二)-–捧腹APP原型设计.实 ...
- py3+urllib+re,爬虫下载捧腹网图片
实现原理及思路请参考我的另外几篇爬虫实践博客 py3+urllib+bs4+反爬,20+行代码教你爬取豆瓣妹子图:http://www.cnblogs.com/UncleYong/p/6892688. ...
- 用go语言爬取珍爱网 | 第三回
前两节我们获取到了城市的URL和城市名,今天我们来解析用户信息. 用go语言爬取珍爱网 | 第一回 用go语言爬取珍爱网 | 第二回 爬虫的算法: 我们要提取返回体中的城市列表,需要用到城市列表解析器 ...
- Yeoman 官网教学案例:使用 Yeoman 构建 WebApp
STEP 1:设置开发环境 与yeoman的所有交互都是通过命令行.Mac系统使用terminal.app,Linux系统使用shell,windows系统可以使用cmder/PowerShell/c ...
- GO语言的进阶之路-爬虫进阶之路
GO语言的进阶之路-爬虫进阶之路 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 网络爬虫是一种自动获取网页内容的程序,是搜索引擎的重要组成部分.我们今天要介绍的就是一个简单的网络爬 ...
随机推荐
- C#工厂模式案例
class JianDanGongChang { static void Main(string[] args) { Factory factory=new LianXiangFactory(); D ...
- <script> 为什么不再使用 type="text/javascript" 【问题】
1.为什么在 <script> 标签中不需要使用 type="text/javascript" 就可以写jQuery代码 ? <head> <scri ...
- linux:# vi /etc/profile -bash: vi: command not found 的解决办法
/bin/vi /etc/profile 直接用全路径vi,linux下一切皆文件,进去把profile文件内容改一下,一定是profile出了问题 export JAVA_HOME=/usr/jav ...
- win server服务器 关闭危险端口 135,137,138,139,445的方法
Windows默认开放135.137.138.139和445五个端口,都与文件共享和打印机共享有关的,若机器连接网络后会在用户不知道的情况下泄露本机部分信息,这样会给用户带来一部分危险,所以我们在工作 ...
- 【OGG 故障处理】 丢失归档恢复
OGG 有两天由于某种原因没有启动,而这段时间的备份文件缺失了一部分归档.恢复过程记录如下: GGSCI (xxxx) > info all Program Status Group Lag a ...
- less-@arguments变量
@arguments变量:包含了所有传递进来的参数. 如果你不想单独处理每一个参数的话可以像这样写: /*arguments*/ //之前这么写 .border_arg(@w:30px,@c:red, ...
- flink相关
flink一.简单实时计算方案 假如现在我们有一个电商平台,每天访问的流量巨大,主要访问流量都集中在衣服类.家电类页面,那么我们想实时看到这两类页面的访问量走势(十分钟出一个统计量),当做平台的重要指 ...
- Robot Framework--修改log和报告的生成目录
1.修改log和报告的生成目录:-l F:\testreport\log -r F:\testreport\report -o F:\testreport\output -l:log -r:repor ...
- BZOJ 2145: 悄悄话 (打表)
BZOJ 2145 题解 直接代词,所有格,常用副词,助动词,冠词,常用词打表 比较出现次数的多少来决定循环位移了几位. CODE #include <bits/stdc++.h> usi ...
- 利用 Label 小小的提升一下用户体验
label ,Html 标签里面很普通的一个,可是她却有一个很独特的作用,我不知道我是忘了她还是不曾记得她,下面简单介绍一下她. 一.定义和用法 <label> 标签为 input 元素定 ...