用到的包有requests - BeautSoup

我爬的是天涯论坛的财经论坛:‘http://bbs.tianya.cn/list.jsp?item=develop’

它里面的其中的一个帖子的URL:‘http://bbs.tianya.cn/post-develop-2279340-1.shtml’

第一步:定义了三个函数跟一个main函数

def getHtmlText(url):
pass
def getHtmlList(list,url,main_url):
   pass
def getHtmlInfo(list,fpath):
pass
def main():
pass

第一个函数是获取一个url,通过requests.get()方法,获取页面的信息,这是一个获取url资源的模块

第二个函数是获取一个url,调用第一个函数解析财经论坛页面,获取到其中的子帖子的url,存放在list中

第三个函数是把list中的url通过for循环一个一个解析页面,获取其中我们想要的内容,然后把得到的内容存放在指定的电脑的位置里

main函数里就是调用这几个函数

第二步:代码的具体实现

# encoding:utf8
import requestsfrom bs4 import BeautifulSoup
'''
遇到不懂的问题?Python学习交流群:821460695满足你的需求,资料都已经上传群文件,可以自行下载!
'''
#获取一个url,通过requests.get()方法,获取页面的信息,这是一个获取url资源的模块
def getHtmlText(url):
try:
r = requests.get(url)
r.encoding = r.apparent_encoding
html = r.text
soup = BeautifulSoup(html,'html.parser')
return soup
except:
print("解析网页出错") #获取一个url,调用第一个函数解析财经论坛页面,获取到其中的子帖子的url,存放在list中
def getHtmlList(list,url,main_url):
try:
soup = getHtmlText(url)
managesInfo = soup.find_all('td',attrs={'class':'td-title faceblue'})
for m in range(len(managesInfo)):
a = managesInfo[m].find_all('a')//获取帖子的位置
for i in a:
try:
href = i.attrs['href']
list.append(main_url+href)//把帖子的url存放在list中 except:
continue
except:
print("获取网页失败") #把list中的url通过for循环一个一个解析页面,获取其中我们想要的内容,然后把得到的内容存放在指定的电脑的位置里
def getHtmlInfo(list,fpath):
for i in list:
infoDict = {}//初始化存放帖子要获取的全部信息的字典
authorInfo = []//初始化存放帖子评论的作者的信息的列表
comment = []//初始化存放帖子评论的信息的列表
try:
soup = getHtmlText(i)
if soup ==""://如果页面不存在则跳过,继续获取
continue
Info = soup.find('span',attrs={'style':'font-weight:400;'})
title = Info.text//获取帖子的标题
infoDict.update({'论坛话题: ':title})//把帖子的标题内容存放到字典中
author = soup.find_all('div',attrs={'class':'atl-info'})
for m in author:
authorInfo.append(m.text)//把帖子中的评论的作者的信息存放到列表里
author = soup.find_all('div',attrs={'class':'bbs-content'})
for m in author:
comment.append(m.text)//把帖子的评论的信息存放在列表里
for m in range(len(authorInfo)):
key = authorInfo[m]+'\n'
value = comment[m]+'\n'
infoDict[key] = value//把评论的作者的信息跟评论的内容以键值对的形式存储起来
#把获取到的信息存放在自己指定的位置
with open(fpath,'a',encoding='utf-8')as f:
for m in infoDict:
f.write(str(m)+'\n')
f.write(str(infoDict[m])+'\n')
except:
continue
def main():
main_url = 'http://bbs.tianya.cn'
develop_url = 'http://bbs.tianya.cn/list-develop-1.shtml'
ulist = [] fpath = r'E:\tianya.txt'
getHtmlList(ulist,develop_url,main_url)
getHtmlInfo(ulist,fpath)
main()//运行main函数

好了,这个代码就写完了,我来总结下我在写这个代码中遇到的问题。

总结:

这个代码很简单,但是其中的一些细节我一开始没有处理好

在写第三个函数的时候,把获取到的信息全部存放在字典中,在调试中发现获取到的信息有很多重复的,

后来发现是没有初始化每个列表里的信息。因为是循环存放信息的,读取完一个帖子的信息之后要把存放

信息的列表初始化,要不会重复输出之前存入的信息。

【Python爬虫案例学习】Python爬取天涯论坛评论的更多相关文章

  1. python 网络爬虫(一)爬取天涯论坛评论

    我是一个大二的学生,也是刚接触python,接触了爬虫感觉爬虫很有趣就爬了爬天涯论坛,中途碰到了很多问题,就想把这些问题分享出来, 都是些简单的问题,希望大佬们以宽容的眼光来看一个小菜鸟

  2. python爬虫:了解JS加密爬取网易云音乐

    python爬虫:了解JS加密爬取网易云音乐 前言 大家好,我是"持之以恒_liu",之所以起这个名字,就是希望我自己无论做什么事,只要一开始选择了,那么就要坚持到底,不管结果如何 ...

  3. Python爬虫:为什么你爬取不到网页数据

    前言: 之前小编写了一篇关于爬虫为什么爬取不到数据文章(文章链接为:Python爬虫经常爬不到数据,或许你可以看一下小编的这篇文章), 但是当时小编也是胡乱编写的,其实里面有很多问题的,现在小编重新发 ...

  4. Python爬虫实战二之爬取百度贴吧帖子

    大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 前言 亲爱的们,教程比较旧了,百度贴吧页面可能改版,可能代码不 ...

  5. Python爬虫实战一之爬取糗事百科段子

    大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧.那么这次为大家带来,Python爬取糗事百科的小段子的例子. 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把 ...

  6. 转 Python爬虫实战二之爬取百度贴吧帖子

    静觅 » Python爬虫实战二之爬取百度贴吧帖子 大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 本篇目标 ...

  7. 转 Python爬虫实战一之爬取糗事百科段子

    静觅 » Python爬虫实战一之爬取糗事百科段子 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来. 友情提示 糗事百科在前一段时间进行了改版,导致 ...

  8. 【Python爬虫案例学习】python爬取淘宝里的手机报价并以价格排序

    第一步: 先分析这个url,"?"后面的都是它的关键字,requests中get函数的关键字的参数是params,post函数的关键字参数是data, 关键字用字典的形式传进去,这 ...

  9. 【Python爬虫案例学习】Python爬取淘宝店铺和评论

    安装开发需要的一些库 (1) 安装mysql 的驱动:在Windows上按win+r输入cmd打开命令行,输入命令pip install pymysql,回车即可. (2) 安装自动化测试的驱动sel ...

随机推荐

  1. i春秋——“百度杯”CTF比赛 十月场——GetFlag(md5碰撞、文件包含、网站绝对路径)

    需要提交的captcha满足等式,肯定就是MD5碰撞了 附上脚本 import hashlib def func(md5_val): for x in range(1,100000000): md5_ ...

  2. RC4弱密码套件检测

    一.漏洞分析 事件起因 2015年3月26日,国外数据安全公司Imperva的研究员Itsik Mantin在BLACK HAT ASIA 2015发表论文<Attacking SSL when ...

  3. 完整且易读的最新版小程序登录态和检验注册过没的app.js写法

    目录 0.可参考的官方页面 1.流程 2.app.js代码 3.java后台怎么通过code获取openId 0.可参考的官方页面 获取登录凭证:https://developers.weixin.q ...

  4. Mac Brew 安装及配置

    mac 终端下,执行以下命令,即可安装brew: /usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homeb ...

  5. Fork/Join框架与Java8 Stream API 之并行流的速度比较

    Fork/Join 框架有特定的ExecutorService和线程池构成.ExecutorService可以运行任务,并且这个任务会被分解成较小的任务,它们从线程池中被fork(被不同的线程执行)出 ...

  6. linux的性能调优

    单机调优: 分析性能瓶颈的原因,解决它.   cpu子系统 内存子系统 IO子系统 网络系统       @cpu子系统调优 cpu技术指标 xeon E5520 2.27GHz 8192kb # c ...

  7. Java精通并发-Condition详解及相比于传统线程并发模式的改进

    在上一次https://www.cnblogs.com/webor2006/p/11792954.html对于Lock的具体实现类ReentrantLock用了一个示例对它进行了一个简单的了解,而它其 ...

  8. OpenCV 学习笔记(16)open创建无边框的显示窗口

    https://blog.csdn.net/weixin_41794771/article/details/93198098 讲解地址 // 1获取窗口句柄 winName 窗口名字 HWND win ...

  9. 原生php分页的封装,只封装函数,可适用所有的表

    <?php/** * 封装分页函数 * $table [字符串] 表名 * @$size [数字][每页显示条数] */function fenye($table, $size){ $link ...

  10. Layui 必填验证

    lay-verify="required"