利用爬到的数据,基于Django搭建的一个最新电影信息网站:

   n1celll.xyz

  今天想利用所学知识来爬取电影天堂所有最新电影信息,用到的模块:

    requests:用于获取网页信息

    re:获取网页中具体想要的信息

    Beautifulsoup:便于标签搜索,获取想要信息

    threading:使用多线程大幅度缩短爬取时间

    queue:使用线程队列来写入文件(实际上我是把数据全部存入了数据库)

    大概差不多就这些模块。

欢迎各位大牛指点。

  1. # Author : 'n1celll'
  2. import requests
  3. import json
  4. import re
  5. from bs4 import BeautifulSoup
  6. import threading
  7. import queue,time
  8.  
  9. header = header = {
  10. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
  11.  
  12. url = 'http://www.ygdy8.net/html/gndy/dyzz/index.html'
  13.  
  14. def get_page(url):
  15. index = requests.get(url, headers=header)
  16. index.enconding = 'GBK'# 将编码转为与HTML一致
  17. t = index.text
  18. index_soup = BeautifulSoup(t, 'html.parser')# 将获得的网页信息 转成soup对象
  19. all_pages = index_soup.find('select', attrs={'name': 'sldd'}).find_all('option')[-1] # 获得总页数
  20. page = int(all_pages.string)
  21. return page
  22.  
  23. def get_data(page):
  24.  
  25. page_url = 'http://www.ygdy8.net/html/gndy/dyzz/list_23_%s.html' % (page) # 获取每一页数据
  26. print(page)
  27. # page_url = 'http://www.ygdy8.net/html/gndy/dyzz/list_23_30.html'
  28. res = requests.get(page_url, headers=header)
  29. res.encoding = 'GBK' # 'gb2312'
  30. a = res.text
  31. soup = BeautifulSoup(a, 'html.parser')
  32. name = soup.find_all('a', attrs={'class': 'ulink'})
  33. # print(name)测试
  34. for i in name:
  35. try:
  36. moive_name = re.search('《(.*?)(》|】)', i.string).group()
  37. # 有两个坑,这个里面有个电影名字不是用的书名号,还有一个电影有两个a标签
  38. except:
  39. continue
  40. html = 'http://www.ygdy8.net' + i['href']
  41. da = requests.get(html, headers=header)
  42. da.encoding = 'GBK' # da.apparent_encoding
  43. db = da.text
  44. # f = open('test2.txt','w',encoding='utf8')
  45. # f.write(a.text)
  46. # f.close()
  47. dr = BeautifulSoup(db, 'html.parser')
  48. span = dr.find('span', attrs={'style': 'FONT-SIZE: 12px'})
  49. if span:
  50. dc = span.text.split()
  51.  
  52. data = ''
  53. for i in dc:
  54. data += i
  55. print(data)
  56. msg = {}
  57. if data:
  58. msg['mname'] = moive_name
  59. try:
  60. show_t = re.search(r'(?<=(◎年代|◎时间|品年代|年代】|播时间|播】:))(.*?)(?=◎|年|【)', data).group()
  61. except:
  62. show_t = re.search(r'(?<=日期|份:)(.*?)(?=(-|剧))', data).group()
  63. msg['mtime'] = show_t
  64. try:
  65. country = re.search(r'(?<=(◎国家|◎产地|◎地区|◎国别|国家】))(.*?)(?=◎|【类)', data).group()
  66. except:
  67. try:
  68. country = re.search(r'(?<=地区)(.*?)(?=语言)', data).group()
  69. except:
  70. country = '未知'
  71. msg['mcountry'] = country
  72. try:
  73. time = re.search(r'(?<=◎片长|长度】)(.*?)(?=◎|【)', data).group()
  74. except:
  75. time = '未知'
  76. msg['mtime'] = time
  77. try:
  78. mtype = re.search(\
  79. r'(?<=(◎类别|别类型|影类型|◎类型|集类型|◎分类|类型:|类别】|片类型|型】:))(.*?)(?=(◎|级别|【出品|【主演))', \
  80. data).group()
  81. except:
  82. try:
  83. mtype = re.search(r'(?<=类型:)(.*?)(?=国)', data).group()
  84. except:
  85. mtype = re.search(r'动作|爱情|战争', data).group()
  86.           #以上的正则表达式,感觉用的很笨拙,希望有技术大牛提点建议
  87. # with open('test4.txt','a+',encoding='utf8') as f:测试
  88. # f.write('%s: %s,%s,%s,%s\n' % (moive_name, country, mtype, time, show_t))测试
  89. q.put('%s: %s,%s,%s,%s,%s\n' % (moive_name, country, mtype, time, show_t,html))
  90.  
  91. q = queue.Queue(maxsize=10000)
  92. t_obj = []
  93. lock = threading.Lock()#加上线程锁
  94. # semaphore = threading.BoundedSemaphore(200)
  95. def writing(f):
  96. # semaphore.acquire()
  97. data = q.get()
  98. lock.acquire()
  99. f.write(data)
  100. lock.release()
  101. # semaphore.release()
  102. # if not q.get():
  103. # f.close()
  104. # break
  105. # print('写入完成')
  106. all_page = get_page(url)
  107. f = open('test4.txt', 'w', encoding='utf8')
  108. print(all_page+1)
  109.  
  110. for i in range(1,all_page+1):
  111. t = threading.Thread(target=get_data,args=(i,))
  112. t.start()
  113. t_obj.append(t)
  114. for t in t_obj:
  115. t.join()#保证所有线程结束后开始写入
  116. print('%s over'%t)
  117.  
  118. while q.qsize():#判断队列里面是否还有元素
  119. w = threading.Thread(target=writing, args=(f,))
  120. w.start()
  121. w.join()
  122. else:
  123. print('写入完成')

  

    

  

python利用requests和threading模块,实现多线程爬取电影天堂最新电影信息。的更多相关文章

  1. 使用selenium 多线程爬取爱奇艺电影信息

    使用selenium 多线程爬取爱奇艺电影信息 转载请注明出处. 爬取目标:每个电影的评分.名称.时长.主演.和类型 爬取思路: 源文件:(有注释) from selenium import webd ...

  2. Python之爬虫(二十一) Scrapy爬取所有知乎用户信息(下)

    在上一篇文章中主要写了关于爬虫过程的分析,下面是代码的实现,完整代码在:https://github.com/pythonsite/spider items中的代码主要是我们要爬取的字段的定义 cla ...

  3. Python之爬虫(二十) Scrapy爬取所有知乎用户信息(上)

    爬取的思路 首先我们应该找到一个账号,这个账号被关注的人和关注的人都相对比较多的,就是下图中金字塔顶端的人,然后通过爬取这个账号的信息后,再爬取他关注的人和被关注的人的账号信息,然后爬取被关注人的账号 ...

  4. Python:使用threading模块实现多线程编程

    转:http://blog.csdn.net/bravezhe/article/details/8585437 Python:使用threading模块实现多线程编程一[综述] Python这门解释性 ...

  5. python学习笔记之使用threading模块实现多线程(转)

    综述 Python这门解释性语言也有专门的线程模型,Python虚拟机使用GIL(Global Interpreter Lock,全局解释器锁)来互斥线程对共享资源的访问,但暂时无法利用多处理器的优势 ...

  6. {Python之线程} 一 背景知识 二 线程与进程的关系 三 线程的特点 四 线程的实际应用场景 五 内存中的线程 六 用户级线程和内核级线程(了解) 七 python与线程 八 Threading模块 九 锁 十 信号量 十一 事件Event 十二 条件Condition(了解) 十三 定时器

    Python之线程 线程 本节目录 一 背景知识 二 线程与进程的关系 三 线程的特点 四 线程的实际应用场景 五 内存中的线程 六 用户级线程和内核级线程(了解) 七 python与线程 八 Thr ...

  7. python利用requests库模拟post请求时json的使用

    我们都见识过requests库在静态网页的爬取上展现的威力,我们日常见得最多的为get和post请求,他们最大的区别在于安全性上: 1.GET是通过URL方式请求,可以直接看到,明文传输. 2.POS ...

  8. <python的线程与threading模块>

    <python的线程与threading模块> 一 线程的两种调用方式 threading 模块建立在thread 模块之上.thread模块以低级.原始的方式来处理和控制线程,而thre ...

  9. Python爬虫入门教程: All IT eBooks多线程爬取

    All IT eBooks多线程爬取-写在前面 对一个爬虫爱好者来说,或多或少都有这么一点点的收集癖 ~ 发现好的图片,发现好的书籍,发现各种能存放在电脑上的东西,都喜欢把它批量的爬取下来. 然后放着 ...

随机推荐

  1. 箭头函数里this理解

    先来看代码: var obj1={ id:4, fn:function(){ var f=() => { console.log(this); //object,f()定义在obj1对象中,th ...

  2. javascript事件流机制

    (1)冒泡型事件:事件按照从最特定的事件目标到最不特定的事件目标(document对象)的顺序触发. IE 5.5: div -> body -> document IE 6.0: div ...

  3. 三种Webpack打包方式

    准备工作mkdir webpack_demo && cd webpack_demo #新建文件夹npm init #创建package.json文件npm install --save ...

  4. java第七次课堂笔记

  5. 关于Servlet的一些归纳(1)

    1.servlet接口 含5个抽象放法 void init(ServletConfig config) throws ServletException //初始化Servlet void servic ...

  6. vue-cli axios跨域 + 反向代理模拟http请求host+referer

    axios跨域 配置config->index.js中的proxyTable,内容如下: proxyTable: { // 跨域请求 '/api': { // 注意此处可设置为 '*' 代表不限 ...

  7. python入门(五)

    一.函数返回值 1.函数如果返回多个值,他会把这几个值放到一个元组里面 2.也可以用多个变量来接收 返回多个值放到元组里面 def say(): num1=1 num2=2 num3=3 return ...

  8. MIME 参考手册

    本文摘自http://www.w3school.com.cn/media/media_mimeref.asp MIME (Multipurpose Internet Mail Extensions) ...

  9. RedLock.Net - 基于Redis分布式锁的开源实现

    工作中,经常会遇到分布式环境中资源访问冲突问题,比如商城的库存数量处理,或者某个事件的原子性操作,都需要确保某个时间段内只有一个线程在访问或处理资源. 因此现在网上也有很多的分布式锁的解决方案,有数据 ...

  10. 小程序wx.chooseImage的坑

    选择图片后可能重新执行onshow()和onhide(),可以在页面中添加锁变量,选择图片前获取,选择完释放,onshow中利用锁来中断执行