完整代码经测试可成功运行,目的是抓取头条网输入街拍后的图片,涉及的知识点如下

1. md5加密使用方法
  1. 方法1:不创建实例对象,直接使用
  2. >>> from hashlib import md5
  3. >>> md5('hong'.encode('utf-8')).hexdigest()
  4. '88163c52fdb7520d2da5295dcb52bff0'
  5.  
  6. 方法2:创建实例对象的方法
  7. >>> a=md5()
  8. >>> a.update('hong'.encode('utf-8') # update函数生成摘要信息
  9. >>> a.hexdigest() # hexdigest函数输出16进制的32位摘要信息
  10. '88163c52fdb7520d2da5295dcb52bff0'
每一个数据的摘要信息都是独一无二的,用于安全加密
 
注意:
方法2中如果重复执行接着执行mymd5.update('hong'.encode('utf-8'))和mymd5.hexdegest(),发现2次输出值是不一样的。按理所相同的字符串数据结果应该一样,为什么呢?
经测试发现,两次执行md5.update()函数,会把字符串进行拼接 ,第二次相当于执行mymd5.update('honghong'.encode('utf-8')),为了消除这种错误,需要 每次使用update之前~都要重新定义:mymd5=hashilib.md5()
 
 
 
 

下面代码中有几个问题点不明白

1. 查看头信息,参数表和代码中params有些不同,不知道代码中的参数是怎么来的

  1. offset: 40
  2. format: json
  3. keyword: 街拍
  4. autoload: true
  5. count: 20
  6. cur_tab: 1
  7. from: search_tab

2. 第51行代码不明白

  1. new_image_url = local_image_url.replace('list','large')
  2.  
  3. 说明:经验证,//p3.pstatp.com/list/pgc-image/153077042661778985015b6这个地址是返回一个图片的缩小版,如果把地址中的list改为large就能变成大图。

下面的代码有个缺陷: 每组图都只能爬取前四张图,暂时不知道怎么解决

完整代码如下

  1. import os
  2. import requests
  3. from urllib.parse import urlencode
  4. from hashlib import md5
  5. from multiprocessing.pool import Pool
  6.  
  7. GROUP_START = 1
  8. GROUP_END = 5
  9.  
  10. def get_page(offset):
  11. params = {
  12. 'offset': offset,
  13. 'format': 'json',
  14. 'keyword': '街拍',
  15. 'autoload': 'true',
  16. 'count': '',
  17. 'cur_tab': '',
  18. 'from': 'gallery',
  19. }
  20. url = 'https://www.toutiao.com/search_content/?' + urlencode(params) #这里的url要写头信息里面的Request URL
  21. try:
  22. response = requests.get(url)
  23. if response.status_code == 200:
  24. return response.json() #调用json方法,将结果转为json格式
  25. except requests.ConnectionError:
  26. return None
  27.  
  28. def get_images(json):
  29. data = json.get('data') #参数'data'字段来自于网页分析 XHR中的preview选项卡,里面有data字段
  30. if data:
  31. for item in data:
  32. # print(item)
  33. image_list = item.get('image_list')
  34. title = item.get('title')
  35. # print(image_list)
  36. if image_list:
  37. for image in image_list:
  38. yield {
  39. 'image': image.get('url'),
  40. 'title': title
  41. }
  42.  
  43. def save_image(item):
  44. if not os.path.exists(item.get('title')):
  45. os.mkdir(item.get('title'))
  46. try:
  47. local_image_url = item.get('image')
  48. new_image_url = local_image_url.replace('list','large')
  49. response = requests.get('http:' + new_image_url)
  50. if response.status_code == 200:
  51. file_path = '{0}/{1}.{2}'.format(item.get('title'), md5(response.content).hexdigest(), 'jpg')
  52. if not os.path.exists(file_path):
  53. with open(file_path, 'wb')as f:
  54. f.write(response.content)
  55. else:
  56. print('Already Downloaded', file_path)
  57. except requests.ConnectionError:
  58. print('Failed to save image')
  59.  
  60. def main(offset):
  61. json = get_page(offset)
  62. for item in get_images(json):
  63. print(item)
  64. save_image(item)
  65.  
  66. if __name__ == '__main__':
  67. pool = Pool()
  68. groups = ([x * 20 for x in range(GROUP_START, GROUP_END + 1)])
  69. pool.map(main, groups)
  70. pool.close()
  71. pool.join()

爬虫实战2:爬头条网美图--Ajax图片加载处理的更多相关文章

  1. Scrapy爬虫框架教程(四)-- 抓取AJAX异步加载网页

    欢迎关注博主主页,学习python视频资源,还有大量免费python经典文章 sklearn实战-乳腺癌细胞数据挖掘 https://study.163.com/course/introduction ...

  2. Java基础-爬虫实战之爬去校花网网站内容

    Java基础-爬虫实战之爬去校花网网站内容 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 爬虫这个实现点我压根就没有把它当做重点,也没打算做网络爬虫工程师,说起爬虫我更喜欢用Pyt ...

  3. 分析ajax请求抓取今日头条关键字美图

    # 目标:抓取今日头条关键字美图 # 思路: # 一.分析目标站点 # 二.构造ajax请求,用requests请求到索引页的内容,正则+BeautifulSoup得到索引url # 三.对索引url ...

  4. Python爬虫实战之爬取百度贴吧帖子

    大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 本篇目标 对百度贴吧的任意帖子进行抓取 指定是否只抓取楼主发帖 ...

  5. 关于使用scrapy框架编写爬虫以及Ajax动态加载问题、反爬问题解决方案

    Python爬虫总结 总的来说,Python爬虫所做的事情分为两个部分,1:将网页的内容全部抓取下来,2:对抓取到的内容和进行解析,得到我们需要的信息. 目前公认比较好用的爬虫框架为Scrapy,而且 ...

  6. Python网络爬虫_爬取Ajax动态加载和翻页时url不变的网页

    1 . 什么是 AJAX ? AJAX = 异步 JavaScript 和 XML. AJAX 是一种用于创建快速动态网页的技术. 通过在后台与服务器进行少量数据交换,AJAX 可以使网页实现异步更新 ...

  7. 爬虫——爬取Ajax动态加载网页

    常见的反爬机制及处理方式 1.Headers反爬虫 :Cookie.Referer.User-Agent 解决方案: 通过F12获取headers,传给requests.get()方法 2.IP限制 ...

  8. js img图片加载失败,重新加载+断网检查

    我们常常会遇到img加载图片的时候因为网络问题或者图片过大导致图片加载失败的问题,页面就因为这张蹦掉的图变得不美观.所以我们需要图片加载失败的时候重新加载图片,前端图片加载优化 //js方法定义 fu ...

  9. vue自定义指令,比onerror更优雅的方式实现当图片加载失败时使用默认图,提供三种方法

    首先,来看下效果图(演示一下图片正常加载与加载失败时的效果) 在线体验地址:https://hxkj.vip/demo/vueImgOnerror/ 一.常规方法解决 我们都知道,img标签支持one ...

随机推荐

  1. python's nonlocal

    [python's nonlocal] nonlocal是python3.x中新加的关键字,用于引用本作用域外层作用域的名字 参考:http://blog.csdn.net/chain2012/art ...

  2. HttpClient详解

    HttpClient:是一个接口 首先需要先创建一个DefaultHttpClient的实例 HttpClient httpClient=new DefaultHttpClient(); 发送GET请 ...

  3. Linux gcj命令

    一.简介 GCJ是GNU的Java编译器,可以把java程序编译成本地代码,编译成功后的可执行文件不再需要jre就可直接运行,编译成本地后的程序运行速度有所提高,缺点是生成后的文件较大. 参考: ht ...

  4. 模板模式c#(非常简单,但又非常简洁好玩)

    using System;using System.Collections.Generic;using System.Linq;using System.Text; namespace 模板模式{   ...

  5. 图灵社区 书单推荐:成为Java顶尖程序员 ,看这11本书就够了

    java书单推荐 转自 http://www.ituring.com.cn/article/211418 “学习的最好途径就是看书“,这是我自己学习并且小有了一定的积累之后的第一体会.个人认为看书有两 ...

  6. 阿里云服务器ECS按ctrl+alt+delete无法登录

    今天在使用阿里云服务器远程桌面的时候发现怎么也进入不了,远程桌面无法连接,于是想到了在阿里云服务器管理控制台可以使用连接管理终端进行远程桌面连接,下面详细介绍阿里云服务器操作经验. 操作步骤如下 登录 ...

  7. SVN下的文件被locked不能update和commit

    一次早上开机svn更新代码,提示某一个文件夹被locked,提示clean up,但是clearn up也不行,get lock不行,release lock不行 根据网上搜的,.svn(隐藏文件夹) ...

  8. WCF Service 配置文件注释(转)

    <?xml version="1.0" encoding="utf-8" ?> <configuration> <system.S ...

  9. POJ2031 Building a Space Station 2017-04-13 11:38 48人阅读 评论(0) 收藏

    Building a Space Station Time Limit: 1000MS   Memory Limit: 30000K Total Submissions: 8572   Accepte ...

  10. MSF漏洞攻击练习系统 – Metasploitable2

    Metasploitable2 是Metasploit团队维护的一个集成了各种漏洞弱点的Linux主机(ubuntu)镜像,方便广大黑扩跟安全人员进行MSF漏洞测试跟学习,免去搭建各种测试环境.VMw ...