Python爬取知乎单个问题下的回答】的更多相关文章

前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者: 努力学习的渣渣哦 PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取 http://note.youdao.com/noteshare?id=3054cce4add8a909e784ad934f956cef 步骤: 打开需要获取的问题,F12,找到回答的想要数据的API,就是json 因为知乎下拉知乎页面,上方的url不会变化,动态加载的网站我们…
前言: 1.仅仅是想下载图片,别人上传的图片也是没有版权的,下载来可以自己欣赏做手机背景但不商用 2.由于爬虫周期的问题,这个代码写于2019.02.13 1.关于知乎爬虫 网上能访问到的理论上都能爬取下来,只是网站反爬虫手段和爬取复杂的问题.知乎的内容大概是问题+回答(我才开始用,暂时的概念).大概流程是::<1>登录-->进入首页-->点击首页列表中的某篇问题-->查看问题和回答-->查看评论或者<2>百度到某篇问题-->查看问题和回答,在网页版中…
先上完整代码 import requests import time import datetime import os import json import uuid from pyquery import PyQuery as pq # 地址 https://www.zhihu.com/question/34243513 def start(offset, sort): url = 'https://www.zhihu.com/api/v4/questions/34243513/answer…
前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者:Huangwei AI 来源:Python与机器学习之路 PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取 http://note.youdao.com/noteshare?id=3054cce4add8a909e784ad934f956cef 最近小编经常刷知乎上的一个问题“你见过哪些是「以为是个王者,结果是个青铜」的视频或图片?”.从这个问题我…
点击评论,出现异步加载的请求 import json import requests from lxml import etree from time import sleep url = "https://www.zhihu.com/api/v4/answers/974431591/root_comments?order=normal&limit=20&offset=0&status=open" headers = { "User-Agent&quo…
一.出发点: 之前在知乎看到一位大牛(二胖)写的一篇文章:python爬取知乎最受欢迎的妹子(大概题目是这个,具体记不清了),但是这位二胖哥没有给出源码,而我也没用过python,正好顺便学一学,所以我决定自己动手搞一搞. 爬取已经完成,文末有 python的源码和妹子图片的百度云地址 二.准备: 爬虫还是要用python(之前用过一个国人大牛写的java爬虫框架 webmagic),所以花了点时间看了下网上python的教程,语法什么的(当然什么都没记住~),然后看了看scrapy这个爬虫框架…
用python爬取知乎的热榜,获取标题和链接. 环境和方法:ubantu16.04.python3.requests.xpath 1.用浏览器打开知乎,并登录 2.获取cookie和User—Agent 3.上代码 import requests from lxml import etree def get_html(url): headers={ 'Cookie':'你的Cookie', #'Host':'www.zhihu.com', 'User-Agent':'Mozilla/5.0 (X…
上文介绍了爬取知乎问题信息的整个过程,这里介绍下爬取问题下所有答案的内容和图片,大致过程相同,部分核心代码不同. 爬取一个问题的所有内容流程大致如下: 一个问题url 请求url,获取问题下的答案个数(我不需要,因为之前获取问题信息的时候保存了问题的回答个数) 通过答案的接口去获取答案(如果一次获取5个答案,总计100个答案,需要计算的出访问20次答案接口)[答案的接口地址如下图所示] 答案接口返回的内容保存到mysql 提取内容中的图片地址,保存到本地  爬取代码: 从mysql库中查到qu…
前文介绍了python的scrapy爬虫框架和登录知乎的方法. 这里介绍如何爬取知乎的问题信息,并保存到mysql数据库中. 首先,看一下我要爬取哪些内容: 如下图所示,我要爬取一个问题的6个信息: 问题的id(question_id) 标题(title) 问题描述(intro) 回答个数(answer_num) 关注人数(attention_uv) 浏览次数(read_pv)  爬取结果我保存到mysql数据库中,表名为:zhihu_question 如下图中,红框里的就是上图是有人为我的穿…
一个简单的python爬虫,爬取知乎 主要实现 爬取一个收藏夹 里 所有问题答案下的 图片 文字信息暂未收录,可自行实现,比图片更简单 具体代码里有详细注释,请自行阅读 项目源码: # -*- coding:utf-8 -*- from spider import SpiderHTML from multiprocessing import Pool import sys,urllib,http,os,random,re,time __author__ = 'waiting' ''' 使用了第三…