python爬虫,微博爬虫,需要知晓微博用户id号,能够通过抓取微博用户主页内容来获取用户发表的内容,时间,点赞数,转发数等数据,当然以上都是本渣渣结合网上代码抄抄改改获取的! 要抓取的微博地址:https://weibo.com/u/5118612601 BUT,我们实际应用的抓取地址:https://m.weibo.cn/u/5118612601(移动端的微博地址) LSP的最爱,各种小姐姐,随你任意爬取,快收藏起来啊! 通过浏览器抓包,我们可以获悉几个比较重要的参数: type: uid…
APP爬虫(1)想学新语言,又没有动力,怎么办? 书接上文.使用appium在帖子列表界面模拟上划动作,捕捉不到列表的规律.上划结束后,列表只能获取到屏幕呈现的部分,而且下标还是从0开始的. 根据酸奶爸爸多年码代码的经验,帖子肯定不是一次性加载完成的,一定会有分页,上划操作到某处APP一定会请求API接口.那么我们监听APP的网络请求不就能获取到帖子内容了吗! mac下使用charles这个软件实现. charles简介 配置好charles网络监听后又遇到拦路虎,APP的请求是https协议的…
素描作为一种近乎完美的表现手法有其独特的魅力,随着数字技术的发展,素描早已不再是专业绘画师的专利,今天这篇文章就来讲一讲如何使用python批量获取小姐姐素描画像.文章共分两部分: 第一部分介绍两种使用python生成素描画的思路 第二部分介绍如何批量获取素描画 ​ 1 ​ 获取素描图的两个思路 本部分介绍的两个思路都是基于opencv来实现,不涉及深度学习相关内容.基本思想是读入一张照片图,然后通过各种变换转化成素描图.为了演示方便,我们先找来一张小姐姐的照片作为实验素材. ​ 1)漫画风格…
流程分析 一.导入需要的三方库 import re #正则表表达式文字匹配 import requests #指定url,获取网页数据 import json #转化json格式 import os #创建文件   二.确定目标地址 快手的目标地址需要在https://www.kuaishou.com网站截取请求,需要在控制台network截取,找到真正的地址https://www.kuaishou.com/graphql url = "https://www.kuaishou.com/grap…
最近在写一个应用,需要收集微博上一些热门的视频,像这些小视频一般都来自秒拍,微拍,美拍和新浪视频,而且没有下载的选项,所以只能动脑想想办法了. 第一步 分析网页源码. 例如:http://video.weibo.com/show?fid=1034:0988e59a12e5178acb7f23adc3fe5e97,右键查看源码,一般视频都是mp4后缀,搜索发现没有,但是有的直接就能看到了比如美拍的视频. 第二步 抓包,分析请求和返回.这个也可以通过强大的chrome实现,还是上面的例子,右键->审…
只有想不到,没有做不到,最近抖音风靡好友圈,马上就有技术宅本着“代码改变世界”的理念开始了搞事之路. 需要注意的事,漂亮不漂亮没有明确的界限,每个人都有每个人的审美,只有外表而没有心灵的美也是空洞的.该项目只是作者出于搞怪以及兴趣的目的去做的,初衷只是通过这个项目和大家交流技术,请勿乱喷. 本文参考github地址为:https://github.com/wangshub/Douyin-Bot 为了找到漂亮小姐姐,作者用 Python + ADB 做了一个 Python 抖音机器人 Douyin…
国庆几天在家看了几篇关于使用Python来编写网络爬虫的博客,想来自己断断续续学习Python也有几个月了,但一个像样的程序都没有写过,编程能力并没有得到提高,愧对自己花费的时间.很多时候虽然知道什么事情是对的,但自身过于懒惰,不能坚持做一件事并且把它做好.这大概就是我和那些优秀的人之间的差距,这个月争取多写一些代码,把这个系列写完整! 下面的链接是假期在家看的一系列博客,收获很大! 零基础自学用Python 3开发网络爬虫-这篇博客写的不错,通俗易懂,文笔也很好 知乎上关于如何使用Python…
前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取http://t.cn/A6Zvjdun 我们用爬虫爬了下这个问题下的高赞照片.在欣赏小姐姐的美照之前,我们先来分享一下思路. 首先通过浏览器的开发者工具,找到所有回答的链接.知乎的回答都是ajax的方式加载的,一次加载一页. 我们可以通过知乎回答的url,先把回答一页一页的爬下来,存到本地数据库.随后从数…
养成习惯,先赞后看!!!不用于任何商业价值,只是自己娱乐.否则 爬虫爬的好,牢饭吃到饱.这是我们这次爬取的网址:https://www.vmgirls.com/ 很多人学习python,不知道从何学起.很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手.很多已经做案例的人,却不知道如何去学习更加高深的知识.那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!QQ群:101677771 爬取并下载唯美女生 1.准备工作 2.分析网页+实际…
1 # Python爬虫学习第一记 8.24 (代码有点小,请放大看吧) 2 3 #实现有道翻译,模块一: $fanyi.py 4 5 import urllib.request 6 import urllib.parse 7 import json 8 9 # word 是将要传入的翻译的内容 10 11 def fanyi(word): 12 while 1: 13 # 去掉url中的 _o 可以解决反爬虫机制 14 url = 'http://fanyi.youdao.com/transl…