首先声明,本工具仅仅为学习之用,不涉及版权问题,因为百度音乐里面的歌曲本身是可以下载的,而且现在百度也提供了”百度音乐播放器”,可以通过这个工具进行批量下载. 我当时做这个工具的时候,百度还没有提供”百度音乐播放器”,而我又想批量下载,所以做了这样的一个下载工具.当然,主要还是为了学习. 工具采用Python2.7.3+PyQt开发. 功能: 1.集中展示百度新歌榜或热歌榜可下载的歌单. 2.支持单个.多个歌曲的下载. 3.可复制歌单中所有的链接内容,方便在迅雷等下载工具中创建下载组. 缺陷:…
之前写过一个用python实现的百度新歌榜.热歌榜下载器的博文,实现了百度新歌.热门歌曲的爬取与下载.但那个采用的是单线程,网络状况一般的情况下,扫描前100首歌的时间大概得到40来秒.而且用Pyqt做的界面,在下载的过程中进行窗口操作,会出现UI阻塞的现象. 前两天有时间调整了一下,做了几方面的改进: 1.修改了UI界面阻塞的问题,下载的过程中可以进行其它的UI操作; 2.爬虫程序采用一个主线程,8个子线程的方式快速爬取,网络状况一致的情况下,将扫描100首歌曲的时间提高到了8.9秒左右:(本…
<后来的我们>上映也有好几天了,一直没有去看,前几天还爆出退票的事件,电影的主题曲由陈奕迅所唱,特地找了主题曲<我们>的MV看了一遍,还是那个感觉.那天偶然间看到Python中文社区公众号推送了一篇文章<用Python爬取陈奕迅新歌<我们>10万条评论的新发现>.最近一直在学习Python,想着找一个有趣的项目做一个练习,于是就模仿作者的代码开始练习,原文中作者在题目中说是“10万条评论的新发现”,通过程序运行,发现作者并没有对所有评论进行爬取,只是爬取了网…
获取特定歌曲热评: 首先,我们打开网易云网页版,击排行榜,然后点击左侧云音乐热歌榜,如图: 关于如何抓取指定的歌曲的热评,参考这篇文章,很详细,对小白很友好: 手把手教你用Python爬取网易云40万+评论 下图是用上文的方法找到热评后,确认下这条确实包含着热评,hotComments就是我们要找的热门评论: 到此为止,我们如何抓取网易云音乐的热门评论已经分析完了,我们再分析一下如何获取云音乐热歌榜中所有歌曲的信息. 获取热榜全部歌曲 同样F12大法.这次选all,因为是找歌单,仔细观察,很容易…
偶然发现百度汉语里面,有一笔一划的汉字顺序:          觉得这个动态的图片,等以后娃长大了,可以用这个教写字.然后就去找找常用汉字,现代汉语常用字表 .拿到这里面的汉字,做两个数组出来,一共是3500个汉字: ['一','乙','二','十','丁','厂','七','卜','人','入','八','九','几','儿','了','力','乃','刀','又','三','于','干','亏','士','工','土','才','寸','下','大','丈','与','万','上','小',…
前言 本文整理自慕课网<Python开发简单爬虫>,将会记录爬取百度百科"python"词条相关页面的整个过程. 抓取策略 确定目标:确定抓取哪个网站的哪些页面的哪部分数据.本实例抓取百度百科python词条页面以及python相关词条页面的标题和简介. 分析目标:分析要抓取的url的格式,限定抓取范围.分析要抓取的数据的格式,本实例中就要分析标题和简介这两个数据所在的标签的格式.分析要抓取的页面编码的格式,在网页解析器部分,要指定网页编码,然后才能进行正确的解析. 编写代…
python—webshell_醉清风xf_新浪博客 python—webshell (2012-05-23 09:55:46) 转载▼…
之前用.Net做过一些自动化爬虫程序,听大牛们说使用python来写爬虫更便捷,按捺不住抽空试了一把,使用Python抓取百度街景影像. 这两天,武汉迎来了一个德国总理默克尔这位大人物,又刷了一把武汉长江大桥,今天就以武汉长江大桥为例,使用Python抓取该位置的街景影像. 百度街景URL分析 基于http抓包工具,可以很轻松的获取到浏览百度街景时的http请求数据.如下图所示,即是长江大桥某位置点街景影像切片: 该切片对应的URL请求为: 细致分析该URL请求,并经过模拟测试,可以总结出如下初…
将python工程部署到新服务器(对virtualenv工具进行环境迁移) # 从开发的电脑上导出 pip list 到 requirements.txt 文件pip freeze > requirements.txt# 另一台新服务器上,安装项目虚拟环境里面的依赖包注意:安装前需再新建虚拟环境python -m venv env_name或 virtualenv --no-site-packages --python=python3 venvvenv 虚拟环境的文件夹,通常取名venv(用户自…
做的一个python版的百度翻译,附代码 #!/usr/bin/env python # -*- coding:utf-8 -*-   ''' 爬虫之百度翻译 需要的库有 js2py, requests, re, json '''   __author__ = 'YXQ'     import js2py import requests import json import re   #百度翻译的主页 url_fanyi = 'http://fanyi.baidu.com' #翻译时post的a…