之前我们从猫眼获取过电影信息,而且利用分析ajax技术,获取过今日头条的街拍图片. 今天我们在豆瓣上获取一些热门电影的信息. 页面分析 首先,我们先来看一下豆瓣里面选电影的页面,我们默认选择热门电影,啥都不点了. [插入图片,豆瓣热门电影页面] 在选电影这个框中其实有很多标签的,这个其实可以在url设置,后面讲,现在就用热门好了. 下面每部电影罗列出来,包括电影封面,评分,电影名称等信息. 最下面是加载更多选项,其实看到这个加载更多,我就意识到这个页面肯定是用ajax技术实现的,就跟今日头条街拍…
Python获取时光网电影数据 一.前言 有时候觉得电影真是人类有史以来最伟大的发明,我喜欢看电影,看电影可以让我们增长见闻,学习知识.从某种角度上而言,电影凭借自身独有的魅力大大延长了人类的"寿命". 一部电影如同一本故事书,我可以沉迷到其中,来的一个新的世界,跟着电影主角去经历去感悟.而好的电影是需要慢慢品尝的,不仅提供了各种视觉刺激和情感体验,更能带来思考点,也让我可以懂得在现实生活中穷尽一生也无法明白的道理.电影比书本更直接.更有趣.更精彩. 好的电影可以在潜移默化中塑造我们的…
''' 1.爬取豆瓣top250电影信息 - 第一页: https://movie.douban.com/top250?start=0&filter= - 第二页: https://movie.douban.com/top250?start=25&filter= - 第三页: https://movie.douban.com/top250?start=50&filter= - 第十页: https://movie.douban.com/top250?start=225&fi…
psutil是一个跨平台库(http://code.google.com/p/psutil/),能够轻松实现获取系统运行的进程和系统利用率(包括CPU.内存.磁盘.网络等)信息.它主要应用于系统监控,分析和限制系统资源及进程的管理.它实现了同等命令行工具提供的功能,如ps.top.lsof.netstat.ifconfig.who.df.kill.free.nice.ionice.iostat.iotop.uptime.pidof.tty.taskset.pmap等.目前支持32位和64位的Li…
通过使Scrapy框架,掌握如何使用Twisted异步网络框架来处理网络通讯的问题,进行数据挖掘和对web站点页面提取结构化数据,可以加快我们的下载速度,也可深入接触各种中间件接口,灵活的完成各种需求,使得我们的爬虫更强大.更高效.   一.项目分析 豆瓣电影网页爬虫,要求使用scrapy框架爬取豆瓣电影 Top 250网页(https://movie.douban.com/top250?start=0)上所罗列上映电影的标题.主要信息.评分和电影简介等的信息,将所爬取的内容保存输出为CSV和J…
声明:本程序仅用于学习爬网页数据,不可用于其它用途. 本程序仍有很多不足之处,请读者不吝赐教. 依赖:本程序依赖BeautifulSoup4和lxml,如需正确运行,请先安装.下面是代码: #!/usr/bin/env python # -*- coding: utf-8 -*- import sys reload(sys) sys.setdefaultencoding('utf-8') #解决编码问题 """一个简单的从豆瓣网获取电影标签的示例, 1. 首先获取所有标签以及…
一.数据分析截图(weka数据分析截图 ) 本例实验,使用Weka 3.7对豆瓣电影网页上所罗列的上映电影信息,如:标题.主要信息(年份.国家.类型)和评分等的信息进行数据分析,Weka 3.7数据分析如下所示: 图1-1  数据分析主界面 图1-2  OneR数据分析界面 图1-3  ZeroR数据分析界面 图1-4 Visualize数据分析界面 二.数据分析结论:(将数据之间的关系用文字性描述) 如图2-1所示,显而易见,电影类型的趋势增量随着标题的繁杂而日益增长,仅对于整个国家层次来说,…
一.下载页面并处理 二.提取数据 观察该网站 html 结构 可知该页面下所有电影包含在 ol 标签下.每个 li 标签包含单个电影的内容. 使用 XPath 语句获取该 ol 标签 在 ol 标签中遍历每个 li 标签获取单个电影的信息. 以电影名字为例 其余部分详见源码  三.页面跳转 检查"后页"标签.跳转到下一页面 返回 None 则已获取所有页面. 四.导入 CSV 创建 CSV 文件 其余部分详见源码 五.导入数据库(以 mysql 为例) 先在 mysql 中创建数据库与…
接口:ggt_daily 描述:获取港股通每日成交信息,数据从2014年开始 限量:单次最大1000,总量数据不限制 积分:用户积2000积分可调取,5000积分无限制,请自行提高积分,具体请参阅本文最下方积分获取办法 注:tushare模块下载和安装教程,请查阅我之前的文章 输入参数 名称      |      类型      |      必选      |      描述 trade_date      |      str      |      N      |      交易日期…
python cookie 获取淘宝商品信息 # //get_goods_from_taobao import requests import re import xlsxwriter cok=''  # 此处写入登录之后自己的cookie # 获取页面 def getHTMLText(url): headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gec…
系列目录     [已更新最新开发文章,点击查看详细] 在<C#开发BIMFACE系列25 服务端API之获取模型数据9:获取楼层对应面积分区列表>一文中介绍了如何获取单个模型中单个楼层包含的面积分区列表.有了面积分区列表之后,即可查询单个面积分区的具体信息. 请求地址:GET https://api.bimface.com/data/v2/files/{fileId}/areas 说明:获取单个模型中单个面积分区包含的信息 参数: 请求 path(示例):https://api.bimfac…
在利用scrapy框架爬各种网站时,一定会碰到某些网站是需要登录才能获取信息. 这两天也在学习怎么去模拟登录,通过自己码的代码和借鉴别人的项目,调试成功豆瓣的模拟登录,顺便处理了怎么自动化的处理验证码. 一般都是通过打码平台处理的,当然你也可以机器学习的知识去识别验证码.后期我想自己做一个关于机器学习识别验证码的API,训练主流的网站,方便自己调用.(还不知道能不能做出来呢,走一步看一步咯!) 思路 一.想要实现登录豆瓣关键点 分析真实post地址 ----寻找它的formdata,如下图,按浏…
爬取的代码如下: from selenium import webdriver from bs4 import BeautifulSoup import time #发送请求,获取响应 def get_PageItem(): # 准备url url='https://movie.douban.com/chart' #创建一个浏览器对象 driver=webdriver.Chrome() #发送请求 driver.get(url) #print(driver.page_source) page_c…
1.python爬取招聘信息 简单爬取智联招聘职位信息 # !/usr/bin/env python # -*-coding:utf-8-*- """ @Author  : xiaofeng @Time    : 2018/12/18 16:31 @Desc : Less interests,More interest. (爬取智联招聘职位数据) @Project : python_appliction @FileName: zhilianzhaopin.py @Softwa…
最近迷上了看了四个春天,迷上了饭叔的豆瓣日记,想全部抓取下来,简单了写了下面的脚本 import urllib.request import os from bs4 import BeautifulSoup def get_html(url): """通用方法,获取整个链接得html·""" web = urllib.request.urlopen(url) soup = BeautifulSoup(web, "html.parser&…
# coding=gbk import urllib.request import re import os import urllib def getHtml(url): #指定网址获取函数 page = urllib.request.urlopen(url) html = page.read() return html.decode('UTF-8') def getImg(html): #定义获取图片函数 reg = r'src="(.+?\.jpg)" pic_ext' imgr…
一.项目目录结构 spiders文件夹内包含doubanSpider.py文件,对于项目的构建以及结构逻辑,详见环境搭建篇. 二.项目源码 1.doubanSpider.py # -*- coding: utf-8 -*- import scrapy from douban.items import DoubanItem #创建爬虫类 class DoubanspiderSpider(scrapy.Spider): name = 'doubanSpider' #爬虫名字 allowed_doma…
读取csv文件 通过csv.reader()和DictReader()两个函数 reader()函数返回一个迭代器 会包含表头 通过next函数可以跳过,但是它只能通过下标访问数据: DictReader()函数返回一个字典,不包含表头,可以通过键名访问!! import csv # with open('1 (2).csv','r') as fp: #     reader=csv.reader(fp) #     # next(reader) #     for x in reader: #…
  # -*- coding:utf-8 -*- """ 一个简单的Python爬虫, 用于抓取豆瓣电影Top前250的电影的名称 Language: Python3.6 """ import re import urllib.request import urllib.error import time #import urllib2 import ssl ssl._create_default_https_context = ssl._cre…
我们可以使用 python 代码通过调用 ifconfig 命令来获取 Linux 主机的 IP 相关信息,包括:网卡名称.MAC地址.IP地址等. 第一种实现方式: #!/usr/bin/python #encoding: utf-8 from subprocess import Popen, PIPE def getIfconfig(): p = Popen(['ifconfig'], stdout = PIPE) data = p.stdout.read().split('\n\n') r…
    记得我们第三关的时候爬取了豆瓣TOP250的电影名/评分/推荐语/链接,现在呢,我们要把它们存储下来,记得用今天课上学的csv和excel,分别存储下来哦-       URL     https://movie.douban.com/top250?start=0   import csv import openpyxl import requests from bs4 import BeautifulSoup # 保存成CSV文件 with open('02.csv','w',newl…
linux里一切皆为文件,在linux/unix的根文件夹下,有个/proc文件夹,这个/proc 是一种内核和内核模块用来向进程(process)发送信息的机制(所以叫做"/proc"),这个伪文件系统同意与内核内部数据结构交互.获取有关进程的实用信息.在执行中(on the fly)改变设置(通过改变内核參数).与其它文件系统不同./proc 存在于内存而不是硬盘中.proc 文件系统提供的信息例如以下: •进程信息:系统中的不论什么一个进程,在 proc 的子文件夹中都有一个同名…
起因 今天在写东西的时候,用到了多线程.遇到了个问题: 子线程的异常,在父线程中无法捕获. 解决 问题代码 问题代码示例代码如下: import threading class SampleThread(threading.Thread): def run(self): raise Exception('An error occured here.') def main(): try: thread_obj = SampleThread() thread_obj.start() except E…
第一步:先安装 pip install exifread 第二部:上代码 import exifread import requests class PhotoExifInfo(): def __init__(self,photo_path): self.photo_path = photo_path self.baidu_map_ak = "" def get_tags(self): """获取照片信息""" image_c…
昨天我们已经实现了如何抓取豆瓣上的热门电影信息,虽然不多,只有几百,但是足够我们进行分析了. 今天我们来讲一下如何获取某一部电影的所有短评论信息,并保存到mongodb中. 反爬虫 豆瓣设置的反爬虫机制是比较简单的,我们可以通过selenium模拟浏览器登陆这种终极办法来绕过,但是更加有效率的方法是设置请求头信息的cookie,是豆瓣认为在访问的就是一个用户,而不是机器. [插入图片,我的cookie] 我们首先要登陆自己的豆瓣账户,随便点击一个评论页面,在请求信息里面,找到cookie,保存下…
爬虫项目介绍   本次爬虫项目将爬取豆瓣Top250电影的图片,其网址为:https://movie.douban.com/top250, 具体页面如下图所示:   本次爬虫项目将分别不使用多线程和使用多线程来完成,通过两者的对比,显示出多线程在爬虫项目中的巨大优势.本文所使用的多线程用到了concurrent.futures模块,该模块是Python中最广为使用的并发库,它可以非常方便地将任务并行化.在concurrent.futures模块中,共有两种并发模块,分别如下: 多线程模式:Thr…
闲扯皮 昨晚给高中的妹妹微信讲题,函数题,小姑娘都十二点了还迷迷糊糊.今天凌晨三点多,被连续的警报声给惊醒了,以为上海拉了防空警报,难不成地震,空袭?难道是楼下那个车主车子被堵了,长按喇叭?开窗看看,好像都不是.好鬼畜的警报声,家里也没装报警器啊,莫不成家里煤气漏了?起床循声而查,报警声的确在厨房,听起来也像屋外,开门也没发现啥异样,莫不成真的是煤气表?下面开始排查,开水,断水,发现没啥异样.打开煤气灶,关闭煤气,也没啥.全屋断电也没啥,全屋都断电了只能说报警声的确来自煤气表.翻出燃气公司的客服…
点击获取提取码:vg1y python网络爬虫实战帮助读者学习Python并开发出符合自己要求的网络爬虫.网络爬虫,又被称为网页蜘蛛,网络机器人,是一种按照一定的规则,自动地抓取互联网信息的程序或者脚本.网络爬虫技术广泛应用于互联网企业.小编推荐的这本Python网络爬虫实战从Python的安装开始,详细讲解了Python从简单程序延伸到Python网络爬虫的全过程.Python网络爬虫实战从实战出发,根据不同的需求选取不同的爬虫,有针对性地讲解了几种Python网络爬虫.接下来小编讲讲这本书的…
Python 获取主机IP地址 #!/usr/bin/env python #coding:utf-8 import os ip=os.popen("ifconfig eth0|grep 'inet addr'|awk -F ':' '{print $2}'|awk '{print $1}'") for i in ip: print "ip地址为:%s" %(i.strip()) #ip=ip.read().strip() #print ip Python获取系统的…
一.项目目标 爬取豆瓣TOP250电影的评分.评价人数.短评等信息,并在其保存在txt文件中,html解析方式基于正则表达式 二.确定页面内容 爬虫地址:https://movie.douban.com/top250 确定爬取内容:视频链接,视频名称,导演/主演名称,视频评分,视频简介,评价人数等信息 打开网页,按F12键,可获取以下界面信息 观察可知,每一部视频的详细信息都存放在li标签中 每部视频的视频名称在 class属性值为title 的span标签里,视频名称有可能有多个(中英文):…