V1.0

功能:从比较知名的几个电影下载网站爬取下载链接,并自动打印出来:

代码:

# -*- coding: utf8 -*-
from bs4 import BeautifulSoup
import requests, lxml
from urllib.parse import quote
import re def get_name():
while 1:
moviename = input('请输入要查找的电影名\n->')
moviename_quote = quote(moviename.encode('gb2312'))
get_url_from_ygdy(moviename_quote)
get_url_from_bttiantang(moviename)
get_url_from_dytt(moviename_quote) def get_url_from_ygdy(moviename):
baseurl = 'http://s.dydytt.net/plus/search.php?kwtype=0&keyword='
url = baseurl + str(moviename)
content = BeautifulSoup(requests.get(url).content.decode('gb2312', 'ignore'), 'lxml')
first_page = content.find_all('td', width="")
movie_infos = content.find_all('td', width="55%")
if movie_infos.__len__() == 0:
print('查无此电影,请检查后重试')
return
else:
print('阳光电影搜索结果:')
if first_page.__len__() == 0:
for movie_info in movie_infos:
get_info(movie_info, moviename)
else:
last_page_url = first_page[1].find('a').get('href') + '"'
pattern = re.compile('PageNo=(.*?)"')
pnt = re.findall(pattern, last_page_url)
for i in range(int(pnt[0])):
print('第', i + 1, '页:')
page_url = url + '&PageNo=' + str(i + 1)
pagecontent = BeautifulSoup(requests.get(page_url).content.decode('gb2312', 'ignore'), 'lxml')
movie_infos = pagecontent.find_all('td', width='55%')
for movie_info in movie_infos:
get_info(movie_info, moviename) def get_info(movie_info, name):
movie_url = movie_info.find('a').get('href')
moviename = movie_info.text
if '游戏' not in name and '游戏' in moviename:
return
else:
print('电影名:', moviename)
url = 'http://www.ygdy8.com' + movie_url
info = BeautifulSoup(requests.get(url).content.decode('gbk', 'ignore'), 'lxml')
download = info.find_all('td', style="WORD-WRAP: break-word")
print('下载链接:')
if download.__len__() == 1:
print(download[0].find('a').string)
else:
for each in range(download.__len__()):
print('链接', each + 1, ':', download[each].find('a').string)
print('\n') def get_url_from_bttiantang(moviename):
baseurl = 'http://www.bttiantang.com/s.php?q=' + str(moviename)
page_content = requests.get(baseurl).content.decode('utf8', 'ignore')
pattern = re.compile('</b>条<b>(.*?)</b>')
pagenum_info = re.findall(pattern, page_content)
page_content = BeautifulSoup(page_content, 'lxml')
content = page_content.find_all('p', class_="tt cl")
if content.__len__() == 0:
print('查无此电影,请检查后重试')
return
else:
print('BT天堂搜索结果:')
if pagenum_info.__len__() == 0:
for each in content:
get_movieinfo(each, moviename)
else:
for i in range(int(pagenum_info[0])):
print('第', i + 1, '页:')
page_url = baseurl + '&PageNo=' + str(i + 1)
page_content = BeautifulSoup(requests.get(page_url).content.decode('utf8', 'ignore'), 'lxml')
content = page_content.find_all('p', class_="tt cl")
for each in content:
get_movieinfo(each, moviename) def get_movieinfo(movie_content, name):
url = 'http://www.bttiantang.com/' + movie_content.find('a').get('href')
moviename = movie_content.text
if '游戏' not in name and '游戏' in moviename:
return
print('电影名:', moviename)
info = BeautifulSoup(requests.get(url).content.decode('utf8', 'ignore'), 'lxml')
links = info.find_all('div', class_='tinfo')
print('下载链接:')
i = 0
for each in links:
i += 1
print('链接' + str(i) + ':')
print('http://www.bttiantang.com' + each.find('a').get('href')) def get_url_from_dytt(moviename):
baseurl = 'http://www.dytt.com/search.asp?searchword=' + str(moviename)
content = requests.get(baseurl).content.decode('gbk', 'ignore')
pattern = re.compile('下一页.*?href.*?page=(.*?)&')
result = re.findall(pattern, content)
content = BeautifulSoup(content, 'lxml')
items = content.find_all('p', class_='s1')
if items.__len__() == 1:
print('查无此电影,请检查后重试')
return
else:
print('电影淘淘搜索结果:')
if result.__len__() == 0:
for i in range(items.__len__() - 1):
get_movieinfo_from_dytt(items[i + 1], moviename)
else:
for i in range(int(result[0])):
print('第', i + 1, '页:')
url = baseurl + '&page=' + str(i + 1)
page_content = BeautifulSoup(requests.get(url).content.decode('gbk', 'ignore'), 'lxml')
items = page_content.find_all('p', class_='s1')
for i in range(items.__len__() - 1):
get_movieinfo_from_dytt(items[i + 1], moviename) def get_movieinfo_from_dytt(item, name):
moviename = item.find('a').text
movieurl = 'http://www.dytt.com' + item.find('a').get('href')
if '游戏' not in name and '游戏' in moviename:
return
print('电影名:', moviename)
pagecontent = requests.get(movieurl).content.decode('gbk', 'ignore')
links = re.findall(re.compile('ed2k:(.*?)\|/'), pagecontent)
i = 0
print('下载链接:')
if links.__len__() != 0:
for link in links:
i += 1
print('链接' + str(i) + ':', 'ed2k://|file|' + link + '|/')
else:
links = re.findall(re.compile('http:(.*?)torrent'), pagecontent)
if links.__len__() != 0:
for link in links:
i += 1
print('链接' + str(i) + ':', 'http:' + link + 'torrent')
else:
links = re.findall(re.compile('ftp:(.*?)mkv'), pagecontent)
for link in links:
i += 1
print('链接' + str(i) + ':', 'ftp:' + link + 'mkv') if __name__ == '__main__':
get_name()

运行结果:

python 电影下载链接爬虫的更多相关文章

  1. Java爬虫爬取网站电影下载链接

    之前有看过一段时间爬虫,了解了爬虫的原理,以及一些实现的方法,本项目完成于半年前,一直放在那里,现在和大家分享出来. 网络爬虫简单的原理就是把程序想象成为一个小虫子,一旦进去了一个大门,这个小虫子就像 ...

  2. 使用htmlparse爬虫技术爬取电影网页的全部下载链接

    昨天,我们利用webcollector爬虫技术爬取了网易云音乐17万多首歌曲,而且还包括付费的在内,如果时间允许的话,可以获取更多的音乐下来,当然,也有小伙伴留言说这样会降低国人的知识产权保护意识,诚 ...

  3. 使用htmlparser爬虫技术爬取电影网页的全部下载链接

    昨天,我们利用webcollector爬虫技术爬取了网易云音乐17万多首歌曲,而且还包括付费的在内,如果时间允许的话,可以获取更多的音乐下来,当然,也有小伙伴留言说这样会降低国人的知识产权保护意识,诚 ...

  4. 一篇文章教会你利用Python网络爬虫获取电影天堂视频下载链接

    [一.项目背景] 相信大家都有一种头疼的体验,要下载电影特别费劲,对吧?要一部一部的下载,而且不能直观的知道最近电影更新的状态. 今天小编以电影天堂为例,带大家更直观的去看自己喜欢的电影,并且下载下来 ...

  5. Python 爬虫的工具列表 附Github代码下载链接

    Python爬虫视频教程零基础小白到scrapy爬虫高手-轻松入门 https://item.taobao.com/item.htm?spm=a1z38n.10677092.0.0.482434a6E ...

  6. 【Python项目】简单爬虫批量获取资源网站的下载链接

    简单爬虫批量获取资源网站的下载链接 项目链接:https://github.com/RealIvyWong/GotDownloadURL 1 由来 自己在收集剧集资源的时候,这些网站的下载链接还要手动 ...

  7. Python爬虫个人记录(二) 获取fishc 课件下载链接

    参考: Python爬虫个人记录(一)豆瓣250 (2017.9.6更新,通过cookie模拟登陆方法,已成功实现下载文件功能!!) 一.目的分析 获取http://bbs.fishc.com/for ...

  8. Python网络爬虫笔记(二):链接爬虫和下载限速

    (一)代码1(link_crawler()和get_links()实现链接爬虫) import urllib.request as ure import re import urllib.parse ...

  9. Python 爬虫 Vimeo视频下载链接

    python vimeo_d.py https://vimeo.com/228013581 在https://vimeo.com/上看到稀罕的视频 按照上面加上视频的观看地址运行即可获得视频下载链接 ...

随机推荐

  1. C# 多线程之一:信号量Semaphore

    通过使用一个计数器对共享资源进行访问控制,Semaphore构造器需要提供初始化的计数器(信号量)大小以及最大的计数器大小 访问共享资源时,程序首先申请一个向Semaphore申请一个许可证,Sema ...

  2. .Net大文件上传(转--待验证)

    几种常见的方法,本文主要内容包括:    第一部分:首先我们来说一下如何解决ASP.net中的文件上传大小限制的问题,我们知道在默认情况下ASP.NET的文件上传大小限制为2M,一般情况下,我们可以采 ...

  3. Datatable分页

    using System; using System.Collections.Generic; using System.Web; using System.Data; /// <summary ...

  4. cert

  5. ALV详解:Function ALV(二)

    声明:原创作品,转载时请注明文章来自SAP师太技术博客( 博/客/园www.cnblogs.com):www.cnblogs.com/jiangzhengjun,并以超链接形式标明文章原始出处,否则将 ...

  6. CUBRID学习笔记 11 数据类型之日期

    datetime 虽然和mysql很相像,但是日期类型和mysql是不一样的.和sqlserver差不多. 如YYYY-MM-DD hh:mi:ss.fff or mm/dd/yyyy hh:mi:s ...

  7. CUBRID学习笔记 7 ms常见错误

    基本不是权限问题,就是dll问题.  重新下载或应用dll注意版本. 权限的问题,先本机测试. 看看在web管理有无问题.  剩下的基本就简单了 欢迎转载 ,转载时请保留作者信息.本文版权归本人所有, ...

  8. android上让我放弃使用wstring来操作中英文字符串 转

    android上让我放弃使用wstring来操作中英文字符串 2013-08-07 16:37:24|  分类: cocos2d|举报|字号 订阅     项目需要,需要对中英文字符串进行遍历修改等, ...

  9. C++指针内存

    这是一个关于C++指针的问题,思考了一下 void GetMemory(char *p, int num){ p = (char*) malloc (sizeof(char) * num); } vo ...

  10. Spring 读书笔记-----使用Spring容器(一)

    pring有两个核心接口:BeanFactory和ApplicationContext,其中ApplicationContext是BeanFactory的子接口.他们都可代表Spring容器,Spri ...