前言

嗨喽,大佬们好鸭!这里是小熊猫~

今天我们采集国内知名的shipin弹幕网站!

这里有及时的动漫新番,活跃的ACG氛围,有创意的Up主。

大家可以在这里找到许多欢乐。

目录(可根据个人情况点击你想看的地方)

python方向

  • 爬虫程序 >>> 爬虫工程师 采集数据处理
  • 网站开发 >>> 开发工程师
  • 数据分析 >>> 数据分析师 处理表格 word
  • 自动化
  • 游戏开发/辅助
  • 人工智能/机器学习 深度学习
  • 自动化测试 运维

环境使用:

  • Python 3.8
  • Pycharm 2021.2版本
  • ffmpeg

<需要设置环境变量> 软件的使用 合成视频和音频

模块使用:

需要安装模块

  • import requests >>> pip install requests

内置模块 你安装好python环境就可以了

  • import re
  • import json
  • import subprocess

秘籍 <适用于任何网站, 采集任何数据>

一. 数据来源分析 点击此处领取免费资料

  1. 确定自己需求 <采集网站是那个, 获取数据是什么东西>
  2. 通过开发者工具进行抓包分析, 分析我们想要数据内容来自于哪里 <通过网页源代码就可以找到相应数据内容>
    shipin信息数据 在网页源代码里面 playinfo里面
    shipin标题

我们想要数据内容都是来自于网页源代码

I. 用浏览器打开这个所采集的网址

II. 在这个网页上面用鼠标右键点击查看网页源代码 会弹出一个新的窗口

III. ctrl + F 打开搜索框 搜索playinfo 可以找到相关信息数据

IV. ctrl + F 打开搜索框 搜索shipin标题, 也可以找到相关的数据内容

二. 代码实现步骤过程 基本四大步骤

  1. 发送请求, 模拟浏览器对于url网址发送请求 <专门定义函数来发送请求>
  2. 获取数据, 获取网页源代码
  3. 解析数据, 提取我们想要数据内容 <shipin信息以及shipin标题>
  4. 保存数据, 把shipin内容保存本地

1. 导入所需模块

不是内置模块的小可耐们记得安装哦~

import requests  # 数据请求模块 <发送请求工具>
import re # 正则表达式
import json # 序列化与反序列
import pprint # 格式化输出模块
import subprocess
import os

因审核机制原因,我把网址里的一些东西删掉了,小可耐们可以自己添加一下哈,很容易的

还有两个字,我用拼音代替了,你们可以改回文字哦 ~

如果有不太会改或者有点点小懒惰的小可耐也可以私信我,我发你呐~

2. 模拟浏览器发送请求

def get_response(html_url, data=None):
"""
发送请求函数
def 关键字 用于自定义函数 get_response 自定义函数名字
:param html_url: 形式参数<不具备实际意义> 传入到这个函数参数 发送请求网址
:return: 响应对象 模拟浏览器发送请求
headers 请求头进行伪装模拟 user-agent 用户代理意思 表示浏览器基本身份标识
<Response [200]> <>在python里面表示对象 响应对象 200 状态码 表示请求成功 相当于打电话, 打通了嘟嘟嘟声音
404 网址不对 相当于你所拨打电话是空号
503 服务器有问题 相当于你所拨打电话不在服务区
403 你没有访问权限 相当于你所拨打电话正在通话中
"""
headers = {
'referer': 'https://www..com/', # 防盗链 告诉服务器你请求url是从哪里跳转过来的
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.4951.54 Safari/537.36'
}
response = requests.get(url=html_url, params=data, headers=headers)
return response
def get_video_info(play_url):
"""
获取shipin信息函数
:param play_url: shipin播放详情页
:return: 信息shipin信息
仰望星空脚踏实地
不会用正则 6 通过相关语法,可以对于字符串数据提取自己想要内容 解析数据
re.findall() 通过re模块里面findall 去找到所有我们想要数据内容
从什么地方去找什么样数据内容 从response.text里面去找 "title":"(.*?)","pubdate" 中(.*?) 这段是我们想要数据
'"title":"(.*?)","pubdate"', response.text
保存数据, 标题作为文件名保存, 以字符串数据形式 列表取值
len 统计元素个数 [0] 根据索引位置取值 列表索引位置从0开始计数
type() 内置函数,查看数据类型
"""
# 定义了函数, 一定要调用
response = get_response(html_url=play_url) # 调用前面定义好的发送请求函数 函数是可以重复调用
# print(response.text) # response.text 获取响应对象文本数据 <获取网页源代码> 字符串数据
title = re.findall('"title":"(.*?)","pubdate"', response.text)[0].replace(' ', '') # 标题
title = re.sub(r'[/\:*?"<>|]', '', title)
html_data = re.findall('<script>window.__playinfo__=(.*?)</script>', response.text)[0] # 视频信息
# print(title)
# print(html_data)
# print(type(html_data))
# 为了方便提取数据, 可以把这个html_data 转成json字典数据
json_data = json.loads(html_data)
# print(json_data)
# print(type(json_data)) # 输出一行
# 字符串单双引号使用 外面是单引号里面就要使用双引号
# pprint.pprint(json_data) # 格式化展开效果
# 字典取值, 键值对取值 根据冒号左边的内容<键>, 提取冒号右边的内容<值>
audio_url = json_data['data']['dash']['audio'][0]['baseUrl']
video_url = json_data['data']['dash']['video'][0]['baseUrl']
print(audio_url)
print(video_url)
video_info = [title, audio_url, video_url]
return video_info
def save(title, audio_url, video_url):
"""
保存数据函数
:param title: shipin标题
:param audio_url: 音频url
:param video_url: shipin画面url
:return:
"""
audio_content = get_response(html_url=audio_url).content
video_content = get_response(html_url=video_url).content
with open('video\\' + title + '.mp3', mode='wb') as f:
f.write(audio_content)
with open('video\\' + title + '.mp4', mode='wb') as f:
f.write(video_content)
cmd = f"ffmpeg -i video\\{title}.mp4 -i video\\{title}.mp3 -c:v copy -c:a aac -strict experimental video\\{title}output.mp4"
subprocess.run(cmd, shell=True)
os.remove(f'video\\{title}.mp4')
os.remove(f'video\\{title}.mp3')
print('')
print(title, '视频下载完成')

5. 实现搜索功能

def get_search(page, word):
""" :param page: 采集多少页
:param word: 搜索关键字
:return:
"""
search_url = 'https://api..com/x/web-interface/search/type'
data = {
'__refresh__': 'true',
'_extra': '',
'context': '',
'page': page,
'page_size': '42',
'from_source': '',
'from_spmid': '333.337',
'platform': 'pc',
'highlight': '1',
'single_column': '0',
'keyword': word,
'category_id': '',
'search_type': 'video',
'dynamic_offset': '84',
'preload': 'true',
'com2co': 'true',
}
json_data = get_response(html_url=search_url, data=data).json()
bv_list = [i['bvid'] for i in json_data['data']['result']]
print(bv_list)
return bv_list # 6. 采集多个shipin
def get_up_video(page, up_id):
"""
采集up多个shipin
:param page: 采集多少页
:param up_id: shipin博主ID
:return:
"""
up_link = 'https://api..com/x/space/arc/search'
data = {
'mid': up_id,
'ps': '30',
'tid': '0',
'pn': page,
'keyword': '',
'order': 'pubdate',
'jsonp': 'jsonp',
}
json_data = get_response(html_url=up_link, data=data).json()
bv_list = [i['bvid'] for i in json_data['data']['list']['vlist']]
print(bv_list)
return bv_list # 7. 获取id
def main(bv_id):
"""
主函数
:param bv_id: shipin bv号
:return:
"""
video_info = get_video_info(play_url=f'https://www..com/video/{bv_id}')
save(video_info[0], video_info[1], video_info[2])

8. 一个简单的操作界面 点击此处领取免费资料

if __name__ == '__main__':
# 只要你可以看到数据
msg = """请输入你要进行的操作:
A. 多页数据采集
B. 采集单个shipin
C. 采集番剧
D. 采集某个Up所有shipin内容
0. 即可退出系统
"""
while True:
print(msg)
kew_word = input('请输入你要进行的操作: ')
if kew_word == 'A' or kew_word == 'a':
word = input('请输入你想要下载shipin关键字: ')
page = input('请输入你想要下载shipin页数: ')
for num in range(1, int(page) + 1):
bv_list = get_search(page=num, word=word) elif kew_word == 'B' or kew_word == 'b':
bv = input('请输入你想要下载shipinBv号: ') elif kew_word == 'C' or kew_word == 'c':
print('功能还没上线') elif kew_word == 'D' or kew_word == 'd':
up_id = input('请输入你想要下载up主ID: ')
page = input('请输入你想要下载shipin页数: ')
for num in range(1, int(page) + 1):
get_up_video(page=num, up_id=up_id) elif kew_word == '0':
break

尾语

成功没有快车道,幸福没有高速路。

所有的成功,都来自不倦地努力和奔跑,所有的幸福都来自平凡的奋斗和坚持

——励志语录

本文章就写完啦~感兴趣的小伙伴可以复制代码去试试

你们的支持是我最大的动力!!记得三连哦~ 欢迎大家阅读往期的文章呀~

我是小熊猫, 咱们下篇文章见啦

python带你采集不可言说网站数据,并带你多重骚操作~的更多相关文章

  1. python爬取安居客二手房网站数据(转)

    之前没课的时候写过安居客的爬虫,但那也是小打小闹,那这次呢, 还是小打小闹 哈哈,现在开始正式进行爬虫书写 首先,需要分析一下要爬取的网站的结构: 作为一名河南的学生,那就看看郑州的二手房信息吧! 在 ...

  2. 基于Python项目的Redis缓存消耗内存数据简单分析(附详细操作步骤)

    目录 1 准备工作 2 具体实施   1 准备工作 什么是Redis? Redis:一个高性能的key-value数据库.支持数据的持久化,可以将内存中的数据保存在磁盘中,重启的时候可以再次加载进行使 ...

  3. 23.模拟登录cookies请求速询网站数据

    采集速询网站数据: 网站地址:http://www.suxun0752.com/index.html 网站是需要账号登录才给返回信息的,我这里是直接拿的登录后的cookies请求的数据,cookies ...

  4. C#+HtmlAgilityPack+XPath带你采集数据(以采集天气数据为例子)

    第一次接触HtmlAgilityPack是在5年前,一些意外,让我从技术部门临时调到销售部门,负责建立一些流程和寻找潜在客户,最后在阿里巴巴找到了很多客户信息,非常全面,刚开始是手动复制到Excel, ...

  5. API例子:用Python驱动Firefox采集网页数据

    1,引言 本文讲解怎样用Python驱动Firefox浏览器写一个简易的网页数据采集器.开源Python即时网络爬虫项目将与Scrapy(基于twisted的异步网络框架)集成,所以本例将使用Scra ...

  6. [Python爬虫] 之一 : Selenium+Phantomjs动态获取网站数据信息

    本人刚才开始学习爬虫,从网上查询资料,写了一个利用Selenium+Phantomjs动态获取网站数据信息的例子,当然首先要安装Selenium+Phantomjs,具体的看 http://www.c ...

  7. python 爬取天猫美的评论数据

    笔者最近迷上了数据挖掘和机器学习,要做数据分析首先得有数据才行.对于我等平民来说,最廉价的获取数据的方法,应该是用爬虫在网络上爬取数据了.本文记录一下笔者爬取天猫某商品的全过程,淘宝上面的店铺也是类似 ...

  8. python实现简易采集爬虫

    #!/usr/bin/python #-*-coding:utf-8-*- # 简易采集爬虫 # 1.采集Yahoo!Answers,parseData函数修改一下,可以采集任何网站 # 2.需要sq ...

  9. UAVStack JVM监控分析工具:图形化展示采集及分析监控数据

    摘要:UAVStack推出的JVM监控分析工具提供基于页面的展现方式,以图形化的方式展示采集到的监控数据:同时提供JVM基本参数获取.内存dump.线程分析.内存分配采样和热点方法分析等功能. 引言 ...

随机推荐

  1. 1903021116—吉琛—Java第六周作业—类的定义

    项目 内容 课程班级博客链接 19信计班 这个作业要求链接 第六周作业链接 java面向对象的概念和定义 博客名称 学号-姓名-Java第六周作业-题目自拟 要求 每道题要有题目,代码(使用插入代码, ...

  2. arduino 天下第一(暴论) -- 智能猫眼与 SDDC 连接器移植到 arduino 上

    前言 之前看了官方玩过一个智能猫眼摄像头,我很有兴趣,但是那个 IDF 平台属实难整,我光安装都整了一天,网不好下载的包可能有问题.然后命令行操作也比较麻烦,我就想到了无敌的 arduino ,ESP ...

  3. Blazor 组件库 BootstrapBlazor 中Editor组件介绍

    组件介绍 Editor组件是对Summernote 组件的二次封装. 组件分为div模式和editor模式. 默认状态下editor模式的组件样子如下: 其代码如下: <Editor @bind ...

  4. 数据结构_C语言_单链表

    # include <stdio.h> # include <stdbool.h> # include <malloc.h> typedef int DataTyp ...

  5. 团队Arpha5

    队名:观光队 组长博客 作业博客 组员实践情况 王耀鑫 **过去两天完成了哪些任务 ** 文字/口头描述 完成服务器连接数据库部分代码 展示GitHub当日代码/文档签入记录 接下来的计划 服务器网络 ...

  6. 1.12 Linux已经霸占了服务器领域!

    如今的 IT 服务器领域是 Linux.UNIX.Windows 三分天下,Linux 系统可谓后起之秀,特别是"互联网热"以来,Linux 在服务器端的市场份额不断扩大,每年增长 ...

  7. NFS学习笔记

    一.NFS原理 ## 本次实验以CentOS7.7为例 [root@qll251 ~]# cat /etc/redhat-release CentOS Linux release 7.7.1908 ( ...

  8. JZ008和大于等于target的最短数组

    title: 长度最小的子数组 题目描述 题目链接:长度最小的子数组.剑指offer008 解题思路 简单滑动窗口题目,需要知道: 窗口左指针移动条件:窗口内总和 ≥ target 即可以不断移动窗口 ...

  9. 客户案例-SES S.A.

    SES专门为世界上最偏远的地方提供高性能的移动网络连接.广播.维和人员的实时情报和媒体内容. SES是一个全球性组织,专注于提供高性能的视频和虚拟数据解决方案.今天,SES拥有最大的覆盖范围,有超过7 ...

  10. MYSQL如何比对版本号字符串

    MYSQL如何比对版本号字符串 mysql 数据库中存储了一个形如"2.7.6.526" 的版本号,现在要获取出小于某个版本号的数据,怎么做?这个就是昨天遇到的一个问题,记录下查到 ...