2019年的第一篇博客,恩,好久没写过博客了,恩,忘了,哈哈,实在是太懒了

今天写一个爬取百度推广数据的爬虫,当然我写的肯定不是那么的完美,但是能用,大哭

注意:有的时候,get或post方法获取数据是会报ssl等错误,网站要验证啥的,没搞懂,网上搜索,都是设置 verify=False,我也懒得去详细分析,你们要是有兴趣可以去了解一下,然后这么设置了,在GET或者post是会有warning提示,编写代码:

# 禁用ssl发出的警告
requests.packages.urllib3.disable_warnings() 下面代码:
def main():
  #开启一个session对话

main_session = requests.session()
return main_session def get_cost_info(main_session, endtime, flag1, flag2):
  #获取省或市在日期或者月份下的消费信息

if flag1 == 'province':
splitDimension = "provinceName"
else:
splitDimension = "provinceCityName"
if flag2 == 'month':
unitOfTime = 3
else:
unitOfTime = 5
headers = {
'Accept':'application/json',
'Accept-Encoding':'gzip, deflate',
'Accept-Language':'zh-CN,zh;q=0.8',
'Connection':'keep-alive',
'Content-Length':'763',
'Content-Type':'application/x-www-form-urlencoded',
'Cookie':setting.Cookie,
'DNT':'1',
'Host':'fengchao.baidu.com',
'Origin':'https://fengchao.baidu.com',
'Referer':'https://fengchao.baidu.com/fc/report/dashboard/user/%s/account'%setting.userid,
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.106 BIDUBrowser/8.7 Safari/537.36',
'X-DevTools-Emulate-Network-Conditions-Client-Id':'87F3C66D-3166-46F6-8B46-141057354EBC'
}
params = {
"userId":setting.userid,
"ids":[setting.userid],
"idType":2,
"splitDimension":splitDimension,
"limit":[0,1000],
"sortRules":[],
"levelOfDetails":211,
"startDate":"2019-01-01",
"endDate":endtime,
"predicateConditions":[],
"unitOfTime":unitOfTime,
"columns":["userId","date","accountName","impression","click","cost","cpc","ctr","conversion","phoneConversion","bridgeConversion"]
}
formdata = {
'reqid': setting.reqid,
'eventId': setting.eventId,
'userid': setting.userid,
'token': setting.token,
'path': 'mars/GET/AccountReportDataService/getAccountDataCenterReportData',
'params': json.dumps(params)
}
  #url是去F12---network获取的

url_1 = 'https://fengchao.baidu.com/hairuo/request.ajax?path=mars/GET/AccountReportDataService/getAccountDataCenterReportData&reqid=%s' % formdata['reqid']
cont_1 = main_session.post(url_1, headers=headers, data=formdata, verify=False)
datas = cont_1.json()
cont_list_1 = datas['data']['ACCOUNT']['rows']
for i in cont_list_1:
cont_list_2 = i['subRows']
cont_list = []
for j in cont_list_2:
if flag2 == 'month':
time_1 = j['date'][0:7]
time_list1 = time_1.split('-')
date = '%s年%s月份' % (time_list1[0], str(int(time_list1[1])))
else:
date = j['date']
zhanghu = j['accountName']
province, city = '', ''
if flag1 == 'province':
province = j['provinceName']
else:
city_list = j['provinceCityName'].split('-')
province, city = city_list[0], city_list[1]
zhanxian = str(j['impression'])
dianji = str(j['click'])
xiaofei = str(j['cost'])
pinjunjiage = str('%.2f' % (j['cpc']))
dianjilv = str('{:.2%}'.format(j['ctr']))
wangyezhuanhua = str(j['conversion'])
dianhuazhuanhua = str(j['phoneConversion'])
shangqiaozhuanhua = str(j['bridgeConversion'])
cont_list.append([date, zhanghu, province, zhanxian, dianji, xiaofei, pinjunjiage, dianjilv, wangyezhuanhua, dianhuazhuanhua, shangqiaozhuanhua])

经过测试,cookie一般能保持7天不过期,七天之后就要重新登录浏览器F12获取

requests 获取百度推广信息的更多相关文章

  1. ionic基于GPS定位并通过百度地图获取定位详细信息

    相信所有的前端攻城狮都会碰到移动端App.里面获取用户定位信息. 那么问题来了,怎么获取用户的定位信息(经纬度)呢. 当然方法有很多,通过百度地图API 以及 高德地图 API都是可以的.但是两个获取 ...

  2. python3爬虫-通过requests获取安居客房屋信息

    import requests from fake_useragent import UserAgent from lxml import etree from http import cookiej ...

  3. Python获取百度浏览记录

    Python模拟百度登录实例详解 http://www.jb51.net/article/78406.htm Python实战计划学习作业2-1 http://blog.csdn.net/python ...

  4. [Python爬虫] Selenium+Phantomjs动态获取CSDN下载资源信息和评论

    前面几篇文章介绍了Selenium.PhantomJS的基础知识及安装过程,这篇文章是一篇应用.通过Selenium调用Phantomjs获取CSDN下载资源的信息,最重要的是动态获取资源的评论,它是 ...

  5. 【ASP.NET 进阶】获取MP3文件信息并显示专辑图片

    突发奇想,想弄个显示MP3文件信息和专辑图片的小Demo,个人不是大牛,遂百度之,总算搞定,现分享如下. 效果图: GIF效果图: 主要是依靠2个DLL文件:ID3.dll 和 Interop.She ...

  6. 在Android Studio中使用BaiduMap SDK实时获取当地位置信息

    配置BaiduMap 环境 1.在百度API中新建自己的一个APP包名和APP名需要注意和自己Android Studio 中的包名和APP名保持一致: 2.百度地图中还需要填写一个SHA1 数字签名 ...

  7. 获取百度地图POI数据三(模拟关键词搜索)

    上一篇博文中讲到如何获取用于搜索的关键词,并且已经准备好了一百五十万的关键词   这其中有门牌号码,餐馆酒店名称,公司名称,道路名称等.有了这些数据,我们就可以通过代码,模拟我们在百度地图的搜索框中搜 ...

  8. 获取百度地图POI数据二(准备搜索关键词)

    上篇讲到  想要获取尽可能多的POI数据 需要准备尽可能多的搜索关键字   那么这些关键字如何得来呢?   本人使用的方法是通过一些网站来获取这些关键词   http://poi.mapbar.com ...

  9. requests获取所有状态码

    requests获取所有状态码 requests默认是不会获取301/302的状态码的.可以设置allow_redirects=False,这样就可以获取所有的状态码了 import requests ...

随机推荐

  1. eclipse 界面开发--windowbuilder

    插件地址: http://www.eclipse.org/windowbuilder/download.php http://www.eclipse.org/windowbuilder/

  2. CoopyIII开发文档之控制LED灯开关

    作者:那年:QQ:843681152 一. CooplyIII环境的搭建 工欲善其事必先利器,如何搭建CooplyIII的开发环境是一切coolpyIII开发的前提.CoolpyIII作者内cool超 ...

  3. DcotrineFixtureBundle学习

    根据官方文档对Fixture进行学习 首先使用 composer require --dev doctrine/doctrine-fixtures-bundle 来导入扩展 之后注意,如果symfon ...

  4. HDU 3949 XOR [线性基|高斯消元]

    目录 题目链接 题解 代码 题目链接 HDU 3949 XOR 题解 hdu3949XOR 搞死消元找到一组线性无关组 消出对角矩阵后 对于k二进制拆分 对于每列只有有一个1的,显然可以用k的二进制数 ...

  5. CF 960 G

    难受的1b,怎么会这样 先去学写一发 NTT 大概说一下斯特林数

  6. Django路由机制

    Django的URL路由配置: Settings.py文件中的ROOT_URLCONF变量指定全局路由文件名称 ROOT_URLCONF = '工程名称.urls'   #默认对应工程目录下urls. ...

  7. Hibernate根据实体类自动创建表

    Hibernate支持自动建表,在开发阶段很方便,可以保证hbm与数据库表结构的自动同步. 如何使用呢?很简单,只要在hibernate.cfg.xml里加上如下代码 Xml代码<propert ...

  8. Anaconda基础(一)

    目录 Conda常见命令 环境管理 包管理 conda管理 小技巧 Conda常见命令 环境管理 创建环境 conda create -n 环境名 包列表 进入环境 source activate 环 ...

  9. python ironicclient源码分析

    ironicclient是一个cli工具,用来和用户交互的. 首先写一个简单的例子,获取ironic所有的node节点: from ironicclient import client if __na ...

  10. vue使用技巧(分页、nextTick、复制对象)

    分页技巧 v1.0+ 版本的时候使用过滤器 limitBy 实现 v2.0+ 版本的时候使用compute使用 slice 方法实现 data:{ pageNum:10 }, computed:{ n ...