本地创建数据库,将 excel 数据存储到 city 表中,再取 | 湖北省 | 的所有地级市和县、县级市、区数据作为样表数据记录在样表中。利用 python 的 xlrd 包,定义 process_data 包来存放操作 excel 数据,生成 sql 语句的类,定义 op_postgresql 包来存放数据库的操作对象,定义各种方法

 PS::另外很多人在学习Python的过程中,往往因为没有好的教程或者没人指导从而导致自己容易放弃,为此我建了个Python全栈开发交流.裙 :一久武其而而流一思(数字的谐音)转换下可以找到了,里面有最新Python教程项目可拿,不懂的问题有老司机解决哦,一起相互监督共同进步

城市距离爬取 - 任务计划

本地创建数据库,将 excel 数据存储到 city 表中,再取 | 湖北省 | 的所有地级市和县、县级市、区数据作为样表数据记录在样表中。

本地创建数据库,将 excel 数据存储到 city 表中,再取 | 湖北省 | 的所有地级市和县、县级市、区数据作为样表数据记录在样表中。准备工作创建好 public/config.py 扩展包,到时候,利用 python 的 xlrd 包,定义 process_data 包来存放操作 excel 数据,生成 sql 语句的类,
定义 op_postgresql 包来存放数据库的操作对象,定义各种方法
创建 crwler 包,来存放爬虫的操作对象 -> 发现对方网站调用的地图 api -> 更改为调用德地图 api 的包 - 存放操作对象
创建 log 文件夹,存放数据库操作的日志
创建 data 文件夹,存放初始 excel 数据

 

数据库基本构造:

样本数据表格式:
表名:sample_table

name column data type length 分布 fk 必填域 备注
地域名 address text       TRUE 地域名
地域类型 ad_type integer       TRUE 0 - 为地级市;1 - 为县、县级市、区。
经纬度 coordinates text       TRUE 地域名的经纬度
···              

样本 1-1 地点 route 表的格式

表名:sample_route

name column data type length 分布 fk 必填域 备注
出发点 origin text         出发点
目的点 destination text         目的点
距离 distance integer         距离
路线 route text         路线
···              
 

创建配置信息接口

方便存储我们需要的特定变量和配置信息。

public/config.py

#!/usr/bin/python
# -*- coding: utf-8 -*-
#__author__: stray_camel import os,sys
#当前package所在目录的上级目录
src_path = os.path.dirname(os.path.dirname(os.path.abspath(__file__)))
 

创建读取 excel 数据的接口

利用 python 的 xlrd 包,定义 process_data 包来存放操作 excel 数据,生成 sql 语句的类

参考 github 源码 readme 文档
并没有发现在 PyPI 上有 document,所以只能去 github 上找源码了,xlrd 处理 excel 基础 guide

import xlrd
book = xlrd.open_workbook("myfile.xls")
print("The number of worksheets is {0}".format(book.nsheets))
print("Worksheet name(s): {0}".format(book.sheet_names()))
sh = book.sheet_by_index(0)
print("{0} {1} {2}".format(sh.name, sh.nrows, sh.ncols))
print("Cell D30 is {0}".format(sh.cell_value(rowx=29, colx=3)))
for rx in range(sh.nrows):
print(sh.row(rx))

创建 process_data/excel2sql.py 扩展包,方便后面 import
获取 excel 的数据构造 sql 语句,创建 city 表(湖北省)样表

process_data/excel2sql.py

#!/usr/bin/python
# -*- coding: utf-8 -*-
#__author__: stray_camel import xlrd,sys,os,logging
from public import config
class Excel2Sql(object):
def __init__(
self,
url:"str类型的文件路径",
sheet:"excel中的表单名"):
self.f_name = url
# 将excel中特定表单名数据存储起来
self.sh_data = xlrd.open_workbook(self.f_name).sheet_by_name(sheet)
self.rows = self.sh_data.nrows
self.cols = self.sh_data.ncols

当我们生成这个 Excel2Sql 对象的时候,我们希望按照类似

excel_data = excel2sql.Excel2Sql("fiel_name","sheet_name")

的代码形式来直接读取 excel 文件并获取某个表单的数据。所以在初始化对象的时候我们希望对其属性进行赋值。

excel 表中,我们按照下面的形式进行存储数据:

省 / 直辖市 地级市 县、县级市、区
北京市 北京市 东城区
... ... ...

 

之后我们希望通过调用这个类(接口)地时候能够访问其中一个函数,只获取某个省 / 或者直辖市的所有数据,类似湖北省,我们指向获取奇中 103 个县、区。

在类 Excel2Sql 中定义方法:

def init_SampleViaProvince_name(
self,
Province_name:"省名"
) ->"insert的数据,列表形式[('地域名1','1','经纬度'),('地域名2','1','经纬度')]":
geo_app = Geo_mapInterface(config.geo_key)
all_data = [self.sh_data.row_values(i) for i in range(self.rows)] cities_data=[[["".join(i),1],["".join(i[1:len(i)]),1]][i[0]==i[1]] for i in all_data if i[0] == Province_name]
for i in cities_data:
i.append(geo_app.get_coordinatesViaaddress("".join(i[0])))
# cities_data=[[["".join(i),1,'test1'],["".join(i[1:len(i)]),1,'test2']][i[0]==i[1]] for i in all_data if i[0] == Province_name]
return cities_data

之后我们可以测试类的构造是否正确,或进行调试:
在文件末端编写:

if __name__ == "__main__":
test = Excel2Sql(config.src_path+"\\data\\2019最新全国城市省市县区行政级别对照表(194).xls","全国城市省市县区域列表")
print(test.init_SampleViaProvince_name("北京市"))

测试结果:

(env) PS F:\览众数据> & f:/览众数据/env/Scripts/python.exe f:/览众数据/城市距离爬取/process_data/excel2sql.py
[['北京市东城区', 1, '116.416357,39.928353'], ['北京市西城区', 1, '116.365868,39.912289'], ['北京市崇文区', 1,
'116.416357,39.928353'], ['北京市宣武区', 1, '116.365868,39.912289'], ['北京市朝阳区', 1, '116.601144,39.948574'], ['北京市丰台区', 1, '116.287149,39.858427'], ['北京市石景山区', 1, '116.222982,39.906611'], ['北京市海淀区', 1, '116.329519,39.972134'], ['北京市门头沟区', 1, '116.102009,39.940646'], ['北京市房山区', 1, '116.143267,39.749144'], ['北京市通州区', 1, '116.656435,39.909946'], ['北京市顺义区', 1, '116.654561,40.130347'], ['北京市昌
平区', 1, '116.231204,40.220660'], ['北京市大兴区', 1, '116.341014,39.784747'], ['北京市平谷区', 1, '117.121383,40.140701'], ['北京市怀柔区', 1, '116.642349,40.315704'], ['北京市密云县', 1, '116.843177,40.376834'], ['北京
市延庆县', 1, '115.974848,40.456951']]
 

创建 OP 数据库 postgresql(其他数据库也都一样啦~)接口

定义 op_postgresql 包来存放数据库的操作对象,定义各种方法

数据库的 curd 真的是从大二写到大四。
访问 postgresql 数据库一般用的包:psycopg2
访问官网
在这个操作文档网站中,使用的思路已经很清楚的写出来了 http://initd.org/psycopg/docs/usage.html

 

希望大小少在网上走弯路(少看一些翻译过来的文档)。。。
http://initd.org/psycopg/

模式还是一样,调用 postgresql 的驱动 / 接口,设置参数登陆,访问数据库。设置光标,注入 sql 数据,fetch 返回值。

  • 这里需要注意的几点是,默认防 xss 注入,写代码时一般设置参数访问。
  • 注意生成日志文件,打印日志

具体过程不赘述,直接上代码

op_postgresql/opsql.py:

#!/usr/bin/python
# -*- coding: utf-8 -*-
#__author__: stray_camel '''
定义对mysql数据库基本操作的封装
1.数据插入
2.表的清空
3.查询表的所有数据
'''
import logging
import psycopg2
from public import config
class OperationDbInterface(object):
#定义初始化连接数据库
def __init__(self,
host_db : '数据库服务主机' = 'localhost',
user_db: '数据库用户名' = 'postgres',
passwd_db: '数据库密码' = '1026shenyang',
name_db: '数据库名称' = 'linezone',
port_db: '端口号,整型数字'=5432):
try:
self.conn=psycopg2.connect(database=name_db, user=user_db, password=passwd_db, host=host_db, port=port_db)#创建数据库链接
except psycopg2.Error as e:
print("创建数据库连接失败|postgresql Error %d: %s" % (e.args[0], e.args[1]))
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG,format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.exception(e)
self.cur=self.conn.cursor() #定义在样本表中插入数据操作
def insert_sample_data(self,
condition : "insert语句" = "insert into sample_data(address,ad_type,coordinates) values (%s,%s,%s)",
params : "insert数据,列表形式[('地域名1','1','经纬度'),('地域名2','1','经纬度')]" = [('地域名1','1','经纬度'),('地域名2','1','经纬度')]
) -> "字典形式的批量插入数据结果" :
try:
self.cur.executemany(condition,params)
self.conn.commit()
result={'code':'0000','message':'执行批量插入操作成功','data':len(params)}
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.info("在样本表sample_data中插入数据{}条,操作:{}!".format(result['data'],result['message']))
except psycopg2.Error as e:
self.conn.rollback() # 执行回滚操作
result={'code':'9999','message':'执行批量插入异常','data':[]}
print ("数据库错误|insert_data : %s" % (e.args[0]))
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.exception(e)
return result

继续写(代码长了,怕显示出错)

    #定义在sample_route表中插入数据操作
def insert_sample_route(self,
condition : "insert语句" ,
params : "insert语句的值"
)->"字典形式的批量插入数据结果":
try:
self.cur.executemany(condition,params)
self.conn.commit()
result={'code':'0000','message':'执行批量插入操作成功','data':len(params)}
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.info("在样本表sample_route中插入数据{}条,操作:{}!".format(result['data'],result['message']))
except psycopg2.Error as e:
self.conn.rollback() # 执行回滚操作
result={'code':'9999','message':'执行批量插入异常','data':[]}
print ("数据库错误|insert_data : %s" % (e.args[0]))
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.exception(e)
return result #定义对表的清空
def ini_table(self,
tablename:"表名")->"清空表数据结果":
try:
rows_affect = self.cur.execute("select count(*) from {}".format(tablename))
test = self.cur.fetchone() # 获取一条结果
self.cur.execute("truncate table {}".format(tablename))
self.conn.commit()
result={'code':'0000','message':'执行清空表操作成功','data':test[0]}
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.info("清空{}表,操作数据{}条,操作:{}!".format(tablename,result['data'],result['message']))
except psycopg2.Error as e:
self.conn.rollback() # 执行回滚操作
result={'code':'9999','message':'执行批量插入异常','data':[]}
print ("数据库错误|insert_data : %s" % (e.args[0]))
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.exception(e)
return result #查询表的所有数据
def select_all(self,
tablename:"表名")->"返回list,存放查询的结果":
try:
rows_affect = self.cur.execute("select * from {}".format(tablename))
test = self.cur.fetchall()
# self.cur.execute("truncate table {}".format(tablename))
self.conn.commit()
result={'code':'0000','message':'查询表成功','data':test}
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.info("清空{}表,操作数据{}条,操作:{}!".format(tablename,result['data'],result['message']))
except psycopg2.Error as e:
self.conn.rollback() # 执行回滚操作
result={'code':'9999','message':'执行批量插入异常','data':[]}
print ("数据库错误|insert_data : %s" % (e.args[0]))
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.exception(e)
return result
#数据库关闭
def __del__(self):
self.conn.close()

这里提出来想说一下的打印日志文件的操作,:
参考文件:
https://docs.python.org/zh-cn/3/library/lo...
https://docs.python.org/zh-cn/3/library/lo...
logging 作为 python 老牌库,在 https://docs.python.org/zh-cn/3/library/in... 中一般都搜索的到,参数的说明不过多的赘述。
因为我的代码都是用 utf-8 写的所以在 basicConfig 配置时,加入了 utf-8 的信息。

result={'code':'9999','message':'执行批量插入异常','data':[]}
print ("数据库错误|insert_data : %s" % (e.args[0]))
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.exception(e)
 

测试爬取 https://licheng.supfree.net/ 网站

测试 https://licheng.supfree.net/ 网站是否可以传参进行 post,获取 request 后的两地的地理距离

  • 测试网站是否有反爬虫机制,结果无。

通过测试 request,设置测试地点洪山区和江夏区,网站显示距离为 16.5 公里
解析 html 发现
测试结果:网站的数据是通过 js 文件获取传参的。

var map = new BMap.Map("container");
map.centerAndZoom(new BMap.Point(116.404, 39.915), 14); var oGl = document.getElementById("div_gongli");
var ofname = document.getElementById("tbxArea");
var otname = document.getElementById("tbxAreaTo");
if (ofname.value != "" && otname.value != "") {
var output = "全程:";
var searchComplete = function(results) {
if (transit.getStatus() != BMAP_STATUS_SUCCESS) {
return;
}
var plan = results.getPlan(0);
output += plan.getDistance(true); //获取距离
output += "/";
output += plan.getDuration(true); //获取时间
}
var transit = new BMap.DrivingRoute(map, {
renderOptions: {
map: map,
panel: "results",
autoViewport: true
},
onSearchComplete: searchComplete,
onPolylinesSet: function() {
oGl.innerText = output;
}
});
transit.search(ofname.value, otname.value);
}
...

我们查看网站加载的 js 文件,发现获取 Bmap 这个对象原来是来自于

https://api.map.baidu.com/?qt=nav&c=131&sn=2%24%24%24%24%24%24%E6%B4%AA%E5%B1%B1%E5%8C%BA%24%240%24%24%24%24&en=2%24%24%24%24%24%24%E6%B1%9F%E5%A4%8F%E5%8C%BA%24%240%24%24%24%24&sy=0&ie=utf-8&oue=1&fromproduct=jsapi&res=api&callback=BMap._rd._cbk35162&ak=zS6eHWhoEwXMUrQKkaaTlvY65XsVykFf

很明显,这个网站也是调用的百度的 api。
我们查看 js 文件传递的部分参数:

content: {dis: 16538,…}
dis: 16538
kps: [{a: 7, dr: "", dw: 0, ett: 17, ic: "", iw: 0, pt: ".=zl83LBgOCJVA;", rt: 1, tt: 1},…]
rss: [{d: 0, g: "", n: "", rr: 0, t: 0, tr: 0},…]
taxi: {detail: [{desc: "白天(05:00-23:00)", kmPrice: "2.3", startPrice: "14.0", totalPrice: "47"},…],…}
time: 1516
toll: 0
...

核实 content 里的 dis 和 time 是否就是网站显示的距离和时间
当我们更换测试地点后,显示的距离和 https://api.map.baidu.com 中 content 的内容一样
time:1516%60=25.26666666666667‬,和显示的 26 分钟也是核对的。

测试结果:网站没有反爬虫机制,但是调用的是百度地图 pai 获取数。

  • 网站储存地址的数据是按照编码来的,对应的下级城市为小数
    比如热门城市:

    hot_city: ["北京市|131", "上海市|289", "广州市|257", "深圳市|340", "成都市|75", "天津市|332", "南京市|315", "杭州市|179", "武汉市|218",…]
    0: "北京市|131"
    1: "上海市|289"
    2: "广州市|257"
    3: "深圳市|340"
    4: "成都市|75"
    5: "天津市|332"
    6: "南京市|315"
    7: "杭州市|179"
    8: "武汉市|218"
    9: "重庆市|132"

    当测试区级地点:(洪山区、江夏区)

    map.centerAndZoom(new BMap.Point(116.404, 39.915), 14);
  • 如果不行能否调用高德地图 api?

 

创建接口 - 调用高德地图 api

在高德的管理平台注册个人开发:https://lbs.amap.com/dev/key/app

 

申请个人的 key。每日调用量有上线,所以只能一点点的做。
我们将申请到的 key 写入配置信息文件中:
public/config.py

#!/usr/bin/python
# -*- coding: utf-8 -*-
#__author__: stray_camel import os,sys
#当前package所在目录的上级目录
src_path = os.path.dirname(os.path.dirname(os.path.abspath(__file__)))
geo_key = '3e2235273ddtestdef4'
#key我已经打马赛克了,请自己去申请

完成功能:
通过地域名查询经纬度;
对出发 / 目的地点 - 路程 - 路线,数据进行查询,并插入到数据库中,现已实现。但对于数据量较多的情况,数据库的操作较慢。

首先前往高德地图注册个人用户,获取一个 key,之后我们可以通过构造 url,通过 request 来获取数据。

通过 address 获取经纬度:

def get_coordinatesViaaddress(self,
address:"地点名"
) -> "返回str类型的经纬度":
url='https://restapi.amap.com/v3/geocode/geo?address='+address+'&output=json&key='+self.key
#将一些符号进行URL编码
newUrl = parse.quote(url, safe="/:=&?#+!$,;'@()*
")
coor = json.loads(urllib.request.urlopen(newUrl).read())['geocodes'][0]['location']
logging.basicConfig(stream=open(config.src_path + '/log/syserror.log', encoding="utf-8", mode="a"), level = logging.DEBUG, format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s')
logger = logging.getLogger(__name__)
logger.info("查询{}的经纬度:{}!".format(address,coor))
# print()
return coor

通过城市 list 获取两点之间距离和出行方式:

def get_disViaCoordinates(self,
addList:"一个列表存放地址数据"
) -> "{'origin':[],'destination':[],'distance':[],'route':[]}":
dict_route = {'origin':[],'destination':[],'distance':[],'route':[]}
for m in range(len(addList)):
for n in range(m,len(addList)):
if m!=n:
print('get_tetst',m,n)
#从addList中得到地址的名称,经纬度
origin = addList[m][2]
destination = addList[n][2]
url2='https://restapi.amap.com/v3/direction/driving?origin='+origin+'&destination='+destination+'&extensions=all&output=json&key=3e2235273dd2c0ca2421071fbb96def4'
#编码
newUrl2 = parse.quote(url2, safe="/:=&?#+!$,;'@()*[]")
#发送请求
response2 = urllib.request.urlopen(newUrl2)
#接收数据
data2 = response2.read()
#解析json文件
jsonData2 = json.loads(data2)
#输出该json中所有road的值
# print(jsonData2)
road=jsonpath.jsonpath(jsonData2,'$..road')
#从json文件中提取距离
distance = jsonData2['route']['paths'][0]['distance']
#字典dict_route中追加数据
dict_route.setdefault("origin",[]).append(addList[m][0])
dict_route.setdefault("destination",[]).append(addList[n][0])
dict_route.setdefault("distance",[]).append(distance)
dict_route.setdefault("route",[]).append(road)
return dict_route

数据库样品:
sample_table

数据库的内容我就用 json 表示了哈:

[
{
"address": "湖北省武汉市江岸区",
"ad_type": 1,
"coordinates": "114.278760,30.592688"
},
{
"address": "湖北省武汉市江汉区",
"ad_type": 1,
"coordinates": "114.270871,30.601430"
},
{
"address": "湖北省武汉市乔口区",
"ad_type": 1,
"coordinates": "114.214920,30.582202"
},
...共103条地点数据

sample_route,以 sample_table 前三个数据为例做出查询,和返回。

[
{
"origin": "湖北省武汉市江岸区",
"destination": "湖北省武汉市江汉区",
"route": "['台北一路', '新华路']",
"distance": "1520"
},
{
"origin": "湖北省武汉市江岸区",
"destination": "湖北省武汉市乔口区",
"route": "['台北一路', '台北路', '解放大道', '解放大道', '解放大道', '解放大道', '解放大道', '解放大道', '解放大道', '解放大道', '二环线辅路', '沿河大道']",
"distance": "9197"
},
{
"origin": "湖北省武汉市江汉区",
"destination": "湖北省武汉市乔口区",
"route": "['新华路', '建设大道', '建设大道', '建设大道', '建设大道', '沿河大道']",
"distance": "7428"
}
]

BUG:
问题:在 process_data/excel2sql.py,调用格比 public/config.py 接口
问题:当我们访问隔壁文件夹的接口时,如果发现调用不了,可以在当前文件的头部加入:

import sys,os
absPath = os.path.abspath(__file__) #返回代码段所在的位置,肯定是在某个.py文件中
temPath = os.path.dirname(absPath) #往上返回一级目录,得到文件所在的路径
temPath = os.path.dirname(temPath) #在往上返回一级,得到文件夹所在的路径
sys.path.append(temPath)

将当前文件夹所在的路径加入到 python 系统路径中

以上就是本次分享;另外很多人在学习Python的过程中,往往因为没有好的教程或者没人指导从而导致自己容易放弃,为此我建了个Python全栈开发交流.裙 :一久武其而而流一思(数字的谐音)转换下可以找到了,里面有最新Python教程项目可拿,不懂的问题有老司机解决哦,一起相互监督共同进步

本文的文字及图片来源于网络加上自己的想法,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

城市距离爬取 - 任务计划

Python对城市距离自动化爬取【必学小型项目】的更多相关文章

  1. 关于python的中国历年城市天气信息爬取

    一.主题式网络爬虫设计方案(15分)1.主题式网络爬虫名称 关于python的中国城市天气网爬取 2.主题式网络爬虫爬取的内容与数据特征分析 爬取中国天气网各个城市每年各个月份的天气数据, 包括最高城 ...

  2. python爬虫:了解JS加密爬取网易云音乐

    python爬虫:了解JS加密爬取网易云音乐 前言 大家好,我是"持之以恒_liu",之所以起这个名字,就是希望我自己无论做什么事,只要一开始选择了,那么就要坚持到底,不管结果如何 ...

  3. Python爬虫实战二之爬取百度贴吧帖子

    大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 前言 亲爱的们,教程比较旧了,百度贴吧页面可能改版,可能代码不 ...

  4. Python爬虫实战一之爬取糗事百科段子

    大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧.那么这次为大家带来,Python爬取糗事百科的小段子的例子. 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把 ...

  5. 【学习笔记】Python 3.6模拟输入并爬取百度前10页密切相关链接

    [学习笔记]Python 3.6模拟输入并爬取百度前10页密切相关链接 问题描述 通过模拟网页,实现百度搜索关键词,然后获得网页中链接的文本,与准备的文本进行比较,如果有相似之处则代表相关链接. me ...

  6. 转 Python爬虫实战二之爬取百度贴吧帖子

    静觅 » Python爬虫实战二之爬取百度贴吧帖子 大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 本篇目标 ...

  7. 转 Python爬虫实战一之爬取糗事百科段子

    静觅 » Python爬虫实战一之爬取糗事百科段子 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来. 友情提示 糗事百科在前一段时间进行了改版,导致 ...

  8. python爬虫学习01--电子书爬取

    python爬虫学习01--电子书爬取 1.获取网页信息 import requests #导入requests库 ''' 获取网页信息 ''' if __name__ == '__main__': ...

  9. Python爬虫:为什么你爬取不到网页数据

    前言: 之前小编写了一篇关于爬虫为什么爬取不到数据文章(文章链接为:Python爬虫经常爬不到数据,或许你可以看一下小编的这篇文章), 但是当时小编也是胡乱编写的,其实里面有很多问题的,现在小编重新发 ...

随机推荐

  1. IOS XE-show memory

    有些时候,我们可能会遇到IOS XE设备的high memory的情况.我们可以使用的命令去查看相关信息. 例如: Router# show version Router# show memory R ...

  2. LeetCode 234. Palindrome Linked List(判断是否为回文链表)

    题意:判断是否为回文链表,要求时间复杂度O(n),空间复杂度O(1). 分析: (1)利用快慢指针找到链表的中心 (2)进行步骤(1)的过程中,对前半部分链表进行反转 (3)如果链表长是偶数,首先比较 ...

  3. LeetCode中等题(三)

    题目一: 反转从位置 m 到 n 的链表.请使用一趟扫描完成反转. 说明:1 ≤ m ≤ n ≤ 链表长度. 示例: 输入: 1->2->3->4->5->NULL, m ...

  4. 前缀和-Big Water Problem (牛客)

    链接:https://ac.nowcoder.com/acm/problem/15164 题目描述 给一个数列,会有多次询问,对于每一次询问,会有两种操作: 1:给定两个整数x, y, 然后在原数组的 ...

  5. iOS 开发之 FMDB 源码分析

    概念: FMDB 是用于数据存储的框架,它是 iOS 平台下对 SQLite 数据库的封装.FMDB 是面向对象的,它以 OC 的方式封装了 SQLite 的 C 语言 API,使用起来更加方便. C ...

  6. SpringSecurity配置,简单梳理

    生活加油:摘一句子: “我希望自己能写这样的诗.我希望自己也是一颗星星.如果我会发光,就不必害怕黑暗.如果我自己是那么美好,那么一切恐惧就可以烟消云散.于是我开始存下了一点希望—如果我能做到,那么我就 ...

  7. 【网寻】IE F12 后报错,无法查看 DOM 等信息

    错误图片: 解决办法 : 安装Windows7补丁:KB3008923: 补丁下载地址: http://www.microsoft.com/en-us/download/details.aspx?id ...

  8. spring boot 中 2.X 的跨域请求

    解决跨域: @Configuration @EnableAutoConfiguration public class ZooConfiguration { @Bean public FilterReg ...

  9. Codeforces 1304B. Longest Palindrome

    根据数据范围,暴力可以解决,对每一个串,找与其互为回文的串,或者判断自身是否为回文串,然后两两将互为回文的串排列在头尾,中间放且只能最多放一个自身为回文串的串,因为题目说每个串都是不同的 #inclu ...

  10. Outlook 2013 您的组织策略阻止我们为您完成此操作... 解决方法

    问题:点击outlook超链接,弹出“您的组织策略阻止我们为您完成此操作”的提示,无法打开链接. 环境 OS: Win10 专业版x64bit Outlook: 2013 浏览器:搜狗浏览器 解决办法 ...