一、背景:
最近工作中做了一个小功能,目的是为了分析注册用户区域分布和订单的区域分布情况。所以需要将其对应的IP信息解析为归属地,并同步每天同步更新。
线上跑起来效率还是有优化的空间,优化的方向:在调用IP查询API过程可以调整为多线程并行解析IP。后续会更新这方便的调整。
技术: Pyhton3
postgreSQL
env配置文件 附加信息:iP地址查询(iP138官方企业版):https://market.aliyun.com/products/56928004/cmapi015606.html#sku=yuncode960600002
.可提供免费的IP查询API. 二、实现思路: 1、 读取数据库IP信息
2、 调用第三方IP解析API进行解析
3、 将解析归属地信息存入数据库
三、几点说明: 1、环境信息等参数配置
2、日志输出
3、异常处理: 数据库连接异常
请求连接查询IP的URL异常:HTTP ERROR 503
4、json,字典,数组等类型数据输入输出
5、分页查询并批量解析
5.功能实现很简单,所以就没有做详细的介绍了。详情可直接看完整代码,有详细的备注。 四、步骤简单介绍:
针对实现思路的3个步骤写了3个函数,彼此调用执行。
函数:
def get_ip_info(table_name):
def get_ip_area(table_name):
def ip_write_db(table_name):
调用:
ip_write_db("h_user_stat") 五、关键代码说明:
语法:urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None)
 # 对从数据库表中出查询的IP进行解析
querys = 'callback&datatype=jsonp&ip=' + get_ip
bodys = {}
url = host + path + '?' + querys
request = urllib.request.Request(url)
request.add_header('Authorization', 'APPCODE ' + appcode) # 连接url时可能会出现 ERROR: HTTP Error 503: Service Unavailable
try:
response = urllib.request.urlopen(request)
except Exception as e:
logging.error(e) # 输出异常日志信息
time.sleep(5)
response = urllib.request.urlopen(request)
finally:
content = response.read()
ip_area = content.decode('utf8')
ip_area = json.loads(ip_area)['data'] # json类型转字典类型并取'data'健值
arr.append([get_ip, ip_area]) # 将结果集存于二元数组
说明:从数据库分页查询固定数量的IP存入数组,并遍历该数组并将解析后的地区信息data健值存于二元数组中。

 
六、Python代码实现如下:
 # 导入psycopg2包
import psycopg2, time,datetime,sys
import json
import urllib, urllib.request
import os
import configparser
import logging
# purpose: 连接数据库读取表IP信息
def get_ip_info(table_name):
# 全局变量作用局部作用域
global pagesize # 每页查询数据条数
global rows_count # 测试1
starttime_1 = time.time()
# 建立游标,用来执行数据库操作
cur = conn.cursor()
# 执行SQL命令
cur.execute("SELECT remote_ip FROM (select remote_ip,min(created_at) from " + table_name + " group by remote_ip) h1 where remote_ip is not null and remote_ip <> '' and not exists (select 1 from d_ip_area_mapping h2 where h1.remote_ip = h2.remote_ip) limit " + str(pagesize) + ";") # 获取结果集条数
rows_count = cur.rowcount # print('解析用户IP的总数:' + str(rows_count)) # 当有未解析的用户的IP,返回元组,否则退出程序
if rows_count > 0:
# 获取SELECT返回的元组
rows = cur.fetchall() # all rows in table for row in rows:
tuple = rows conn.commit()
# 关闭游标
cur.close() else:
tuple = []
logging.info('每页查询秒数:' + str(time.time() - starttime_1))
return tuple
# 调用解析函数 def get_ip_area(table_name):
# 内包含用户ID和IP的数组的元组
tuple = get_ip_info(table_name) # 测试2
starttime_2 = time.time()
host = 'http://ali.ip138.com'
path = '/ip/'
method = 'GET'
appcode = '917058e6d7c84104b7cab9819de54b6e'
arr = []
for row in tuple: get_ip = row[0]
#get_user = "".join(str(row))
#get_user = row[0] # 对从数据库表中出查询的IP进行解析
querys = 'callback&datatype=jsonp&ip=' + get_ip
bodys = {}
url = host + path + '?' + querys
request = urllib.request.Request(url)
request.add_header('Authorization', 'APPCODE ' + appcode) # 连接url时可能会出现 ERROR: HTTP Error 503: Service Unavailable
try:
response = urllib.request.urlopen(request)
except Exception as e:
logging.error(e) # 输出异常日志信息
time.sleep(5)
response = urllib.request.urlopen(request)
finally:
content = response.read()
ip_area = content.decode('utf8')
ip_area = json.loads(ip_area)['data'] # json类型转字典类型并取'data'健值
arr.append([get_ip, ip_area]) # 将结果集存于二元数组
logging.info('每页解析秒数:' + str(time.time() - starttime_2))
return arr def ip_write_db(table_name): write_ip = get_ip_area(table_name) # 内包含用户ID和IP的数组的元组 # 测试1
starttime_3 = time.time() # 建立游标,用来执行数据库操作
cur = conn.cursor()
for row in write_ip:
# get_user = row[0] # 获取用户ID
get_ip = row[0] # 获取用户对应的IP
country = row[1][0] # 获取IP解析后的地区:国家
province = row[1][1] # 获取IP解析后的地区:省
city = row[1][2] # 获取IP解析后的地区:市
isp = row[1][3] # 获取IP解析后的服务提供商 # 执行SQL命令
sql = "insert into d_ip_area_mapping(remote_ip,country,province,city,isp,created_at,updated_at,job_id) values (%s,%s,%s,%s,%s,%s,%s,%s);"
val = [get_ip, country, province, city, isp, time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()),
time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()),time.strftime("%Y-%m-%d",time.localtime())] cur.execute(sql, val)
conn.commit()
# 关闭游标
cur.close()
logging.info('每页插入秒数:' + str(time.time() - starttime_3)) # 1.程序开始执行计时
starttime = time.time() # 读取配置文件环境信息 # 项目路径
rootDir = os.path.split(os.path.realpath(__file__))[0] ############################### config.env文件路径 ############################################################# configFilePath = os.path.join(rootDir, 'db_udw.env')
config = configparser.ConfigParser()
config.read(configFilePath) # 读取数据库环境信息
db_database = config.get('postgresql','database')
db_user = config.get('postgresql','user')
db_password = config.get('postgresql','password')
db_host = config.get('postgresql','host')
db_port = config.get('postgresql','port') # 读取输出日志路径
log = config.get('log','log_path') # 每页查询数据条数
pagesize = config.get('page','pagesize') # 读取解析IP条数限制
ip_num_limit = config.get('ip_num','ip_num_limit') # 配置输出日志格式
logging.basicConfig(level=logging.DEBUG,#控制台打印的日志级别
filename='{my_log_path}/ip_analyzer.log'.format(my_log_path=log), # 指定日志文件及路径
filemode='a',##模式,有w和a,w就是写模式,每次都会重新写日志,覆盖之前的日志 #a是追加模式,默认如果不写的话,就是追加模式
format='%(asctime)s - %(pathname)s[line:%(lineno)d] - %(levelname)s: %(message)s'#日志格式
) ############################### 程序开始执行 #############################################################
try: # 连接到一个给定的数据库
conn = psycopg2.connect(database=db_database, user=db_user, password=db_password, host=db_host, port=db_port)
except Exception as e:
logging.error(e) # 输出连接异常日志信息 # 返回查询行数 默认为0
rows_count = 0
# 用户表IP解析总数
user_ip_num = 0
# 订单表IP解析总数
order_ip_num = 0 try: # 解析用户表注册IP信息
while user_ip_num <= eval(ip_num_limit):
i = 1 # 循环次数
ip_write_db("h_user_stat")
user_ip_num = user_ip_num + rows_count*i
i = i + 1
if rows_count == 0 :
break # 解析订单表下单IP信息
while user_ip_num <= eval(ip_num_limit):
# 解析用户表注册IP信息
i = 1 # 循环次数
ip_write_db("h_order")
order_ip_num = order_ip_num + rows_count*i
i = i + 1
if rows_count == 0 :
break
except Exception as e:
logging.error(e) # 输出异常日志信息
finally:
# 关闭数据库连接
conn.close() # 2 程序结束执行计时
endtime = time.time() # print('解析用户IP的总数:' + str(user_ip_num))
# print('解析订单IP的总数:' + str(order_ip_num))
# # 打印程序执行总耗时
# print('解析总耗时秒数:' + str(endtime - starttime))
logging.info('解析用户IP的总数:' + str(user_ip_num))
logging.info('解析订单IP的总数:' + str(order_ip_num))
logging.info('解析总耗时秒数:' + str(endtime - starttime))

环境配置db_udw.envdb_udw.env 如下:

# 数据库环境信息
[postgresql]
database = ahaschool_udw
user = admin
password = 123456
host = 127.0.0.0
port = 5432 # 设置日志文件路径
[log]
log_path = /home/hjmrunning/bi_etl_product/scripts/log # 每页查询数据条数
[page]
pagesize = 1000 # IP解析条数限制
[ip_num]
ip_num_limit = 150000

最后

我接触Python时间也不是很久,实现方法可能会有疏漏。如果有什么疑问和见解,欢迎评论区交流。

 

Python 实现批量查询IP并解析为归属地的更多相关文章

  1. 【Python】批量查询-提取站长之家IP批量查询的结果加强版本v3.0

    1.工具说明 写报告的时候为了细致性,要把IP地址对应的地区给整理出来.500多条IP地址找出对应地区复制粘贴到报告里整了一个上午. 为了下次更好的完成这项重复性很高的工作,所以写了这个小的脚本. 某 ...

  2. 【Python】批量查询-提取站长之家IP批量查询的结果v1.0

    0 前言 写报告的时候为了细致性,要把IP地址对应的地区给整理出来.500多条IP地址找出对应地区复制粘贴到报告里整了一个上午. 为了下次更好的完成这项重复性很高的工作,所以写了这个小的脚本. 1 使 ...

  3. python实现批量ping IP,并将结果写入

    最近工作需要,写了一个Python小脚本,分享给大家,因为公司的IP用的差不多了,然后离职人员的IP有没有及时删除,导致没多少IP用了,所以做了一个python脚本跑了跑,清出来一堆ping不通的IP ...

  4. Python + MySQL 批量查询百度收录

    做SEO的同学,经常会遇到几百或几千个站点,然后对于收录情况去做分析的情况 那么多余常用的一些工具在面对几千个站点需要去做收录分析的时候,那么就显得不是很合适. 在此特意分享给大家一个批量查询百度收录 ...

  5. python爬虫学习之查询IP地址对应的归属地

    话不多说,直接上代码吧. import requests def getIpAddr(url): response = requests.get(url) response.encoding=resp ...

  6. 提取站长之家IP批量查询

    1.工具说明 写报告的时候为了细致性,要把IP地址对应的地区给整理出来.500多条IP地址找出对应地区复制粘贴到报告里整了一个上午. 为了下次更好的完成这项重复性很高的工作,所以写了这个小的脚本. 使 ...

  7. 利用撒旦搜索引擎查询ip个数,批量下载ip

    利用撒旦搜索引擎查询ip个数,批量下载ip,使用语言python3.x 批量测试时,为了方便直接撸下ip,所以用python写了个GUI撒旦利用工具,写的不是很好,但能用,最下面有下载. from t ...

  8. 利用Dnspod api批量更新添加DNS解析【python脚本】 - 推酷

    利用Dnspod api批量更新添加DNS解析[python脚本] - 推酷 undefined

  9. shell脚本和python脚本实现批量ping IP测试

    先建一个存放ip列表的txt文件: [root@yysslopenvpn01 ~]# cat hostip.txt 192.168.130.1 192.168.130.2 192.168.130.3 ...

随机推荐

  1. bzoj2060

    树形dp dp[x][0]表示x点父亲没选,dp[x][1]表示x点父亲选了,然后dp[x][0]=max(sigma(dp[c[x]][0]),sigma(dp[c[x]][1])) dp[x][1 ...

  2. 不温不火WindowsPhone

    最近在考虑是否转其他平台,如iOS或者Android或者javascript等. 已经以Windows Phone 开发作为工作就一年了(也不算是真正的Windows Phone开发吧,仅仅是开发高德 ...

  3. shell判断文件,目录是否存在或者具有权限 (转载)

    转自:http://cqfish.blog.51cto.com/622299/187188 文章来源:http://hi.baidu.com/haigang/blog/item/e5f582262d6 ...

  4. 2017西安网络赛B_Coin

    样例输入 2 2 1 1 3 1 2 样例输出 500000004 555555560 思路: n重伯努利实验概率分布题. 设q=1-p,p为事件概率. Y为出现偶数次的概率. 所以  Y=1/2*( ...

  5. daily_journal_2 神奇的一天

    写博客日记的第二天,第一天立的flag开始有点松动啦,继续坚持啊!坚持就是胜利. 今天真是神奇的一天,上午的计划是照常进行的,但是前天淋雨赶上风寒,又吃了新疆室友的大补特产,龙体开始感觉到不适,于是上 ...

  6. spring的依赖注入如何降低了耦合

    依赖注入:程序运行过程中,如需另一个对象协作(调用它的方法.访问他的属性时),无须在代码中创建被调用者,而是依赖于外部容器的注入 看过一些比较好的回答 1.一个人(Java实例,调用者)需要一把斧子( ...

  7. pycharm但多行注释快捷键

    pycharm中同时注释多行代码快捷键: 代码选中的条件下,同时按住 Ctrl+/,被选中行被注释,再次按下Ctrl+/,注释被取消

  8. 实例化WebService实例对象时出现localhost未引用命名空间

    //实例化WebService实例对象 localhost.WebService WebserviceInstance = new localhost.WebService(); 在实例化WebSer ...

  9. Atmel studio 7.0 安装成功

    Atmel studio 7.0 安装成功 转载:   http://www.eeworld.com.cn/mcu/article_2017112436241.html 2018-07-2610:27 ...

  10. Android集成微信分享功能应用签名生成方法及分享不生效的问题

    通过友盟sdk集成微博.微信.qq等分享功能时,微博和qq很顺利,但在做微信集成时一直不成功.主要问题还是之前在微信开放平台申请创建移动应用时,对应用签名没有填写对,走了很多弯路现总结出来,加深记忆避 ...