shell爬虫
#!/bin/bash
curl_str='curl -x "http://http-pro.abuyun.com:9010" --proxy-basic --proxy-user H78H42TCN191075P:3D1EA6E4F458AB69'
curl_str='curl -L --socks5 socks-cla.abuyun.com:8030 --proxy-user S822RB9T27K96TPC:5E68523C79E62C41'
### encode url
encode_url(){
local supplier_name_encode="$(echo "$" | tr -d '\n' | xxd -plain | sed 's/\(..\)/%\1/g')"
echo "https://xin.baidu.com/s?q=${supplier_name_encode}&t=0"|perl -npe 's/\n//'
} do_down_web_info_html(){
local url=$(encode_url "$1")
local html_file="$2"
# wget ${url} -O ${html_file}
#echo -e "\n===================================> " ${curl_str} "${url}" \> ${html_file}"\n"
${curl_str} "${url}" > ${html_file}
} get_supplier_pid(){
local html_file="${1}.html"
local supplier_name="$2"
do_down_web_info_html "${supplier_name}" "${html_file}"
### 获取pid
echo $(grep compinfo ${html_file}|head -|awk -F'pid=' '{print $2}'|awk -F'"' '{print $1}')
} do_down_supplier_unifiedcode(){
local id="$1"
local pid="$2"
### 获取统一社会信用代码
local unifiedCode="${id}_unifiedCode"
local api_basic_url="https://xin.baidu.com/detail/basicAjax?pid=${pid}"
echo -e "\n 获取统一社会信用代码 ===================================> "${curl_str} "${api_basic_url}" \> ${unifiedCode}"\n"
${curl_str} "${api_basic_url}" > ${unifiedCode}
} do_switch_ip(){
# ${curl_str} http://proxy.abuyun.com/switch-ip
echo "do_switch_ip"
} do_run(){
local id="$1"
local supplier_name="$2"
pid=$(get_supplier_pid "${id}" "${supplier_name}")
do_down_supplier_unifiedcode "${id}" "${pid}"
# echo -n $(date "+%F %T")" | ${id} | ${supplier_name} | ${pid} |"
### 解析json为csv文件
# jq -r '[(.data.entName|tostring),(.data.unifiedCode|tostring)]|join("|")' "${id}_unifiedCode"
} result_file="result_code"
# "上海东福网络科技有限公司广州分公司","" token(){
local pid=$
# 判断是否有传入pid
if [ -z "${pid}" ]
then
echo "please input pid"
exit
fi # 设置并发数,默认为5
local concurrency=
if [ -n "$2" ]
then
concurrency=$
echo "Concurrency: $2"
fi # 创建有名管道,如果fd1不存在则创建
[ -e /tmp/fd1 ] || mkfifo /tmp/fd1
# 创建文件描述符,以可读(<)可写(>)的方式关联管道文件,这时候文件描述符999就有了有名管道文件的所有特性
# 为了让程序有一定的扩展性,不想写死fd,因而引入了变量。
# 因而引入eval命令,强制shell进行变量展开。
# eval exec "${fd}>file"简单的说,eval将右边参数整体作为一个命令,进行变量的替换,然后将替换后的输出结果给shell去执行。
eval exec "${pid}<>/tmp/fd1"
# 关联后的文件描述符拥有管道文件的所有特性,所以这时候管道文件可以删除,我们留下文件描述符来用就可以了
[ -e /tmp/fd1 ] && rm -f /tmp/fd1 # 初始化并行数
for ((i=;i<=${concurrency};i++))
do
# &999代表引用文件描述符999,这条命令代表往管道里面放入了一个"令牌"
echo ${i}>&${pid}
done
} main(){
local pid=$$
local start_time=`date +%s`
# 生成管道文件
token ${pid}
local num=
cat ../tmpa|head -|tail -|while read line
do
num=$((${num}+))
if [ ${num} -eq ]
then
do_switch_ip
num=
echo "==================================== reset num ===================================="
fi
# 获取令牌
read -u${pid} name
{
local supplier_info=($(echo ${line}|sed 's/"//g'|sed 's/,/ /'))
local id="${supplier_info[1]}"
local supplier_name="${supplier_info[0]}"
echo "${id} | ${supplier_name}"
do_run ${id} ${supplier_name}
# | tee -a ${result_file}_${name}
echo ${name}>&${pid}
} &
done wait
# 定义脚本运行的结束时间
local stop_time=`date +%s`
echo "TIME:`expr ${stop_time} - ${start_time}`"
# 关闭文件描述符的读
eval exec "${pid}<&-"
# 关闭文件描述符的写
eval exec "${pid}>&-"
} main
shell爬虫的更多相关文章
- Linux shell爬虫实现树洞网自动回复Robot
奇怪的赞数 人生在世,不如意事十之八九,可与言者无二三人.幸好我们生在互联网时代,现实中找不到可以倾诉的人还可以在网络上寻找发情绪宣泄口,树洞这类产品就是提供一个让人在网络上匿名倾诉的平台. 我是偶然 ...
- shell爬虫--抓取某在线文档所有页面
在线教程一般像流水线一样,页面有上一页下一页的按钮,因此,可以利用shell写一个爬虫读取下一页链接地址,配合wget将教程所有内容抓取. 以postgresql中文网为例.下面是实例代码 #!/bi ...
- shell爬虫简易脚本(线程数可控)
1.介绍 以机电之家网站为例 经过初步分析,机电之家的数据量较大,并且数据组织规则较为统一,适合以代码方式进行全量爬取. 企业列表URL统一为http://www.jdzj.com/yp_vlist_ ...
- shell 爬虫 从日志分析到数据采集与分析
[root@VM_61_158_centos ~]# curl http://ip.chinaz.com/220.112.233.179 |grep -e Whwtdhalf.*span.*span. ...
- shell及Python爬虫实例展示
1.shell爬虫实例: [root@db01 ~]# vim pa.sh #!/bin/bash www_link=http://www.cnblogs.com/clsn/default.html? ...
- scrapy知识积累
Scrapy 中文文档https://scrapy-chs.readthedocs.io/zh_CN/latest/intro/overview.html 创建项目 scrapy startproje ...
- SHELL网络爬虫实例剖析--转载
原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 .作者信息和本声明.否则将追究法律责任.http://nolinux.blog.51cto.com/4824967/1552472 前天 ...
- 爬虫系列3:scrapy技术进阶(xpath、rules、shell等)
本文主要介绍与scrapy应用紧密相关的关键技术,不求很深入,但求能够提取要点.内容包括: 1.xpath选择器:选择页面中想要的内容 2.rules规则:定义爬虫要爬取的域 3.scrapy she ...
- Python爬虫教程-33-scrapy shell 的使用
本篇详细介绍 scrapy shell 的使用,也介绍了使用 xpath 进行精确查找 Python爬虫教程-33-scrapy shell 的使用 scrapy shell 的使用 条件:我们需要先 ...
随机推荐
- 碰撞的小球 ccf (模拟)
问题描述 试题编号: 201803-2 试题名称: 碰撞的小球 时间限制: 1.0s 内存限制: 256.0MB 问题描述: 问题描述 数轴上有一条长度为L(L为偶数)的线段,左端点在原点,右端点在坐 ...
- angular4 路由重用策略 RouterReuseStrategy
单页面应用现在是主流,随之而来的缺点:页面间切换时不能保存状态 angular4出了一个RouteReuseStrategy路由重用策略可以让组件所有的state和渲染好的html存起来,然后在切回去 ...
- SpringCloud微服务实战一:Spring Cloud Eureka 服务发现与注册中心(高可用实列为两个注册中心)
微服务架构: 微服务架构的核心思想是,一个应用是由多个小的.相互独立的.微服务组成,这些服务运行在自己的进程中,开发和发布都没有依赖.不同服务通过一些轻量级交互机制来通信,例如 RPC.HTTP 等, ...
- oracle习题集-高级查询2
1.列出员工表中每个部门的员工数和部门编号 Select deptno,count(*) from emp group by deptno; 2.列出员工表中,员工人数大于3的部门编号和员工人数 ; ...
- 2019-9-2-C#判断文件是否被混淆
title author date CreateTime categories C#判断文件是否被混淆 lindexi 2019-09-02 12:57:37 +0800 2018-2-13 17:2 ...
- 【洛谷】【USACO】P1118 数字三角形
题目描述 FJ and his cows enjoy playing a mental game. They write down the numbers from 1 to N (1 <= N ...
- R语言可视化--qplot函数
ggplot绘图系统 使用动词名词形容词构造句子的过程,将数据映射到美学属性上的过程,由层组成 绘图函数 qplot() :参数包括美学属性.几何体.面.统计.坐标系.主题这些层次. ggplot() ...
- tomcat的日志不输出日志信息的解决方法
1.下载日志jar包,例如:commons-logging-1.1.1.jar.放在tomcat的bin目录下,或者是自己项目的lib包里. 2.修改tomcat的bin目录下面的catalina.b ...
- 2018-12-29-WPF-如何建立自己的-3d-gis-程序
title author date CreateTime categories WPF 如何建立自己的 3d gis 程序 lindexi 2018-12-29 14:11:11 +0800 2018 ...
- CSS3圆环旋转效果
html结构: <div class="demo"></div> css结构: .demo{ width:250px; height:250px; bord ...