Golang 网络爬虫框架gocolly/colly 五 获取动态数据

gcocolly+goquery可以非常好地抓取HTML页面中的数据,但碰到页面是由Javascript动态生成时,用goquery就显得捉襟见肘了。解决方法有很多种,一,最笨拙但有效的方法是字符串处理,go语言string底层对应字节数组,复制任何长度的字符串的开销都很低廉,搜索性能比较高;二,利用正则表达式,要提取的数据往往有明显的特征,所以正则表达式写起来比较简单,不必非常严谨;三,使用浏览器控件,比如webloop;四,直接操纵浏览器,比如chromedp。一和二需要goquery提取javascript,然后再提取数据,速度非常快;三和四不需要分析脚本,在浏览器执行JavaScript生成页面后再提取,是比较偷懒的方式,但缺点是执行速度很慢,如果在脚本非常复杂、懒得分析脚本的情况下,牺牲下速度也是不错的选择。

不同的场景,做不同的选择。中证指数有限公司下载中心提供了行业市盈率下载,数据文件的Url在页面的脚本中,脚本简单且特征明显,直接用正则表达式的方式是最好的选择。

下载地址对应一段脚本

<a href="javascript:;" class="ml-20 dl download1">下载<i class="i_icon i_icon_rar ml-5"></i></a>
<script>

$(function() {

//切换

$('.hysyl_con').rTabs({

bind: 'click',

auto: false,

});

tabs($('.snav .tab_item'),$('.sCon .tab-con-item'));

tabs($('.snav2 .tab_item'),$('.sCon2 .tab-con-item'));

tabs($('.snav3 .tab_item'),$('.sCon3 .tab-con-item'));

$("#search_code1").on("click",function(){

            var csrc_code = $("#csrc_code1").val();

            if (csrc_code == '') {

                return false;

            }

            var url = "http://www.csindex.com.cn/zh-CN/downloads/industry-price-earnings-ratio-detail?date=2018-01-19&class=1&search=1&csrc_code="+csrc_code;

            $("#link_1").attr('href', url);

         document.getElementById("link_1").click();

        })

        $("#search_code2").on("click",function(){

            var csrc_code = $("#csrc_code2").val();

            if (csrc_code == '') {

                return false;

            }

            var url = "http://www.csindex.com.cn/zh-CN/downloads/industry-price-earnings-ratio-detail?date=2018-01-19&class=1&search=1&csrc_code="+csrc_code;

            $("#link_2").attr('href', url);

         document.getElementById("link_2").click();

        })

})

$(".download1").on("click",function(){

        var date = $(".date1").val();

        date = date.replace(/\-/g, '');

        if (date) {

         $("#link1").attr('href', 'http://115.29.204.48/syl/'+date+'.zip');

         document.getElementById("link1").click();

        }

    });

$(".download2").on("click",function(){

        var date = $(".date2").val();

        date = date.replace(/\-/g, '');

        if (date) {

         $("#link2").attr('href', 'http://115.29.204.48/syl/csi'+date+'.zip');

         document.getElementById("link2").click();

        }

    });

$(".download3").on("click",function(){

        var date = $(".date3").val();

        date = date.replace(/\-/g, '');

        if (date) {

         $("#link3").attr('href', 'http://115.29.204.48/syl/bk'+date+'.zip');

         document.getElementById("link3").click();

        }

    });

</script>

点击下载时,为link1元素生成href属性,然后点击link1,这需要用gocolly+goquery提取date,然后获取服务器地址http://115.29.204.48/,根据获取文件的类型拼接字符串生成下载地址。

获取交易日期

 sTime := ""

    var bodyData []byte

    c:= colly.NewCollector()

    c.OnResponse(func (resp *colly.Response) {

        bodyData = resp.Body

    })

    c.OnHTML("input[name=date]",func (el *colly.HTMLElement) {

        sTime = el.Attr("value")

    })

    err = c.Visit("http://www.csindex.com.cn/zh-CN/downloads/industry-price-earnings-ratio")

    if err != nil {

        return

    }

  

获取文件服务器地址,下载zip文件

    htmlDoc,err := goquery.NewDocumentFromReader(bytes.NewReader(bodyData))

    if err != nil {

        return

    }

    scripts := htmlDoc.Find("script")

    destScript := ""

    for _,n := range scripts.Nodes {

        if n.FirstChild != nil {

            if strings.Contains(n.FirstChild.Data,"syl/csi") && strings.Contains(n.FirstChild.Data,".download2"){

                destScript = n.FirstChild.Data

                break

            }

        }

    }

    re,err := regexp.Compile("http://[0-9]+.[0-9]+.[0-9]+.[0-9]+/syl/csi")

    if err != nil {

        log.Fatal(err)

    }

    result := re.FindString(destScript)

    pos := strings.LastIndex(result,"/")

    parentUrl := result[0:pos+1]

    link := parentUrl

    sTime = strings.Replace(sTime,"-","",-1)

    fileName := ""

    if t == ZhengJjianHuiHangYePERatio {

        fileName = fmt.Sprintf("%s.zip",sTime)      

        link += fileName

        fileName = "zjh"+fileName

    }else if t == ZhongZhengHangYePERatio {

        fileName = fmt.Sprintf("csi%s.zip",sTime)

        link += fileName

    }else {

        fileName = fmt.Sprintf("bk%s.zip",sTime)

        link += fileName

    }

    fmt.Println(link)

    cli:=http.Client{}

    resp,err := cli.Get(link)

    if err != nil {

        return

    }

defer resp.Body.Close()

    fullFileName := fmt.Sprintf("%s/%s",filePath,fileName)

    if resp.StatusCode == 200 {

        allBody,err := ioutil.ReadAll(resp.Body)

        if err != nil {

            return err

        }

        err = ioutil.WriteFile(fullFileName,allBody,0666)

        if err != nil {

            return err

        }

    }else{

        err = fmt.Errorf("bad resp.%d",resp.StatusCode)

        return 

    }

    err = archiver.Zip.Open(fullFileName, filePath)

  

在脚本里匹配服务器ip地址用 http://[0-9]+.[0-9]+.[0-9]+.[0-9]+/syl/csi

,因为前后都有限定元素,所以写得比较简单;如果没有前后限定条件,设计正则表达式就得多费心了,复杂的正则表达式会吓跑很多人。不过没关系,稍微了解一些正则表达式的知识,就可以用在爬虫上了。

下载的文件是excel(.xls格式)的zip压缩包,解压缩操纵及xls读取后面再介绍。

转载请注明出处:https://www.cnblogs.com/majianguo/

Golang 网络爬虫框架gocolly/colly 五 获取动态数据的更多相关文章

  1. Golang 网络爬虫框架gocolly/colly 四

    Golang 网络爬虫框架gocolly/colly 四 爬虫靠演技,表演得越像浏览器,抓取数据越容易,这是我多年爬虫经验的感悟.回顾下个人的爬虫经历,共分三个阶段:第一阶段,09年左右开始接触爬虫, ...

  2. Golang 网络爬虫框架gocolly/colly 一

    Golang 网络爬虫框架gocolly/colly 一 gocolly是用go实现的网络爬虫框架,目前在github上具有3400+星,名列go版爬虫程序榜首.gocolly快速优雅,在单核上每秒可 ...

  3. Golang 网络爬虫框架gocolly/colly 三

    Golang 网络爬虫框架gocolly/colly 三 熟悉了<Golang 网络爬虫框架gocolly/colly一>和<Golang 网络爬虫框架gocolly/colly二& ...

  4. Golang 网络爬虫框架gocolly/colly 二 jQuery selector

    Golang 网络爬虫框架gocolly/colly 二 jQuery selector colly框架依赖goquery库,goquery将jQuery的语法和特性引入到了go语言中.如果要灵活自如 ...

  5. 试验一下Golang 网络爬虫框架gocolly/colly

    参考:http://www.cnblogs.com/majianguo/p/8186429.html 框架源码在 github.com/gocolly/colly 代码如下(github源码中的dem ...

  6. 基于java的网络爬虫框架(实现京东数据的爬取,并将插入数据库)

    原文地址http://blog.csdn.net/qy20115549/article/details/52203722 本文为原创博客,仅供技术学习使用.未经允许,禁止将其复制下来上传到百度文库等平 ...

  7. 网络爬虫框架Scrapy简介

    作者: 黄进(QQ:7149101) 一. 网络爬虫 网络爬虫(又被称为网页蜘蛛,网络机器人),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本:它是一个自动提取网页的程序,它为搜索引擎从万维 ...

  8. [原创]一款基于Reactor线程模型的java网络爬虫框架

    AJSprider 概述 AJSprider是笔者基于Reactor线程模式+Jsoup+HttpClient封装的一款轻量级java多线程网络爬虫框架,简单上手,小白也能玩爬虫, 使用本框架,只需要 ...

  9. Python爬虫框架Scrapy实例(三)数据存储到MongoDB

    Python爬虫框架Scrapy实例(三)数据存储到MongoDB任务目标:爬取豆瓣电影top250,将数据存储到MongoDB中. items.py文件复制代码# -*- coding: utf-8 ...

随机推荐

  1. [.Net跨平台]部署DTCMS到Jexus遇到的问题及解决思路--验证码

    上一篇博客我们已经基本完成了部署工作,目前发现了验证码出现500错误,分析其代码,我们可以看到验证码使用的是System.Drawing命名空间下的类库, GDI+ 位图,这个在肯定是平台相关的,所以 ...

  2. 小型Web页打包优化(下)

    之前我们推送了一篇小型Web项目打包优化文章,(链接),我们使用了一段时间, 在这过程中我们也一直在思考, 怎么能把结构做的更好.于是我们改造了一版, 把可以改进的地方和可能会出现的问题, 在这一版中 ...

  3. 排序sort,统计wc

    [root@localhost ~]# sort /etc/passwd 注释:默认按字母升序排 abrt:x::::/etc/abrt:/sbin/nologin adm:x:::adm:/var/ ...

  4. 创建一个可用的简单的SpringMVC项目,图文并茂

    转载麻烦注明下来源:http://www.cnblogs.com/silentdoer/articles/7134332.html,谢谢. 最近在自学SpringMVC,百度了很多资料都是比较老的,而 ...

  5. 【NOIP模拟】从我背后出现

    Description 给定n个点m条边的无向连通图,对于每条边求出强制选这条边后的最⼩⽣成树⼤⼩. \(n\leq 10^5,m\leq 2*10^5\) Input Format 第 1 行包含两 ...

  6. ABP .Net Core Entity Framework迁移使用MySql数据库

    一.迁移说明 ABP模板项目Entity Framework Core默认使用的是Sql Server,也很容易将数据库迁移到MySQL,步骤如下. 二.迁移MySQL步骤 1. 下载项目 请到 ht ...

  7. locust 参数,数据详解

    参数    说明-h, –help    查看帮助-H HOST, –host=HOST    指定被测试的主机,采用以格式:http://10.21.32.33–web-host=WEB_HOST  ...

  8. 几种加密算法的java实现包括MD5、RSA、SHA256

    SHA加密: package com; import java.security.MessageDigest;import java.security.NoSuchAlgorithmException ...

  9. mysql 的 fiter push down 优化

    出处:黑洞中的奇点 的博客 http://www.cnblogs.com/kelvin19840813/ 您的支持是对博主最大的鼓励,感谢您的认真阅读.本文版权归作者所有,欢迎转载,但请保留该声明. ...

  10. linux保持管道中颜色显示

    在linux工作中,不同类型的文件以不同的颜色显示,如文件夹显示蓝色,压缩文件显示橘黄色,可执行文件显示为绿色,链接失效文件高亮显示等等: 有时候根据颜色可以快速鉴别,如我有时为了保持目录的完整性,会 ...