感觉要总结总结了,希望这次能写个系列文章分享分享心得,和大神们交流交流,提升提升。
  因为半桶子水的水平,一直在想写什么为什么写怎么写
  直到现在找到了一种好的办法:
    1.写什么 自己手上掌握的,工作中经常用到的,从数据源 到 最后可视化 所有一套流程。
    2.为什么写 因为很长一段时间没有进行总结和梳理了,总感觉很多东西很零散,另一方面,写写笔记也是对那些东西的一次巩固。
    3.怎么写 这个问题其实想了很久,后来想通了,就是怎么把工具都放在手上,结合着用起来,按流程走。
 
  接下来都会这么写:
    1.梳理思路
    2.找数据
    3.连数据
    4.pandas xjb一顿操作
    5.可视化
    6.总结
 
找数据:
  理由:本人之前从事过金融贷款行业的工作,而且现在国家互联网金融行业盛行,找些投资借款数据用来练手还是可行的。
  备注:仅是部分样本数据,目的只有一个:练手。
  可以这么理解:如果你想练刀工,重点不在于你是切鸡肉还是鸭肉,在于你手上的刀玩得溜不溜,不管是鸡肉,鸭肉还是鹅肉,切好他们的同时让你刀工更加进步。
 
连数据:
  我用的是 python + pymysql 方式,还有用pandas读取excel,csv,txt文件都是ok的。
  python连接数据库有很多人用的是MySQL-python,mysqlclient,peewee或者SQLAlchemy库,也是ok的。
  顺便说一下各个库
    MySQL-python:又叫 MySQLdb,是用的比较多的一种驱动,基于C开发的库,可是它只支持python2.X,而且在windows平台经常抽风。
    mysqlclient:这个据说是django ORM的依赖工具,之后可视化部分我应该也会用到django。
    pymysql:这个是纯Python实现的,最大的优点就是安装so easy ,我刚接触python+mysql时,选择了这个,所以就一直用这个库来操作mysql了。
    peewee:ORM框架,如果对Django的ORM操作很熟悉的话,这个就so_easy了,但是我觉得很麻烦,哈哈哈。
    SQLachemy :这个不错,既支持原生SQL,也支持ORM,pandas操作中会涉及这个。
 
pandas xjb一顿操作:
  这也是为什么我要写文章巩固梳理的地方,数据操作重点就在这里。
 
可视化操作:
  可视化(excel,python可视化库,在线制图,以及非常牛逼的highcharts,echarts web交互)。
  表比文字好,图比表好。
  人要穿衣服,但是衣服也有漂亮和丑之分,如果目的仅仅是穿衣服,那么随便穿,只要掩体就行,可视化也是一个道理,图表有装逼和不装逼之分,关键看你只是达到目的,还是为了更美观。
  excel:这个如果是默认的图表确实不够炫酷,但是可以调得非常美观,比如这个还看得过去吧。
  
 

  python可视化库:bokeh,matplotlib等等等,都不错,也是得靠手工调才能显逼格的。

  在线制图:我平时用到的,只是为了偷懒,比如用pandas把数据整出来了,要做个云词图,直接百度一个在线云词图工具,数据甩进去就好了,怎么快怎么搞,而且更美观。

  highcharts,echarts:只能说很牛逼,这个。如果搞web的话,直接用js接入这两个的其中一个就行了,交互式图表,更加符合现代互联网企业的发展。这两个相比较,我更倾向于echarts,但是手上的报表系统是highcharts的,所以highcharts的参数我更熟悉一点,如果真要美观,装逼,高大上的话,还是入手echarts吧。
https://www.hcharts.cn/docs/basic-title
http://echarts.baidu.com/tutorial.html

 
总结:
  介绍了基本情况,下面进入半桶子水时刻,qq1749061919 (欢迎交流,共同进步)
 
 

出处:http://www.cnblogs.com/buddyquan/p/7986225.html

python 抓取数据,pandas进行数据分析并可视化展示的更多相关文章

  1. 利用Python网络爬虫抓取微信好友的签名及其可视化展示

    前几天给大家分享了如何利用Python词云和wordart可视化工具对朋友圈数据进行可视化,利用Python网络爬虫抓取微信好友数量以及微信好友的男女比例,以及利用Python网络爬虫抓取微信好友的所 ...

  2. python抓取数据,python使用socks代理抓取数据

    在python中,正常的抓取数据直接使用urllib2 这个模块: import urllib2 url = 'http://fanyi.baidu.com/' stream = urllib2.ur ...

  3. 在mac下使用python抓取数据

    2015已经过去,这是2016的第一篇博文! 祝大家新年快乐! 但是我还有好多期末考试! 还没开始复习,唉,一把辛酸泪! 最近看了一遍彦祖的文章叫做 iOS程序员如何使用Python写网路爬虫 所以自 ...

  4. python抓取数据 常见反爬虫 情况

    1.报文头信息: User-Agent Accept-Language  防盗链 上referer 随机生成不同的User-Agent构造报头 2.加抓取等待时间 每抓取一页都让它随机休息几秒,加入此 ...

  5. python抓取数据构建词云

    1.词云图 词云图,也叫文字云,是对文本中出现频率较高的"关键词"予以视觉化的展现,词云图过滤掉大量的低频低质的文本信息,使得浏览者只要一眼扫过文本就可领略文本的主旨. 先看几个词 ...

  6. python 抓取数据 存入 excel

    import requestsimport datetimefrom random import choicefrom time import timefrom openpyxl import loa ...

  7. Python 抓取数据存储到Mysql中

    # -*- coding: utf-8 -*- import os,sys import requests import bs4 import pymysql#import MySQLdb #连接MY ...

  8. Python 抓取数据存储到Redis中

    redis是一个key-value存储结构.和Memcached类似,它支持存储的value类型相对更多,包括string(字符串).list(链表).set(集合).zset(sorted set ...

  9. 使用python抓取数据之菜鸟爬虫1

    ''' Created on 2018-5-27 @author: yaoshuangqi ''' #本代码获取百度乐彩网站上的信息,只获取最近100期的双色球 import urllib.reque ...

随机推荐

  1. 十七 Python分布式爬虫打造搜索引擎Scrapy精讲—深度优先与广度优先原理

      网站树形结构 深度优先 是从左到右深度进行爬取的,以深度为准则从左到右的执行(递归方式实现)Scrapy默认是深度优先的   广度优先 是以层级来执行的,(列队方式实现)

  2. .Net使用Redis详解之ServiceStack.Redis(7)

    Net使用Redis详解之ServiceStack.Redis(七) 序言 本篇从.Net如何接入Reis开始,直至.Net对Redis的各种操作,为了方便学习与做为文档的查看,我做一遍注释展现,其中 ...

  3. eureka -1 - 介绍

    eureka ,服务发现注册中心 eureka 包含server, client两部分. eureka server,服务发现组件,各个微服务启动的时候会向server注册自己的信息(ip,hostn ...

  4. 201621123014《Java程序设计》第五周学习总结

    1. 本周学习总结 1.1 写出你认为本周学习中比较重要的知识点关键词 答:接口.interface.implements.Comparable.Comparator 1.2 尝试使用思维导图将这些关 ...

  5. PostgreSQL copy命令使用记录

    上篇写到用pg_bulkload来导入数据,但是实际的环境是solaris,pg_bulkload还不支持,于是用copy的方式,下面附上脚本 -bash-4.1$ cat copy.sh #!/bi ...

  6. Linux:网络配置

    网络配置 1.网卡配置 vim /etc/sysconfig/network-scripts/ifcfg-eth0 1DEVICE=eth0 2 HWADDR=00:0C:29:93:41:2B 3 ...

  7. cmakelist

    cmake 添加头文件目录,链接动态.静态库 罗列一下cmake常用的命令. CMake支持大写.小写.混合大小写的命令. 1. 添加头文件目录INCLUDE_DIRECTORIES 语法: incl ...

  8. 深度学习(六十四)Faster R-CNN物体检测

  9. nodejs返回接口给前端

    1.修改app.js文件,将其中的user路由去掉. 2.在index路由中配置如下:   router.all('*', function(req, res, next) { res.header( ...

  10. 安装伪分布式hbase 0.99.0

    查看是否启动成功,输入jps,看到有HMaster和HQuorumPeer,浏览器输入http://localhost:16030/master-status,能打开说明成功 hbase(main): ...