单线程脚本

导入文件的行数

# wc -l /data/logs/testlog/20120219/testlog1/*
 1510503 total

  1. # -*- coding: utf-8 -*-
  2. #!/usr/bin/env python
  3. #create database pythondata
  4. #create table log (logline varchar(500));
  5. #grant all on pythondata.* to 'pyuser'@'localhost' identified by "pypasswd";
  6. import MySQLdb
  7. import os
  8. import time
  9. def writeLinestoDb(sql,content):
  10. conn=MySQLdb.connect(host="localhost",user="pyuser",passwd="pypasswd",db="pythondata")
  11. cur =conn.cursor()
  12. cur.executemany(sql,content)
  13. cur.close()
  14. conn.commit()
  15. conn.close()
  16. def readLinestoList(path):
  17. alllines=[]
  18. for file in os.listdir(path):
  19. files=os.path.join(path,file)
  20. for line in open(files):
  21. alllines.append(line)
  22. return alllines
  23. def main():
  24. insertsql ="INSERT INTO log(logline) VALUES(%s)"
  25. alllines=readLinestoList('/data/logs/testlog/20120219/testlog1')
  26. for line in alllines:
  27. content=line.strip()
  28. print content
  29. writeLinestoDb(insertsql,content)
  30. time.sleep(10)
  31. if __name__=="__main__":
  32. print('starting at:',time.ctime())
  33. main()
  34. print('ending at:',time.ctime())
('starting at:', 'Tue Mar 27 11:09:20 2012')
('ending at:', 'Tue Mar 27 11:13:20 2012')
耗时4分钟
mysql> select count(*) from log ;
+----------+
| count(*) |
+----------+
| 1510551 |
+----------+

多线程脚本

  1. # -*- coding: utf-8 -*-
  2. #!/usr/bin/env python
  3. import MySQLdb
  4. import os
  5. from time import ctime
  6. from threading import Thread
  7. from Queue import Queue
  8. in_num_thread=10
  9. out_num_thread=10
  10. in_queue=Queue()
  11. out_queue=Queue()
  12. def listDir(path):
  13. for filename in os.listdir(path):
  14. in_queue.put(os.path.join(path,filename))
  15. def readFile(iq,in_queue):
  16. filelines=[]
  17. while True:
  18. file=in_queue.get()
  19. for line in open(file):
  20. filelines.append(line)
  21. out_queue.put(filelines)
  22. in_queue.task_done()
  23. def writeLinestoDb(oq,out_queue):
  24. sql=insertsql ="INSERT INTO log(logline) VALUES(%s)"
  25. while True:
  26. content=out_queue.get()
  27. conn=MySQLdb.connect(host="localhost",user="pyuser",passwd="pypasswd",db="pythondata")
  28. cur =conn.cursor()
  29. cur.executemany(sql,content)
  30. cur.close()
  31. conn.commit()
  32. conn.close()
  33. out_queue.task_done()
  34. def main():
  35. listDir('/data/logs/testlog/20120219/testlog1')
  36. for iq in range(in_num_thread):
  37. worker=Thread(target=readFile,args(iq,in_queue))
  38. worker.setDaemon(True)
  39. worker.start()
  40. print "Readfile Main Thread Waiting at",ctime()
  41. in_queue.join()
  42. print "Readfile Done at,",ctime()
  43. for oq in range(out_num_thread):
  44. worker=Thread(target=writeLinestoDb,args(oq,out_queue))
  45. worker.setDaemon(True)
  46. worker.start()
  47. print "Insert into mysql Main Thread at",ctime()
  48. out_queue.join()
  49. print "Insert into mysql at,",ctime()
  50. if __name__=="__main__":
  51. print('starting at:',time.ctime())
  52. main()
  53. print('ending at:',time.ctime())
  1. 数据库位于本机
  2. ('starting at:', 'Tue Mar 27 10:57:01 2012')
    Readfile Main Thread Waiting at Tue Mar 27 10:57:01 2012
    Readfile Done at, Tue Mar 27 10:57:04 2012
    Insert into mysql Main Thread at Tue Mar 27 10:57:04 2012
    Insert into mysql at, Tue Mar 27 11:03:34 2012
    ('ending at:', 'Tue Mar 27 11:03:34 2012')
    mysql> select count(*) from log ;
    +----------+
    | count(*) |
    +----------+
    | 3676015 |
    +----------+
  3. 两次个数据不一致,多线的导入有问题
服务器配置4G8核,mysql本地 两个脚本在同一台机器上运行
多线程脚本改进
  1. #!/usr/bin/env python
  2. #create table log ( logline varchar(300));
  3. #grant all on pythondata.* to 'pyuser'@'localhost' identified by "pypasswd"
  4. import MySQLdb
  5. import os
  6. import sys
  7. from time import ctime
  8. from threading import Thread
  9. from Queue import Queue
  10. num_thread=10
  11. queue=Queue()
  12. def listDir(path):
  13. file_list=[]
  14. for filename in os.listdir(path):
  15. file_list.append(os.path.join(path,filename))
  16. return file_list
  17. def readFile(file):
  18. alllines=[]
  19. for line in open(file):
  20. alllines.append(line)
  21. return alllines
  22. def writeLinestoDb(q,queue):
  23. sql=insertsql ="INSERT INTO log(logline) VALUES(%s)"
  24. while True:
  25. content=queue.get()
  26. conn=MySQLdb.connect(host="localhost",user="pyuser",passwd="pypasswd",db="pythondata")
  27. cur =conn.cursor()
  28. cur.executemany(sql,content)
  29. cur.close()
  30. conn.commit()
  31. conn.close()
  32. queue.task_done()
  33. def main():
  34. print "Readfile Start at,",ctime()
  35. for file in listDir('/data/logs/testlog/20120219/testlog1'):
  36. queue.put(readFile(file))
  37. print "Readfile Done at,",ctime()
  38. for q in range(num_thread):
  39. worker=Thread(target=writeLinestoDb,args=(q,queue))
  40. worker.setDaemon(True)
  41. worker.start()
  42. print "Insert into mysql Main Thread at",ctime()
  43. queue.join()
  44. print "Insert into mysql at,",ctime()
  45. if __name__=="__main__":
  46. print('starting at:',ctime())
  47. main()
  48. print('ending at:',ctime())

结果

('starting at:', 'Tue Mar 27 14:32:05 2012')
Readfile Start at, Tue Mar 27 14:32:05 2012
Readfile Done at, Tue Mar 27 14:32:07 2012
Insert into mysql Main Thread at Tue Mar 27 14:32:08 2012
Insert into mysql at, Tue Mar 27 14:34:31 2012
('ending at:', 'Tue Mar 27 14:34:31 2012')
mysql> select count(*) from log;
+----------+
| count(*) |
+----------+
| 1510551 |
+----------+

读用了2秒中,插入使用2分23秒

第一个多线程脚本错误的原因是传入队列的数据问题。 还有一个问题,读的文件超过物理内存和虚拟内存的总量,会造成内存溢出程序挂掉,解决办法每次读取指定行

Python实战(6)单线程和多线程导入mysql数据对比测试的更多相关文章

  1. Sqoop导入mysql数据到Hbase

    sqoop import --driver com.mysql.jdbc.Driver --connect "jdbc:mysql://11.143.18.29:3306/db_1" ...

  2. solr7.4创建core,导入MySQL数据,中文分词

    #solr版本:7.4.0 一.新建Core 进入安装目录下得server/solr/,创建一个文件夹,如:new_core 拷贝server/solr/configsets/_default/con ...

  3. 【实战】使用 Kettle 工具将 mysql 数据增量导入到 MongoDB 中

    最近有一个将 mysql 数据导入到 MongoDB 中的需求,打算使用 Kettle 工具实现.本文章记录了数据导入从0到1的过程,最终实现了每秒钟快速导入约 1200 条数据.一起来看吧~ 一.K ...

  4. 如何导出和导入mysql数据(数据迁移)

    . 导出数据库数据 mysqldump -uroot -p dp_db > dumpout.sql 其中 root是账户名 dp_db是需要导出的数据库名称 dumpout.sql存储导出的数据 ...

  5. HeidiSQL工具导出导入MySQL数据

    有时候,为了数据方便导出导入SQL,我们可以借助一定的工具,方便我们队数据库的移植,可以达到事半功倍的效果.在这里,就给大家简单的介绍一款能方便导出或者导入MySQL的数据. ①首先,选择你要导出的数 ...

  6. excel导入mysql数据

    excel加载mysql数据 1.第一步,选择从mysql导入数据 2.单击会出现弹框: 3.可能有的同学的,这里缺少插件,例如: 4.去下载 这个 插件安装即可.https://dev.mysql. ...

  7. 【Python实战】模块和包导入详解(import)

    1.模块(module) 1.1 模块定义 通常模块为一个.py文件,其他可作为module的文件类型还有".pyo".".pyc".".pyd&qu ...

  8. python将Excel文件内容导入Mysql数据

    为了方便起见,将所有字段类型设置为str,理解mysql的语法这个玩意贼简单 # _*_ coding:utf-8 _*_import pandas as pd #先装个pandas ,pip ins ...

  9. 命令行导入mysql数据

    找到mysql安装目录(bin) 进入mysql mysql -u root -p 123 选中数据库 use 数据库名 导入sql  source sql数据库路径

随机推荐

  1. 2017ICPC南宁赛区网络赛 Overlapping Rectangles(重叠矩阵面积和=离散化模板)

    There are nnn rectangles on the plane. The problem is to find the area of the union of these rectang ...

  2. idea【取消多行】

    有时间把idea总结一下 idea打开很多文件时默认收起来就很烦. 这样可以取消多行 效果大概是这样 .酥服哒.

  3. 河工大玲珑校赛重现の rqy的键盘

    题目传送门:http://218.28.220.249:50015/JudgeOnline/problem.php?id=1263 1263: rqy的键盘 时间限制: 1 秒  内存限制: 128 ...

  4. grep命令相关用法

    grep命令相关参数: -i:忽略大小写 --color:高亮显示匹配到的信息 -v:反向查找,没匹配到的行显示出来 -o:只显示被模式匹配到的串本身 正则表达式: .*:任意长度的任意字符,贪婪模式 ...

  5. 20165228 2017-2018-2 《Java程序设计》第8周学习总结

    20165228 2017-2018-2 <Java程序设计>第8周学习总结 教材学习内容总结 进程与线程的关系 多线程的运行机制 线程的四种状态:新建.运行.中断.死亡 使用Thread ...

  6. ORA-00600: internal error code, arguments: [kcblasm_1], [103], [] bug

    巡检发现存在alert 日志存在ORA-600 1.0 查询alter 对应的Trace日志 /oracle/admin/fgsquery/udump/fgsquery_ora_21777.trc O ...

  7. MongDB篇,第三章:数据库知识3

    MongDB    数据库知识3 修改器 $inc 对某个域的值进行加减修改 $mul 对某个域的值进行乘法修改 $min 如果筛选的文档指定的值小于min则不修改,如果大于min 给定的值则修改为m ...

  8. Hexo重装小结

    安装好node.js后: 使用命令npm install -g hexo,很慢,基本安装不了. 换用淘宝镜像: $ npm install -g cnpm --registry=https://reg ...

  9. 梯度下降法、牛顿法、高斯牛顿法、LM最优化算法

    1.梯度下降法 2.牛顿法 3.高斯牛顿法 4.LM算法

  10. C++学习(十)(C语言部分)之 分支语句

    #include<stdio.h> // std 标准  io ---->  input  output  输入 输出  printf scanf getchar ...... #i ...