超大数据快速导入MySQL

 ----千万级数据只需几十分钟
本地测试方法
1.首先需要修改本地mysql的编码和路径,找到my.ini。
2.在里面添加或修改
character-set-server=utf8
collation-server=utf8_general_ci
default-storage-engine=INNODB
(最低部添加)secure_file_priv="C:\Users\Administrator\Desktop\ye(xlsx表格所在父路径)"
3.将需要的xlsx表格转换成csv格式保存
4.将csv格式用记事本打开,另存为编码为utf-8的csv格式
5.在mysql数据库里,如果某些字段涉及到html代码,需将这些字段的字段类型修改logtext。
6.在打开mysql命令行时,先建议添加一个自增ID列,方便统计记录数。
7.打开mysql命令行输入:
show databases;回车
use tablename(表名)回车
mysql>LOAD DATA INFILE "C:\\Users\\Administrator\\Desktop\\ye\\product.csv"(xlsx表格所在路径)
-> into table p1_product_description(需要传入的表名)
-> fields terminated by '&&'(字段分割符)
-> lines terminated by '\n'(换行符)
-> ignore 1 lines
-> (product_id,language_id,name,description,tag,meta_title,meta_description,meta_keyword);(字段名)

线上服务器方法(需要putty.exe软件)
1.将在本地测试修改好的csv格式文件上传到网站根目录下面
2.在mysql数据库里,如果某些字段涉及到html代码,需将这些字段的字段类型修改logtext。
6.在打开mysql命令行时,先建议添加一个自增ID列,方便统计记录数。
7.打开mysql命令行输入:
数据库远程登陆密码 回车
登陆数据库命令行mysql -h localhost -u root -p 回车
输入mysql数据库密码 回车
show databases;回车
use tablename(表名)回车
mysql> LOAD DATA LOCAL INFILE '/www/web/1hydraulicpump/public_html/product2.csv(csv所在路径)'
-> into table h1_product_description(需要传入的表名)
-> fields terminated by '&&(字段分割符)'
-> lines terminated by '\n(换行符)'
-> ignore 1 lines
-> (product_id,language_id,name,description,tag,meta_title,meta_description,meta_keyword)(字段名);

54.超大数据快速导入MySQL的更多相关文章

  1. 使用命令行将Excel数据表导入Mysql中的方法小结

    从Excel数据表导入MySQL,已经做过好几次了,但每次都会碰到各种问题:invalid utf8 character string, data too long, ...,浪费了不少时间 为了提高 ...

  2. Atitit.软件GUIbutton与仪表盘--db数据库区--导入mysql sql错误的解决之道

    Atitit.软件GUIbutton与仪表盘--db数据库区--导入mysql sql错误的解决之道 Keyword::截取文本文件后部分 查看提示max_allowed_packet限制 Targe ...

  3. Atitit.软件GUI按钮与仪表盘--db数据库区--导入mysql sql错误的解决之道

    Atitit.软件GUI按钮与仪表盘--db数据库区--导入mysql sql错误的解决之道 Keyword::截取文本文件后部分 查看提示max_allowed_packet限制 Target Se ...

  4. Mysql百万数据量级数据快速导入Redis

    前言 随着系统的运行,数据量变得越来越大,单纯的将数据存储在mysql中,已然不能满足查询要求了,此时我们引入Redis作为查询的缓存层,将业务中的热数据保存到Redis,扩展传统关系型数据库的服务能 ...

  5. 【PHP】将EXCEL表中的数据轻松导入Mysql数据表

    在网络上有不较多的方法,在此介绍我已经验证的方法. 方法一.利用EXCEL表本身的功能生成SQL代码 ①.先在“phpmyadmin”中建立数据库与表(数据库:excel,数据表:excel01,字段 ...

  6. .net core利用MySqlBulkLoader大数据批量导入MySQL

    最近用core写了一个数据迁移小工具,从SQLServer读取数据,加工后导入MySQL,由于数据量太过庞大,数据表都过百万,常用的dapper已经无法满足.三大数据库都有自己的大数据批量导入数据的方 ...

  7. 将EXCEL表中的数据轻松导入Mysql数据表

    转载自:http://blog.163.com/dielianjun@126/blog/static/164250113201042310181431/ 在网络上有不较多的方法,在此介绍我已经验证的方 ...

  8. Java实现数据批量导入mysql数据库

    本文完全照搬别人的. 原文标题:Java实现数据批量导入数据库(优化速度-2种方法) 原文地址:https://blog.csdn.net/qy20115549/article/details/526 ...

  9. [DJANGO] excel十几万行数据快速导入数据库研究

    先贴原来的导入数据代码: 8 import os os.environ.setdefault("DJANGO_SETTINGS_MODULE", "www.setting ...

随机推荐

  1. centos图形界面,vncserver

    yum -y groupinstall "Server with GUI" RHEL7 安装图形界面1. 以root角色运行以下命令来安装TigerVNC server yum i ...

  2. Linux操作系统配置Go语言编程环境

    之前一直在windows下写Go,现在工作环境切换至Linux下,因此写下此文,记录安装Go环境的过程. 操作系统:CentOS7.5 一.安装步骤 1,下载Go语言安装包 yum install g ...

  3. IntelJ idea下lombok 不生效的问题(@Builder等注解不生效的问题)解决,lombok Plugin插件安装

    插件安装方式,在设置setting 中找到plugins.在检索框中检索lom,没有的话点击红框内的search in repositories. 点击install进行安装. 记得安装好了重启ide ...

  4. 干货 | Ansible 上手指南

    版权声明:本文为博主原创文章.未经博主同意不得转载. https://blog.csdn.net/O4dC8OjO7ZL6/article/details/79765539 点击上方"中兴开 ...

  5. 恒生UFX接口引用计数心得

    本文介绍在基于恒生T2SDK基础上开发对接UFX柜台时,有关引用计数的一些心得体会. 下面以配置接口和连接接口为例子来介绍,下面是文档介绍: 创建配置接口说明: 3.1.2 创建配置接口(NewCon ...

  6. Mybatis常考面试题汇总(附答案)

    1.#{}和${}的区别是什么? #{}和${}的区别是什么? 在Mybatis中,有两种占位符 #{}解析传递进来的参数数据 ${}对传递进来的参数原样拼接在SQL中 #{}是预编译处理,${}是字 ...

  7. git使用git-credential-winstore保存https访问密码

    使用 https 方式 clone 一个 git 仓库,每次pull 或者 push 的时候都需要输入用户名和密码. 访问远程Git仓库可以用 SSH 方式和 https 方式,https 每次访问时 ...

  8. iOS 调试大法

    本文转载至 http://www.jianshu.com/p/d19e19a91071 0.笨办法 看变量.对象?NSLog+重新编译运行:改某对象?改源码+重新编译运行:隔离某个方法?在方法中写 r ...

  9. Redis防止重複請求鎖功能

    class Lock { const PREFIX_KEY = "MY_LOCK:"; static private $LOCKED = []; static public fun ...

  10. 【netcore基础】.Net core通过 Lucene.Net 和 jieba.NET 处理分词搜索功能

    业务要求是对商品标题可以进行模糊搜索 例如用户输入了[我想查询下雅思托福考试],这里我们需要先将这句话分词成[查询][雅思][托福][考试],然后搜索包含相关词汇的商品. 思路如下 首先我们需要把数据 ...