2013 年对 Github 来说是不可思议和富有成效的一年,几天前 Github.com 上托管的项目已经超过 1000 万. 在此之前,首个 100 万项目用了将近 4 年时间,具体是 3 年 8 个月又 15 天.而最后一个 100 万只用了 48 天.实际上,今年一共有 550 万个新项目被创建. 下面是 2013 年 Github 上最热门的项目: Project Open Data, 来自 White House's Open Data Policy Docker, 开源的应用容器引…
2019年是值得记录的一年,成长许多,也收获许多. 做了 10 场大会的技术演讲,成功内推 20 人拿到微软 Offer,知乎 Live 2000 听众,公众号 2 万粉丝,GitHub 2万 star,Code Runner 突破 1000 万下载量,成立了 VS Code 中文社区. 10 场演讲 2018 年,只有在 Microsoft Tech Summit 上做过一场大型的公开演讲.而 2019 年却一发不可收拾,不算公司内部的演讲,公开的演讲已经有 10 场了. CodeLab @…
今天需要将一个含有1000万条数据的文本内容插入到数据库表中,最初自然想到的是使用Insertinto '表名'values(),(),()...这种插入方式,但是发现这种方式对1000万条数据量的情况,明显效率低下,于是选用了直接将文本内容导入数据表的方法: LOADDATA LOCAL INFILE '/home/xyw/result.txt' INTO TABLEdomainlib_tmp(domain); 这种方式可以将本地的数据文件'result.txt'直接导入到domainlib_…
如何使QTreeView快速显示1000万条数据,并且内存占用量少呢?这个问题困扰我很久,在网上找了好多相关资料,都没有找到合理的解决方案,今天在这里把我的解决方案提供给朋友们,供大家相互学习. 我开始使用的QTreeWidget 控件来显示我的数据,发现该控件在显示10000行以下的数据还可以应付的过来,但超过10000条,就明显感觉到屏幕刷新就会有卡的现象,而且占据内存很大,虽然操作起来简单方便,但灵活性没有QTreeView强大.因为我要显示的数据量是非常大的,甚至过1000万,因此,采用…
摘要: 除了吃瓜,还是得吸取教训啊同学们! 这次,我从纯技术角度分析腾讯云与前沿数控的磁盘数据丢失事件,不站队. 硬盘门 这里说的硬盘门不是10年前陈老师的那一次,而聊的是最近"腾讯云"用户"前沿数控"的磁盘数据丢失. 关于这次事件,腾讯云是这样说的: 近日,腾讯云用户北京清博数控科技有限公司所属"前沿数控"平台一块操作系统云盘,因受所在物理硬盘固件版本bug导致的静默错误(写入数据和读取出来的不一致)影响,文件系统元数据损坏. 腾讯云多少有点打…
2019年在流行的开源Exim电子邮件服务器软件中发现了一个关键的远程执行代码漏洞,至少有超过50万个电子邮件服务器容易受到远程黑客攻击.Exim是一种广泛使用的开源邮件传输代理(MTA)软件,为类似Unix的操作系统(如Linux,Mac OSX或Solaris)开发,目前运行着近60%的互联网电子邮件服务器,用于路由,传递和接收电子邮件.   Exim官网今日公布版本4.92.2前两天发布预警后,为系统管理员提供了影响电子邮件服务器软件的所有版本直至并包括当时最新的4.92.1其即将推出的安…
背景: 今天项目组小伙伴问了一个问题,如果更新数据超过1万条的情况下,有什么好的方式来实现呢?我们都知道一个transaction只能做10000条DML数据操作,那客户的操作的数据就是超过10000条的情况下,我们就只能搬出来salesforce government limitation进行拒绝吗?这显然也是不友好的行为. 实现方案: 1. 代码中调用batch,batch处理的数据量多,从而可以忽略这个问题.当然,这种缺点很明显: 1)不是实时的操作,什么时候执行取决于系统的可用线程,什么…
我用到的数据库为,mysql数据库5.7版本的 1.首先自己准备好数据库表 其实我在插入1000万条数据的时候遇到了一些问题,现在先来解决他们,一开始我插入100万条数据时候报错,控制台的信息如下: com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_al…
处理oracle sql 语句in子句中(where id in (1, 2, ..., 1000, 1001)),如果子句中超过1000项就会报错.这主要是oracle考虑性能问题做的限制.如果要解决次问题,可以用 where id (1, 2, ..., 1000) or id (1001, ...) package windy.learn; import java.util.Collection; import org.apache.commons.lang3.StringUtils; p…
偶然在群里看到有人问到大数据查询,自己也就想了小艾改如何解决,从从1000万个随机数中查找出相同的10万个随机数花的最少时间, 谈到效率,自然是hashmap莫属. import java.util.HashMap;import java.util.Map;import java.util.Random; public class dataTest { private static final int [] datas = new int [1000 * 10000]; //1000万个随机数…