上周我们这个10人的小团队开发的推荐拉新系统, 日拉新人数已接近4万人.过去几个月这个系统从无到有, 拉新从日增几千稳步增长到日增几万, 同事们几个月来,每天工作13个小时以上,洗澡时间都没有, 有时就住在公司, 回家怕吵到家人,只能睡客厅地板, 周日也不能保证休息. 大家的全力投入,不懈努力才能有这个结果. 非常感慨团队产生的的化学反应, 和惊人的生产效率. 产品稳定后,最近全面转入大数据分析, 和机器学习阶段, 开始做真正的增长黑客实践. spark, R, scala都是刚刚开始深入地学习…
MySQL能够承受上亿万条的数据量的架构 最近做的搜索引擎的数据量是越来越大估计了下在中国可能涉及到的1Kw的数据量,就全球来说也就是1K亿而已,最初是用的数据库是MySQL现在来说要做些优化,最终使用的两个方案很好用的. 1.读写分离: 2.纵向横向拆分库.表. MySQL的基本功能中包括replication(复制)功能.所谓replication,就是确定master以及与之同步的slave服务器,再加上slave将master中写入的内容polling过来更新自身内容的功能.这样slav…
生产环境zabbix3.2上亿的表数据通过表分区的方式进行历史数据清理 zabbix服务器经常报警io过载,在报警的时候发现是数据库在删除历史数据时耗时较长 数据库积攒了大量的历史数据信息,主要集中在zabbix的history.history_uint.history_str.history_text.trends.trends_uint这几个表中 需要进行清理,两种清理方式: .直接清空表,最省事,速度最快,缺陷是会丢失所有的监控历史数据 具体清理语句如下: use zabbix; trun…
1.  启动并下载一个clickhouse-server, By default, starting above server instance will be run as default user without password. docker run -d --name ch-server --ulimit nofile=262144:262144 -p 8123:8123 -p 9000:9000 -p 9009:9009 yandex/clickhouse-server或者加一个Mo…
mongo客户端工具下载  https://robomongo.org/download   线上业务,k线 展示出现问题,相同时间戳的数据多次插入导致数据不真实,后经排查发现是每次都是写的四条数据,找开发配合一起查找问题,发现是后台逻辑处理的问题   需求:将重复的数据去掉,只保留一份数据   客户端数据查询:       由于表太多 一张一张去删 很麻烦 于是写了个脚本偷懒   #!/bin/bash # liyongjian5179@.com #将所有的表名导出来 mongo /admin…
目录 简介 本文的目标 支持多个图片服务 http2处理器 处理页面和图像 价值上亿的速度优化方案 总结 简介 其实软件界最赚钱的不是写代码的,写代码的只能叫马龙,高级点的叫做程序员,都是苦力活.那么有没有高大上的职业呢?这个必须有,他们的名字就叫做咨询师. 咨询师就是去帮企业做方案.做架构.做优化的,有时候一个简单的代码改动.一个架构的调整都可以让软件或者流程更加高效的运行,从而为企业节省上亿的开支. 今天除了要给大家介绍一下如何在netty中同时支持http和https协议之外,还给大家介绍…
一览众山小编辑团队 原文/ Todd Schneider 翻译/ 沈玮薇 陈翚 文献/ 蒋理 校核/ 众山小编辑/ 众山小 排版/ 徐颖 2014-2015 © 转载请注明:源自公众号"一览众山小-可持续城市与交通" : 近期的出租车和互联网约车之争一时成为了热点.只是因为缺乏具体的数据信息分析,非常多的结论都是定性为主.并为各种利益团体所把持. 因此今天我们就介绍一下 纽约的开放心态,高达几十个G的有关出租车和UBER的上下客出行数据被免费分享出来,供大家来研究. 我们觉得这种科学态…
序言 天王盖地虎, 老婆马上生孩子了,在家待产,老婆喜欢玩消消乐类似的休闲游戏,闲置状态,无聊的分析一下消消乐游戏的一些技术问题: 由于我主要是服务器研发,客户端属于半吊子,所以就分析一下消消乐排行榜问题: 第一章 消消乐排行榜大致分为好友排行榜和全国排行榜: 好友排行榜和全国排行榜的其实是重合的只是需要从全国排行榜中提取出来而已: 那么就需要记录所有玩家的通关记录已进行查询: 也许你说全国排行榜只显示前xxx名就好:但是你的好友记录必须要的吧?你的好友不可能全部进入全国排行榜吧: 而好友排行榜…
清理8组nodes中表的历史数据,平均每个node中的表有1.5亿条记录,需要根据date_created字段清理8000W数据记录,这个字段没有索引. 环境介绍  线上磁盘空间不足,truncate了许多能动的表,磁盘空间还是占据了87%,我们的nagios报警阀值是80%.所以不断的还会收到email以及短信报警.需要根据时间字段date_created清理,但是在设计之初由于当初的开发人员考虑不足所以date_created字段没有建立索引.另外这些数据可以不用备份,直接删除掉. 问题来了…
平时都是几百万的数据量,这段时间公司中了个大标,有上亿的数据量. 现在情况是数据已经在数据库里面了,需要用R分析,但是完全加载不进来内存. 面对现在这种情况,R提供了ff, ffbase , ETLUtils  的解决方案. 它可以很简单的加载,转换数据库的数据进入R内存,ETLUtils 包现在已经扩展了read.odbc.ffdf 方法用来查询Oracle, MySQL, PostgreSQL & sqlite databases.. 下面我们就来展示一个例子. require(ETLUti…