1:缓存. 你需要了解大数据高并发的瓶颈在哪里,一般都是数据库层面的,机械硬盘承载不起非常快速的读写操作,cpu承载不起大量的逻辑运算,所以最基本的解决思路就是:1.换固态硬盘加快硬盘的读写效率.2.建立缓存中间件降低对硬盘的读写次数,缓存不用多说了,最最最基本和重要的优化策略.3.将硬盘的读写或者数据的计算分摊到多台机器上,也就是集群.hadoop就是基于这个层面的.4.良好的查询算法,降低读的次数,分表,分库,索引等都是基于这层面的. 理论上来讲,在带宽充裕的情况下,只要遵循上面的4个思路进