日志优化  

  1. 默认是 用info 级别,最好不用openfire原生的打日志方式。
  2.   离线消息用存储不打回方式,不要用打回方式   xmpp.offline.type=store_and_drop
  3.    ConnectionHandler 收到异常,关闭链接的异常日志,用debug级别
  4. 会有很多debug级别的日志,打印出消息体。这种需要避免掉,    例如,logger.debug("msg resend by old session: " + msg.toXML()); 虽然是debug,不会打印日志,但是会执行msg.toXML(),而这个是个耗时操作。可改成如下写法:
          if(logger.isDebugEnabled()){
                         logger.debug("msg resend by old session: " + msg.toXML());
            }

多人聊天优化

    1:对于新加入的房间,不要显示历史聊天记录history.type=none
    2:多人聊天的聊天记录不要存储到db    LocalMUCRoom.broadcast   mucService.logConversation(this, message, senderAddress);
    3 :对于多人聊天,创建房间,进入房间,退出房间频率过高会导致内存占用过高。org.jivesoftware.openfire.event.GroupEventDispatcher

登录优化

  1. 用最简单的ssl验证方式,也就是plain 用base64编码 (replace into ofProperty values ("sasl.mechs","PLAIN");)
  2. 不用安全传输,也就是关掉tls(replace into ofProperty values ("xmpp.client.tls.policy","disabled");)
  3. xmpp登录流程 有11步包交互,非常复杂和繁琐。可以简化登录流程。运用快速登录,现已经简化到4步,只发stream包和auth包。
  4. 重写AuthProvider,返回一定要快

离线消息

    离线消息默认是用db存储,并且可以设定策略限制每个用户的存储空间。在移到网络下,会经常出现对方不在线,需要存离线的情况,并且每次登录都需要取离线,所以是一个频繁和耗时操作。
  1. 离线改用缓存存储
  2. 设置离线消息用存储不打回方式,会少一次网络通信(通知发送方)

链接管理器

   链接管理器的运用,可以极大缓解openfire的链接压力。如果直连openfire,每个链接会占有一个文件句柄,每个socket会分配读写缓冲区。会占用大量内存资源。做过测试,当同时在线达到1W,
NIOConnection 将会占用3G多内存。是openfire占用内存最多的。如果用链接管理器,openfire只需要关注业务处理,不需要处理链接建立,释放,最重要的是,只需要维护几十个与链接管理器建立的长链接。当然官方的提供的链接管理器,版本非常老,网络性能低下(链接管理器与openfire之间的通信竟然是直接用的socket,流式处理)。
1台openfire前面可以放多个链接管理器。
  1. 链接管理器与openfire之间通信方式改用mina。
  2. 链接管理器与openfire通信本身线程池优化,直接用mina提供的IoProcesser线程池
      

反空闲优化

   设置idletime,防止空闲链接占用资源。openfire提供了好几种方式
    1. 客户端主动发pingiq包,服务器会回包
    2. 服务端主动发ping包,客户端会回包
    3. 运用mina本身提供的keep-alive机制

线程池优化

    线程池优化的目的,是使系统使用较少的线程去高效的完成工作。具体分析需要用jstack来分析每一个线程。一般来讲openfire维护几百个线程(包括插件占用的)是比较正常的。
  1. 1~2个SocketAcceptor线程来处理建立链接,
  2. IoAcceptor用于监听客户端的连接,每监听一个端口建立一个线程
  3. xmpp.processor.count=48 用48个线程处理SocketAcceptorIoProcessor,用来IO处理。
  4. xmpp.processor.threads.standard=64 xmpp.multiplex.processing.threads =64 用来做业务处理,也就是filter处理的过程
  5. openfire默认是用cpu核数个线程来处理epoll,如果cpu个数比较过多的话,可以减少线程数到8个,可用new NioSocketAcceptor( executor,processorCount );

网络参数优化

  1. net.ipv4.neigh.default.gc_stale_time = 120
    net.ipv4.conf.all.rp_filter = 0
    net.ipv4.conf.default.rp_filter = 0  //lvs内网通信需要
    net.ipv4.conf.default.arp_announce = 2
    net.ipv4.conf.all.arp_announce = 2
    net.ipv4.tcp_max_tw_buckets = 5000
    net.ipv4.tcp_syncookies = 1  //启用syn cookies
    net.ipv4.tcp_max_syn_backlog = 8096 //同时,并发建立的链接不能及时处理的放到队列的上限
    net.ipv4.tcp_synack_retries = 2 //syn ack没有收到,最多做2次重试
    net.ipv6.conf.all.disable_ipv6 = 1
    net.ipv6.conf.default.disable_ipv6 = 1
    net.ipv6.conf.lo.disable_ipv6 = 1
    net.ipv4.conf.lo.arp_announce = 2
    net.ipv4.conf.eth0.rp_filter = 0
    net.ipv4.conf.eth1.rp_filter = 0
    net.ipv4.tcp_tw_reuse = 1 
    net.ipv4.tcp_tw_recycle = 1
    net.ipv4.tcp_fin_timeout = 10  //对于进入fin状态的,关掉链接的超时时间
    net.ipv4.ip_local_port_range = 1024 65000
    net.ipv4.tcp_rmem = 4096 16380 4194304  //读缓冲区(tcp是双工通道,读写通道是分离的)
    net.ipv4.tcp_wmem = 4096 16380 4194304 //写缓冲区
    net.ipv4.tcp_mem = 678558  1004745  1457116 //总的内存
    vm.overcommit_memory = 1
     
    xmpp.socket.backlog=8096
    xmpp.socket.buffer.receive=-1(表示用系统设置)
    xmpp.socket.buffer.send=-1(表示用系统设置)
    xmpp.socket.linger=-1是否运用优雅关闭
    xmpp.socket.tcp-nodelay= true是否用Nagle算法
     
     
     
     
     
     
     
    vm.swappiness = 0
    net.ipv4.neigh.default.gc_stale_time=120
    net.ipv4.conf.all.rp_filter=0
    net.ipv4.conf.default.rp_filter=0
    net.ipv4.conf.default.arp_announce = 2
    net.ipv4.conf.all.arp_announce=2
    net.ipv4.tcp_max_tw_buckets = 5000
    net.ipv4.tcp_syncookies = 1
    net.ipv4.tcp_max_syn_backlog = 8192 
    net.ipv4.tcp_synack_retries = 2
    net.ipv6.conf.all.disable_ipv6 = 1
    net.ipv6.conf.default.disable_ipv6 = 1
    net.ipv6.conf.lo.disable_ipv6 = 1
    net.ipv4.conf.lo.arp_announce=2
    net.ipv4.conf.eth0.rp_filter = 0
     
    net.core.rmem_default = 256960
    net.core.rmem_max = 513920
    net.core.wmem_default = 256960
    net.core.wmem_max = 513920
    net.core.netdev_max_backlog = 2000
    net.core.somaxconn = 8192
    net.core.optmem_max = 81920
    net.ipv4.tcp_mem = 131072  262144  624288
    net.ipv4.tcp_rmem = 8760  256960  6088000
    net.ipv4.tcp_wmem = 8760  256960  6088000
    net.ipv4.tcp_keepalive_time = 1800
    net.ipv4.tcp_keepalive_intvl = 30
    net.ipv4.tcp_keepalive_probes = 3
    net.ipv4.tcp_sack = 1
    net.ipv4.tcp_fack = 1
    net.ipv4.tcp_timestamps = 0
    net.ipv4.tcp_window_scaling = 1
    net.ipv4.tcp_tw_reuse = 1
    net.ipv4.tcp_tw_recycle = 0
    net.ipv4.tcp_fin_timeout = 30
    net.ipv4.ip_local_port_range = 1024 65535
     
     
     

StringBuilder优化

 默认情况下,StringBuilder对象最多可容纳16个字符之前自动调整大小本身。设置合适的长度,有助于防止JVM浪费时间申请内存和字符串复制。作为一个例子,因为我们知道stream header的大小为约500个字符,我们可以大小StringBuilder的恰如其分。
 

packet.createCopy

    packet是用的DOM4J XML模型,所以复制很消耗性能。尽量避免用packet.createCopy
 

System.currentTimeMillis()

   统计,打印日志,openfire本身会频繁调用System..currentTimeMillis()。System.currentTimeMillis()的调用比new一个普通对象要耗时的多,因为会有一次系统调用。对于一些对时间精确度不是很高的情况下,可以改用内存存储一小段时间内的值。
 

禁用roster花名册、禁用presence包通讯

   如果可能的话,可以禁用roster服务,改用http接口拉取好友列表,并且客户端做缓存。
 

ping包优化

    不管是服务端主动发ping,还是客户端发ping包,不可否认的是,ping包占据openfire处理消息量最大一类。如下图
差不多是消息发送的10倍左右,虽然ping包处理很简单,耗时很短,但量大了,还是需要考虑优化的。我的优化方案就是把对于客户端发的ping包处理移到链接管理器去。
 
 
A->server回执优化

由于我们的IM系统是做了送达,也就是服务端收到消息后,会显示的给用户发个回执包。和ping包优化机制一样,链接管理器收到消息后,就直接返回回执包。

 
id序列号生成器
SequenceManager锁的粒度比较大,并发比较高的时候,就经常会锁住。需要重写。
 
 

openfire极限优化的更多相关文章

  1. web前端图片极限优化策略

    随着web的发展,网站资源的流量也变得越来越大.据统计,60%的网站流量均来自网站图片,可见对图片合理优化可以大幅影响网站流量,减小带宽消耗和服务器压力. 一.现有web图片格式 我们先来看下现在常用 ...

  2. iOS图片加载速度极限优化—FastImageCache解析

    FastImageCache是Path团队开发的一个开源库,用于提升图片的加载和渲染速度,让基于图片的列表滑动 优化点 iOS从磁盘加载一张图片,使用UIImageVIew显示在屏幕上,需要经过以下步 ...

  3. iOS 图片加载速度极限优化—FastImageCache解析

    FastImageCache是Path团队开发的一个开源库,用于提升图片的加载和渲染速度,让基于图片的列表滑动起来更顺畅,来看看它是怎么做的.优化点iOS从磁盘加载一张图片,使用UIImageVIew ...

  4. TVP思享 | 四个全新维度,极限优化HTTP性能

    导语 | 当产品的用户量不断翻番时,需求会倒逼着你优化HTTP协议.那么,要想极限优化HTTP性能,应该从哪些维度出发呢?本文将由TVP陶辉老师,为大家分享四个全新维度.「TVP思享」专栏,凝结大咖思 ...

  5. Openfire 性能优化

    Openfire  是一个XMPP协议的IM Server. Openfire使用mysql配合它不知所谓几乎无效的的Cache机制就注定无法支撑高并发, 所以第一步,将数据库切换为比较强一点的Mon ...

  6. 【转】加快网站访问速度——Yslow极限优化

    Yslow是一套雅虎的网页评分系统,详细的列出了各项影响网页载入速度的参数,这里不做多说. 我之前就一直参考Yslow做博客优化,经过长时间的学习也算是有所收获,小博的YslowV2分数达到了94分( ...

  7. 【计算机视觉】极限优化:Haar特征的另一种的快速计算方法—boxfilter

    这种以Boxfilter替代integral image 的方法很难使用到haar.LBP等特征检测中,因为像下面说的,它不支持多尺度,也就是说所提取的特征必须是同一个大小,最起码同一个宽高比的,这一 ...

  8. 技术|Android安装包极限优化

    版权声明 1.本文版权归原作者所有,转载需注明作者信息及原文出处. 2.本文作者:赵裕(vimerzhao),永久链接:https://github.com/vimerzhao/vimerzhao.g ...

  9. app 性能优化的那些事(二)

    来源:树下的老男孩 链接:http://www.jianshu.com/p/2a01e5e2141f 这次我们来说说iOS app中滑动的那些事.iOS为了提高滑动的流畅感,特意在滑动的时候将runl ...

随机推荐

  1. java中难度大一点的面试题

    1.请大概描述一下Vector和ArrayList的区别,Hashtable和HashMap的区别.(5) (1)Vector和ArrayList的异同 实现原理,功能相同,可以互用 主要区别: Ve ...

  2. elasticsearch系列(二) esrally压测

    环境准备 linux centOS(工作环境) python3.4及以上 pip3 JDK8 git1.9及以上 gradle2.13级以上 准备过程中的坑 这些环境准备没什么太大问题,都是wget下 ...

  3. hdu2571 命运 简单DP

    简单dp 状态方程很好想,主要是初始化.... 代码: #include<iostream> #include<cstdlib> #include<cstdio> ...

  4. [刷题]算法竞赛入门经典 3-12/UVa11809

    书上具体所有题目:http://pan.baidu.com/s/1hssH0KO 题目:算法竞赛入门经典 3-4/UVa11809:Floating-Point Numbers 代码: //UVa11 ...

  5. Trie树详解

    1. 概述 Trie树,又称字典树,单词查找树或者前缀树,是一种用于快速检索的多叉树结构,如英文字母的字典树是一个26叉树,数字的字典树是一个10叉树.Trie一词来自retrieve,发音为/tri ...

  6. OutputStream类详解

    主要内容包括OutputStream及其部分子类,以分析源代码的方式学习.关心的问题包括:每个字节输出流的作用,各个流之间的主要区别,何时使用某个流,区分节点流和处理流,流的输出目标等问题. Outp ...

  7. 计算facebook sdk需要的key hashes

    1. 下载openssl,在C盘创建openssl文件夹,解压下载的zip到openssl文件夹. 2. 找到debug.keystore. windows下在C:\Users\用户名\.androi ...

  8. java反射 顺序输出类中的方法

    java反射可以获取一个类中的所有方法,但是这些方法的输出顺序,并非代码的编写顺序. 我们可以通过自定义一个注解来实现顺序输出类中的方法. 首先,先写一个类,定义增删改查4个方法 public cla ...

  9. Android网络下载图片

    package net.learn2develop.Networking; import android.app.Activity; import android.os.Bundle; import ...

  10. 求一个整数数组最大子数组之和,时间复杂度为N

    #include<iostream.h> int main () { ]={-,-,-,-,-,-,-,-,-,-}; ],sum=; ;i<;i++) { ) { sum=b[i] ...