1. # ===========================基本配置====================================
  2. # 该配置文件是否生效
  3. # false:生效
  4. # true:无效
  5. disabled=false
  6. # 绑定IP
  7. # 后面为绑定的IP地址 (常用于服务器有多个IP但只希望一个IP提供服务)。
  8. # 如果不填则表示所有的(一般不填就OK),相信较熟练的SA都常用到类似功能,
  9. # 很多系统和应用都有
  10. bind_addr=
  11. # 服务端口
  12. port=22122
  13. # 连接超时(秒)
  14. # 默认值 30s
  15. connect_timeout=30
  16. # 网络超时(秒)
  17. # 默认值 30s
  18. network_timeout=60
  19. # Tracker数据/日志目录地址
  20. # ${base_path}
  21. # |__data
  22. # | |__storage_groups.dat:存储分组信息
  23. # | |__storage_servers.dat:存储服务器列表
  24. # |__logs
  25. # |__trackerd.log:tracker server日志文件
  26. base_path=/home/yuqing/fastdfs
  27. # 数据文件storage_groups.dat和storage_servers.dat中的记录之间以换行符(\n)分隔,字段之间以西文逗号(,)分隔。
  28. # storage_groups.dat中的字段依次为:
  29. # 1. group_name:组名
  30. # 2. storage_port:storage server端口号
  31. #
  32. # storage_servers.dat中记录storage server相关信息,字段依次为:
  33. # 1. group_name:所属组名
  34. # 2. ip_addr:ip地址
  35. # 3. status:状态
  36. # 4. sync_src_ip_addr:向该storage server同步已有数据文件的源服务器
  37. # 5. sync_until_timestamp:同步已有数据文件的截至时间(UNIX时间戳)
  38. # 6. stat.total_upload_count:上传文件次数
  39. # 7. stat.success_upload_count:成功上传文件次数
  40. # 8. stat.total_set_meta_count:更改meta data次数
  41. # 9. stat.success_set_meta_count:成功更改meta data次数
  42. # 10. stat.total_delete_count:删除文件次数
  43. # 11. stat.success_delete_count:成功删除文件次数
  44. # 12. stat.total_download_count:下载文件次数
  45. # 13. stat.success_download_count:成功下载文件次数
  46. # 14. stat.total_get_meta_count:获取meta data次数
  47. # 15. stat.success_get_meta_count:成功获取meta data次数
  48. # 16. stat.last_source_update:最近一次源头更新时间(更新操作来自客户端)
  49. # 17. stat.last_sync_update:最近一次同步更新时间(更新操作来自其他storage server的同步)
  50. # 最大连接数
  51. max_connections=256
  52. # w线程数,通常设置CPU数,值 <= 最大连接数
  53. # 默认值 4
  54. work_threads=4
  55. # 上传文件的选组方式,如果在应用层指定了上传到一个固定组,那么这个参数被绕过
  56. # 0: 表示轮询
  57. # 1: 表示指定组
  58. # 2: 表示存储负载均衡(选择剩余空间最大的组)
  59. store_lookup=2
  60. # 指定上传的组,如果在应用层指定了具体的组,那么这个参数将不会起效。
  61. # 另外如果store_lookup如果是0或2,则此参数无效
  62. store_group=group2
  63. # 选择哪个storage server 进行上传操作
  64. # 一个文件被上传后,这个storage server就相当于这个文件的storage server源,
  65. # 会对同组的storage server推送这个文件达到同步效果
  66. # 0: 轮询方式(默认)
  67. # 1: 根据ip 地址进行排序选择第一个服务器(IP地址最小者)
  68. # 2: 根据优先级进行排序(上传优先级由storage server来设置,参数名为upload_priority),优先级值越小优先级越高。
  69. store_server=0
  70. # 上传路径的选择方式。storage server可以有多个存放文件的base path(可以理解为多个磁盘)
  71. # 0: 轮流方式,多个目录依次存放文件
  72. # 2: 选择剩余空间最大的目录存放文件(注意:剩余磁盘空间是动态的,因此存储到的目录或磁盘可能也是变化的)
  73. store_path=0
  74. # 选择哪个 storage server 作为下载服务器
  75. # 0: 轮询方式,可以下载当前文件的任一storage server
  76. # 1: 哪个为源storage server就用哪一个,就是之前上传到哪个storage server服务器就是哪个了
  77. download_server=0
  78. # storage server上保留的空间,保证系统或其他应用需求空间。
  79. # 可以用绝对值或者百分比(V4开始支持百分比方式)
  80. # 如果同组的服务器的硬盘大小一样,以最小的为准
  81. # a group <= reserved_storage_space,
  82. # no file can be uploaded to this group.
  83. # bytes unit can be one of follows:
  84. ### G or g for gigabyte(GB)
  85. ### M or m for megabyte(MB)
  86. ### K or k for kilobyte(KB)
  87. ### no unit for byte(B)
  88. ### XX.XX% as ratio such as reserved_storage_space = 10%
  89. reserved_storage_space = 10%
  90. # 选择日志级别
  91. ### emerg for emergency
  92. ### alert
  93. ### crit for critical
  94. ### error
  95. ### warn for warning
  96. ### notice
  97. ### info
  98. ### debug
  99. log_level=info
  100. # 指定运行该程序的用户组(不填 就是当前用户组,哪个启动进程就是哪个)
  101. run_by_group=
  102. # 操作系统运行FastDFS的用户 (不填 就是当前用户,哪个启动进程就是哪个)
  103. run_by_user=
  104. # 可以连接到此 tracker server 的ip范围(对所有类型的连接都有影响,包括客户端,storage server)
  105. # "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or
  106. # host[01-08,20-25].domain.com, for example:
  107. # allow_hosts=10.0.1.[1-15,20]
  108. # allow_hosts=host[01-08,20-25].domain.com
  109. allow_hosts=*
  110. # 同步或刷新日志信息到硬盘的时间间隔,单位为秒
  111. # 注意:tracker server 的日志不是时时写硬盘的,而是先写内存。
  112. sync_log_buff_interval = 10
  113. # 检测 storage server 存活的时间隔,单位为秒。
  114. # storage server定期向tracker server 发心跳,
  115. # 如果tracker server在一个check_active_interval内还没有收到storage server的一次心跳,
  116. # 那边将认为该storage server已经下线。所以本参数值必须大于storage server配置的心跳时间间隔。
  117. # 通常配置为storage server心跳时间间隔的2倍或3倍。
  118. check_active_interval = 120
  119. # 线程栈的大小。FastDFS server端采用了线程方式。
  120. # 更正一下,tracker server线程栈不应小于64KB,不是512KB。
  121. # 线程栈越大,一个线程占用的系统资源就越多。如果要启动更多的线程可以适当降低本参数值。
  122. thread_stack_size = 64KB
  123. # 这个参数控制当storage server IP地址改变时,集群是否自动调整。
  124. # 注:只有在storage server进程重启时才完成自动调整。
  125. storage_ip_changed_auto_adjust = true
  126. # ===========================同步======================================
  127. # V2.0引入的参数。存储服务器之间同步文件的最大延迟时间,缺省为1天。根据实际情况进行调整
  128. # 注:本参数并不影响文件同步过程。本参数仅在下载文件时,判断文件是否已经被同步完成的一个阀值(经验值)
  129. # default value is 86400 seconds (one day)
  130. storage_sync_file_max_delay = 86400
  131. # V2.0引入的参数。存储服务器同步一个文件需要消耗的最大时间,缺省为300s,即5分钟。
  132. # 注:本参数并不影响文件同步过程。本参数仅在下载文件时,作为判断当前文件是否被同步完成的一个阀值(经验值)
  133. storage_sync_file_max_time = 300
  134. # ===========================trunk 和 slot============================
  135. # V3.0引入的参数。是否使用小文件合并存储特性,缺省是关闭的。
  136. use_trunk_file = false
  137. # V3.0引入的参数。
  138. # trunk file分配的最小字节数。比如文件只有16个字节,系统也会分配slot_min_size个字节。
  139. # the min slot size, should <= 4KB
  140. # default value is 256 bytes
  141. slot_min_size = 256
  142. # V3.0引入的参数。
  143. # 只有文件大小<=这个参数值的文件,才会合并存储。
  144. # 如果一个文件的大小大于这个参数值,将直接保存到一个文件中(即不采用合并存储方式)。
  145. slot_max_size = 16MB
  146. # V3.0引入的参数。
  147. # 合并存储的trunk file大小,至少4MB,缺省值是64MB。不建议设置得过大。
  148. trunk_file_size = 64MB
  149. # 是否提前创建trunk file。只有当这个参数为true,下面3个以trunk_create_file_打头的参数才有效。
  150. # default value is false
  151. # since V3.06
  152. trunk_create_file_advance = false
  153. # 提前创建trunk file的起始时间点(基准时间),02:00表示第一次创建的时间点是凌晨2点
  154. # the time format: HH:MM
  155. # default value is 02:00
  156. # since V3.06
  157. trunk_create_file_time_base = 02:00
  158. # 创建trunk file的时间间隔,单位为秒。如果每天只提前创建一次,则设置为86400
  159. # default value is 38400 (one day)
  160. # since V3.06
  161. trunk_create_file_interval = 86400
  162. # 提前创建trunk file时,需要达到的空闲trunk大小
  163. # 比如本参数为20G,而当前空闲trunk为4GB,那么只需要创建16GB的trunk file即可。
  164. # default value is 0
  165. # since V3.06
  166. trunk_create_file_space_threshold = 20G
  167. # trunk初始化时,是否检查可用空间是否被占用
  168. # if check trunk space occupying when loading trunk free spaces
  169. # the occupied spaces will be ignored
  170. # default value is false
  171. # since V3.09
  172. # NOTICE: set this parameter to true will slow the loading of trunk spaces
  173. # when startup. you should set this parameter to true when neccessary.
  174. trunk_init_check_occupying = false
  175. # 是否无条件从trunk binlog中加载trunk可用空间信息
  176. # FastDFS缺省是从快照文件storage_trunk.dat中加载trunk可用空间,
  177. # 该文件的第一行记录的是trunk binlog的offset,然后从binlog的offset开始加载
  178. # if ignore storage_trunk.dat, reload from trunk binlog
  179. # default value is false
  180. # since V3.10
  181. # set to true once for version upgrade when your version less than V3.10
  182. trunk_init_reload_from_binlog = false
  183. # 是否使用server ID作为storage server标识
  184. # since V4.00
  185. use_storage_id = false
  186. # use_storage_id 设置为true,才需要设置本参数
  187. # 在文件中设置组名、server ID和对应的IP地址,参见源码目录下的配置示例:conf/storage_ids.conf
  188. # since V4.00
  189. storage_ids_filename = storage_ids.conf
  190. # 存储服务器的文件名中的id类型,取值如下
  191. ## IP:存储服务器的IP地址
  192. ## id:被存储服务器的服务器标识
  193. # 只有当use_storage_id设置为true时此参数是有效的
  194. # 默认值是IP
  195. # since V4.03
  196. id_type_in_filename = ip
  197. # 存储从文件是否采用symbol link(符号链接)方式
  198. # 如果设置为true,一个从文件将占用两个文件:原始文件及指向它的符号链接。
  199. # if store slave file use symbol link
  200. # default value is false
  201. # since V4.01
  202. store_slave_file_use_link = false
  203. # 是否定期轮转error log,目前仅支持一天轮转一次
  204. # if rotate the error log every day
  205. # default value is false
  206. # since V4.02
  207. rotate_error_log = false
  208. # error log定期轮转的时间点,只有当rotate_error_log设置为true时有效
  209. # rotate error log time base, time format: Hour:Minute
  210. # Hour from 0 to 23, Minute from 0 to 59
  211. # default value is 00:00
  212. # since V4.02
  213. error_log_rotate_time=00:00
  214. # error log按大小轮转
  215. # 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中
  216. # rotate error log when the log file exceeds this size
  217. # 0 means never rotates log file by log file size
  218. # default value is 0
  219. # since V4.02
  220. rotate_error_log_size = 0
  221. # 是否使用连接池
  222. # default value is false
  223. # since V4.05
  224. use_connection_pool = false
  225. # 连接的空闲时间超过这个时间将被关闭,单位:秒
  226. # default value is 3600
  227. # since V4.05
  228. connection_pool_max_idle_time = 3600
  229. # ===========================HTTP 相关=================================
  230. # HTTP是否生效
  231. # true 失效
  232. # false 生效
  233. http.disabled=false
  234. # tracker server上的HTTP服务器端口号
  235. http.server_port=8090
  236. # 检查storage http server存活的间隔时间,单位为秒
  237. # <= 0 for never check
  238. # default value is 30
  239. http.check_alive_interval=30
  240. # 检查storage http server存活的方式
  241. # tcp:连接到storage server的http端口,不进行request和response。
  242. # http:storage check alive url must return http status 200.
  243. #note:只有http.disabled=false时才生效
  244. # default value is tcp
  245. http.check_alive_type=tcp
  246. # 检查storage http server是否alive的uri/url
  247. # NOTE: storage embed HTTP server support uri: /status.html
  248. http.check_alive_uri=/status.html
  249. # 如果需要查找的内容类型格式的文件扩展名
  250. http.need_find_content_type=true
  251. # HTTP服务的其他配置文件
  252. #include http.con

FastDFS配置文件(tracker.conf)的更多相关文章

  1. FastDFS 配置文件 tracker.conf

    FastDFS 版本5.05 配置文件分为三部分   控制器:tracker.conf存储器:storage.conf 客户端:client.conf 文件位置:/etc/fdfs 基本配置(基础配置 ...

  2. FastDFS配置文件(storage.conf)

    # 该配置文件是否生效 # false:生效 # true:无效 disabled=false # 本storage server所属组名 group_name=group1 # 绑定IP # 后面为 ...

  3. FastDFS 配置文件 client.conf storage_ids.conf

    client.conf : # connect timeout in seconds # default value is 30s connect_timeout=30              连接 ...

  4. FastDFS 配置文件 storage.conf

    FastDFS 版本5.05 配置文件分为三部分   控制器:tracker.conf存储器:storage.conf 客户端:client.conf 文件位置:/etc/fdfsstorage.co ...

  5. fastDFS配置文件 fdfs_client.conf

    # connect timeout in seconds# default value is 30sconnect_timeout=30 # network timeout in seconds# d ...

  6. 分布式文件存储FastDFS(七)FastDFS配置文件具体解释

    配置FastDFS时.改动配置文件是非常重要的一个步骤,理解配置文件里每一项的意义更加重要,所以我參考了大神的帖子,整理了配置文件的解释.原帖例如以下:http://bbs.chinaunix.net ...

  7. FastDFS 双tracker负载均衡 及多组存储配置

    应用场景: 三台服务器分别做三组存储,并且需要两台tracker地址做主备关系,当一台down机后需要另外一台可以提供正常的访问连接 #注:此处不考虑存储数据安全性,如果需要保障数据不丢失,可以分别每 ...

  8. (转) 分布式文件存储FastDFS(七)FastDFS配置文件详解

    http://blog.csdn.net/xingjiarong/article/details/50752586 配置FastDFS时,修改配置文件是很重要的一个步骤,理解配置文件中每一项的意义更加 ...

  9. python3 FastDFS 配置文件 客户端连接 删除文件 bug

    文件传输使用FastDFS 很方便, 不管是大小文件, 用默认的配置就可以, 这里插入一个配置文件 :  (后补python连接FastDFS上传下载文件) # connect timeout in ...

随机推荐

  1. 在peopletools里面测试文件上传

    Using the PeopleTools Test Utilities Page Select selectPeopleTools, then selectUtilities, then selec ...

  2. scala实现Netty通信

    在学习spark源码的时候看到spark在1.6之后底层的通信框架变成了akka和netty两种方式,默认的是用netty根据源码的思路用scala写了一个Demo级别的netty通信 package ...

  3. web.xml中的url-pattern映射规则

    Servlet和filter是J2EE开发中常用的技术,使用方便,配置简单.servlet和filter中的url-pattern有一些文章在里面的,总结了一些东西,以免遇到问题又要浪费时间. 一,s ...

  4. HBase分布式安装

    安装HBase之前需要先安装Hadoop,因为HBase是运行在Hadoop集群上的.安装Hadoop可以参照http://www.cnblogs.com/stGeekpower/p/3307289. ...

  5. Could not get JDBC Connection; nested exception is org.apache.commons.dbcp.SQLNestedException:

    七月 17, 2014 4:56:01 下午 org.apache.catalina.core.StandardWrapperValve invoke SEVERE: Servlet.service( ...

  6. 禁止 PC端打开网页 进行跳转

    try {var urlhash = window.location.hash;if (!urlhash.match("fromapp")){if ((navigator.user ...

  7. ASP.NET MVC4学习笔记之Controller的激活

    一. 高层相关类说明 当路由系统根据请求Url收集路由信息后,下一步就要将路由信息传给Controller激活系统,Controller激活系统负责实现了IController接口的Controlle ...

  8. 国际制造执行系统(MES)应用与发展

    某些专家认为,当今制造业的生存三要素是信息技术(IT).供应链管理(SCM)和成批制造技术.使用信息技术就是由依赖人工的作业方式转变为作业的快速化.高效化,大量减少人工介入,降低生产经营成本:供应链管 ...

  9. GROUPING SETS、CUBE、ROLLUP

    其实还是写一个Demo 比较好 USE tempdb IF OBJECT_ID( 'dbo.T1' , 'U' )IS NOT NULL BEGIN DROP TABLE dbo.T1; END; G ...

  10. DB2建立不记录日志的表

    )); ,'JACK'); ,'Timo'); -----建立无日日志表 --方法一:(表存在) CREATE TABLE TB_7 LIKE TB_6 NOT LOGGED INITIALLY; - ...