FastDFS配置说明

1)tracker.conf

# is this config file disabled

# false for enabled

# true for disabled

disabled=false

#用于说明这个配置文件是否可用,false为可用。

# bind an address of this host

# empty for bind all addresses of this host

bind_addr=

#是否绑定ip

#bind_addr=后面即为绑定的ip地址,常用于一台服务器有多个ip地址,希望其中的一个ip地址提供服务。不设置时,绑定所有的地址。一般情况下保持默认的不设置即可。

# the tracker server port

port=22122

#tracker提供服务的端口号。

# connect timeout in seconds

# default value is 30s

connect_timeout=30

#网络连接超时时间,以秒为单位。针对socket套接字函数connect

# network timeout in seconds

# default value is 30s

network_timeout=60

#  tracker server的网络超时,单位为秒。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败。

# the base path to store data and log files

base_path=/home/chenfeic/fdfs

#存放数据和日志的根目录地址(这个目录必须存在,其下的子目录自动生成)

此目录说明:

{base_path}/data/storage_groups_new.dat:存储分组信息(data目录自动生成)

{base_path}/data/storage_servers_new.dat:存储服务器(storage)列表

{base_path}/logs/trackerd.log:tracker server日志文件

# max concurrent connections this server supported

max_connections=256

#系统提供服务时的最大连接数

# work thread count, should <= max_connections

# default value is 4

# since V2.00

work_threads=4

#工作线程数,通常设置为CPU数。此值不能超过max_connections,默认是4

# the method of selecting group to upload files

# 0: round robin

# 1: specify group

# 2: load balance, select the max free space group to upload file

store_lookup=2

#上传文件到组 的方式 0:轮询方式 1: 指定组 2: 平衡负载(选择最大剩余空间的组上传)。默认是选择最大剩余空间。

# which group to upload file

# when store_lookup set to 1, must set store_group to the group name

store_group=group2

#当上一个参数设定为1 时 (store_lookup=1,即指定组名时),必须设置本参数为系统中存在的一个组名。如果选择其他的上传方式,这个参数就没有效了。

# which storage server to upload file

# 0: round robin (default)

# 1: the first server order by ip address

# 2: the first server order by priority (the minimal)

store_server=0

#选择哪个storage server 进行上传操作(一个文件被上传后,这个storage server就相当于这个文件的storage server源,会对同组的storage server推送这个文件达到同步效果)

# 0: 轮询方式 (默认方式)

# 1: 根据ip 地址进行排序选择第一个服务器(IP地址最小者)

# 2: 根据优先级进行排序(上传优先级由storage server来设置,参数名为upload_priority)

# which path(means disk or mount point) of the storage server to upload file

# 0: round robin

# 2: load balance, select the max free space path to upload file

store_path=0

选择storage server 中的哪个目录进行上传。storage server可以有多个存放文件的base path(可以理解为多个磁盘)。

# 0: 轮流方式,多个目录依次存放文件

# 2: 选择剩余空间最大的目录存放文件

# which storage server to download file

# 0: round robin (default)

# 1: the source storage server which the current file uploaded to

download_server=0

# 选择哪个 storage server 作为下载服务器

# 0: 轮询方式,可以下载当前文件的任一storage server

# 1: 哪个为源storage server 就用哪一个 (前面说过了这个storage server源 是怎样产生的) 就是之前上传到哪个storage server服务器就是哪个了

# reserved storage space for system or other applications.

# if the free(available) space of any stoarge server in

# a group <= reserved_storage_space,

# no file can be uploaded to this group.

# bytes unit can be one of follows:

### G or g for gigabyte(GB)

### M or m for megabyte(MB)

### K or k for kilobyte(KB)

### no unit for byte(B)

### XX.XX% as ratio such as reserved_storage_space = 10%

reserved_storage_space = 10%

# storage server 上保留的空间,保证系统或其他应用需求空间。可以用绝对值或者百分比。只要同组内任一storage server剩余空间小于这个值,就不允许再上传文件。

#(注意如果同组的服务器的硬盘大小一样,以最小的为准,也就是只要同组中有一台服务器达到这个标准了,这个标准就生效,原因就是因为他们进行备份)

#standard log level as syslog, case insensitive, value list:

### emerg for emergency

### alert

### crit for critical

### error

### warn for warning

### notice

### info

### debug

log_level=info

# 选择日志级别(不区别大小写)

#unix group name to run this program,

#not set (empty) means run by the group of current user

run_by_group=

# 操作系统运行FDFS的用户组 (不填 就是当前用户组,哪个启动进程就是哪个)

#unix username to run this program,

#not set (empty) means run by current user

run_by_user=

# 操作系统运行FDFS的用户 (不填 就是当前用户,哪个启动进程就是哪个)

# allow_hosts can ocur more than once, host can be hostname or ip address,

# "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or

# host[01-08,20-25].domain.com, for example:

# allow_hosts=10.0.1.[1-15,20]

# allow_hosts=host[01-08,20-25].domain.com

allow_hosts=*

# 可以连接到此 tracker server 的ip范围(对所有类型的连接都有影响,包括客户端,storage server)

# 可以配置多行,每行都会起作用

# sync log buff to disk every interval seconds

# default value is 10 seconds

sync_log_buff_interval = 10

# 同步或刷新日志信息到硬盘的时间间隔,以秒为单位

# 注意:tracker server 的日志不是时时写硬盘的,而是先写内存。

# check storage server alive interval seconds

check_active_interval = 120

# 检测 storage server 存活的时间隔,以秒为单位。

# storage server定期向tracker server 发心跳,如果tracker server在一个check_active_interval内还没有收到storage server的一次心跳,那边将认为该storage server已经下线。所以本参数值必须大于storage server配置的心跳时间间隔。通常配置为storage server心跳时间间隔的2倍或3倍。

# thread stack size, should >= 64KB

# default value is 64KB

thread_stack_size = 64KB

# 线程栈的大小。FDFS server端采用了线程方式。此值必须大于64KB。

# 线程栈越大,一个线程占用的系统资源就越多。如果要启动更多的线程,可以适当降低本参数值。

# auto adjust when the ip address of the storage server changed

# default value is true

storage_ip_changed_auto_adjust = true

# 这个参数控制当storage server IP地址改变时,集群是否自动调整。注:只有在storage server进程重启时才完成自动调整。

# storage sync file max delay seconds

# default value is 86400 seconds (one day)

# since V2.00

storage_sync_file_max_delay = 86400

#storage server之间同步文件的最大延迟时间,以秒为单位,缺省为1天。根据实际情况进行调整

# 注:本参数并不影响文件同步过程。本参数仅在下载文件时,判断文件是否已经被同步完成的一个阀值(经验值)

# the max time of storage sync a file

# default value is 300 seconds

# since V2.00

storage_sync_file_max_time = 300

#storage server同步一个文件需要消耗的最大时间,以秒为单位,缺省为300s,即5分钟。

# 注:本参数并不影响文件同步过程。本参数仅在下载文件时,作为判断当前文件是否被同步完成的一个阀值(经验值)

# if use a trunk file to store several small files

# default value is false

# since V3.00

use_trunk_file = false

#是否使用trunk file来合并小文件,缺省是关闭的。

# the min slot size, should <= 4KB

# default value is 256 bytes

# since V3.00

slot_min_size = 256

#trunk file分配的最小字节数。比如文件只有16个字节,系统也会分配slot_min_size个字节。

# the max slot size, should > slot_min_size

# store the upload file to trunk file when it's size <=  this value

# default value is 16MB

# since V3.00

slot_max_size = 16MB

#只有文件大小<=这个参数值的文件,才会合并存储。如果一个文件的大小大于这个参数值,将直接保存到一个文件中(即不采用合并存储方式)。

# the trunk file size, should >= 4MB

# default value is 64MB

# since V3.00

trunk_file_size = 64MB

# 合并存储的trunk file大小,至少4MB,缺省值是64MB。不建议设置得过大。

# if create trunk file advancely

# default value is false

# since V3.06

trunk_create_file_advance = false

# 是否提前创建trunk file。只有当这个参数为true,下面3个以trunk_create_file_打头的参数才有效。

# the time base to create trunk file

# the time format: HH:MM

# default value is 02:00

# since V3.06

trunk_create_file_time_base = 02:00

# 创建trunk file的起始时间点(基准时间),02:00表示第一次创建的时间点是凌晨2点。

# the interval of create trunk file, unit: second

# default value is 38400 (one day)

# since V3.06

trunk_create_file_interval = 86400

# 创建trunk file的时间间隔,以秒为单位。如果每天只提前创建一次,则设置为86400。

# the threshold to create trunk file

# when the free trunk file size less than the threshold, will create

# the trunk files

# default value is 0

# since V3.06

trunk_create_file_space_threshold = 20G

# 创建trunk file时,需要达到的空闲trunk大小

# 比如本参数为20G,而当前空闲trunk为4GB,那么只需要创建16GB的trunk file即可。

# if check trunk space occupying when loading trunk free spaces

# the occupied spaces will be ignored

# default value is false

# since V3.09

# NOTICE: set this parameter to true will slow the loading of trunk spaces

# when startup. you should set this parameter to true when neccessary.

trunk_init_check_occupying = false

#trunk初始化时,是否检查可用空间是否被占用

# if ignore storage_trunk.dat, reload from trunk binlog

# default value is false

# since V3.10

# set to true once for version upgrade when your version less than V3.10

trunk_init_reload_from_binlog = false

# 是否无条件从trunk binlog中加载trunk可用空间信息

# FDFS缺省是从快照文件storage_trunk.dat中加载trunk可用空间,

# 该文件的第一行记录的是trunk binlog的offset,然后从binlog的offset开始加载

# if use storage ID instead of IP address

# default value is false

# since V4.00

use_storage_id = false

# 是否使用server ID作为storage server标识

# specify storage ids filename, can use relative or absolute path

# since V4.00

storage_ids_filename = storage_ids.conf

# 在文件中设置组名、server ID和对应的IP地址,参见源码目录下的配置示例:conf/storage_ids.conf

# id type of the storage server in the filename, values are:

## ip: the ip address of the storage server

## id: the server id of the storage server

# this paramter is valid only when use_storage_id set to true

# default value is ip

# since V4.03

id_type_in_filename = ip

#设置文件名中storage server的标识

#ip:storage server的ip地址

#id: storage server的server ID

#默认是ip,这个参数只有当use_storage_id =true时才有效。

# if store slave file use symbol link

# default value is false

# since V4.01

store_slave_file_use_link = false

# 存储“从文件”是否采用symbol link(符号链接)方式
# 如果设置为true,一个从文件将占用两个文件:原始文件及指向它的符号链接。

# if rotate the error
log every day

# default value is false

# since V4.02

rotate_error_log = false

# 是否定期轮转error log,目前仅支持一天轮转一次   (建议设置为true,否则会导致日志文件只有一个,时间长了就会很大,不方便查看)

# rotate error log time base, time format: Hour:Minute

# Hour from 0 to 23, Minute from 0 to 59

# default value is 00:00

# since V4.02

error_log_rotate_time=00:00

#
error log定期轮转的时间点,只有当rotate_error_log设置为true时有效

# rotate error log when the log file exceeds this size

# 0 means never
rotates log file by log file size

# default value is 0

# since V4.02

rotate_error_log_size = 0

#
error log按大小轮转
# 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中

# if use connection
pool

# default value is false

# since V4.05

use_connection_pool = false

#是否使用连接池

# connections whose the idle time exceeds this time will be closed

# unit: second

# default value is 3600

# since V4.05

connection_pool_max_idle_time = 3600

#最大连接等待时间,以秒为单位

# HTTP port on this tracker server

http.server_port=8080

#
HTTP服务端口(可以不设置)

# check storage HTTP server alive interval seconds

# <= 0 for never check

# default value is 30

http.check_alive_interval=30

#检测storage HTTP server存活的时间间隔,以秒为单位

# check storage HTTP server alive type, values are:

#   tcp : connect
to the storge server with HTTP port only,

#        do not request and get response

#   http: storage
check alive url must return http status 200

# default value is tcp

http.check_alive_type=tcp

#检测storage HTTP server存活的方式,默认是tcp方式

# check storage HTTP server alive uri/url

# NOTE: storage embed HTTP server support uri:
/status.html

http.check_alive_uri=/status.html

#检测storage HTTP server是否存活的uri/url

2)storage.conf

# is this config file disabled

# false for enabled

# true for disabled

disabled=false

#用于说明这个配置文件是否可用,false为可用。

# the name of the group this storage server belongs to

group_name=group1

#指定此storage server所在的组。

# bind an address of this host

# empty for bind all
addresses of this host

bind_addr=

#是否绑定ip

#bind_addr=后面即为绑定的ip地址,常用于一台服务器有多个ip地址,希望其中的一个ip地址提供服务。不设置时,绑定所有的地址。一般情况下保持默认的不设置即可。

# if bind an address
of this host when connect to other servers

# (this storage server as a client)

# true for binding the address configed by above
parameter: "bind_addr"

# false for binding any address of this host

client_bind=true

#
bind_addr通常是针对server的。当指定bind_addr时,本参数才有效。

# 本storage server作为client连接其他服务器(如tracker server、其他storage
server),是否绑定bind_addr。

# the storage server port

port=23000

#storage server服务端口号

# connect timeout in seconds

# default value is 30s

connect_timeout=30

#网络连接超时时间,以秒为单位。针对socket套接字函数connect

# network timeout in seconds

# default value is 30s

network_timeout=60

#storage
server 网络超时时间,以秒为单位。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败。

# heart beat interval in seconds

heart_beat_interval=30

# 心跳间隔时间,单位为秒 (这里是指主动向tracker server 发送心跳)。

# disk usage report interval in seconds

stat_report_interval=60

#
storage server向tracker server报告磁盘剩余空间的时间间隔,单位为秒。

# the base path to store
data and log files

base_path=/home/chenfeic/fdfs

#
base_path 目录地址,根目录必须存在,子目录会自动生成

# max concurrent connections the server supported

# default value is 256

# more max_connections means more memory will be used

max_connections=256

#系统提供服务时的最大连接数

# the buff size to recv / send data

# this parameter must
more than 8KB

# default value is 64KB

# since V2.00

buff_size = 256KB

#设置队列结点的buffer大小。工作队列消耗的内存大小 = buff_size * max_connections

# 设置得大一些,系统整体性能会有所提升。

# 消耗的内存请不要超过系统物理内存大小。另外,对于32位系统,请注意使用到的内存不要超过3GB。

# work thread count, should <= max_connections

# work thread deal network io

# default value is 4

# since V2.00

work_threads=4

#工作线程数,通常设置为CPU数。此值不能超过max_connections,默认是4

# if disk read / write
separated

##  false for mixed read and write

##  true for separated read and write

# default value is true

# since V2.00

disk_rw_separated = true

#磁盘IO读写是否分离,缺省是分离的。

# disk reader thread count per store base path

# for mixed read /
write, this parameter can be 0

# default value is 1

# since V2.00

disk_reader_threads = 1

# 针对单个存储路径的读线程数,缺省值为1。

# 读写分离时,系统中的读线程数 = disk_reader_threads * store_path_count

# 读写混合时,系统中的读写线程数 = (disk_reader_threads + disk_writer_threads) *
store_path_count

# disk writer thread count per store base path

# for mixed read /
write, this parameter can be 0

# default value is 1

# since V2.00

disk_writer_threads = 1

# 针对单个存储路径的写线程数,缺省值为1。

# 读写分离时,系统中的写线程数 = disk_writer_threads * store_path_count

# 读写混合时,系统中的读写线程数 = (disk_reader_threads + disk_writer_threads) *
store_path_count

# when no entry to sync, try read binlog again after X milliseconds

# must > 0, default value is 200ms

sync_wait_msec=50

# 同步文件时,如果从binlog中没有读到要同步的文件,休眠N毫秒后重新读取。0表示不休眠,立即再次尝试读取。

# 出于CPU消耗考虑,不建议设置为0。如何希望同步尽可能快一些,可以将本参数设置得小一些,比如设置为10ms

# after sync a file, usleep milliseconds

# 0 for sync successively (never call usleep)

sync_interval=0

# 同步上一个文件后,再同步下一个文件的时间间隔,单位为毫秒,0表示不休眠,直接同步下一个文件。

# storage sync start time of a day, time format:
Hour:Minute

# Hour from 0 to 23, Minute from 0 to 59

sync_start_time=00:00

# 同步开始时间

# storage sync end time of a day, time format:
Hour:Minute

# Hour from 0 to 23, Minute from 0 to 59

sync_end_time=23:59

#同步结束时间

# 上面二个一起解释。允许系统同步的时间段 (默认是全天) 。

# write to the mark file after sync N files

# default value is 500

write_mark_file_freq=500

# 同步完N个文件后,把storage的mark文件同步到磁盘

# 注:如果mark文件内容没有变化,则不会同步

# path(disk or mount point) count, default value is 1

store_path_count=1

# 存放文件时storage server支持多个路径(例如磁盘)。这里配置存放文件的基路径数目,通常只配一个目录。

# store_path#, based 0, if store_path0 not
exists, it's value is
base_path

# the paths must be exist

store_path0=/home/chenfeic/fdfs

#store_path1=/home/chenfeic/fdfs1

# 逐一配置store_path_count个路径,索引号基于0。注意配置方法后面有0,1,2 .....,需要配置0到store_path_count - 1。

# 如果不配置base_path0,那边它就和base_path对应的路径一样。

# subdir_count  *
subdir_count directories will be auto created under each

# store_path (disk), value can be 1 to 256, default value is 256

subdir_count_per_path=256

#FDFS存储文件时,采用了两级目录。这里配置存放文件的目录个数

# 如果本参数只为N(如:256),那么storage
server在初次运行时,会自动创建 N * N 个存放文件的子目录。

# tracker_server can ocur more than once, and
tracker_server format is

#  "host:port", host can be hostname or ip address

tracker_server=192.168.209.121:22122

# tracker_server
的列表(注意要写上端口号)

# 有多个tracker server时,每个tracker
server写一行

#standard log level as syslog, case insensitive,
value list:

### emerg for emergency

### alert

### crit for critical

### error

### warn for warning

### notice

### info

### debug

log_level=info

#日志级别

#unix group name to run this program,

#not set (empty) means run
by the group of current user

run_by_group=

# 操作系统运行FDFS的用户 (不填 就是当前用户,哪个启动进程就是哪个)

#unix username to run this program,

#not set (empty) means run
by current user

run_by_user=

# 操作系统运行FDFS的用户组 (不填 就是当前用户组,哪个启动进程就是哪个)

# allow_hosts can ocur more than once, host can be
hostname or ip address,

# "*"
means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or

# host[01-08,20-25].domain.com, for example:

# allow_hosts=10.0.1.[1-15,20]

# allow_hosts=host[01-08,20-25].domain.com

allow_hosts=*

# 允许连接本storage
server的IP地址列表

# 可以配置多行,每行都会起作用

# the mode of the files distributed to the data path

# 0: round robin(default)

# 1: random,
distributted by hash code

file_distribute_path_mode=0

#  文件在data目录下分散存储策略。

# 0: 轮流存放,在一个目录下存储设置的文件数后(参数file_distribute_rotate_count中设置文件数),使用下一个目录进行存储。

# 1: 随机存储,根据文件名对应的hash code来分散存储。

# valid when file_distribute_to_path is set to 0 (round robin),

# when the written file count reaches this number, then rotate to next path

# default value is 100

file_distribute_rotate_count=100

# 当上面的参数file_distribute_path_mode配置为0(轮流存放方式)时,本参数有效。

# 当一个目录下的文件存放的文件数达到本参数值时,后续上传的文件存储到下一个目录中。

# call fsync to disk when write big file

# 0: never call fsync

# other: call fsync when written bytes >= this bytes

# default value is 0 (never call
fsync)

fsync_after_written_bytes=0

# 当写入大文件时,每写入N个字节,调用一次系统函数fsync将内容强行同步到硬盘。0表示从不调用fsync

# sync log buff to disk every interval seconds

# must > 0, default value is 10 seconds

sync_log_buff_interval=10

# 同步或刷新日志信息到硬盘的时间间隔,以秒为单位

# 注意:storage server 的日志信息不是时时写硬盘的,而是先写内存。

# sync binlog buff / cache to disk every interval seconds

# default value is 60 seconds

sync_binlog_buff_interval=10

# 同步binglog(更新操作日志)到硬盘的时间间隔,单位为秒

# 本参数会影响新上传文件同步延迟时间

# sync storage stat info to disk every interval seconds

# default value is 300 seconds

sync_stat_file_interval=300

# 把storage的stat文件同步到磁盘的时间间隔,以秒为单位。

# 注:如果stat文件内容没有变化,不会进行同步

# thread stack size, should >= 512KB

# default value is 512KB

thread_stack_size=512KB

# 线程栈的大小。FDFS server端采用了线程方式。

# 线程栈越大,一个线程占用的系统资源就越多。

# the priority as a source server for uploading file.

# the lower this value, the higher its uploading priority.

# default value is 10

upload_priority=10

#  本storage server作为源服务器,上传文件的优先级,可以为负数。值越小,优先级越高。这里就和 tracker.conf 中store_server=
2时的配置相对应了

# the NIC alias prefix, such as eth in Linux, you can
see it by ifconfig -a

# multi aliases split by comma. empty value means auto set by OS type

# default values is empty

if_alias_prefix=

#设置网卡别名

# if check file
duplicate, when set to true, use FastDHT to store file indexes

# 1 or yes: need
check

# 0 or no: do not check

# default value is 0

check_file_duplicate=0

# 是否检测上传文件已经存在。如果已经存在,则不存在文件内容,建立一个符号链接以节省磁盘空间。

# 这个应用要配合FastDHT 使用,所以打开前要先安装FastDHT

# 1或yes 是检测,0或no 是不检测

# file signature method for check file duplicate

## hash: four 32 bits hash code

## md5: MD5 signature

# default value is hash

# since V4.01

file_signature_method=hash

# 检查文件是否存在时,文件内容的签名方式:

##
hash: 4个hash code

##
md5:MD5

# namespace for storing file indexes (key-value pairs)

# this item must be set when check_file_duplicate is true / on

key_namespace=FastDFS

# 当check_file_duplicate设定为1 或 yes时 (true/on也是可以的) , 在FastDHT中的命名空间。

# set keep_alive to 1 to enable persistent connection with FastDHT
servers

# default value is 0 (short connection)

keep_alive=0

# 与FastDHT servers 的连接方式 (是否为持久连接) ,默认是0(短连接方式)。可以考虑使用长连接,这要看FastDHT server的连接数是否够用。

# you can use "#include filename" (not include double quotes) directive to

# load FastDHT server list, when the filename is a relative path such as

# pure filename, the base path is the base path of current/this config file.

# must set FastDHT server
list when check_file_duplicate is true / on

# please see INSTALL of FastDHT for detail

##include /home/yuqing/fastdht/conf/fdht_servers.conf

# 可以通过 #include filename 方式来加载 FastDHT servers  的配置,装上FastDHT就知道该如何配置啦。

# 同样要求 check_file_duplicate=1 时才有用,不然系统会忽略

#
fdht_servers.conf 记载的是 FastDHT servers 列表

# if log to access log

# default value is false

# since V4.00

use_access_log = false

# 是否将文件操作记录到access log

# if rotate the access
log every day

# default value is false

# since V4.00

rotate_access_log = false

# 是否定期轮转access log,目前仅支持一天轮转一次

# rotate access log time base, time format: Hour:Minute

# Hour from 0 to 23, Minute from 0 to 59

# default value is 00:00

# since V4.00

access_log_rotate_time=00:00

#
access log定期轮转的时间点,只有当rotate_access_log设置为true时有效

# if rotate the error
log every day

# default value is false

# since V4.02

rotate_error_log = false

# 是否定期轮转error log,目前仅支持一天轮转一次 (建议设置为true,否则会导致日志文件只有一个,时间长了就会很大,不方便查看)

# rotate error log time base, time format: Hour:Minute

# Hour from 0 to 23, Minute from 0 to 59

# default value is 00:00

# since V4.02

error_log_rotate_time=00:00

#
error log定期轮转的时间点,只有当rotate_error_log设置为true时有效

# rotate access log when the log file exceeds this size

# 0 means never
rotates log file by log file size

# default value is 0

# since V4.02

rotate_access_log_size = 0

#  access log按文件大小轮转

# 设置为0表示不按文件大小轮转,否则当access log达到该大小,就会轮转到新文件中

# rotate error log when the log file exceeds this size

# 0 means never
rotates log file by log file size

# default value is 0

# since V4.02

rotate_error_log_size = 0

#
error log按文件大小轮转

# 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中。

# if skip the invalid
record when sync file

# default value is false

# since V4.02

file_sync_skip_invalid_record=false

# 文件同步的时候,是否忽略无效的binlog记录。

# if use connection
pool

# default value is false

# since V4.05

use_connection_pool = false

#是否使用连接池

# connections whose the idle time exceeds this time will be closed

# unit: second

# default value is 3600

# since V4.05

connection_pool_max_idle_time = 3600

#连接最大等待时间,以秒为单位。

# use the ip address of this storage server if domain_name is empty,

# else this domain name will ocur in the url redirected by the tracker server

http.domain_name=

#
storage server上web server域名,通常仅针对单独部署的web server。这样URL中就可以通过域名方式来访问storage server上的文件了,

# 这个参数为空就是IP地址的方式。

# the port of the web server on this storage server

http.server_port=8888

#storage
server上web server端口号

3)client.conf

# connect timeout in seconds

# default value is 30s

connect_timeout=30

#网络连接超时时间,以秒为单位。针对socket套接字函数connect

# network timeout in seconds

# default value is 30s

network_timeout=60

#client 网络超时时间,以秒为单位。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败。

# the base path to store log
files

base_path=/home/yuqing/fastdfs

#base_path目录,根目录必须存在,记录日志信息

# tracker_server can ocur more than once, and
tracker_server format is

#  "host:port", host can be hostname or ip address

tracker_server=192.168.0.197:22122

# tracker_server
的列表(注意要写上端口号)

# 有多个tracker server时,每个tracker
server写一行

#standard log level as syslog, case insensitive,
value list:

### emerg for emergency

### alert

### crit for critical

### error

### warn for warning

### notice

### info

### debug

log_level=info

#日志级别

# if use connection
pool

# default value is false

# since V4.05

use_connection_pool = false

#是否使用连接池

# connections whose the idle time exceeds this time will be closed

# unit: second

# default value is 3600

# since V4.05

connection_pool_max_idle_time = 3600

#连接最大等待时间,以秒为单位。

# if load FastDFS
parameters from tracker server

# since V4.05

# default value is false

load_fdfs_parameters_from_tracker=false

#是否从tracker加载fdfs的参数

# if use storage ID
instead of IP address

# same as tracker.conf

# valid only when load_fdfs_parameters_from_tracker is false

# default value is false

# since V4.05

use_storage_id = false

# 是否使用server ID作为storage server标识

#只有当load_fdfs_parameters_from_tracker=false时才有效

# specify storage ids filename, can use relative or
absolute path

# same as tracker.conf

# valid only when load_fdfs_parameters_from_tracker is false

# since V4.05

storage_ids_filename = storage_ids.conf

# 在文件中设置组名、server ID和对应的IP地址,参见源码目录下的配置示例:conf/storage_ids.conf

#HTTP settings

http.tracker_server_port=8080

#tracker的web端口号(可以不设置,V4.0.6已经无效)

#use "#include" directive to include HTTP other settings

##include http.conf

# 设置为#include http.conf

FastDFS配置说明(中英文)的更多相关文章

  1. FastDFS配置说明

    前面了解了fastdfs的原理,接下来就熟悉一下安装过程,准备了三台机器,一台模拟client,一台模拟storage,一台模拟tracker.     三台机器均为debian6,系统为最小化安装, ...

  2. FastDFS与Nginx的配置说明

    1.简介     FastDFS是一个开源的轻量级分布式文件系统,它对文件进行管理,功能包括:文件存储.文件同步.文件访问(文件上传.文件下载)等,解决了大容量存储和负载均衡的问题.特别适合以文件为载 ...

  3. FastDfs 说明、安装、配置

    fastdfs是一个开源的,高性能的的分布式文件系统,他主要的功能包括:文件存储,同步和访问,设计基于高可用和负载均衡,fastfd非常适用于基于文件服务的站点,例如图片分享和视频分享网站 fastf ...

  4. FastDFS安装和配置,整合Nginx-1.13.3

    目录: 一:下载FastDFS  二:安装FastDFS 三:配置 四:整合Nginx和FastDFS FastDFS is an open source high performance distr ...

  5. fastDFS文件服务器迁移

    在实际的项目应用中,由于服务器替换或项目变更难免会存在fastDFS文件服务器迁移的工作.本文重点介绍fastDFS文件系统在不同情况下的文件迁移处理方案. 1.迁移时IP地址不变 通过文件服务器存储 ...

  6. 分布式文件系统FastDFS如何做到高可用

    FastDFS是用C语言编写的一款开源的轻量级分布式文件系统.它对文件进行管理,功能包括:文件存储.文件同步.文件访问(文件上传.文件下载)等,解决了大容量存储和负载均衡的问题.特别适合以文件为载体的 ...

  7. fastDFS教程Ⅱ-文件服务器迁移

    在实际的项目应用中,由于服务器替换或项目变更难免会存在fastDFS文件服务器迁移的工作.本文重点介绍fastDFS文件系统在不同情况下的文件迁移处理方案. 1.迁移时IP地址不变 通过文件服务器存储 ...

  8. FastDFS教程Ⅰ-文件服务器安装与Nginx配置

    1.简介     FastDFS是一个开源的轻量级分布式文件系统,它对文件进行管理,功能包括:文件存储.文件同步.文件访问(文件上传.文件下载)等,解决了大容量存储和负载均衡的问题.特别适合以文件为载 ...

  9. FastDFS tracker storage 的工作原理及流程

    FastDFS tracker storage 的工作原理及流程 2013 年 3 月 11 日 – 09:22 | 1,409 views | 收藏  (No Ratings Yet) FastDF ...

随机推荐

  1. VS 调试相关

    最近用VS2013 调试遇到的一点小问题,老年痴呆做一下记录. 1. IIS 用 w3wp.exe 调试: IIS 中的文件系统与工程的保持一致,否则断点不会命中: 发布文件系统后,重启站点对应的应用 ...

  2. LightOJ_1038 Race to 1 Again

    题目链接 题意: 给一个数n, 每次操作是随机的选择一个[1,N]区间内能够被n整除的数进行除法, 然后得到一个新的n. 问n变成1时的期望操作次数. 思路: 设E[n] 为 当数为x时, 变成 1 ...

  3. prototype.js 源码解读(02)

    如果你想研究一些比较大型的js框架的源码的话,本人建议你从其最初的版本开始研读,因为最初的版本东西少,易于研究,而后的版本基本都是在其基础上不断扩充罢了,所以,接下来我不准备完全解读prototype ...

  4. Sqoop安装与使用(sqoop-1.4.5 on hadoop 1.0.4)

    1.什么是Sqoop Sqoop即 SQL to Hadoop ,是一款方便的在传统型数据库与Hadoop之间进行数据迁移的工具,充分利用MapReduce并行特点以批处理的方式加快数据传输,发展至今 ...

  5. 14.6.5 Configuring InnoDB Change Buffering 配置InnoDB Change Buffering

    14.6.5 Configuring InnoDB Change Buffering 配置InnoDB Change Buffering 当插入,更新,和删除操作在表上执行, 索引列的值(特别是 se ...

  6. python读取文件通过正则过滤需要信息然后保存到新文件里

    import osimport reimport fileinput def getDataFromFile():        rt = "/(.*)/(.*).apk"     ...

  7. poj 2151

      http://poj.org/problem?id=2151                                                               Check ...

  8. TFS 2012使用简介(一)

    最近,一直想让团队加入敏捷开发,但TFS2010用下来,并不是令人满意,还好,TFS2012横空出世了.相比TFS2010,TFS2012改进太多了,主要体现在以下方面: Team Web Acces ...

  9. php 错误信息配置

    display_errors = on/off错误回显,一般常用语开发模式,但是很多应用在正式环境中也忘记了关闭此选项.错误回显可以暴露出非常多的敏感信息,为攻击者下一步攻击提供便利.推荐关闭此选项. ...

  10. 邮件发送小demo

    //send email public static bool SendEmail() { //实例化发件人地址 MailAddress from = new MailAddress("aa ...