FastDFS_v5.05+nginx+cache集群安装配置手册
转载请出自出处:http://www.cnblogs.com/hd3013779515/
1.FastDFS简单介绍
FastDFS是由淘宝的余庆先生所开发,是一个轻量级、高性能的开源分布式文件系统,用纯C语言开发,包括文件存储、文件同步、文件访问(上传、下载)、存取负载均衡、在线扩容、相同内容只存储一份等功能,适合有大容量存储需求的应用或系统。做分布式系统开发时,其中要解决的一个问题就是图片、音视频、文件共享的问题,分布式文件系统正好可以解决这个需求。同类的分布式文件系统有谷歌的GFS、HDFS(Hadoop)、TFS(淘宝)等。
源码开放下载地址:https://github.com/happyfish100
早期源码开放下载地址:https://sourceforge.net/projects/fastdfs/files/
官网论坛:http://bbs.chinaunix.net/forum-240-1.html
FastDFS系统架构:
FastDFS文件上传流程:
1、client询问tracker上传到的storage,不需要附加参数;
2、tracker返回一台可用的storage;
3、client直接和storage通讯完成文件上传。
FastDFS文件下载流程:
1、client询问tracker下载文件的storage,参数为文件标识(组名和文件名);
2、tracker返回一台可用的storage;
3、client直接和storage通讯完成文件下载。
术语
FastDFS两个主要的角色:Tracker Server 和 Storage Server
Tracker Server:跟踪服务器,主要负责调度storage节点与client通信,在访问上起负载均衡的作用,和记录storage节点的运行状态,是连接client和storage节点的枢纽。
Storage Server:存储服务器,保存文件和文件的meta data(元数据)
Group:文件组,也可以称为卷。同组内服务器上的文件是完全相同的,做集群时往往一个组会有多台服务器,上传一个文件到同组内的一台机器上后,FastDFS会将该文件即时同步到同组内的其它所有机器上,起到备份的作用。
meta data:文件相关属性,键值对(Key Value Pair)方式,如:width=1024, height=768。和阿里云OSS的meta data相似。
2.FastDFS集群环境安装
2.1集群规划
跟踪服务器负载均衡节点1:192.168.137.160 dfs-nginx-proxy-1
跟踪服务器负载均衡节点2:192.168.137.161 dfs-nginx-proxy-2
跟踪服务器1:192.168.137.162 dfs-tracker-1
跟踪服务器2:192.168.137.163 dfs-tracker-2
存储服务器1:192.168.137.164 dfs-storage-group1-1
存储服务器2:192.168.137.165 dfs-storage-group1-2
存储服务器3:192.168.137.166 dfs-storage-group2-1
存储服务器4:192.168.137.167 dfs-storage-group2-2
HA虚拟IP:192.168.137.170
HA软件:Keepalived
操作系统:CentOS 6.8
用户:root
数据目录:/fastdfs
2.2安装包
FastDFS_v5.05.tar.gz:FastDFS源码
libfastcommon-master.zip:(从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库)
fastdfs-nginx-module_v1.16.tar.gz:storage节点http服务nginx模块
nginx-1.6.2.tar.gz:Nginx安装包
ngx_cache_purge-2.3.tar.gz:Nginx图片缓存清除模块
keepalived-1.2.18.tar.gz:高可用
可以从百度网盘下载。
链接:http://pan.baidu.com/s/1jHIwtsq 密码:n757
2.3 FastDFS集群架构图
外部统一访问192.168.137.170这个虚拟IP,来访问集群中各节点的文件。
2.4安装集群节点
在所有跟踪服务器和存储服务器节点上执行以下操作,即:162 ~ 167节点
1> 安装所需的依赖包
shell>
yuminstall
make
cmake
gcc
gcc-c++
2> 安装libfatscommon
shell> cd /home/test
shell> unzip libfastcommon-master.zip -d /usr/local/fast/
shell> cd /usr/local/fast/libfastcommon-master/
## 编译、安装
shell> ./make.sh
shell> ./make.sh install
FastDFS
主程序设置的目录为
/usr/local/lib/
,所以需要创建
/usr/lib64
下的一些核心执行程序的软连接文件。
shell> mkdir /usr/local/lib/
shell> ln -s /usr/lib64/libfastcommon.so /usr/local/lib/libfastcommon.so
shell> ln -s /usr/lib64/libfastcommon.so /usr/lib/libfastcommon.so
shell> ln -s /usr/lib64/libfdfsclient.so /usr/local/lib/libfdfsclient.so
shell> ln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so
3> 安装FastDFS
shell> cd /home/test
shell> tar -zxvf FastDFS_v5.05.tar.gz -C /usr/local/fast
shell> cd /usr/local/fast/FastDFS/
## 编译、安装
shell> ./make.sh
shell> ./make.sh install
因为
FastDFS
服务脚本设置的
bin
目录为
/usr/local/bin/
下,但是实际安装在了
/usr/bin/
下面。所以需要修改配置文件的路径,也就是修改下面两个文件。
shell> vim /etc/init.d/fdfs_storaged
进行全局替换命令:
%s+/usr/local/bin+/usr/bin
shell> vim /etc/init.d/fdfs_trackerd
进行全局替换命令:
%s+/usr/local/bin+/usr/bin
2.5配置跟踪节点(192.168.137.162,192.168.137.163)
说明:每个节点执行相同的操作
1> 复制tracker样例配置文件,并重命名
shell>
cp/etc/fdfs/tracker
.conf.sample/etc/fdfs/tracker
.conf
2> 修改tracker.conf配置文件
shell> vim /etc/fdfs/tracker.conf
# 修改的内容如下:
disabled=false # 启用配置文件
port=22122 # tracker服务器端口(默认22122)
base_path=/fastdfs/tracker # 存储日志和数据的根目录
其它参数保留默认配置, 具体配置解释可参考官方文档说明:http://bbs.chinaunix.net/thread-1941456-1-1.html
3> 创建base_path指定的目录
shell> mkdir -p /fastdfs/tracker
4> 防火墙中打开tracker服务器端口( 默认为 22122)
shell> vi /etc/sysconfig/iptables
添加如下端口行:-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT
重启防火墙:shell> service iptables restart
5> 启动tracker服务器
shell>
/etc/init.d/fdfs_trackerd start
初次启动,会在/fastdfs/tracker目录下生成logs、data两个目录:
检查FastDFS Tracker Server是否启动成功:ps -ef | grep fdfs_trackerd
6> 停止tracker服务器
shell>
/etc/init.d/fdfs_trackerd stop
7> 设置tracker服务开机启动
shell> chkconfig fdfs_trackerd
on
2.6配置存储节点
group1: 192.168.137.164,192.168.137.165
group2: 192.168.137.166,192.168.137.167
说明:每个节点执行相同的操作
1> 复制storage样例配置文件,并重命名
shell>
cp/etc/fdfs/storage
.conf.sample/etc/fdfs/storage
.conf
2> 编辑配置文件
shell> vi /etc/fdfs/storage.conf
# 修改的内容如下:
disabled=false # 启用配置文件
port=23000 # storage服务端口
group_name=group1 # 组名(第一组为group1,第二组为group2,依次类推...)
base_path=/fastdfs/storage # 数据和日志文件存储根目录
store_path0=/fastdfs/storage # 第一个存储目录,第二个存储目录起名为:store_path1=xxx,其它存储目录名依次类推...
store_path_count=1 # 存储路径个数,需要和store_path个数匹配
tracker_server=192.168.137.162:22122 # tracker服务器IP和端口
tracker_server=192.168.137.163:22122 # tracker服务器IP和端口
http.server_port=8888 # http访问文件的端口
其它参数保留默认配置, 具体配置解释可参考官方文档说明:http://bbs.chinaunix.net/thread-1941456-1-1.html
3> 创建基础数据目录
shell> mkdir -p /fastdfs/storage
4> 防火墙中打开storage服务器端口( 默认为 23000)
shell> vi /etc/sysconfig/iptables
添加如下端口行:-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT
重启防火墙:shell> service iptables restart
5> 启动storage服务器
shell>
/etc/init.d/fdfs_storaged start
初次启动,会在/fastdfs/storage目录下生成logs、data两个目录。
检查FastDFS Tracker Server是否启动成功:ps -ef | grep fdfs_storaged
各节点启动后,使用tail -f /fastdfs/storage/logs/storaged.log
命令监听存储节点的日志,可以看到存储节点链接到跟踪服务器,并提示哪一个为leader跟踪服务器,同时也能看到同一组中其它节点加入进来的日志信息。
所有存储节点都启动之后,可以在任一存储节点上使用如下命令查看集群的状态信息:
shell>
/usr/bin/fdfs_monitor /etc/fdfs/storage.conf
6> 停止storage服务器
shell>
/etc/init.d/fdfs_storaged stop
7> 设置storage服务开机启动
shell> chkconfig fdfs_storaged
on
2.7文件上传测试
1> 修改tracker服务器client.conf配置文件
shell>
cp/etc/fdfs/client
.conf.sample/etc/fdfs/client
.conf
shell> vi /etc/fdfs/client
.conf
base_path=/fastdfs/tracker
tracker_server=192.168.137.162:22122
tracker_server=192.168.137.163:22122
2> 执行文件上传命令
shell>
/usr/bin/fdfs_upload_file /etc/fdfs/client.conf /home/test/FastDFS_v5.05.tar.gz
返回以下ID号,说明文件上传成功:
group1/M00/00/00/wKiJpFkS0ByATie5AAVFOL7FJU4.tar.gz
group2/M00/00/00/wKiJplkS0CyAJyzTAAVFOL7FJU4.tar.gz
(从返回的ID号中也可以看出,同一个文件分别存储在两个组内group1和group2,但也有可能在同一组中,具体策略是由FastDFS根据服务器的存储情况来分配的)
2.8存储节点安装Nginx和fastdfs-nginx-module模块
说明:每个节点执行相同的操作
1> fastdfs-nginx-module作用说明
FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入文件复制流程,有同步延迟的问题。假设 Tracker 服务器将文件上传到了 192.168.137.164,上传成功后文件 ID已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 192.168.137.165,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 192.168.137.165上取文件,就会出现文件无法访问的错误。而 fastdfs-nginx-module 可以重定向文件连接到源服务器(192.168.137.164)上取文件,避免客户端由于复制延迟导致的文件无法访问错误。
2> 安装nginx和fastdfs-nginx-module模块
安装fastdfs-nginx-module_v1.16.tar.gz
shell> cd /home/test
shell> tar -zxvf fastdfs-nginx-module_v1.16.tar.gz -C /usr/local/fast/
shell> cd
/usr/local/fast/fastdfs-nginx-module/src/
shell> vim
/usr/local/fast/fastdfs-nginx-module/src/config
CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/"
改为
CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"
## 安装nginx所需的依赖包
shell> yum install gcc gcc-c++ make automake autoconf libtool pcre pcre-devel zlib zlib-devel openssl openssl-devel
## 编译安装nginx(添加fastdfs-nginx-module模块)
shell> cd /home/test
shell> tar -zxvf nginx-1.6.2.tar.gz -C /usr/local/
shell> cd /usr/local/nginx-
1.6.2/
shell> ./configure
--add-module=/usr/local/fast/fastdfs-nginx-module/src/
shell> make && make install
3> 复制 fastdfs-nginx-module 源码中的配置文件到/etc/fdfs 目录,并修改
shell> cp /usr/
local/fast/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/
shell> vi /etc/fdfs/mod_fastdfs.conf
第一组存储服务器的mod_fastdfs.conf配置:
connect_timeout=10
base_path=/tmp
tracker_server=192.168.137.162:22122
tracker_server=192.168.137.163:22122
storage_server_port=23000
group_name=group1 # 第一组storage的组名
url_have_group_name=true
store_path0=/fastdfs/storage
group_count=2
[group1]
group_name=group1
storage_server_port=23000
store_path_count=1
store_path0=/fastdfs/storage
[group2]
group_name=group2
storage_server_port=23000
store_path_count=1
store_path0=/fastdfs/storage
第二组存储服务器的mod_fastdfs.conf配置:
第二组的mod_fastdfs.confg配置与第一组的配置只有group_name不同:
group_name=group2
4> 复制FastDFS源文件目录中HTTP相关的配置文件到/etc/fdfs目录
shell> cd /usr/
local/fast/FastDFS/conf
shell> cp
http.conf mime.types /etc/fdfs/
5> 创建数据存放目录的软链接
shell> ln -s /fastdfs/storage/
data/ /fastdfs/storage/data/M00
6> 配置fastdfs-nginx-module(Nginx简洁版样例)
shell> vi /usr/local/nginx/conf/nginx
.conf
user nobody;
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
server {
listen 8888;
server_name localhost; # FastDFS 文件访问配置(fastdfs-nginx-module模块)
location ~/group([0-9])/M00 {
ngx_fastdfs_module;
} error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
注意:
A、8888 端口值要与/etc/fdfs/storage.conf 中的 http.server_port=8888 相对应,因为 http.server_port 默认为 8888,如果想改成 80,则要对应修改过来。
B、Storage 对应有多个 group 的情况下,访问路径带 group 名,如:http://xxxx/group1/M00/00/00/xxx, 对应的 Nginx 配置为:
location ~/
group([
0-
9])/M00 {
ngx_fastdfs_module;
}
C、如下载时如发现老报 404,将nginx.conf第一行user nobody;
修改为user root;
后重新启动。
7> 防火墙中打开Nginx的 8888 端口
shell> vi /etc/sysconfig/iptables
## 添加
-A INPUT -m state
--state NEW -m tcp -p tcp --dport 8888 -j ACCEPT
## 重启防火墙
shell> service iptables restart
8> 启动Nginx
shell>
/usr/local/nginx/sbin/nginx
ngx_http_fastdfs_set pid=xxx
# fastdfs-nginx-module进程ID
重启 Nginx 的命令为:/usr/local/nginx/sbin/nginx -s reload
设置Nginx开机启动:
shell> vi /etc/rc.
local
# 加入
/usr/local/nginx/sbin/nginx
shell> chmod +x /etc/rc.
local
9> 通过浏览器访问测试时上传的文件
http://192.168.137.164:8888/group1/M00/00/00/wKiJpFkS0ByATie5AAVFOL7FJU4.tar.gz
http://192.168.137.166:8888/group2/M00/00/00/wKiJplkS0CyAJyzTAAVFOL7FJU4.tar.gz
2.9跟踪节点安装Nginx和ngx_cache_purge模块
说明:每个节点执行相同的操作
tracker节点:192.168.137.162,192.168.137.163
在 tracker 上安装的 nginx 主要为了提供 http 访问的反向代理、负载均衡以及缓存服务。
1> 安装Nginx所需的依赖包
shell
>yum install gcc gcc
-c++make automake autoconf libtool pcre pcre
-develzlib zlib
-developenssl openssl
-devel
2> 安装nginx和ngx_cache_purge模块
shell> cd /home/test
shell> tar -zxvf nginx-1.6.2.tar.gz -C /usr/local/
shell> tar -zxvf ngx_cache_purge-2.3.tar.gz -C /usr/local/fast/
shell> cd /usr/local/nginx-
1.6.2
shell> ./configure
--add-module=/usr/local/fast/ngx_cache_purge-2.3
shell> make && make install
3> 配置Nginx,设置tracker负载均衡以及缓存
shell> vi /usr/local/nginx/conf/nginx.conf
user nobody;
worker_processes 1;
events {
worker_connections 1024;
use epoll;
}
http {
include mime.types;
default_type application/octet-stream;
#log_format main '$remote_addr - $remote_user [$time_local] "$request" '
# '$status $body_bytes_sent "$http_referer" '
# '"$http_user_agent" "$http_x_forwarded_for"';
#access_log logs/access.log main;
sendfile on;
tcp_nopush on;
keepalive_timeout 65;
#gzip on; #设置缓存
server_names_hash_bucket_size 128;
client_header_buffer_size 32k;
large_client_header_buffers 4 32k;
client_max_body_size 300m;
proxy_redirect off;
proxy_set_header Host $http_host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_connect_timeout 90;
proxy_send_timeout 90;
proxy_read_timeout 90;
proxy_buffer_size 16k;
proxy_buffers 4 64k;
proxy_busy_buffers_size 128k;
proxy_temp_file_write_size 128k;
#设置缓存存储路径、存储方式、分配内存大小、磁盘最大空间、缓存期限
proxy_cache_path /fastdfs/cache/nginx/proxy_cache levels=1:2 keys_zone=http-cache:500m max_size=10g inactive=30d;
proxy_temp_path /fastdfs/cache/nginx/proxy_cache/tmp; #设置 group1 的服务器
upstream fdfs_group1 {
server 192.168.137.164:8888 weight=1 max_fails=2 fail_timeout=30s;
server 192.168.137.165:8888 weight=1 max_fails=2 fail_timeout=30s;
} #设置 group2 的服务器
upstream fdfs_group2 {
server 192.168.137.166:8888 weight=1 max_fails=2 fail_timeout=30s;
server 192.168.137.167:8888 weight=1 max_fails=2 fail_timeout=30s;
} server {
listen 8000;
server_name localhost;
#charset koi8-r;
#access_log logs/host.access.log main; #设置 group 的负载均衡参数
location /group1/M00 {
proxy_next_upstream http_502 http_504 error timeout invalid_header;
proxy_cache http-cache;
proxy_cache_valid 200 304 12h;
proxy_cache_key $uri$is_args$args;
proxy_pass http://fdfs_group1;
expires 30d;
} location /group2/M00 {
proxy_next_upstream http_502 http_504 error timeout invalid_header; proxy_cache http-cache;
proxy_cache_valid 200 304 12h;
proxy_cache_key $uri$is_args$args;
proxy_pass http://fdfs_group2;
expires 30d;
} #设置清除缓存的访问权限
location ~/purge(/.*) {
allow 127.0.0.1;
allow 192.168.1.0/24;
deny all;
proxy_cache_purge http-cache $1$is_args$args;
}
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html
#
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
按以上 nginx 配置文件的要求,创建对应的缓存目录:
shell
>mkdir
-p/fastdfs/
cache/nginx/proxy_cache
shell
>mkdir
-p/fastdfs/
cache/nginx/proxy_cache/tmp
4> 防火墙打开Nginx 8000 端口
shell> vi /etc/sysconfig/iptables
## 添加如下配置
-A INPUT -m state
--state NEW -m tcp -p tcp --dport 8000 -j ACCEPT
shell> service iptables restart
# 重新启动防火墙
5> 启动Nginx
shell>
/usr/local/nginx/sbin/nginx
设置开机启动:
shell> vi /etc/rc.
local
## 加入以下配置
/usr/local/nginx/sbin/nginx
shell> chmod +x /etc/rc.
local
6> 文件访问测试
前面直接通过访问Storage节点中的Nginx访问文件:
http://192.168.137.164:8888/group1/M00/00/00/wKiJpFkS0ByATie5AAVFOL7FJU4.tar.gz
http://192.168.137.166:8888/group2/M00/00/00/wKiJplkS0CyAJyzTAAVFOL7FJU4.tar.gz
现在可以通过Tracker中的Nginx来进行访问:
(1)、通过 Tracker1 中的 Nginx 来访问
http://192.168.137.162:8000/group1/M00/00/00/wKiJpFkS0ByATie5AAVFOL7FJU4.tar.gz
http://192.168.137.162:8000/group2/M00/00/00/wKiJplkS0CyAJyzTAAVFOL7FJU4.tar.gz
(2)、通过 Tracker2 中的 Nginx 来访问
http://192.168.137.163:8000/group1/M00/00/00/wKiJpFkS0ByATie5AAVFOL7FJU4.tar.gz
http://192.168.137.163:8000/group2/M00/00/00/wKiJplkS0CyAJyzTAAVFOL7FJU4.tar.gz
由上面的文件访问效果可以看到,每一个Tracker中的Nginx都单独对后端的Storage组做了负载均衡,但整套FastDFS集群,如果想对外提供统一的文件访问地址,还需要对两个Tracker中的Nginx进行HA集群
2.10配置Tracker服务器高可用、反向代理与负载均衡
使用Keepalived + Nginx组成的高可用负载均衡集群,做两个Tracker节点中Nginx的负载均衡。
1> 安装keepalived与Nginx
分别在192.168.137.160和192.168.137.161两个节点安装Keepalived与Nginx。
keepalived安装与配置:请参考本人Nginx相关blog
Nginx的安装与配置:请参考本人Nginx相关blog
2> 配置Keeyalived + Nginx高可用
请参考本人Nginx相关blog
注意:将VIP的IP地址修改为192.168.137.170
3> 配置nginx对tracker节点的负载均衡
2个节点的Nginx配置相同,如下所示:
shell> vi /usr/local/nginx/conf/nginx.conf
user root;
worker_processes 1;
events {
worker_connections 1024;
use epoll;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65; ## FastDFS Tracker Proxy
upstream fastdfs_tracker {
server 192.168.137.162:8000 weight=1 max_fails=2 fail_timeout=30s;
server 192.168.137.163:8000 weight=1 max_fails=2 fail_timeout=30s;
} server {
listen 80;
server_name localhost;
location / {
root html;
index index.html index.htm;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
} ## FastDFS Proxy
location /dfs {
root html;
index index.html index.htm;
proxy_pass http://fastdfs_tracker/;
proxy_set_header Host $http_host;
proxy_set_header Cookie $http_cookie;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
client_max_body_size 300m;
}
}
}
4> 重启192.168.137.160 和 192.168.137.161 中的Nginx
shell>
/usr/local/nginx/sbin/nginx-s reload
5> 通过虚拟IP访问文件测试
现在可以通过 Keepalived+Nginx 组成的高可用负载集群的 VIP(192.168.137.170)来访问 FastDFS 集群中的文件了:
http://192.168.137.170/dfs/group1/M00/00/00/wKiJpFkS0ByATie5AAVFOL7FJU4.tar.gz
http://192.168.137.170/dfs/group2/M00/00/00/wKiJplkS0CyAJyzTAAVFOL7FJU4.tar.gz
注意:千万不要使用 kill -9 命令强杀 FastDFS 进程,否则可能会导致 binlog 数据丢失。
参考:
http://blog.csdn.net/xyang81/article/details/52928230
http://blog.chinaunix.net/uid-20196318-id-4058561.html
http://bbs.chinaunix.net/forum-240-1.html
FastDFS_v5.05+nginx+cache集群安装配置手册的更多相关文章
- 集群 安装 配置FastDFS
FastDFS 集群 安装 配置 这篇文章介绍如何搭建FastDFS 集群 FastDFS是一个开源的轻量级分布式文件系统,它对文件进行管理,功能包括:文件存储.文件同步.文件访问(文件上传.文件下载 ...
- RabbitMQ集群安装配置+HAproxy+Keepalived高可用
RabbitMQ集群安装配置+HAproxy+Keepalived高可用 转自:https://www.linuxidc.com/Linux/2016-10/136492.htm rabbitmq 集 ...
- CentOS下Hadoop-2.2.0集群安装配置
对于一个刚开始学习Spark的人来说,当然首先需要把环境搭建好,再跑几个例子,目前比较流行的部署是Spark On Yarn,作为新手,我觉得有必要走一遍Hadoop的集群安装配置,而不仅仅停留在本地 ...
- hbase单机环境的搭建和完全分布式Hbase集群安装配置
HBase 是一个开源的非关系(NoSQL)的可伸缩性分布式数据库.它是面向列的,并适合于存储超大型松散数据.HBase适合于实时,随机对Big数据进行读写操作的业务环境. @hbase单机环境的搭建 ...
- hive集群安装配置
hive 是JAVA写的的一个数据仓库,依赖hadoop.没有安装hadoop的,请参考http://blog.csdn.net/lovemelovemycode/article/details/91 ...
- 集群安装配置Hadoop具体图解
集群安装配置Hadoop 集群节点:node4.node5.node6.node7.node8. 详细架构: node4 Namenode,secondnamenode,jobtracker node ...
- spark集群安装配置
spark集群安装配置 一. Spark简介 Spark是一个通用的并行计算框架,由UCBerkeley的AMP实验室开发.Spark基于map reduce 算法模式实现的分布式计算,拥有Hadoo ...
- nginx.conf 集群完整配置
###############################nginx.conf 集群完整配置############################### #user nobody; # user ...
- 原创:centos7.1下 ZooKeeper 集群安装配置+Python实战范例
centos7.1下 ZooKeeper 集群安装配置+Python实战范例 下载:http://apache.fayea.com/zookeeper/zookeeper-3.4.9/zookeepe ...
随机推荐
- html+ashx制作网页发布之后遇到的问题
html+ashx发布之后访问不了ashx文件.(开发时一直是对的) .NETFramework开发时是4.5,服务器上的网站是2.0的. 开始意识到这个问题,发布时选择4.5的Framework.之 ...
- js 前端分页空间控件
现在web注重用户体验与交互性,ajax 提交数据的方式很早就流行了,它能够在不刷新网页的情况下局部刷新数据.前端分页多是用ajax请求数据(其他方式也有比如手动构造表单模拟提交事件等).通过js将查 ...
- SpringBoot中动态加载(热部署)
在常规的Java Web开发过程中,在修改完代码后,往往需要重启Tomcat来使得我们的修改生效,在SpringBoot中也需要从新启动SpringBoot来将修改部署.如果我们不希望重启tomcat ...
- SQL Server优化查询
1. 首先要搞明白什么叫执行计划? 执行计划是数据库根据SQL语句和相关表的统计信息作出的一个查询方案,这个方案是由查询优化器自动分析产生的,比如一条SQL语句如果用来从一个 10万条记录的表中查1条 ...
- 如何监听对 HIVE 元数据的操作
目录 简介 HIVE 基本操作 获取 HIVE 源码 编译 HIVE 源码 启动 HIVE 停止 HIVE 监听对 HIVE 元数据的操作 参考文档 简介 公司有个元数据管理平台,会定期同步 HIVE ...
- PostgreSQL可视化客户端工具
TreeSoft数据库管理系统使用JAVA开发,采用稳定通用的springMVC +JDBC架构,实现基于WEB方式对 MySQL,Oracle,PostgreSQL,MSSQL, Hive, SAP ...
- java设计模式-----23、命令模式
概念: Command模式也叫命令模式 ,是行为设计模式的一种.Command模式通过被称为Command的类封装了对目标对象的调用行为以及调用参数. 命令模式(Command Pattern)是一种 ...
- video 在移动端播放禁止全屏
<video src="" preload controls x5-playsinline="" playsinline="" web ...
- python的深浅拷贝以及fromkeys的用法
1.join()的用法:使用前面的字符串.对后面的列表进行拼接,拼接结果是一个字符串 # lst = ["alex","dsb",'wusir','xsb'] ...
- 原生css 中变量的使用
前两天看到阮大神的一篇在css中使用变量的文章,整理了一下. 这个重要的 CSS 新功能,所有主要浏览器已经都支持了.本文全面介绍如何使用它,你会发现原生 CSS 从此变得异常强大. 一.变量的声明 ...