首页 > 代码库 > 分布式文件管理系统_FastDFS集群
分布式文件管理系统_FastDFS集群
简单介绍
1,client storage tracker的关系
先用一幅图来解释用户如何访问一个通过DFS管理的文件
一般来说,一台服务器只有一个storage server,多个storage server可以组成一个group,同一group间storage server的数据自动同步(备份与恢复)。
不同group数据互相隔离,一个tracker可以管理多个group,也可以多对多。
client用于管理 tracker server 和storage server。
FAST_DFS安装
下载并解压DFS压缩包,可以看到附带的 INSTALL 文本文件,以下安装步骤基于此。
#step 1. 从下面的链接下载libfastcommon压缩包,并按默认配置安装 https://github.com/happyfish100/libfastcommon.git #step 2. 下载好DFS压缩包并解压, tar xzf FastDFS_v5.x.tar.gz #for example: tar xzf FastDFS_v5.08.tar.gz #step 3. 进入FastDFS文件夹 cd FastDFS #step 4. 执行命令: ./make.sh #step 5. 执行安装命令: ./make.sh install tip:在没有指定安装路径的默认情况下,安装完成后启动脚本在目录/usr/bin/下,相关的配置文件在/etc/fdfs/下。 #step 6. edit/modify the config file of tracker and storage(修改配置文件,暂时可以跳过) #step 7. 启动DFS服务 #首先 start the tracker server: /usr/bin/fdfs_trackerd /etc/fdfs/tracker.conf restart #然后start the storage server: /usr/bin/fdfs_storaged /etc/fdfs/storage.conf restart #step 8. 用测试程序测试服务可用性。 #for example, upload a file: /usr/bin/fdfs_test /etc/fdfs/client.conf.sample upload /etc/fdfs/client.conf.sample 打印如下信息即认为测试通过 This is FastDFS client test program v5.08 Copyright (C) 2008, Happy Fish / YuQing FastDFS may be copied only under the terms of the GNU General Public License V3, which may be found in the FastDFS source kit. Please visit the FastDFS Home Page http://www.csource.org/ for more detail. [2017-03-21 21:03:35] DEBUG - base_path=/home/yuqing/fastdfs, connect_timeout=30, network_timeout=60, tracker_server_count=1, anti_steal_token=0, anti_steal_secret_key length=0, use_connection_pool=0, g_connection_pool_max_idle_time=3600s, use_storage_id=0, storage server id count: 0 tracker_query_storage_store_list_without_group: server 1. group_name=, ip_addr=YOUR_TRACKER_IP, port=23000 group_name=group1, ip_addr=YOUR_TRACKER_IP, port=23000 storage_upload_by_filename group_name=group1, remote_filename=M00/00/00/rBFUJljRJKeAYwsjAAAFtJDWG_U.sample source ip address: YOUR_TRACKER_IP file timestamp=2017-03-21 21:03:35 file size=1460 file crc32=2429950965 example file url: http://YOUR_TRACKER_IP/group1/M00/00/00/rBFUJljRJKeAYwsjAAAFtJDWG_U.sample storage_upload_slave_by_filename group_name=group1, remote_filename=M00/00/00/rBFUJljRJKeAYwsjAAAFtJDWG_U_big.sample source ip address: YOUR_TRACKER_IP file timestamp=2017-03-21 21:03:35 file size=1460 file crc32=2429950965 example file url: http://YOUR_TRACKER_IP/group1/M00/00/00/rBFUJljRJKeAYwsjAAAFtJDWG_U_big.sample #step 9. 通过控制台查看服务运行的详细信息 /usr/bin/fdfs_monitor <client_conf_filename>
集成Nginx以支持外部网络访问
Nginx的安装不在此赘述。
安装好Nginx后修改配置文件部分内容:
server { listen 80; server_name YOUR_HOST_NAME; location /M00 { #设置主机头和客户端真实地址,以便服务器获取客户端真实IP proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_buffering off; root /home/yuqing/fastdfs/data; } }
root路径为storage.conf中指定的base_path
成功启动Nginx后,尝试使用 URL:YOUR_IP/M00/00/00/rBFUJljRLMmAI7ZOAAAFtJDWG_U_big.sample 从外网访问已经成功上传的测试文本,发现RESPONSE 404,无法访问。
查看Nginx日志error.log
2017/03/21 21:41:49 [error] 20562#0: *1 open() "/home/yuqing/fastdfs/data/M00/00/00/rBFUJljRLMmAI7ZOAAAFtJDWG_U_big.sample" failed (2: No such file or directory), client: ......
分析原因:
通过URL打开的文件目录是/home/yuqing/fastdfs/data/M00/00/00,而实际的存放目录是/home/yuqing/fastdfs/data/00/00。
发现多了一层不存在的目录M00:FastDFS支持多个磁盘(base path),所以要通过Mxx来区分,其中xx为磁盘的序号,基于0。
解决办法为/home/yuqing/fastdfs/data/M00/00/00创建软连接
ln -s /home/yuqing/fastdfs/data /home/yuqing/fastdfs/data/M00
storage节点增加硬盘
目的有两个扩容和提升部分性能。
修改storage.conf部分属性 #存储路径的数量 count(store_path) store_path_count=2 #指定存储路径 store_path0=/home/yuqing/fastdfs #增加的另一块硬盘路径 store_path1=/usr/local/dfsdata 修改tracker.conf部分属性 #选择storage server储存路径的方式 #0:轮询 #2:负载均衡 store_path=2
重启两个服务
./fdfs_trackerd /etc/fdfs/tracker.conf restart
./fdfs_storaged /etc/fdfs/storage.conf restart
略微延迟后,可以在store_path1目录下看到有生成文件的存放目录。
再次使用相同的测试方法上传文件,会生成以M01开头的文件路径。
/M01/00/04/rBFUJljR4zOAaxHOAAAAVJyyfIA543.txt
验证发现这是保存在store_path1路径下的,正好和前面解释M00的含义呼应。
为支持新磁盘外网访问
方式一
修改nginx.conf 部分属性。 location /M01 { #设置主机头和客户端真实地址,以便服务器获取客户端真实IP proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; #禁用缓存 proxy_buffering off; root store_path1/data; }
添加软连接
ln -s /usr/local/dfsdata/data /usr/local/dfsdata/data/M01
重启Nginx服务
推荐-方式二
给Nginx安装fastdfs-nginx-module插件
解压后按附带的INTALL文件安装。
注意:需要把FastDFS安装包内的配置文件http.conf mime.types和fastdfs-nginx-module压缩包内的mod_fastdfs.conf复制一份到/etc/fdfs/目录下。
修改nginx.conf 部分属性: 删除匹配 /M00和/M01 增加后缀名匹配(按需增加) location ~* .(gif|jpg|jpeg|txt)$ { proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; #禁用缓存 proxy_buffering off; ngx_fastdfs_module; } 修改mod_fastdfs.conf部分属性: store_path_count=2 store_path0=/home/yuqing/fastdfs store_path1=/usr/local/dfsdata
以上值必须和storage.conf配置对应值保持一致。
重启Nginx服务
同一个group之间storage server数据同步
当 storage server 定义有相同的group_name时,认为它们是同一group,同一个group之间文件相互更新同步。所以常用做备份数据,提高系统的可靠性。
(测试时注意,在同一台服务器上通过修改端口的方式运行多个storage server是不可行的,会导致其中一个server无法正常使用。)
为group增加storage节点不用修改tracker server配置,是独立进行的。
增加节点时,系统会立即进行数据同步,所以会增加系统负荷,推荐在系统运行空闲时再操作。
增加节点时修改group_name为storage server指定group。
增加的节点配置储存路径数量需要和同一个group的其它节点数量保持一致。即store_path_count参数值相等。具体的路径可以不同。
否则tracker server有如下报错信息:
[2017-03-22 15:56:14] ERROR - file: tracker_mem.c, line: 4592, client ip: 172.17.84.39, store_path_count 1 less than that of the group "group1", the group store_path_count is 2
启动storage server 2
查看日志(省略部分信息)
data path: /home/yuqing/fastdfs2/data, mkdir sub dir done. [2017-03-22 15:58:57] DEBUG - file: tracker_client_thread.c, line: 225, report thread to tracker server *:22122 started [2017-03-22 15:58:57] INFO - file: tracker_client_thread.c, line: 310, successfully connect to tracker server *:22122, as a tracker client, my ip is * [2017-03-22 15:58:57] INFO - file: tracker_client_thread.c, line: 1235, tracker server *:22122, set tracker leader: 172.17.84.38:22122 [2017-03-22 15:58:57] DEBUG - file: storage_sync.c, line: 2605, sync thread to storage server *:23000 started [2017-03-22 15:58:57] INFO - file: storage_sync.c, line: 2698, successfully connect to storage server *:23000 [2017-03-22 16:00:56] DEBUG - file: storage_service.c, line: 3384, client ip: 172.17.84.38, storage server id: *
可以读出,当组内增加新节点时,它们的工作流程大致是:
INIT
!--1 在指定的store_path生成存放目录
!--2 开启tracker_client_thread通知tracker server :有新的节点加入。
!--3 成功与tracker server连接
SYCNING
!-------1 开启sync thread,准备数据同步
!-------2 进行数据同步(耗时)
!-------3 所有数据同步成功
ACTIVE
!----------1 成为组内一员
测试可靠性
!--s 1
组内其中一台storage server被执行rm命令或者磁盘坏道导致数据丢失时,组内其它storage server不会执行同步命令。
storage server重启后,会从组内选择一个数据完整的storage server进行增量更新。
!--s 2
组内其中一台storage server down掉,系统仍然正常运行。(每一台storage server都需要安装fastdfs-nginx-module插件并正确配置)
查看Nginx日志:
172.17.84.38 - - [22/Mar/2017:16:46:15 +0800] "GET /M01/00/00/rBFUJ1jSOaCAMPUNAAAAVJyyfIA114.txt?redirect=1 HTTP/1.0" 200 84 "-" "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.2372.400 QQBrowser/9.5.10548.400"
通过控制台查看集群运行情况
#运行命令 ./fdfs_monitor /etc/fdfs/client.conf.sample #查看信息(省略部分信息) tracker server is 172.17.84.38:22122 group count: 1 Group 1: group name = group1 storage server count = 2 active server count = 2 disk total space = 80630 MB disk free space = 67252 MB Storage 1: ip_addr = 172.17.84.38 ACTIVE join time = 2017-03-22 10:08:23 up time = 2017-03-22 17:08:13 last_heart_beat_time = 2017-03-22 16:44:55 last_source_update = 2017-03-22 11:20:13 last_sync_update = 1970-01-01 08:00:00 last_synced_timestamp = 1970-01-01 08:00:00 (never synced) Storage 2: ip_addr = 172.17.84.39 ACTIVE join time = 2017-03-22 15:32:58 up time = 2017-03-22 15:58:47 last_heart_beat_time = 2017-03-22 17:03:56 last_source_update = 2017-03-22 16:45:19 last_sync_update = 2017-03-22 16:00:02 last_synced_timestamp = 2017-03-22 11:20:13 (0s delay)
分布式文件管理系统_FastDFS集群