柚子快報邀請碼778899分享:mysql TDSQL部署手冊
柚子快報邀請碼778899分享:mysql TDSQL部署手冊
一、TDSQL概述
騰訊官網(wǎng)部署地址:https://cloud.tencent.com/privatecloud/document/78770048931491840/78770052742017024 騰訊云文檔
1、架構(gòu)
赤兔管理平臺:統(tǒng)一運維管理平臺,是DBA使用最多的圖形化界面。 OSS:http協(xié)議操作接口,如果多個機器用一個赤兔管理,也是通過OSS來對接的。 scheduler/manager:運維管理模塊,負責高可用切換,資源調(diào)度等。 Zookeeper:決策模塊,保存集群元數(shù)據(jù),提供配置維護、選舉決策、路由同步等。 SQL引擎(Proxy):計算節(jié)點,負責權(quán)限管理。SQL轉(zhuǎn)發(fā),讀寫分離等。 數(shù)據(jù)節(jié)點(Set):部署MySQL數(shù)據(jù)庫服務,并包含Agent狀態(tài)監(jiān)控模塊
二、TDSQL集群架構(gòu)設(shè)計
tdsql規(guī)劃機器的時候分為4個角色 1)管理節(jié)點:包含zk、keeper(manager/scheduler)、oss、monitor、chitu一共需要3或5臺機器(取決zk數(shù)量) 2)DB節(jié)點:包含db和proxy,如果是1主2備的話,需要3*n臺機器 3)大數(shù)據(jù)節(jié)點:包含hdfs和kafka,需要3臺機器,后續(xù)可擴容,整體容量要求是預估數(shù)據(jù)總?cè)萘康?0倍以上。 4)其它節(jié)點:es、consumer、lvs
1、基礎(chǔ)環(huán)境
6臺機器 操作系統(tǒng)centos7.6
2、架構(gòu)設(shè)計
組件192.168.16.21192.168.16.22192.168.16.23192.168.16.24192.168.16.25192.168.16.26zkYYYYYY(observer)schedulerYYossYYchitu&clouddbaYYmonitorYYmetadbYYYdbYYYproxyYYYlvsYYhdfsYintercityY
三、TDSQL安裝部署
1、安裝包
tdsql_full_install_ansible_10.3.14.1.0_D002.zip
2、配置主機名并添加主機名IP映射
# 每臺主機分別設(shè)置主機名
hostname td21
hostname td22
hostname td23
hostname td24
hostname td25
hostname td26
# 每臺主機都執(zhí)行
vim /etc/hosts
192.168.16.21 td21
192.168.16.22 td22
192.168.16.23 td23
192.168.16.24 td24
192.168.16.25 td25
192.168.16.26 td26
3、開啟時間同步
rpm -q ntp (查詢軟件包是否被安裝)
yum install ntp -y
systemctl start ntpd ## 啟動
systemctl enable ntpd ##開機自啟
chrony 配置完成后命令
chronyc sources -v
vim /etc/ntp.conf
#注釋掉原有配置的
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
#添加如下配置:
server ntp.aliyun.com iburst
systemctl restart ntpd
ntpq -p #查看當前服務器與上層 ntp 的狀態(tài)
4、配置免密登錄
主控機就是規(guī)劃中ansible模塊所在的機器,其它所有機器都是受控機。在此將192.168.16.21作為主控機。
ssh-keygen -f ~/.ssh/id_rsa -N ''
ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.21
ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.22
ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.23
ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.24
ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.25
ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.26
3、解壓安裝包,在主控機上安裝ansible
#解包
unzip tdsql_full_install_ansible_10.3.14.1.0_D002.zip
#執(zhí)行pythin腳本安裝ansible
cd tdsql_full_install_ansible
python settings/install_ansible.py
5、規(guī)劃存儲目錄
#格式化數(shù)據(jù)盤,新建data1目錄[所有機器]
mkfs.xfs -f /dev/sdb
mkdir -p /data1
mount /dev/sdb /data1
6、主控機上修改ansible變量
#vim group_vars/all (修改網(wǎng)卡名和數(shù)據(jù)庫密碼)
---
#修改zk部署的數(shù)量,1、3或者5,修改為5
zk_num: 6 #改為5
#修改網(wǎng)卡信息,通過ifconfig查看網(wǎng)卡名稱
netif_name: ens33
#修改tdsql賬號的明文密碼
tdsql_pass: a+complex+123456
#填入tdsql系統(tǒng)在zk上的根路徑,一般不進行改動
zk_rootdir: /tdsqlzk2
#下面的配置先不改動
metadb_ip: 10.120.109.204
metadb_port: 15001
metadb_ip_bak: 10.120.109.205
metadb_port_bak: 15001
metadb_user: hanlon
metadb_password: hanlon
ssh_port: 36000
hdfs_datadir: /data2/hdfs,/data3/hdfs,/data4/hdfs
kafka_logdir: /data2/kafka,/data3/kafka,/data4/kafka
es_mem: 8
es_log_days: 7
es_base_path: /data/application/es-install/es
tdsql_secret_pass: K2JatUv5llBbMrske/k2YbqC
oc_secret_pass: LGhVs0v5nVxcOLQie/k9bb2I
clouddba_metadb_pass: h5Wyg2Xy
sh -x encrypt.sh
7、修改tdsql_hosts文件
[envcheck]
mac1 ansible_ssh_host=192.168.16.21
mac2 ansible_ssh_host=192.168.16.22
mac3 ansible_ssh_host=192.168.16.23
mac4 ansible_ssh_host=192.168.16.24
mac5 ansible_ssh_host=192.168.16.25
mac6 ansible_ssh_host=192.168.16.26
#zk數(shù)量必須為奇數(shù),1,3,5
[zk]
zk1 ansible_ssh_host=192.168.16.21
zk2 ansible_ssh_host=192.168.16.22
zk3 ansible_ssh_host=192.168.16.23
zk4 ansible_ssh_host=192.168.16.24
zk5 ansible_ssh_host=192.168.16.25
zk6 ansible_ssh_host=192.168.16.26
[scheduler]
scheduler1 ansible_ssh_host=192.168.16.21
scheduler2 ansible_ssh_host=192.168.16.22
[oss]
oss1 ansible_ssh_host=192.168.16.21
oss2 ansible_ssh_host=192.168.16.22
[chitu]
chitu1 ansible_ssh_host=192.168.16.21
chitu2 ansible_ssh_host=192.168.16.22
[monitor]
monitor1 ansible_ssh_host=192.168.16.21
monitor2 ansible_ssh_host=192.168.16.22
[db]
db1 ansible_ssh_host=192.168.16.24
db2 ansible_ssh_host=192.168.16.25
db3 ansible_ssh_host=192.168.16.26
[proxy]
proxy1 ansible_ssh_host=192.168.16.24
proxy2 ansible_ssh_host=192.168.16.25
proxy3 ansible_ssh_host=192.168.16.26
[hdfs]
hdfs1 ansible_ssh_host=192.168.16.23
[lvs]
lvs1 ansible_ssh_host=192.168.16.23
lvs2 ansible_ssh_host=192.168.16.24
#不按照的可刪除
[kafka]
kafka1 ansible_ssh_host=10.240.139.35
kafka2 ansible_ssh_host=10.120.109.204
kafka3 ansible_ssh_host=10.120.109.205
[consumer]
consumer1 ansible_ssh_host=10.58.110.23
[es]
es1 ansible_ssh_host=10.58.110.23
#上面的kafka consumer es配置可刪除
[newdb]
newdb1 ansible_ssh_host=1.1.1.1
newdb2 ansible_ssh_host=2.2.2.2
newdb3 ansible_ssh_host=3.3.3.3
8、ansible執(zhí)行腳本
安裝zk:
#使用tdsql安裝的zk
sh -x encrypt.sh
ansible-playbook -i tdsql_hosts part1_site.yml
執(zhí)行腳本之后,環(huán)境檢查不通過,原因是服務器內(nèi)存低于5G,需要擴大內(nèi)存之后,重新執(zhí)行ansible-playbook -i tdsql_hosts part1_site.yml zk按照報錯,可能是因為節(jié)點數(shù)量為偶數(shù),無法執(zhí)行安裝腳本,需要將zk的安裝數(shù)量改為5,修改tdsql_hosts文件和ansible變量,并重新執(zhí)行,observer節(jié)點擴容之后再配置 修改為奇數(shù)節(jié)點之后,zk集群安裝成功,后面需要擴容zk集群,添加observer節(jié)點 執(zhí)行成功 zk的配置:
9、赤兔初始化
網(wǎng)頁訪問安裝chitu模塊的機器地址,進行chitu初始化 任意訪問一臺 http://192.168.16.21/tdsqlpcloud 集群配置
點擊開始創(chuàng)建 創(chuàng)建失敗,可能是上面上報資源的有問題,重新配置試試,改成一主一備 網(wǎng)關(guān)和db都改為2個節(jié)點 還是一樣的報錯,無法創(chuàng)建,此安裝包跟生產(chǎn)實際用的安裝包有所區(qū)別,無法自動生成proxy機型,需要自己創(chuàng)建proxy機型 添加之后,重新還是按照一主兩備進行創(chuàng)建實例 點擊初始化
點擊開始安裝 選擇任意一個網(wǎng)關(guān)列表的地址進行測試連接
mysql -utdsqlpcloud -h192.168.16.24 -P15193 -p'123456'
測試mysql連接無誤,將連接賬號密碼寫入到 group_vars/all 文件中
[root@td21 tdsql_full_install_ansible]# cat group_vars/all
---
zk_num: 5
netif_name: ens33
tdsql_pass: a+complex+123456
zk_rootdir: /tdsqlzk2
metadb_ip: 192.168.16.24 #主庫IP
metadb_port: 15193 #主庫端口
metadb_ip_bak: 192.168.16.25 #從庫IP
metadb_port_bak: 15193 #從庫端口
metadb_user: tdsqlpcloud #數(shù)據(jù)庫連接賬號
metadb_password: 123456 #數(shù)據(jù)庫連接密碼
ssh_port: 36000
hdfs_datadir: /data2/hdfs,/data3/hdfs,/data4/hdfs
kafka_logdir: /data2/kafka,/data3/kafka,/data4/kafka
es_mem: 8
es_log_days: 7
es_base_path: /data/application/es-install/es
tdsql_secret_pass: S8dfgSoMUjGaUn+EHkm3pA==
oc_secret_pass: TM1QhyoMWT2dWHCCHkm8qA==
clouddba_metadb_pass: h5Wyg2Xy
執(zhí)行安裝part2_site.yml
#安裝大約4分鐘左右,日志路徑/var/log/ansible.log,最終顯示failed任務數(shù)為0表示安裝成功。
sh -x encrypt.sh <---------必須執(zhí)行,更新密文密碼
ansible-playbook -i tdsql_hosts part2_site.yml
執(zhí)行報錯,根據(jù)報錯提示發(fā)現(xiàn)tdsql_hosts文件中沒有配置es地址,需要添加es地址 添加之后,再次執(zhí)行成功
#找到安裝了 scheduler 的服務器并執(zhí)行:
[root@td21 tdsql_full_install_ansible]# cat tdsql_hosts | grep scheduler
[scheduler]
scheduler1 ansible_ssh_host=192.168.16.21
scheduler2 ansible_ssh_host=192.168.16.22
# ssh 192.168.16.21
cd /data/application/scheduler/bin
./agent_config --mode modify --option="ocagent_port" --value="8966"
./agent_config --mode modify --option="hadoop_dir" --value=" /data/home/tdsql/hadoop-3.2.1/bin"
10、安裝備用赤兔:
將已初始化的chitu機器上拷貝2個文件到未初始化的chitu機器上,并刪除未初始化chitu機器上的crontab,如下:
192.168.16.21 已初始化chitu
192.168.16.22 未初始化chitu
(1)在21機器上,拷貝文件到22機器上
scp -p /data/website/tdsqlpcloud/www/config/database.php 192.168.16.22:/data/website/tdsqlpcloud/www/config/
scp -p /data/website/tdsqlpcloud/www/config/install.lock 192.168.16.22:/data/website/tdsqlpcloud/www/config/
(2)刪除22機器上nginx用戶的crontab
[root@localhost bin]# ssh 192.168.16.22
[root@localhost ~]# cp -a /var/spool/cron/nginx /data/tools/nginx_cron_bak
[root@localhost ~]# rm -f /var/spool/cron/nginx
(3)測試,登錄22的chitu
http://192.168.16.22/tdsqlpcloud
11、安裝HDFS服務
由于磁盤前面已經(jīng)添加并格式化過,這里不用操作了
#需要安裝hdfs的服務器修改主機名[必須修改,因為我們的主機名存在 - 線 需要改成沒有特殊符號的]
#修改 tdsql_hosts 文件,將需要安裝hdfs服務的服務器添加上去,這里就添加3臺hdfs
vim tdsql_hosts 新增hdfs配置:
[hdfs]
hdfs1 ansible_ssh_host=192.168.16.23
#之前已添加修改
#安裝hdfs單點[適用于低配服務器]:
#執(zhí)行安裝
ansible-playbook -i tdsql_hosts hdfs_single.yml
#切換到tdsql用戶
su - tdsql
#用tdsql用戶在hdfs1機器上,格式化namenode
hdfs namenode -format
#用tdsql用戶在hdfs1機器上,啟動namenode和datanode
hdfs --daemon start namenode
hdfs --daemon start datanode
#附:用tdsql用戶關(guān)閉hdfs進程
hdfs --daemon stop datanode
hdfs --daemon stop namenode
#安裝hdfs高可用安裝啟動
#在安裝時需要保證主機名修改了
#[本文用多點,配置不高就用單點如果hdfs多點,那么zk服務也需要是多點,因為之前配置的zk就是多點,這里就可以繼續(xù)安裝多點hdfs,否則安裝單點]:
#每臺服務器需要主機名不同 設(shè)置方法: hostnamectl set-hostname node1
ansible-playbook -i tdsql_hosts hdfs.yml
#初始化HDFS:
#用tdsql用戶在hdfs1機器,格式化zk
hdfs zkfc -formatZK
#用tdsql用戶在所有機器,啟動journalnode
hdfs --daemon start journalnode
#用tdsql用戶在hdfs1機器,格式化并啟動namenode
hdfs namenode -format
hdfs --daemon start namenode
#用tdsql用戶在hdfs2機器,格式化namenode
hdfs namenode -bootstrapStandby
#------------------------------啟動hdfs集群------------------------------#
#用tdsql用戶在hdfs1機器,格式化并啟動 zk
su - tdsql
hdfs zkfc -formatZK #格式化只能一次
#所有機器啟動 journalnode
hdfs --daemon start journalnode
#在hdfs1和hdfs2上啟動namenode
hdfs --daemon start namenode
#在hdfs1和hdfs2上啟動zkfc
hdfs --daemon start zkfc
#在所有hdfs機器上啟動datanode
hdfs --daemon start datanode
#------------------------------啟動hdfs集群------------------------------#
#------------------------------停止hdfs集群------------------------------#
在所有hdfs機器上關(guān)閉datanode
hdfs --daemon stop datanode
在hdfs1和hdfs2上關(guān)閉zkfc
hdfs --daemon stop zkfc
在hdfs1和hdfs2上關(guān)閉namenode
hdfs --daemon stop namenode
在所有hdfs機器上關(guān)閉journalnode
hdfs --daemon stop journalnode
#------------------------------停止hdfs集群------------------------------#
# hdfs haadmin -getAllServiceState 命令執(zhí)行失敗嘗試:
hdfs --daemon stop namenode
hdfs --daemon stop journalnode
hdfs --daemon start namenode
hdfs --daemon start journalnode
hdfs dfsadmin -report
hdfs haadmin -getAllServiceState
本次測試安裝的hdfs是單節(jié)點的,所在機器是192.168.16.23 #執(zhí)行安裝 ansible-playbook -i tdsql_hosts hdfs_single.yml 在hdfs所在機器192.168.16.23上執(zhí)行
#切換到tdsql用戶
su tdsql
#初始化HDFS:
#用tdsql用戶在hdfs1機器上,格式化namenode
hdfs namenode -format
#用tdsql用戶在hdfs1機器上,啟動namenode和datanode
cd /data/home/tdsql/hadoop-3.2.1/bin
hdfs --daemon start namenode
hdfs --daemon start datanode
#附:用tdsql用戶關(guān)閉hdfs進程
hdfs --daemon stop datanode
hdfs --daemon stop namenode
(7)在hdfs集群下查看/tdsqlbackup路徑
用tdsql用戶執(zhí)行以下命令
su - tdsql
#查看/tdsqlbackup目錄是否已經(jīng)被自動創(chuàng)建,權(quán)限是否是:tdsql supergroup
hadoop fs -ls /
#如果目錄不在或者權(quán)限不對,用下面命令修改:
hadoop fs -mkdir /tdsqlbackup
hadoop fs -chown tdsql.supergroup /tdsqlbackup
檢查HDFS端口并補充到 group_vars/all 文件中
ssh_port: 9870
hdfs_datadir: /data2/hdfs,/data3/hdfs,/data4/hdfs
12、配置hdfs監(jiān)控
如果有HDFS,但是沒有配置HDFS監(jiān)控,到"“集群管理->集群設(shè)置”中設(shè)置“HDFS服務列表”",如圖
如果是3節(jié)點的hdfs架構(gòu),如上圖所示填寫namenode節(jié)點(一般2個)的50070端口 生產(chǎn)環(huán)境不能用單節(jié)點hdfs,單節(jié)點架構(gòu)的hdfs的端口號是9870 添加的列表為:192.168.16.23:9870
13、擴容zk機器,添加observer節(jié)點
#準備工作:
#1、修改tdsql_hosts文件。增加新zk節(jié)點信息
[zk]
zk1 ansible_ssh_host=192.168.16.21
zk2 ansible_ssh_host=192.168.16.22
zk3 ansible_ssh_host=192.168.16.23
zk4 ansible_ssh_host=192.168.16.24
zk5 ansible_ssh_host=192.168.16.25
zk6 ansible_ssh_host=192.168.16.26
#2、在所有tdsql集群服務器上增加host配置(包括新zk也要添加host解析):vim /etc/hosts 添加要擴容的zk服務器信息。
[root@td21 tdsql_full_install_ansible]# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.16.21 td21
192.168.16.22 td22
192.168.16.23 td23
192.168.16.24 td24
192.168.16.25 td25
192.168.16.26 td26
#初始化新擴容的zk服務器
#注意:新增單獨服務器zk擴容需要重新初始化,OS系統(tǒng)需要做時間同步、配置yum源、免密。(原有TDSQL集群擴容zk無需重新初始化)
#(1)登入ansible機器重新創(chuàng)建一個tdsql_newzk文件添加新增zk服務器ip信息
#添加的內(nèi)容與tdsql_hosts文件里的一致
[newdb]
tdsql_newdb1 ansible_ssh_host=192.168.16.26
# vim tdsql_hosts
[newdb] <------勿修改
tdsql_newdb1 ansible_ssh_host=192.168.16.26 <-------初始化zk1ip
#在ansible的路徑下有一個tdsql_newdb.yml文件
# cat tdsql_newdb.yml
- name: install newdb begining
hosts: newdb
remote_user: root
gather_facts: false
roles:
- beginning
#以上tdsql_newdb.yml文件里的hosts處:tdsql_newdb名字要與創(chuàng)建的tdsql_newzk文件第一行一致,與tdsql_hosts文件里的名字也要與tdsql_newdb一致
#只需要保留初始化機器模板即可
(3)后臺初始化zk機器 執(zhí)行前確保新增的zk機器的時間和集群中其它機器的時間同步 執(zhí)行初始化新的zk機器
ansible-playbook -i tdsql_newzk tdsql_newdb.yml
(4) 將原zk節(jié)點定時任務拷貝到新初始化zk機器上 1、新版本定時任務文件路徑/etc/crontab 在老的zk上拷貝定時任務到新的zk機器上
*/3 * * * * /bin/bash /server/scripts/check_supervisor_alive.sh
2、老版本定時任務crontab -l 查看即可 將原zk信息先備份 zk備份的工具在scheduler的bin目錄下,scheduler機器上執(zhí)行:
cd /data/application/scheduler/bin
./backupZkInfo
驗證備份成功: 在執(zhí)行備份命令的scheduler機器上執(zhí)行:
cd /data/zkbak/zkbackup/
ll
在擴容zk節(jié)點服務器上創(chuàng)建目錄
mkdir -p /data/application/ /data/tools/ /data/home/tdsql/
4.5 在擴容zk節(jié)點服務器上檢查并安裝JDK——已存在JDK忽略此步。 在已安裝zk服務器上找到目錄/data/home/tdsql/jdk_x86.zip
scp /data/home/tdsql/jdk_x86.zip root@192.168.16.26:/data/home/tdsql/
在擴容zk服務器上操作:
cd /data/home/tdsql
unzip jdk_x86.zip
chown -R tdsql:users /data/home/tdsql/jdk
chmod +x -R /data/home/tdsql/jdk
source /etc/profile
在scheduler服務器上設(shè)置免切
cd /data/application/scheduler/bin/
./manual_set add_mnoswitch noshard all 1 24
查看免切設(shè)置是否成功,返回一個時間戳(免切到期時間)
./manual_set list_mnoswitch noshard all
date-d @時間戳
或者登陸赤兔設(shè)置實例一切免切 擴容zk服務器: 在已有zk服務器上進入cd /data/application并找到zookeeper.tar.gz安裝包 拷貝到新zk服務器上。
scp zookeeper.tar.gz root@192.168.16.26:/data/application/
新zk上解壓安裝包:
tar -zxvf zookeeper.tar.gz
cd /data/application/zookeeper
mkdir data;mkdir log
從已有zk服務器拷貝配置文件到擴容zk服務器上
scp /data/application/zookeeper/conf/zoo.cfg root@192.168.16.26:/data/application/zookeeper/conf/
scp /data/application/zookeeper/data/myid root@192.168.16.26:/data/application/zookeeper/data/
給擴容zk服務器zk目錄添加權(quán)限
cd /data/application/
chown -R tdsql:users zookeeper
檢測配置文件里的數(shù)據(jù)路徑和日志路徑是否正確
grep "Dir" /data/application/zookeeper/conf/zoo.cfg
修改myid和zoo.cfg文件 注意:在不用的節(jié)點上修改不同的myid值,修改的zoo.cfg文件中的參數(shù)都是一樣的。 在新zk服務器上操作:
cd /data/application/zookeeper/data/
vim myid
#將5修改為6(如果是一鍵部署安裝三節(jié)點的zk集群,如果是第四臺zk不管這里是何值都修改為4,第五臺就改成5,依次類推)
cd /data/application/zookeeper/conf/
vim zoo.cfg
#加上新添加的zk服務器信息。
#注:集群內(nèi)所有zk服務器需要配置新zk信息。數(shù)字為myid
#將新的zoo.cfg,使用scp命令傳送至所有zk節(jié)點的相同路徑覆蓋原文件,每臺單獨修改也可以
啟動新的zk服務,并查看進程和狀態(tài),其他原有節(jié)點也要重啟
cd /data/application/zookeeper/bin
./zkServer.stop
./zkServer.start
./zkServer.status (查看狀態(tài)是否是observer)
全部完成并確認無誤后,刪除集群免切狀態(tài) cd /data/application/scheduler/bin/ ./manual_set delete_mnoswitch noshard all ./manual_set list_mnoswitch noshard all
其他模塊配置文件需要加入zk新增節(jié)點的IP
#OSS
su - tdsql
cd /data/application/oss/conf/
vim scheduler.xml
cd /data/application/oss/boot
./stop.sh
./start.sh
ps -ef |grep oss
scheduler
# su - tdsql
# cd /data/application/scheduler/conf
# vim scheduler.xml
# vim backupConf.xml
# cd /data/application/scheduler/bin
#./stop_manager.sh
#./start_manager.sh
# ps -ef |grep scheduler
PROXY 機器(所有實例)
# cd /data/tdsql_run/15001/gateway/conf
# vim instance_15001.cnf
# su - tdsql
# cd /data/tdsql_run/15001/gateway/bin
#./restart_cgroup.sh instance_15001
# ps -ef |grep 1500x
mysqlagent DB機(所有實例)
# su -tdsql
# cd /data/tdsql_run/4001/mysqlagent/conf
# vim mysqlagent_4001.xml
# cd /data/tdsql_run/4001/mysqlagent/bin
# ./restartreport_cgroup.sh ../conf/mysqlagent_4001.xml
./startreport.sh ../conf/mysqlagent_4001.xml
# ps -ef |grep 400x
clouddba (一般與chitu混部 不用添加任何信息)
里面配置文件默認zk只有一臺,一般是赤兔的第一臺
# su - tdsql
# cd /data/application/clouddba/conf
# vim diagnosis.conf
# cd /data/application/clouddba/bin
# ./restart.sh ../conf/diagnosis.conf
ps -ef |grep diagnosis
kafka (無此組件不用測)
# cd /data/application/kafka/config
# vim consumer.properties
停
# cd/data/application/kafka_2.11-0.10.0.1/bin
# ./kafka-server-stop.sh -daemon ../config/server.properties
啟
# cd /data/application/kafka_2.11-0.10.0.1/bin
# ./kafka-server-start.sh -daemon ../config/server.properties
# ps -ef |grep kafka
monitor
重啟analyze程序
#su - tdsql
# cd /data/application/tdsql_analysis/conf/
# vim conf.properties 添加新擴容的zk信息
# cd /data/application/tdsql_analysis/bin
# ./restart.sh
#ps -ef |grep analysis
重啟collector程序
# su - tdsql
# cd /data/application/tdsql_collector/conf
# vim conf.properties 查看是否有需要添加的zk信息
# cd /data/application/collector/bin
# ./restart.sh
# ps -ef |grep collector
hdfs
檢查新的zk節(jié)點與hdfs時間是否同步
hdfs節(jié)點上操作:
su - tdsql
cd /data/home/tdsql/hadoop/etc/hadoop/
cp core-site.xml core-site.xml_bak
vim core-site.xml
增加新zk信息
參考產(chǎn)品部署手冊重啟hdfs
intercity 組件
intercity增加新擴容zk的信息
cd /data/application/intercity_cluster/conf
vim cluster.xml
增加新擴容zk信息,增加完成后,重啟intercity
cd /data/application/intercity_cluster/bin
su - tdsql
sh stop_cluster.sh
sh start_cluster.sh
檢查intercity組件進程是否正常
ps -ef | grep intercity
在intercity組件部署機上增加zk擴容信息
/data/application/oss/config/scheduler.xml文件
然后重啟
/data/application/oss/boot
./stop.sh
./start.sh
赤兔前臺集群信息中上報新增ZK節(jié)點 上報節(jié)點之后,稍等一會,查看zk監(jiān)控即可看到observer節(jié)點
柚子快報邀請碼778899分享:mysql TDSQL部署手冊
推薦閱讀
本文內(nèi)容根據(jù)網(wǎng)絡資料整理,出于傳遞更多信息之目的,不代表金鑰匙跨境贊同其觀點和立場。
轉(zhuǎn)載請注明,如有侵權(quán),聯(lián)系刪除。