欧美free性护士vide0shd,老熟女,一区二区三区,久久久久夜夜夜精品国产,久久久久久综合网天天,欧美成人护士h版

首頁綜合 正文
目錄

柚子快報邀請碼778899分享:mysql TDSQL部署手冊

柚子快報邀請碼778899分享:mysql TDSQL部署手冊

http://yzkb.51969.com/

一、TDSQL概述

騰訊官網(wǎng)部署地址:https://cloud.tencent.com/privatecloud/document/78770048931491840/78770052742017024 騰訊云文檔

1、架構(gòu)

赤兔管理平臺:統(tǒng)一運維管理平臺,是DBA使用最多的圖形化界面。 OSS:http協(xié)議操作接口,如果多個機器用一個赤兔管理,也是通過OSS來對接的。 scheduler/manager:運維管理模塊,負責高可用切換,資源調(diào)度等。 Zookeeper:決策模塊,保存集群元數(shù)據(jù),提供配置維護、選舉決策、路由同步等。 SQL引擎(Proxy):計算節(jié)點,負責權(quán)限管理。SQL轉(zhuǎn)發(fā),讀寫分離等。 數(shù)據(jù)節(jié)點(Set):部署MySQL數(shù)據(jù)庫服務,并包含Agent狀態(tài)監(jiān)控模塊

二、TDSQL集群架構(gòu)設(shè)計

tdsql規(guī)劃機器的時候分為4個角色 1)管理節(jié)點:包含zk、keeper(manager/scheduler)、oss、monitor、chitu一共需要3或5臺機器(取決zk數(shù)量) 2)DB節(jié)點:包含db和proxy,如果是1主2備的話,需要3*n臺機器 3)大數(shù)據(jù)節(jié)點:包含hdfs和kafka,需要3臺機器,后續(xù)可擴容,整體容量要求是預估數(shù)據(jù)總?cè)萘康?0倍以上。 4)其它節(jié)點:es、consumer、lvs

1、基礎(chǔ)環(huán)境

6臺機器 操作系統(tǒng)centos7.6

2、架構(gòu)設(shè)計

組件192.168.16.21192.168.16.22192.168.16.23192.168.16.24192.168.16.25192.168.16.26zkYYYYYY(observer)schedulerYYossYYchitu&clouddbaYYmonitorYYmetadbYYYdbYYYproxyYYYlvsYYhdfsYintercityY

三、TDSQL安裝部署

1、安裝包

tdsql_full_install_ansible_10.3.14.1.0_D002.zip

2、配置主機名并添加主機名IP映射

# 每臺主機分別設(shè)置主機名

hostname td21

hostname td22

hostname td23

hostname td24

hostname td25

hostname td26

# 每臺主機都執(zhí)行

vim /etc/hosts

192.168.16.21 td21

192.168.16.22 td22

192.168.16.23 td23

192.168.16.24 td24

192.168.16.25 td25

192.168.16.26 td26

3、開啟時間同步

rpm -q ntp (查詢軟件包是否被安裝)

yum install ntp -y

systemctl start ntpd ## 啟動

systemctl enable ntpd ##開機自啟

chrony 配置完成后命令

chronyc sources -v

vim /etc/ntp.conf

#注釋掉原有配置的

#server 0.centos.pool.ntp.org iburst

#server 1.centos.pool.ntp.org iburst

#server 2.centos.pool.ntp.org iburst

#server 3.centos.pool.ntp.org iburst

#添加如下配置:

server ntp.aliyun.com iburst

systemctl restart ntpd

ntpq -p #查看當前服務器與上層 ntp 的狀態(tài)

4、配置免密登錄

主控機就是規(guī)劃中ansible模塊所在的機器,其它所有機器都是受控機。在此將192.168.16.21作為主控機。

ssh-keygen -f ~/.ssh/id_rsa -N ''

ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.21

ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.22

ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.23

ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.24

ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.25

ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.16.26

3、解壓安裝包,在主控機上安裝ansible

#解包

unzip tdsql_full_install_ansible_10.3.14.1.0_D002.zip

#執(zhí)行pythin腳本安裝ansible

cd tdsql_full_install_ansible

python settings/install_ansible.py

5、規(guī)劃存儲目錄

#格式化數(shù)據(jù)盤,新建data1目錄[所有機器]

mkfs.xfs -f /dev/sdb

mkdir -p /data1

mount /dev/sdb /data1

6、主控機上修改ansible變量

#vim group_vars/all (修改網(wǎng)卡名和數(shù)據(jù)庫密碼)

---

#修改zk部署的數(shù)量,1、3或者5,修改為5

zk_num: 6 #改為5

#修改網(wǎng)卡信息,通過ifconfig查看網(wǎng)卡名稱

netif_name: ens33

#修改tdsql賬號的明文密碼

tdsql_pass: a+complex+123456

#填入tdsql系統(tǒng)在zk上的根路徑,一般不進行改動

zk_rootdir: /tdsqlzk2

#下面的配置先不改動

metadb_ip: 10.120.109.204

metadb_port: 15001

metadb_ip_bak: 10.120.109.205

metadb_port_bak: 15001

metadb_user: hanlon

metadb_password: hanlon

ssh_port: 36000

hdfs_datadir: /data2/hdfs,/data3/hdfs,/data4/hdfs

kafka_logdir: /data2/kafka,/data3/kafka,/data4/kafka

es_mem: 8

es_log_days: 7

es_base_path: /data/application/es-install/es

tdsql_secret_pass: K2JatUv5llBbMrske/k2YbqC

oc_secret_pass: LGhVs0v5nVxcOLQie/k9bb2I

clouddba_metadb_pass: h5Wyg2Xy

sh -x encrypt.sh

7、修改tdsql_hosts文件

[envcheck]

mac1 ansible_ssh_host=192.168.16.21

mac2 ansible_ssh_host=192.168.16.22

mac3 ansible_ssh_host=192.168.16.23

mac4 ansible_ssh_host=192.168.16.24

mac5 ansible_ssh_host=192.168.16.25

mac6 ansible_ssh_host=192.168.16.26

#zk數(shù)量必須為奇數(shù),1,3,5

[zk]

zk1 ansible_ssh_host=192.168.16.21

zk2 ansible_ssh_host=192.168.16.22

zk3 ansible_ssh_host=192.168.16.23

zk4 ansible_ssh_host=192.168.16.24

zk5 ansible_ssh_host=192.168.16.25

zk6 ansible_ssh_host=192.168.16.26

[scheduler]

scheduler1 ansible_ssh_host=192.168.16.21

scheduler2 ansible_ssh_host=192.168.16.22

[oss]

oss1 ansible_ssh_host=192.168.16.21

oss2 ansible_ssh_host=192.168.16.22

[chitu]

chitu1 ansible_ssh_host=192.168.16.21

chitu2 ansible_ssh_host=192.168.16.22

[monitor]

monitor1 ansible_ssh_host=192.168.16.21

monitor2 ansible_ssh_host=192.168.16.22

[db]

db1 ansible_ssh_host=192.168.16.24

db2 ansible_ssh_host=192.168.16.25

db3 ansible_ssh_host=192.168.16.26

[proxy]

proxy1 ansible_ssh_host=192.168.16.24

proxy2 ansible_ssh_host=192.168.16.25

proxy3 ansible_ssh_host=192.168.16.26

[hdfs]

hdfs1 ansible_ssh_host=192.168.16.23

[lvs]

lvs1 ansible_ssh_host=192.168.16.23

lvs2 ansible_ssh_host=192.168.16.24

#不按照的可刪除

[kafka]

kafka1 ansible_ssh_host=10.240.139.35

kafka2 ansible_ssh_host=10.120.109.204

kafka3 ansible_ssh_host=10.120.109.205

[consumer]

consumer1 ansible_ssh_host=10.58.110.23

[es]

es1 ansible_ssh_host=10.58.110.23

#上面的kafka consumer es配置可刪除

[newdb]

newdb1 ansible_ssh_host=1.1.1.1

newdb2 ansible_ssh_host=2.2.2.2

newdb3 ansible_ssh_host=3.3.3.3

8、ansible執(zhí)行腳本

安裝zk:

#使用tdsql安裝的zk

sh -x encrypt.sh

ansible-playbook -i tdsql_hosts part1_site.yml

執(zhí)行腳本之后,環(huán)境檢查不通過,原因是服務器內(nèi)存低于5G,需要擴大內(nèi)存之后,重新執(zhí)行ansible-playbook -i tdsql_hosts part1_site.yml zk按照報錯,可能是因為節(jié)點數(shù)量為偶數(shù),無法執(zhí)行安裝腳本,需要將zk的安裝數(shù)量改為5,修改tdsql_hosts文件和ansible變量,并重新執(zhí)行,observer節(jié)點擴容之后再配置 修改為奇數(shù)節(jié)點之后,zk集群安裝成功,后面需要擴容zk集群,添加observer節(jié)點 執(zhí)行成功 zk的配置:

9、赤兔初始化

網(wǎng)頁訪問安裝chitu模塊的機器地址,進行chitu初始化 任意訪問一臺 http://192.168.16.21/tdsqlpcloud 集群配置

點擊開始創(chuàng)建 創(chuàng)建失敗,可能是上面上報資源的有問題,重新配置試試,改成一主一備 網(wǎng)關(guān)和db都改為2個節(jié)點 還是一樣的報錯,無法創(chuàng)建,此安裝包跟生產(chǎn)實際用的安裝包有所區(qū)別,無法自動生成proxy機型,需要自己創(chuàng)建proxy機型 添加之后,重新還是按照一主兩備進行創(chuàng)建實例 點擊初始化

點擊開始安裝 選擇任意一個網(wǎng)關(guān)列表的地址進行測試連接

mysql -utdsqlpcloud -h192.168.16.24 -P15193 -p'123456'

測試mysql連接無誤,將連接賬號密碼寫入到 group_vars/all 文件中

[root@td21 tdsql_full_install_ansible]# cat group_vars/all

---

zk_num: 5

netif_name: ens33

tdsql_pass: a+complex+123456

zk_rootdir: /tdsqlzk2

metadb_ip: 192.168.16.24 #主庫IP

metadb_port: 15193 #主庫端口

metadb_ip_bak: 192.168.16.25 #從庫IP

metadb_port_bak: 15193 #從庫端口

metadb_user: tdsqlpcloud #數(shù)據(jù)庫連接賬號

metadb_password: 123456 #數(shù)據(jù)庫連接密碼

ssh_port: 36000

hdfs_datadir: /data2/hdfs,/data3/hdfs,/data4/hdfs

kafka_logdir: /data2/kafka,/data3/kafka,/data4/kafka

es_mem: 8

es_log_days: 7

es_base_path: /data/application/es-install/es

tdsql_secret_pass: S8dfgSoMUjGaUn+EHkm3pA==

oc_secret_pass: TM1QhyoMWT2dWHCCHkm8qA==

clouddba_metadb_pass: h5Wyg2Xy

執(zhí)行安裝part2_site.yml

#安裝大約4分鐘左右,日志路徑/var/log/ansible.log,最終顯示failed任務數(shù)為0表示安裝成功。

sh -x encrypt.sh <---------必須執(zhí)行,更新密文密碼

ansible-playbook -i tdsql_hosts part2_site.yml

執(zhí)行報錯,根據(jù)報錯提示發(fā)現(xiàn)tdsql_hosts文件中沒有配置es地址,需要添加es地址 添加之后,再次執(zhí)行成功

#找到安裝了 scheduler 的服務器并執(zhí)行:

[root@td21 tdsql_full_install_ansible]# cat tdsql_hosts | grep scheduler

[scheduler]

scheduler1 ansible_ssh_host=192.168.16.21

scheduler2 ansible_ssh_host=192.168.16.22

# ssh 192.168.16.21

cd /data/application/scheduler/bin

./agent_config --mode modify --option="ocagent_port" --value="8966"

./agent_config --mode modify --option="hadoop_dir" --value=" /data/home/tdsql/hadoop-3.2.1/bin"

10、安裝備用赤兔:

將已初始化的chitu機器上拷貝2個文件到未初始化的chitu機器上,并刪除未初始化chitu機器上的crontab,如下:

192.168.16.21 已初始化chitu

192.168.16.22 未初始化chitu

(1)在21機器上,拷貝文件到22機器上

scp -p /data/website/tdsqlpcloud/www/config/database.php 192.168.16.22:/data/website/tdsqlpcloud/www/config/

scp -p /data/website/tdsqlpcloud/www/config/install.lock 192.168.16.22:/data/website/tdsqlpcloud/www/config/

(2)刪除22機器上nginx用戶的crontab

[root@localhost bin]# ssh 192.168.16.22

[root@localhost ~]# cp -a /var/spool/cron/nginx /data/tools/nginx_cron_bak

[root@localhost ~]# rm -f /var/spool/cron/nginx

(3)測試,登錄22的chitu

http://192.168.16.22/tdsqlpcloud

11、安裝HDFS服務

由于磁盤前面已經(jīng)添加并格式化過,這里不用操作了

#需要安裝hdfs的服務器修改主機名[必須修改,因為我們的主機名存在 - 線 需要改成沒有特殊符號的]

#修改 tdsql_hosts 文件,將需要安裝hdfs服務的服務器添加上去,這里就添加3臺hdfs

vim tdsql_hosts 新增hdfs配置:

[hdfs]

hdfs1 ansible_ssh_host=192.168.16.23

#之前已添加修改

#安裝hdfs單點[適用于低配服務器]:

#執(zhí)行安裝

ansible-playbook -i tdsql_hosts hdfs_single.yml

#切換到tdsql用戶

su - tdsql

#用tdsql用戶在hdfs1機器上,格式化namenode

hdfs namenode -format

#用tdsql用戶在hdfs1機器上,啟動namenode和datanode

hdfs --daemon start namenode

hdfs --daemon start datanode

#附:用tdsql用戶關(guān)閉hdfs進程

hdfs --daemon stop datanode

hdfs --daemon stop namenode

#安裝hdfs高可用安裝啟動

#在安裝時需要保證主機名修改了

#[本文用多點,配置不高就用單點如果hdfs多點,那么zk服務也需要是多點,因為之前配置的zk就是多點,這里就可以繼續(xù)安裝多點hdfs,否則安裝單點]:

#每臺服務器需要主機名不同 設(shè)置方法: hostnamectl set-hostname node1

ansible-playbook -i tdsql_hosts hdfs.yml

#初始化HDFS:

#用tdsql用戶在hdfs1機器,格式化zk

hdfs zkfc -formatZK

#用tdsql用戶在所有機器,啟動journalnode

hdfs --daemon start journalnode

#用tdsql用戶在hdfs1機器,格式化并啟動namenode

hdfs namenode -format

hdfs --daemon start namenode

#用tdsql用戶在hdfs2機器,格式化namenode

hdfs namenode -bootstrapStandby

#------------------------------啟動hdfs集群------------------------------#

#用tdsql用戶在hdfs1機器,格式化并啟動 zk

su - tdsql

hdfs zkfc -formatZK #格式化只能一次

#所有機器啟動 journalnode

hdfs --daemon start journalnode

#在hdfs1和hdfs2上啟動namenode

hdfs --daemon start namenode

#在hdfs1和hdfs2上啟動zkfc

hdfs --daemon start zkfc

#在所有hdfs機器上啟動datanode

hdfs --daemon start datanode

#------------------------------啟動hdfs集群------------------------------#

#------------------------------停止hdfs集群------------------------------#

在所有hdfs機器上關(guān)閉datanode

hdfs --daemon stop datanode

在hdfs1和hdfs2上關(guān)閉zkfc

hdfs --daemon stop zkfc

在hdfs1和hdfs2上關(guān)閉namenode

hdfs --daemon stop namenode

在所有hdfs機器上關(guān)閉journalnode

hdfs --daemon stop journalnode

#------------------------------停止hdfs集群------------------------------#

# hdfs haadmin -getAllServiceState 命令執(zhí)行失敗嘗試:

hdfs --daemon stop namenode

hdfs --daemon stop journalnode

hdfs --daemon start namenode

hdfs --daemon start journalnode

hdfs dfsadmin -report

hdfs haadmin -getAllServiceState

本次測試安裝的hdfs是單節(jié)點的,所在機器是192.168.16.23 #執(zhí)行安裝 ansible-playbook -i tdsql_hosts hdfs_single.yml 在hdfs所在機器192.168.16.23上執(zhí)行

#切換到tdsql用戶

su tdsql

#初始化HDFS:

#用tdsql用戶在hdfs1機器上,格式化namenode

hdfs namenode -format

#用tdsql用戶在hdfs1機器上,啟動namenode和datanode

cd /data/home/tdsql/hadoop-3.2.1/bin

hdfs --daemon start namenode

hdfs --daemon start datanode

#附:用tdsql用戶關(guān)閉hdfs進程

hdfs --daemon stop datanode

hdfs --daemon stop namenode

(7)在hdfs集群下查看/tdsqlbackup路徑

用tdsql用戶執(zhí)行以下命令

su - tdsql

#查看/tdsqlbackup目錄是否已經(jīng)被自動創(chuàng)建,權(quán)限是否是:tdsql supergroup

hadoop fs -ls /

#如果目錄不在或者權(quán)限不對,用下面命令修改:

hadoop fs -mkdir /tdsqlbackup

hadoop fs -chown tdsql.supergroup /tdsqlbackup

檢查HDFS端口并補充到 group_vars/all 文件中

ssh_port: 9870

hdfs_datadir: /data2/hdfs,/data3/hdfs,/data4/hdfs

12、配置hdfs監(jiān)控

如果有HDFS,但是沒有配置HDFS監(jiān)控,到"“集群管理->集群設(shè)置”中設(shè)置“HDFS服務列表”",如圖

如果是3節(jié)點的hdfs架構(gòu),如上圖所示填寫namenode節(jié)點(一般2個)的50070端口 生產(chǎn)環(huán)境不能用單節(jié)點hdfs,單節(jié)點架構(gòu)的hdfs的端口號是9870 添加的列表為:192.168.16.23:9870

13、擴容zk機器,添加observer節(jié)點

#準備工作:

#1、修改tdsql_hosts文件。增加新zk節(jié)點信息

[zk]

zk1 ansible_ssh_host=192.168.16.21

zk2 ansible_ssh_host=192.168.16.22

zk3 ansible_ssh_host=192.168.16.23

zk4 ansible_ssh_host=192.168.16.24

zk5 ansible_ssh_host=192.168.16.25

zk6 ansible_ssh_host=192.168.16.26

#2、在所有tdsql集群服務器上增加host配置(包括新zk也要添加host解析):vim /etc/hosts 添加要擴容的zk服務器信息。

[root@td21 tdsql_full_install_ansible]# cat /etc/hosts

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

::1 localhost localhost.localdomain localhost6 localhost6.localdomain6

192.168.16.21 td21

192.168.16.22 td22

192.168.16.23 td23

192.168.16.24 td24

192.168.16.25 td25

192.168.16.26 td26

#初始化新擴容的zk服務器

#注意:新增單獨服務器zk擴容需要重新初始化,OS系統(tǒng)需要做時間同步、配置yum源、免密。(原有TDSQL集群擴容zk無需重新初始化)

#(1)登入ansible機器重新創(chuàng)建一個tdsql_newzk文件添加新增zk服務器ip信息

#添加的內(nèi)容與tdsql_hosts文件里的一致

[newdb]

tdsql_newdb1 ansible_ssh_host=192.168.16.26

# vim tdsql_hosts

[newdb] <------勿修改

tdsql_newdb1 ansible_ssh_host=192.168.16.26 <-------初始化zk1ip

#在ansible的路徑下有一個tdsql_newdb.yml文件

# cat tdsql_newdb.yml

- name: install newdb begining

hosts: newdb

remote_user: root

gather_facts: false

roles:

- beginning

#以上tdsql_newdb.yml文件里的hosts處:tdsql_newdb名字要與創(chuàng)建的tdsql_newzk文件第一行一致,與tdsql_hosts文件里的名字也要與tdsql_newdb一致

#只需要保留初始化機器模板即可

(3)后臺初始化zk機器 執(zhí)行前確保新增的zk機器的時間和集群中其它機器的時間同步 執(zhí)行初始化新的zk機器

ansible-playbook -i tdsql_newzk tdsql_newdb.yml

(4) 將原zk節(jié)點定時任務拷貝到新初始化zk機器上 1、新版本定時任務文件路徑/etc/crontab 在老的zk上拷貝定時任務到新的zk機器上

*/3 * * * * /bin/bash /server/scripts/check_supervisor_alive.sh

2、老版本定時任務crontab -l 查看即可 將原zk信息先備份 zk備份的工具在scheduler的bin目錄下,scheduler機器上執(zhí)行:

cd /data/application/scheduler/bin

./backupZkInfo

驗證備份成功: 在執(zhí)行備份命令的scheduler機器上執(zhí)行:

cd /data/zkbak/zkbackup/

ll

在擴容zk節(jié)點服務器上創(chuàng)建目錄

mkdir -p /data/application/ /data/tools/ /data/home/tdsql/

4.5 在擴容zk節(jié)點服務器上檢查并安裝JDK——已存在JDK忽略此步。 在已安裝zk服務器上找到目錄/data/home/tdsql/jdk_x86.zip

scp /data/home/tdsql/jdk_x86.zip root@192.168.16.26:/data/home/tdsql/

在擴容zk服務器上操作:

cd /data/home/tdsql

unzip jdk_x86.zip

chown -R tdsql:users /data/home/tdsql/jdk

chmod +x -R /data/home/tdsql/jdk

source /etc/profile

在scheduler服務器上設(shè)置免切

cd /data/application/scheduler/bin/

./manual_set add_mnoswitch noshard all 1 24

查看免切設(shè)置是否成功,返回一個時間戳(免切到期時間)

./manual_set list_mnoswitch noshard all

date-d @時間戳

或者登陸赤兔設(shè)置實例一切免切 擴容zk服務器: 在已有zk服務器上進入cd /data/application并找到zookeeper.tar.gz安裝包 拷貝到新zk服務器上。

scp zookeeper.tar.gz root@192.168.16.26:/data/application/

新zk上解壓安裝包:

tar -zxvf zookeeper.tar.gz

cd /data/application/zookeeper

mkdir data;mkdir log

從已有zk服務器拷貝配置文件到擴容zk服務器上

scp /data/application/zookeeper/conf/zoo.cfg root@192.168.16.26:/data/application/zookeeper/conf/

scp /data/application/zookeeper/data/myid root@192.168.16.26:/data/application/zookeeper/data/

給擴容zk服務器zk目錄添加權(quán)限

cd /data/application/

chown -R tdsql:users zookeeper

檢測配置文件里的數(shù)據(jù)路徑和日志路徑是否正確

grep "Dir" /data/application/zookeeper/conf/zoo.cfg

修改myid和zoo.cfg文件 注意:在不用的節(jié)點上修改不同的myid值,修改的zoo.cfg文件中的參數(shù)都是一樣的。 在新zk服務器上操作:

cd /data/application/zookeeper/data/

vim myid

#將5修改為6(如果是一鍵部署安裝三節(jié)點的zk集群,如果是第四臺zk不管這里是何值都修改為4,第五臺就改成5,依次類推)

cd /data/application/zookeeper/conf/

vim zoo.cfg

#加上新添加的zk服務器信息。

#注:集群內(nèi)所有zk服務器需要配置新zk信息。數(shù)字為myid

#將新的zoo.cfg,使用scp命令傳送至所有zk節(jié)點的相同路徑覆蓋原文件,每臺單獨修改也可以

啟動新的zk服務,并查看進程和狀態(tài),其他原有節(jié)點也要重啟

cd /data/application/zookeeper/bin

./zkServer.stop

./zkServer.start

./zkServer.status (查看狀態(tài)是否是observer)

全部完成并確認無誤后,刪除集群免切狀態(tài) cd /data/application/scheduler/bin/ ./manual_set delete_mnoswitch noshard all ./manual_set list_mnoswitch noshard all

其他模塊配置文件需要加入zk新增節(jié)點的IP

#OSS

su - tdsql

cd /data/application/oss/conf/

vim scheduler.xml

cd /data/application/oss/boot

./stop.sh

./start.sh

ps -ef |grep oss

scheduler

# su - tdsql

# cd /data/application/scheduler/conf

# vim scheduler.xml

# vim backupConf.xml

# cd /data/application/scheduler/bin

#./stop_manager.sh

#./start_manager.sh

# ps -ef |grep scheduler

PROXY 機器(所有實例)

# cd /data/tdsql_run/15001/gateway/conf

# vim instance_15001.cnf

# su - tdsql

# cd /data/tdsql_run/15001/gateway/bin

#./restart_cgroup.sh instance_15001

# ps -ef |grep 1500x

mysqlagent DB機(所有實例)

# su -tdsql

# cd /data/tdsql_run/4001/mysqlagent/conf

# vim mysqlagent_4001.xml

# cd /data/tdsql_run/4001/mysqlagent/bin

# ./restartreport_cgroup.sh ../conf/mysqlagent_4001.xml

./startreport.sh ../conf/mysqlagent_4001.xml

# ps -ef |grep 400x

clouddba (一般與chitu混部 不用添加任何信息)

里面配置文件默認zk只有一臺,一般是赤兔的第一臺

# su - tdsql

# cd /data/application/clouddba/conf

# vim diagnosis.conf

# cd /data/application/clouddba/bin

# ./restart.sh ../conf/diagnosis.conf

ps -ef |grep diagnosis

kafka (無此組件不用測)

# cd /data/application/kafka/config

# vim consumer.properties

# cd/data/application/kafka_2.11-0.10.0.1/bin

# ./kafka-server-stop.sh -daemon ../config/server.properties

# cd /data/application/kafka_2.11-0.10.0.1/bin

# ./kafka-server-start.sh -daemon ../config/server.properties

# ps -ef |grep kafka

monitor

重啟analyze程序

#su - tdsql

# cd /data/application/tdsql_analysis/conf/

# vim conf.properties 添加新擴容的zk信息

# cd /data/application/tdsql_analysis/bin

# ./restart.sh

#ps -ef |grep analysis

重啟collector程序

# su - tdsql

# cd /data/application/tdsql_collector/conf

# vim conf.properties 查看是否有需要添加的zk信息

# cd /data/application/collector/bin

# ./restart.sh

# ps -ef |grep collector

hdfs

檢查新的zk節(jié)點與hdfs時間是否同步

hdfs節(jié)點上操作:

su - tdsql

cd /data/home/tdsql/hadoop/etc/hadoop/

cp core-site.xml core-site.xml_bak

vim core-site.xml

增加新zk信息

參考產(chǎn)品部署手冊重啟hdfs

intercity 組件

intercity增加新擴容zk的信息

cd /data/application/intercity_cluster/conf

vim cluster.xml

增加新擴容zk信息,增加完成后,重啟intercity

cd /data/application/intercity_cluster/bin

su - tdsql

sh stop_cluster.sh

sh start_cluster.sh

檢查intercity組件進程是否正常

ps -ef | grep intercity

在intercity組件部署機上增加zk擴容信息

/data/application/oss/config/scheduler.xml文件

然后重啟

/data/application/oss/boot

./stop.sh

./start.sh

赤兔前臺集群信息中上報新增ZK節(jié)點 上報節(jié)點之后,稍等一會,查看zk監(jiān)控即可看到observer節(jié)點

柚子快報邀請碼778899分享:mysql TDSQL部署手冊

http://yzkb.51969.com/

推薦閱讀

評論可見,查看隱藏內(nèi)容

本文內(nèi)容根據(jù)網(wǎng)絡資料整理,出于傳遞更多信息之目的,不代表金鑰匙跨境贊同其觀點和立場。

轉(zhuǎn)載請注明,如有侵權(quán),聯(lián)系刪除。

本文鏈接:http://gantiao.com.cn/post/17817120.html

發(fā)布評論

您暫未設(shè)置收款碼

請在主題配置——文章設(shè)置里上傳

掃描二維碼手機訪問

文章目錄