本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
在节点 2 上重启 SAP HANA
说明— 模拟运行主 SAP HANA 数据库的主站点节点(在节点 2 上)的崩溃。
运行节点— 主 SAP HANA 数据库节点(在节点 2 上)
运行步骤:
-
使用以下命令以 root 身份使用主数据库系统崩溃(在节点 2 上):
sechana:~ # crm status Stack: corosync Current DC: sechana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:16:57 2020 Last change: Thu Nov 12 12:16:41 2020 by root via crm_attribute on sechana 2 nodes configured 6 resources configured Online: [ prihana sechana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started prihana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started sechana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ prihana sechana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ sechana ] Slaves: [ prihana ] sechana:~ # echo 'b' > /proc/sysrq-trigger
要模拟系统崩溃,你必须首先确保/proc/sys/kernel/sysrq
设置为1
.
预期结果:
-
群集检测到故障的节点(节点 2),声明它”
UNCLEAN
”,并将辅助节点(节点 1)设置为状态”partition WITHOUT quorum
”。 -
群集围栏节点 2 并将辅助 SAP HANA 数据库(在节点 1 上)提升为主数据库接管。
prihana:~ # crm status Stack: corosync Current DC: prihana (version 1.1.18+20180430.b12c320f5-3.24.1-b12c320f5) - partition with quorum Last updated: Thu Nov 12 12:28:51 2020 Last change: Thu Nov 12 12:28:31 2020 by root via crm_attribute on prihana 2 nodes configured 6 resources configured Online: [ prihana ] OFFLINE: [ sechana ] Full list of resources: res_AWS_STONITH (stonith:external/ec2): Started prihana res_AWS_IP (ocf::suse:aws-vpc-move-ip): Started prihana Clone Set: cln_SAPHanaTopology_HDB_HDB00 [rsc_SAPHanaTopology_HDB_HDB00] Started: [ prihana ] Stopped: [ sechana ] Master/Slave Set: msl_SAPHana_HDB_HDB00 [rsc_SAPHana_HDB_HDB00] Masters: [ prihana ] Stopped: [ sechana ]
-
覆盖 IP 地址将迁移到新的主 IP 地址(在节点 1 上)。
-
使用
AUTOMATIC_REGISTER
“参数设置为”true
“,集群将重新启动出现故障的 SAP HANA 数据库,然后自动将其注册到新的主数据库中。
恢复程序:
-
使用启动节点 2(EC2 实例)Amazon Web Services Management Console要么AmazonCLI 工具并启动 Pacemaker(如果默认情况下未启用)。