<div dir="ltr"><span style="font-size:12.8px">> > Hi,</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > On my two-node active/passive setup, I configured fencing via</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > fence_vmware_soap. I configured pcmk_delay=0 on both nodes so I</span><br style="font-size:12.8px"><span style="font-size:12.8px">> expected</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > that both nodes will be stonithed simultaenously.</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > On my test scenario, Node1 has ClusterIP resource. When I</span><br style="font-size:12.8px"><span style="font-size:12.8px">> disconnect</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > service/corosync link physically, Node1 was fenced and Node2 keeps</span><br style="font-size:12.8px"><span style="font-size:12.8px">> alive</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > given pcmk_delay=0 on both nodes.</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Can you explain the behavior above?</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> </span><br style="font-size:12.8px"><span style="font-size:12.8px">> #node1 could not connect to ESX because links were disconnected. As</span><br style="font-size:12.8px"><span style="font-size:12.8px">> the</span><br style="font-size:12.8px"><span style="font-size:12.8px">> #most obvious explanation.</span><br style="font-size:12.8px"><span style="font-size:12.8px">> </span><br style="font-size:12.8px"><span style="font-size:12.8px">> #You have logs, you are the only one who can answer this question</span><br style="font-size:12.8px"><span style="font-size:12.8px">> with</span><br style="font-size:12.8px"><span style="font-size:12.8px">> #some certainty. Others can only guess.</span><br style="font-size:12.8px"><span style="font-size:12.8px">> </span><br style="font-size:12.8px"><span style="font-size:12.8px">> </span><br style="font-size:12.8px"><span style="font-size:12.8px">> Oops, my bad. I forgot to tell. I have two interfaces on each virtual</span><br style="font-size:12.8px"><span style="font-size:12.8px">> machine (nodes). second interface was used for ESX links, so fence</span><br style="font-size:12.8px"><span style="font-size:12.8px">> can be executed even though corosync links were disconnected. Looking</span><br style="font-size:12.8px"><span style="font-size:12.8px">> forward to your response. Thanks</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">#Having no fence delay means a death match (each node killing the other)</span><br style="font-size:12.8px"><span style="font-size:12.8px">#is possible, but it doesn't guarantee that it will happen. Some of the</span><br style="font-size:12.8px"><span style="font-size:12.8px">#time, one node will detect the outage and fence the other one before</span><br style="font-size:12.8px"><span style="font-size:12.8px">#the other one can react.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">#It's basically an Old West shoot-out -- they may reach for their guns</span><br style="font-size:12.8px"><span style="font-size:12.8px">#at the same time, but one may be quicker.</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">#As Andrei suggested, the logs from both nodes could give you a timeline</span><br style="font-size:12.8px"><span style="font-size:12.8px">#of what happened when.</span><div><br><br>Hi andrei, kindly see below logs. Based on time of logs, Node1 should have fenced first Node2, but in actual test/scenario, Node1 was fenced/shutdown by Node2. <br><br>Is it possible to have a 2-Node active/passive setup in pacemaker/corosync that the node that gets disconnected/interface down is the only one that gets fenced?<br><br>Thanks guys</div><div><b><br></b></div><div><b>LOGS from Node2:</b></div><div><b><br></b><div>Jul 17 13:33:27 ArcosRhel2 corosync[1048]: [TOTEM ] A processor failed, forming new configuration.</div><div>Jul 17 13:33:28 ArcosRhel2 corosync[1048]: [TOTEM ] A new membership (<a href="http://172.16.10.242:220">172.16.10.242:220</a>) was formed. Members left: 1</div><div>Jul 17 13:33:28 ArcosRhel2 corosync[1048]: [TOTEM ] Failed to receive the leave message. failed: 1</div><div>Jul 17 13:33:28 ArcosRhel2 corosync[1048]: [QUORUM] Members[1]: 2</div><div>Jul 17 13:33:28 ArcosRhel2 corosync[1048]: [MAIN  ] Completed service synchronization, ready to provide service.</div><div>Jul 17 13:33:28 ArcosRhel2 attrd[1082]:  notice: Node ArcosRhel1 state is now lost</div><div>Jul 17 13:33:28 ArcosRhel2 attrd[1082]:  notice: Removing all ArcosRhel1 attributes for peer loss</div><div>Jul 17 13:33:28 ArcosRhel2 attrd[1082]:  notice: Lost attribute writer ArcosRhel1</div><div>Jul 17 13:33:28 ArcosRhel2 attrd[1082]:  notice: Purged 1 peers with id=1 and/or uname=ArcosRhel1 from the membership cache</div><div>Jul 17 13:33:28 ArcosRhel2 cib[1079]:  notice: Node ArcosRhel1 state is now lost</div><div>Jul 17 13:33:28 ArcosRhel2 cib[1079]:  notice: Purged 1 peers with id=1 and/or uname=ArcosRhel1 from the membership cache</div><div>Jul 17 13:33:28 ArcosRhel2 crmd[1084]:  notice: Node ArcosRhel1 state is now lost</div><div>Jul 17 13:33:28 ArcosRhel2 crmd[1084]: warning: Our DC node (ArcosRhel1) left the cluster</div><div>Jul 17 13:33:28 ArcosRhel2 pacemakerd[1074]:  notice: Node ArcosRhel1 state is now lost</div><div>Jul 17 13:33:28 ArcosRhel2 stonith-ng[1080]:  notice: Node ArcosRhel1 state is now lost</div><div>Jul 17 13:33:28 ArcosRhel2 stonith-ng[1080]:  notice: Purged 1 peers with id=1 and/or uname=ArcosRhel1 from the membership cache</div><div>Jul 17 13:33:28 ArcosRhel2 crmd[1084]:  notice: State transition S_NOT_DC -> S_ELECTION</div><div>Jul 17 13:33:28 ArcosRhel2 crmd[1084]:  notice: State transition S_ELECTION -> S_INTEGRATION</div><div>Jul 17 13:33:28 ArcosRhel2 crmd[1084]: warning: Input I_ELECTION_DC received in state S_INTEGRATION from do_election_check</div><div>Jul 17 13:33:30 ArcosRhel2 pengine[1083]: warning: Node ArcosRhel1 will be fenced because the node is no longer part of the cluster</div><div>Jul 17 13:33:30 ArcosRhel2 pengine[1083]: warning: Node ArcosRhel1 is unclean</div><div>Jul 17 13:33:30 ArcosRhel2 pengine[1083]: warning: Action fence2_stop_0 on ArcosRhel1 is unrunnable (offline)</div><div>Jul 17 13:33:30 ArcosRhel2 pengine[1083]: warning: Action ClusterIP_stop_0 on ArcosRhel1 is unrunnable (offline)</div><div>Jul 17 13:33:30 ArcosRhel2 pengine[1083]: warning: Scheduling Node ArcosRhel1 for STONITH</div><div>Jul 17 13:33:30 ArcosRhel2 pengine[1083]:  notice: Move    fence2#011(Started ArcosRhel1 -> ArcosRhel2)</div><div>Jul 17 13:33:30 ArcosRhel2 pengine[1083]:  notice: Move    ClusterIP#011(Started ArcosRhel1 -> ArcosRhel2)</div><div>Jul 17 13:33:30 ArcosRhel2 pengine[1083]: warning: Calculated transition 0 (with warnings), saving inputs in /var/lib/pacemaker/pengine/pe-warn-20.bz2</div><div>Jul 17 13:33:30 ArcosRhel2 crmd[1084]:  notice: Requesting fencing (reboot) of node ArcosRhel1</div><div>Jul 17 13:33:30 ArcosRhel2 crmd[1084]:  notice: Initiating start operation fence2_start_0 locally on ArcosRhel2</div><div>Jul 17 13:33:30 ArcosRhel2 stonith-ng[1080]:  notice: Client crmd.1084.cd70178e wants to fence (reboot) 'ArcosRhel1' with device '(any)'</div><div>Jul 17 13:33:30 ArcosRhel2 stonith-ng[1080]:  notice: Requesting peer fencing (reboot) of ArcosRhel1</div><div>Jul 17 13:33:30 ArcosRhel2 stonith-ng[1080]:  notice: Fence1 can fence (reboot) ArcosRhel1: static-list</div><div>Jul 17 13:33:30 ArcosRhel2 stonith-ng[1080]:  notice: fence2 can not fence (reboot) ArcosRhel1: static-list</div><div>Jul 17 13:33:30 ArcosRhel2 stonith-ng[1080]:  notice: Fence1 can fence (reboot) ArcosRhel1: static-list</div><div>Jul 17 13:33:30 ArcosRhel2 stonith-ng[1080]:  notice: fence2 can not fence (reboot) ArcosRhel1: static-list</div><div>Jul 17 13:33:30 ArcosRhel2 stonith-ng[1080]: warning: fence2 has 'action' parameter, which should never be specified in configuration</div><div>Jul 17 13:33:30 ArcosRhel2 stonith-ng[1080]: warning: Mapping action='off' to pcmk_reboot_action='off'</div><div>Jul 17 13:33:49 ArcosRhel2 crmd[1084]:  notice: Result of start operation for fence2 on ArcosRhel2: 0 (ok)</div><div>Jul 17 13:33:49 ArcosRhel2 crmd[1084]:  notice: Initiating monitor operation fence2_monitor_60000 locally on ArcosRhel2</div><div>Jul 17 13:33:50 ArcosRhel2 stonith-ng[1080]:  notice: Operation 'reboot' [2323] (call 2 from crmd.1084) for host 'ArcosRhel1' with device 'Fence1' returned: 0 (OK)</div><div>Jul 17 13:33:50 ArcosRhel2 stonith-ng[1080]:  notice: Operation reboot of ArcosRhel1 by ArcosRhel2 for crmd.1084@ArcosRhel2.0426e6e1: OK</div><div>Jul 17 13:33:50 ArcosRhel2 crmd[1084]:  notice: Stonith operation 2/12:0:0:f9418e1f-1f13-4033-9eaa-aec705f807ef: OK (0)</div><div>Jul 17 13:33:50 ArcosRhel2 crmd[1084]:  notice: Peer ArcosRhel1 was terminated (reboot) by ArcosRhel2 for ArcosRhel2: OK (ref=0426e6e1-cfda-4475-b32d-8f7bce17027b) by client crmd.1084</div><div>Jul 17 13:33:50 ArcosRhel2 crmd[1084]:  notice: Initiating start operation ClusterIP_start_0 locally on ArcosRhel2</div><div>Jul 17 13:33:50 ArcosRhel2 IPaddr2(ClusterIP)[2342]: INFO: Adding inet address <a href="http://172.16.10.243/32">172.16.10.243/32</a> with broadcast address 172.16.10.255 to device ens192</div><div>Jul 17 13:33:51 ArcosRhel2 IPaddr2(ClusterIP)[2342]: INFO: Bringing device ens192 up</div><div>Jul 17 13:33:51 ArcosRhel2 IPaddr2(ClusterIP)[2342]: INFO: /usr/libexec/heartbeat/send_arp -i 200 -c 5 -p /var/run/resource-agents/send_arp-172.16.10.243 -I ens192 -m auto 172.16.10.243</div><div>Jul 17 13:33:52 ArcosRhel2 ntpd[1821]: Listen normally on 8 ens192 172.16.10.243 UDP 123</div><div>Jul 17 13:33:55 ArcosRhel2 crmd[1084]:  notice: Result of start operation for ClusterIP on ArcosRhel2: 0 (ok)</div><div>Jul 17 13:33:58 ArcosRhel2 crmd[1084]:  notice: Initiating monitor operation ClusterIP_monitor_30000 locally on ArcosRhel2</div><div>Jul 17 13:33:58 ArcosRhel2 crmd[1084]:  notice: Transition 0 (Complete=9, Pending=0, Fired=0, Skipped=0, Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-warn-20.bz2): Complete</div><div>Jul 17 13:33:58 ArcosRhel2 crmd[1084]:  notice: State transition S_TRANSITION_ENGINE -> S_IDLE</div><div>Jul 17 13:34:43 ArcosRhel2 ntpd[1821]: 0.0.0.0 0612 02 freq_set kernel -40.734 PPM</div><div>Jul 17 13:34:43 ArcosRhel2 ntpd[1821]: 0.0.0.0 0615 05 clock_sync</div></div><div><br><br><br><b>LOGS from NODE1</b></div><div><div style="">Jul 17 13:33:26 ArcoSRhel1 corosync[1464]: [TOTEM ] A processor failed, forming new configuration.</div><div style="">Jul 17 13:33:28 ArcoSRhel1 corosync[1464]: [TOTEM ] A new membership (<a href="http://172.16.10.241:220">172.16.10.241:220</a>) was formed. Members left: 2</div><div style="">Jul 17 13:33:28 ArcoSRhel1 corosync[1464]: [TOTEM ] Failed to receive the leave message. failed: 2</div><div style="">Jul 17 13:33:28 ArcoSRhel1 corosync[1464]: [QUORUM] Members[1]: 1</div><div style="">Jul 17 13:33:28 ArcoSRhel1 corosync[1464]: [MAIN  ] Completed service synchronization, ready to provide service.</div><div style="">Jul 17 13:33:28 ArcoSRhel1 stonith-ng[1473]:  notice: Node ArcosRhel2 state is now lost</div><div style="">Jul 17 13:33:28 ArcoSRhel1 stonith-ng[1473]:  notice: Purged 1 peers with id=2 and/or uname=ArcosRhel2 from the membership cache</div><div style="">Jul 17 13:33:28 ArcoSRhel1 attrd[1475]:  notice: Node ArcosRhel2 state is now lost</div><div style="">Jul 17 13:33:28 ArcoSRhel1 attrd[1475]:  notice: Removing all ArcosRhel2 attributes for peer loss</div><div style="">Jul 17 13:33:28 ArcoSRhel1 attrd[1475]:  notice: Purged 1 peers with id=2 and/or uname=ArcosRhel2 from the membership cache</div><div style="">Jul 17 13:33:28 ArcoSRhel1 cib[1472]:  notice: Node ArcosRhel2 state is now lost</div><div style="">Jul 17 13:33:28 ArcoSRhel1 cib[1472]:  notice: Purged 1 peers with id=2 and/or uname=ArcosRhel2 from the membership cache</div><div style="">Jul 17 13:33:28 ArcoSRhel1 crmd[1477]:  notice: Node ArcosRhel2 state is now lost</div><div style="">Jul 17 13:33:28 ArcoSRhel1 crmd[1477]: warning: No reason to expect node 2 to be down</div><div style="">Jul 17 13:33:28 ArcoSRhel1 crmd[1477]:  notice: Stonith/shutdown of ArcosRhel2 not matched</div><div style="">Jul 17 13:33:28 ArcoSRhel1 pacemakerd[1471]:  notice: Node ArcosRhel2 state is now lost</div><div style="">Jul 17 13:33:28 ArcoSRhel1 crmd[1477]:  notice: State transition S_IDLE -> S_POLICY_ENGINE</div><div style="">Jul 17 13:33:28 ArcoSRhel1 crmd[1477]: warning: No reason to expect node 2 to be down</div><div style="">Jul 17 13:33:28 ArcoSRhel1 crmd[1477]:  notice: Stonith/shutdown of ArcosRhel2 not matched</div><div style="">Jul 17 13:33:28 ArcoSRhel1 pengine[1476]: warning: Node ArcosRhel2 will be fenced because the node is no longer part of the cluster</div><div style="">Jul 17 13:33:28 ArcoSRhel1 pengine[1476]: warning: Node ArcosRhel2 is unclean</div><div style="">Jul 17 13:33:28 ArcoSRhel1 pengine[1476]: warning: Action Fence1_stop_0 on ArcosRhel2 is unrunnable (offline)</div><div style="">Jul 17 13:33:28 ArcoSRhel1 pengine[1476]: warning: Scheduling Node ArcosRhel2 for STONITH</div><div style="">Jul 17 13:33:28 ArcoSRhel1 pengine[1476]:  notice: Move    Fence1#011(Started ArcosRhel2 -> ArcosRhel1)</div><div style="">Jul 17 13:33:28 ArcoSRhel1 pengine[1476]: warning: Calculated transition 4 (with warnings), saving inputs in /var/lib/pacemaker/pengine/pe-warn-8.bz2</div><div style="">Jul 17 13:33:28 ArcoSRhel1 crmd[1477]:  notice: Requesting fencing (reboot) of node ArcosRhel2</div><div style="">Jul 17 13:33:28 ArcoSRhel1 crmd[1477]:  notice: Initiating start operation Fence1_start_0 locally on ArcosRhel1</div><div style="">Jul 17 13:33:28 ArcoSRhel1 stonith-ng[1473]:  notice: Client crmd.1477.6d888347 wants to fence (reboot) 'ArcosRhel2' with device '(any)'</div><div style="">Jul 17 13:33:28 ArcoSRhel1 stonith-ng[1473]:  notice: Requesting peer fencing (reboot) of ArcosRhel2</div><div style="">Jul 17 13:33:28 ArcoSRhel1 stonith-ng[1473]: warning: Fence1 has 'action' parameter, which should never be specified in configuration</div><div style="">Jul 17 13:33:28 ArcoSRhel1 stonith-ng[1473]: warning: Mapping action='off' to pcmk_reboot_action='off'</div><div style="">Jul 17 13:33:28 ArcoSRhel1 stonith-ng[1473]:  notice: Fence1 can not fence (reboot) ArcosRhel2: static-list</div><div style="">Jul 17 13:33:28 ArcoSRhel1 stonith-ng[1473]:  notice: fence2 can fence (reboot) ArcosRhel2: static-list</div><div style="">Jul 17 13:33:28 ArcoSRhel1 stonith-ng[1473]:  notice: Fence1 can not fence (reboot) ArcosRhel2: static-list</div><div style="">Jul 17 13:33:28 ArcoSRhel1 stonith-ng[1473]:  notice: fence2 can fence (reboot) ArcosRhel2: static-list</div><div style="">Jul 17 13:33:46 ArcoSRhel1 fence_vmware_soap: Unable to connect/login to fencing device</div><div style="">Jul 17 13:33:46 ArcoSRhel1 stonith-ng[1473]: warning: fence_vmware_soap[7157] stderr: [ Unable to connect/login to fencing device ]</div><div style="">Jul 17 13:33:46 ArcoSRhel1 stonith-ng[1473]: warning: fence_vmware_soap[7157] stderr: [  ]</div><div style="">Jul 17 13:33:46 ArcoSRhel1 stonith-ng[1473]: warning: fence_vmware_soap[7157] stderr: [  ]</div><div style=""><br></div><div style=""><br></div><div style=""><br></div><div style=""><br></div><div style=""><br></div><div style=""><br></div><span style="font-size:12.8px">> > See my config below:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > [root@ArcosRhel2 cluster]# pcs config</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Cluster Name: ARCOSCLUSTER</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Corosync Nodes:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ArcosRhel1 ArcosRhel2</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Pacemaker Nodes:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ArcosRhel1 ArcosRhel2</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Resources:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? Resource: ClusterIP (class=ocf provider=heartbeat type=IPaddr2)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ?Attributes: cidr_netmask=32 ip=172.16.10.243</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ?Operations: monitor interval=30s (ClusterIP-monitor-interval-</span><wbr style="font-size:12.8px"><span style="font-size:12.8px">30s)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ? ? ? ? ? ? ?start interval=0s timeout=20s (ClusterIP-start-</span><br style="font-size:12.8px"><span style="font-size:12.8px">> interval-0s)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ? ? ? ? ? ? ?stop interval=0s timeout=20s (ClusterIP-stop-</span><br style="font-size:12.8px"><span style="font-size:12.8px">> interval-0s)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Stonith Devices:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? Resource: Fence1 (class=stonith type=fence_vmware_soap)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ?Attributes: action=off ipaddr=172.16.10.151 login=admin</span><br style="font-size:12.8px"><span style="font-size:12.8px">> passwd=123pass</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > pcmk_host_list=ArcosRhel1 pcmk_monitor_timeout=60s</span><br style="font-size:12.8px"><span style="font-size:12.8px">> port=ArcosRhel1(Joniel)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > ssl_insecure=1 pcmk_delay_max=0s</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ?Operations: monitor interval=60s (Fence1-monitor-interval-60s)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? Resource: fence2 (class=stonith type=fence_vmware_soap)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ?Attributes: action=off ipaddr=172.16.10.152 login=admin</span><br style="font-size:12.8px"><span style="font-size:12.8px">> passwd=123pass</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > pcmk_delay_max=0s pcmk_host_list=ArcosRhel2</span><br style="font-size:12.8px"><span style="font-size:12.8px">> pcmk_monitor_timeout=60s</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > port=ArcosRhel2(Ben) ssl_insecure=1</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ?Operations: monitor interval=60s (fence2-monitor-interval-60s)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Fencing Levels:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Location Constraints:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ?Resource: Fence1</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ? ?Enabled on: ArcosRhel2 (score:INFINITY)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > (id:location-Fence1-</span><wbr style="font-size:12.8px"><span style="font-size:12.8px">ArcosRhel2-INFINITY)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ?Resource: fence2</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ? ?Enabled on: ArcosRhel1 (score:INFINITY)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > (id:location-fence2-</span><wbr style="font-size:12.8px"><span style="font-size:12.8px">ArcosRhel1-INFINITY)</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Ordering Constraints:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Colocation Constraints:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Ticket Constraints:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Alerts:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? No alerts defined</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Resources Defaults:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? No defaults set</span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Operations Defaults:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? No defaults set</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Cluster Properties:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? cluster-infrastructure: corosync</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? cluster-name: ARCOSCLUSTER</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? dc-version: 1.1.16-12.el7-94ff4df</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? have-watchdog: false</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? last-lrm-refresh: 1531810841</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? stonith-enabled: true</span><br style="font-size:12.8px"><span style="font-size:12.8px">> ></span><br style="font-size:12.8px"><span style="font-size:12.8px">> > Quorum:</span><br style="font-size:12.8px"><span style="font-size:12.8px">> >? ?Options:</span><br><div class="gmail_extra"><br><div class="gmail_quote"><br></div></div></div></div>