<tt><font size=2>Klaus Wenninger &lt;kwenning@redhat.com&gt; wrote on
02/16/2017 03:27:07 AM:<br>
<br>
&gt; From: Klaus Wenninger &lt;kwenning@redhat.com&gt;</font></tt>
<br><tt><font size=2>&gt; To: kgaillot@redhat.com, Cluster Labs - All topics
related to open-<br>
&gt; source clustering welcomed &lt;users@clusterlabs.org&gt;</font></tt>
<br><tt><font size=2>&gt; Date: 02/16/2017 03:27 AM</font></tt>
<br><tt><font size=2>&gt; Subject: Re: [ClusterLabs] I question whether
STONITH is working.</font></tt>
<br><tt><font size=2>&gt; <br>
&gt; On 02/15/2017 10:30 PM, Ken Gaillot wrote:<br>
&gt; &gt; On 02/15/2017 12:17 PM, durwin@mgtsciences.com wrote:<br>
&gt; &gt;&gt; I have 2 Fedora VMs (node1, and node2) running on a Windows
10 machine<br>
&gt; &gt;&gt; using Virtualbox.<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; I began with this.<br>
&gt; &gt;&gt; </font></tt><a href="http://clusterlabs.org/doc/en-US/Pacemaker/1.1-pcs/html-single/"><tt><font size=2>http://clusterlabs.org/doc/en-US/Pacemaker/1.1-pcs/html-single/</font></tt></a><tt><font size=2><br>
&gt; Clusters_from_Scratch/<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; When it came to fencing, I refered to this.<br>
&gt; &gt;&gt; </font></tt><a href="http://www.linux-ha.org/wiki/SBD_Fencing"><tt><font size=2>http://www.linux-ha.org/wiki/SBD_Fencing</font></tt></a><tt><font size=2><br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; To the file /etc/sysconfig/sbd I added these lines.<br>
&gt; &gt;&gt; SBD_OPTS=&quot;-W&quot;<br>
&gt; &gt;&gt; SBD_DEVICE=&quot;/dev/sdb1&quot;<br>
&gt; &gt;&gt; I added 'modprobe softdog' to rc.local<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; After getting sbd working, I resumed with Clusters from Scratch,
chapter<br>
&gt; &gt;&gt; 8.3.<br>
&gt; &gt;&gt; I executed these commands *only* one node1. &nbsp;Am I suppose
to run any of<br>
&gt; &gt;&gt; these commands on other nodes? 'Clusters from Scratch' does
not specify.<br>
&gt; &gt; Configuration commands only need to be run once. The cluster<br>
&gt; &gt; synchronizes all changes across the cluster.<br>
&gt; &gt;<br>
&gt; &gt;&gt; pcs cluster cib stonith_cfg<br>
&gt; &gt;&gt; pcs -f stonith_cfg stonith create sbd-fence fence_sbd<br>
&gt; &gt;&gt; devices=&quot;/dev/sdb1&quot; port=&quot;node2&quot;<br>
&gt; &gt; The above command creates a fence device configured to kill node2
-- but<br>
&gt; &gt; it doesn't tell the cluster which nodes the device can be used
to kill.<br>
&gt; &gt; Thus, even if you try to fence node1, it will use this device,
and node2<br>
&gt; &gt; will be shot.<br>
&gt; &gt;<br>
&gt; &gt; The pcmk_host_list parameter specifies which nodes the device
can kill.<br>
&gt; &gt; If not specified, the device will be used to kill any node. So,
just add<br>
&gt; &gt; pcmk_host_list=node2 here.<br>
&gt; &gt;<br>
&gt; &gt; You'll need to configure a separate device to fence node1.<br>
&gt; &gt;<br>
&gt; &gt; I haven't used fence_sbd, so I don't know if there's a way to
configure<br>
&gt; &gt; it as one device that can kill both nodes.<br>
&gt; <br>
&gt; fence_sbd should return a proper dynamic-list.<br>
&gt; So without ports and host-list it should just work fine.<br>
&gt; Not even a host-map should be needed. Or actually it is not<br>
&gt; supported because if sbd is using different node-naming than<br>
&gt; pacemaker, pacemaker-watcher within sbd is gonna fail.</font></tt>
<br>
<br><tt><font size=2>It was said that 'port=' is not needed, that if I
used the command below</font></tt>
<br><tt><font size=2>it would just work (as I understood what was being
said). &nbsp;So I deleted</font></tt>
<br><tt><font size=2>using this command.</font></tt>
<br><tt><font size=2>pcs -f stonith_cfg stonith delete sbd-fence</font></tt>
<br>
<br><tt><font size=2>Recreated without 'port='.</font></tt>
<br><tt><font size=2>pcs -f stonith_cfg stonith create sbd-fence fence_sbd
devices=&quot;/dev/sdb1&quot;</font></tt>
<br><tt><font size=2>pcs cluster cib-push stonith_cfg</font></tt>
<br>
<br><tt><font size=2>From node2 I executed this command.</font></tt>
<br><tt><font size=2>stonith_admin --reboot node1</font></tt>
<br>
<br><tt><font size=2>But node2 rebooted anyway.</font></tt>
<br>
<br><tt><font size=2>If I follow what Ken shared, I would need another
'watchdog' in addition</font></tt>
<br><tt><font size=2>to another sbd device. &nbsp;Are multiple watchdogs
possible?</font></tt>
<br>
<br><tt><font size=2>I am lost at this point.</font></tt>
<br>
<br><tt><font size=2>I have 2 VM nodes running Fedora25 on a Windows 10
host. &nbsp;Every</font></tt>
<br><tt><font size=2>node in a cluster needs to be fenced (as I understand
it). &nbsp;Using</font></tt>
<br><tt><font size=2>SBD, what is the correct way to proceed?</font></tt>
<br>
<br><tt><font size=2>Thank you,</font></tt>
<br>
<br><tt><font size=2>Durwin</font></tt>
<br><tt><font size=2><br>
&gt; <br>
&gt; &gt;<br>
&gt; &gt;&gt; pcs -f stonith_cfg property set stonith-enabled=true<br>
&gt; &gt;&gt; pcs cluster cib-push stonith_cfg<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; I then tried this command from node1.<br>
&gt; &gt;&gt; stonith_admin --reboot node2<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; Node2 did not reboot or even shutdown. the command 'sbd -d
/dev/sdb1<br>
&gt; &gt;&gt; list' showed node2 as off, but I was still logged into it
(cluster<br>
&gt; &gt;&gt; status on node2 showed not running).<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; I rebooted and ran this command on node 2 and started cluster.<br>
&gt; &gt;&gt; sbd -d /dev/sdb1 message node2 clear<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; If I ran this command on node2, node2 rebooted.<br>
&gt; &gt;&gt; stonith_admin --reboot node1<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; What have I missed or done wrong?<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; Thank you,<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; Durwin F. De La Rue<br>
&gt; &gt;&gt; Management Sciences, Inc.<br>
&gt; &gt;&gt; 6022 Constitution Ave. NE<br>
&gt; &gt;&gt; Albuquerque, NM &nbsp;87110<br>
&gt; &gt;&gt; Phone (505) 255-8611<br>
&gt; &gt;<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Users mailing list: Users@clusterlabs.org<br>
&gt; &gt; </font></tt><a href=http://lists.clusterlabs.org/mailman/listinfo/users><tt><font size=2>http://lists.clusterlabs.org/mailman/listinfo/users</font></tt></a><tt><font size=2><br>
&gt; &gt;<br>
&gt; &gt; Project Home: </font></tt><a href=http://www.clusterlabs.org/><tt><font size=2>http://www.clusterlabs.org</font></tt></a><tt><font size=2><br>
&gt; &gt; Getting started: </font></tt><a href=http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf><tt><font size=2>http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</font></tt></a><tt><font size=2><br>
&gt; &gt; Bugs: </font></tt><a href=http://bugs.clusterlabs.org/><tt><font size=2>http://bugs.clusterlabs.org</font></tt></a><tt><font size=2><br>
&gt; <br>
&gt; <br>
&gt; <br>
&gt; _______________________________________________<br>
&gt; Users mailing list: Users@clusterlabs.org<br>
&gt; </font></tt><a href=http://lists.clusterlabs.org/mailman/listinfo/users><tt><font size=2>http://lists.clusterlabs.org/mailman/listinfo/users</font></tt></a><tt><font size=2><br>
&gt; <br>
&gt; Project Home: </font></tt><a href=http://www.clusterlabs.org/><tt><font size=2>http://www.clusterlabs.org</font></tt></a><tt><font size=2><br>
&gt; Getting started: </font></tt><a href=http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf><tt><font size=2>http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</font></tt></a><tt><font size=2><br>
&gt; Bugs: </font></tt><a href=http://bugs.clusterlabs.org/><tt><font size=2>http://bugs.clusterlabs.org</font></tt></a><tt><font size=2><br>
</font></tt><font size=2 face="sans-serif"><br>
<br>
<br>
This email message and any attachments are for the sole use of the intended
recipient(s) and may contain proprietary and/or confidential information
which may be privileged or otherwise protected from disclosure. Any unauthorized
review, use, disclosure or distribution is prohibited. If you are not the
intended recipient(s), please contact the sender by reply email and destroy
the original message and any copies of the message as well as any attachments
to the original message.</font>