<div dir="ltr">I will try to install updated packages from ubuntu 16.10 or newer. It can&#39;t get worse than not working.<div><br></div><div>Can you think of any logs that might help? I&#39;ve enabled debug on corosync log, but it really doesn&#39;t show anything else other than corosync exiting. Any diagnostic tools you can recommend?</div></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div>-------</div>Seth Reid<div>System Operations Engineer</div><div>Vendini, Inc.<br></div><div>415.349.7736</div><div><a href="mailto:sreid@vendini.com" target="_blank">sreid@vendini.com</a></div><div><a href="http://www.vendini.com" target="_blank">www.vendini.com</a></div><div><br></div></div></div></div>
<br><div class="gmail_quote">On Mon, Mar 27, 2017 at 3:10 PM, Ken Gaillot <span dir="ltr">&lt;<a href="mailto:kgaillot@redhat.com" target="_blank">kgaillot@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 03/27/2017 03:54 PM, Seth Reid wrote:<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Fri, Mar 24, 2017 at 2:10 PM, Ken Gaillot &lt;<a href="mailto:kgaillot@redhat.com">kgaillot@redhat.com</a><br>
</span><div><div class="h5">&gt; &lt;mailto:<a href="mailto:kgaillot@redhat.com">kgaillot@redhat.com</a>&gt;&gt; wrote:<br>
&gt;<br>
&gt;     On 03/24/2017 03:52 PM, Digimer wrote:<br>
&gt;     &gt; On 24/03/17 04:44 PM, Seth Reid wrote:<br>
&gt;     &gt;&gt; I have a three node Pacemaker/GFS2 cluster on Ubuntu 16.04. Its not in<br>
&gt;     &gt;&gt; production yet because I&#39;m having a problem during fencing. When I<br>
&gt;     &gt;&gt; disable the network interface of any one machine, the disabled machines<br>
&gt;     &gt;&gt; is properly fenced leaving me, briefly, with a two node cluster. A<br>
&gt;     &gt;&gt; second node is then fenced off immediately, and the remaining node<br>
&gt;     &gt;&gt; appears to try to fence itself off. This leave two nodes with<br>
&gt;     &gt;&gt; corosync/pacemaker stopped, and the remaining machine still in the<br>
&gt;     &gt;&gt; cluster but showing an offline node and an UNCLEAN node. What can be<br>
&gt;     &gt;&gt; causing this behavior?<br>
&gt;     &gt;<br>
&gt;     &gt; It looks like the fence attempt failed, leaving the cluster hung. When<br>
&gt;     &gt; you say all nodes were fenced, did all nodes actually reboot? Or did the<br>
&gt;     &gt; two surviving nodes just lock up? If the later, then that is the proper<br>
&gt;     &gt; response to a failed fence (DLM stays blocked).<br>
&gt;<br>
&gt;     See comments inline ...<br>
&gt;<br>
&gt;     &gt;<br>
&gt;     &gt;&gt; Each machine has a dedicated network interface for the cluster, and<br>
&gt;     &gt;&gt; there is a vlan on the switch devoted to just these interfaces.<br>
&gt;     &gt;&gt; In the following, I disabled the interface on node id 2 (b014).<br>
&gt;     Node 1<br>
&gt;     &gt;&gt; (b013) is fenced as well. Node 2 (b015) is still up.<br>
&gt;     &gt;&gt;<br>
&gt;     &gt;&gt; Logs from b013:<br>
&gt;     &gt;&gt; Mar 24 16:35:01 b013 CRON[19133]: (root) CMD (command -v debian-sa1 &gt;<br>
&gt;     &gt;&gt; /dev/null &amp;&amp; debian-sa1 1 1)<br>
&gt;     &gt;&gt; Mar 24 16:35:13 b013 corosync[2134]: notice  [TOTEM ] A processor<br>
&gt;     &gt;&gt; failed, forming new configuration.<br>
&gt;     &gt;&gt; Mar 24 16:35:13 b013 corosync[2134]:  [TOTEM ] A processor failed,<br>
&gt;     &gt;&gt; forming new configuration.<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 corosync[2134]: notice  [TOTEM ] A new<br>
&gt;     membership<br>
&gt;     &gt;&gt; (<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">192.168.100.13:576</a> &lt;<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">http://192.168.100.13:576</a>&gt;<br>
&gt;     &lt;<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">http://192.168.100.13:576</a>&gt;) was formed. Members left: 2<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 corosync[2134]: notice  [TOTEM ] Failed to<br>
&gt;     receive<br>
&gt;     &gt;&gt; the leave message. failed: 2<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 corosync[2134]:  [TOTEM ] A new membership<br>
&gt;     &gt;&gt; (<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">192.168.100.13:576</a> &lt;<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">http://192.168.100.13:576</a>&gt;<br>
&gt;     &lt;<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">http://192.168.100.13:576</a>&gt;) was formed. Members left: 2<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 corosync[2134]:  [TOTEM ] Failed to receive the<br>
&gt;     &gt;&gt; leave message. failed: 2<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 attrd[2223]:   notice: crm_update_peer_proc:<br>
&gt;     Node<br>
&gt;     &gt;&gt; b014-cl[2] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 cib[2220]:   notice: crm_update_peer_proc: Node<br>
&gt;     &gt;&gt; b014-cl[2] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 cib[2220]:   notice: Removing b014-cl/2 from the<br>
&gt;     &gt;&gt; membership list<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 cib[2220]:   notice: Purged 1 peers with id=2<br>
&gt;     &gt;&gt; and/or uname=b014-cl from the membership cache<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 pacemakerd[2187]:   notice:<br>
&gt;     crm_reap_unseen_nodes:<br>
&gt;     &gt;&gt; Node b014-cl[2] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 attrd[2223]:   notice: Removing b014-cl/2<br>
&gt;     from the<br>
&gt;     &gt;&gt; membership list<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 attrd[2223]:   notice: Purged 1 peers with id=2<br>
&gt;     &gt;&gt; and/or uname=b014-cl from the membership cache<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 stonith-ng[2221]:   notice:<br>
&gt;     crm_update_peer_proc:<br>
&gt;     &gt;&gt; Node b014-cl[2] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 stonith-ng[2221]:   notice: Removing<br>
&gt;     b014-cl/2 from<br>
&gt;     &gt;&gt; the membership list<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 stonith-ng[2221]:   notice: Purged 1 peers with<br>
&gt;     &gt;&gt; id=2 and/or uname=b014-cl from the membership cache<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 dlm_controld[2727]: 3091 fence request 2 pid<br>
&gt;     19223<br>
&gt;     &gt;&gt; nodedown time 1490387717 fence_all dlm_stonith<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 kernel: [ 3091.800118] dlm: closing<br>
&gt;     connection to<br>
&gt;     &gt;&gt; node 2<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 crmd[2227]:   notice: crm_reap_unseen_nodes:<br>
&gt;     Node<br>
&gt;     &gt;&gt; b014-cl[2] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b013 dlm_stonith: stonith_api_time: Found 0<br>
&gt;     entries for<br>
&gt;     &gt;&gt; 2/(null): 0 in progress, 0 completed<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 stonith-ng[2221]:   notice: Operation reboot of<br>
&gt;     &gt;&gt; b014-cl by b015-cl for stonith-api.19223@b013-cl.<wbr>7aeb2ffb: OK<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 stonith-api[19223]: stonith_api_kick: Node<br>
&gt;     2/(null)<br>
&gt;     &gt;&gt; kicked: reboot<br>
&gt;<br>
&gt;     It looks like the fencing of b014-cl is reported as successful above ...<br>
&gt;<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 kernel: [ 3092.421495] dlm: closing connection to<br>
&gt;     &gt;&gt; node 3<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 kernel: [ 3092.422246] dlm: closing connection to<br>
&gt;     &gt;&gt; node 1<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 dlm_controld[2727]: 3092 abandoned lockspace share_data<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 dlm_controld[2727]: 3092 abandoned lockspace clvmd<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 kernel: [ 3092.426545] dlm: dlm user daemon left 2<br>
&gt;     &gt;&gt; lockspaces<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 systemd[1]: corosync.service: Main process exited,<br>
&gt;     &gt;&gt; code=exited, status=255/n/a<br>
&gt;<br>
&gt;     ... but then DLM and corosync exit on this node. Pacemaker can only<br>
&gt;     exit, and the node gets fenced.<br>
&gt;<br>
&gt;     What does your fencing configuration look like?<br>
&gt;<br>
&gt;<br>
&gt; This is the command I used. b013-cl, for example is a hosts file entry<br>
&gt; so that the cluster only uses the cluster-only network interface.<br>
&gt;<br>
&gt; pcs stonith create fence_wh fence_scsi<br>
&gt; debug=&quot;/var/log/cluster/fence-<wbr>debug.log&quot; vgs_path=&quot;/sbin/vgs&quot;<br>
&gt; sg_persist_path=&quot;/usr/bin/sg_<wbr>persist&quot; sg_turs_path=&quot;/usr/bin/sg_<wbr>turs&quot;<br>
&gt; pcmk_reboot_action=&quot;off&quot; pcmk_host_list=&quot;b013-cl b014-cl b015-cl&quot;<br>
&gt; pcmk_monitor_action=&quot;metadata&quot; meta provides=&quot;unfencing&quot; --force<br>
&gt;<br>
&gt; I got the pcmk_monitor_action, pcmk_hosts_list, pcmk_reboot_action, and<br>
&gt; --force from various redhat articles. I&#39;ve tried getting fencing to<br>
&gt; start without these, and it doesn&#39;t work.<br>
<br>
</div></div>It looks good to me. Not sure what&#39;s going wrong.<br>
<br>
The big question is why are DLM and corosync exiting after another node<br>
is fenced. Pacemaker is reacting properly once that happens.<br>
<div><div class="h5"><br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 cib[2220]:    error: Connection to the CPG API<br>
&gt;     &gt;&gt; failed: Library error (2)<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 systemd[1]: corosync.service: Unit entered<br>
&gt;     failed<br>
&gt;     &gt;&gt; state.<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 attrd[2223]:    error: Connection to cib_rw<br>
&gt;     failed<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 systemd[1]: corosync.service: Failed with result<br>
&gt;     &gt;&gt; &#39;exit-code&#39;.<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 attrd[2223]:    error: Connection to<br>
&gt;     &gt;&gt; cib_rw[0x560754147990] closed (I/O condition=17)<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 systemd[1]: pacemaker.service: Main process<br>
&gt;     exited,<br>
&gt;     &gt;&gt; code=exited, status=107/n/a<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 pacemakerd[2187]:    error: Connection to<br>
&gt;     the CPG<br>
&gt;     &gt;&gt; API failed: Library error (2)<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 systemd[1]: pacemaker.service: Unit entered<br>
&gt;     failed<br>
&gt;     &gt;&gt; state.<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 attrd[2223]:   notice: Disconnecting client<br>
&gt;     &gt;&gt; 0x560754149000, pid=2227...<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 systemd[1]: pacemaker.service: Failed with<br>
&gt;     result<br>
&gt;     &gt;&gt; &#39;exit-code&#39;.<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 lrmd[2222]:  warning: new_event_notification<br>
&gt;     &gt;&gt; (2222-2227-8): Bad file descriptor (9)<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 stonith-ng[2221]:    error: Connection to<br>
&gt;     cib_rw failed<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 stonith-ng[2221]:    error: Connection to<br>
&gt;     &gt;&gt; cib_rw[0x5579c03ecdd0] closed (I/O condition=17)<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 lrmd[2222]:    error: Connection to<br>
&gt;     stonith-ng failed<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b013 lrmd[2222]:    error: Connection to<br>
&gt;     &gt;&gt; stonith-ng[0x55888c8ef820] closed (I/O condition=17)<br>
&gt;     &gt;&gt; Mar 24 16:37:02 b013 kernel: [ 3196.469475] dlm: node 0: socket error<br>
&gt;     &gt;&gt; sending to node 2, port 21064, sk_err=113/113<br>
&gt;     &gt;&gt; Mar 24 16:37:02 b013 kernel: [ 3196.470675] dlm: node 0: socket error<br>
&gt;     &gt;&gt; sending to node 2, port 21064, sk_err=113/113<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.833544] INFO: task<br>
&gt;     gfs2_quotad:3054<br>
&gt;     &gt;&gt; blocked for more than 120 seconds.<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.834565]       Not tainted<br>
&gt;     &gt;&gt; 4.4.0-66-generic #87-Ubuntu<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.835413] &quot;echo 0 &gt;<br>
&gt;     &gt;&gt; /proc/sys/kernel/hung_task_<wbr>timeout_secs&quot; disables this message.<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836656] gfs2_quotad     D<br>
&gt;     &gt;&gt; ffff880fd747fa38     0  3054      2 0x00000000<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836663]  ffff880fd747fa38<br>
&gt;     &gt;&gt; 00000001d8144018 ffff880fd975f2c0 ffff880fd7a972c0<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836666]  ffff880fd7480000<br>
&gt;     &gt;&gt; ffff887fd81447b8 ffff887fd81447d0 ffff881fd7af00b0<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836669]  0000000000000004<br>
&gt;     &gt;&gt; ffff880fd747fa50 ffffffff818384d5 ffff880fd7a972c0<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836672] Call Trace:<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836688]  [&lt;ffffffff818384d5&gt;]<br>
&gt;     &gt;&gt; schedule+0x35/0x80<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836695]  [&lt;ffffffff8183b380&gt;]<br>
&gt;     &gt;&gt; rwsem_down_read_failed+0xe0/<wbr>0x140<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836701]  [&lt;ffffffff81406574&gt;]<br>
&gt;     &gt;&gt; call_rwsem_down_read_failed+<wbr>0x14/0x30<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836704]  [&lt;ffffffff8183a920&gt;] ?<br>
&gt;     &gt;&gt; down_read+0x20/0x30<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836726]  [&lt;ffffffffc0583324&gt;]<br>
&gt;     &gt;&gt; dlm_lock+0x84/0x1f0 [dlm]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836731]  [&lt;ffffffff810b57e3&gt;] ?<br>
&gt;     &gt;&gt; check_preempt_wakeup+0x193/<wbr>0x220<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836755]  [&lt;ffffffffc06a5da0&gt;] ?<br>
&gt;     &gt;&gt; gdlm_recovery_result+0x130/<wbr>0x130 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836764]  [&lt;ffffffffc06a5050&gt;] ?<br>
&gt;     &gt;&gt; gdlm_cancel+0x30/0x30 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836769]  [&lt;ffffffff810ab579&gt;] ?<br>
&gt;     &gt;&gt; ttwu_do_wakeup+0x19/0xe0<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836779]  [&lt;ffffffffc06a5499&gt;]<br>
&gt;     &gt;&gt; gdlm_lock+0x1d9/0x300 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836788]  [&lt;ffffffffc06a5050&gt;] ?<br>
&gt;     &gt;&gt; gdlm_cancel+0x30/0x30 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836798]  [&lt;ffffffffc06a5da0&gt;] ?<br>
&gt;     &gt;&gt; gdlm_recovery_result+0x130/<wbr>0x130 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836807]  [&lt;ffffffffc0686e5f&gt;]<br>
&gt;     &gt;&gt; do_xmote+0x16f/0x290 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836816]  [&lt;ffffffffc068705c&gt;]<br>
&gt;     &gt;&gt; run_queue+0xdc/0x2d0 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836824]  [&lt;ffffffffc06875ef&gt;]<br>
&gt;     &gt;&gt; gfs2_glock_nq+0x20f/0x410 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836834]  [&lt;ffffffffc06a2006&gt;]<br>
&gt;     &gt;&gt; gfs2_statfs_sync+0x76/0x1c0 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836841]  [&lt;ffffffff810ed018&gt;] ?<br>
&gt;     &gt;&gt; del_timer_sync+0x48/0x50<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836851]  [&lt;ffffffffc06a1ffc&gt;] ?<br>
&gt;     &gt;&gt; gfs2_statfs_sync+0x6c/0x1c0 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836861]  [&lt;ffffffffc0697fe3&gt;]<br>
&gt;     &gt;&gt; quotad_check_timeo.part.18+<wbr>0x23/0x80 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836871]  [&lt;ffffffffc069ad01&gt;]<br>
&gt;     &gt;&gt; gfs2_quotad+0x241/0x2d0 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836876]  [&lt;ffffffff810c41e0&gt;] ?<br>
&gt;     &gt;&gt; wake_atomic_t_function+0x60/<wbr>0x60<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836886]  [&lt;ffffffffc069aac0&gt;] ?<br>
&gt;     &gt;&gt; gfs2_wake_up_statfs+0x40/0x40 [gfs2]<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836890]  [&lt;ffffffff810a0ba8&gt;]<br>
&gt;     &gt;&gt; kthread+0xd8/0xf0<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836893]  [&lt;ffffffff810a0ad0&gt;] ?<br>
&gt;     &gt;&gt; kthread_create_on_node+0x1e0/<wbr>0x1e0<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836897]  [&lt;ffffffff8183c98f&gt;]<br>
&gt;     &gt;&gt; ret_from_fork+0x3f/0x70<br>
&gt;     &gt;&gt; Mar 24 16:37:46 b013 kernel: [ 3240.836900]  [&lt;ffffffff810a0ad0&gt;] ?<br>
&gt;     &gt;&gt; kthread_create_on_node+0x1e0/<wbr>0x1e0<br>
&gt;     &gt;&gt;<br>
&gt;     &gt;&gt; Logs from b015:<br>
&gt;     &gt;&gt; Mar 24 16:35:01 b015 CRON[19781]: (root) CMD (command -v debian-sa1 &gt;<br>
&gt;     &gt;&gt; /dev/null &amp;&amp; debian-sa1 1 1)<br>
&gt;     &gt;&gt; Mar 24 16:35:13 b015 corosync[2105]: notice  [TOTEM ] A processor<br>
&gt;     &gt;&gt; failed, forming new configuration.<br>
&gt;     &gt;&gt; Mar 24 16:35:13 b015 corosync[2105]:  [TOTEM ] A processor failed,<br>
&gt;     &gt;&gt; forming new configuration.<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 corosync[2105]: notice  [TOTEM ] A new<br>
&gt;     membership<br>
&gt;     &gt;&gt; (<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">192.168.100.13:576</a> &lt;<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">http://192.168.100.13:576</a>&gt;<br>
&gt;     &lt;<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">http://192.168.100.13:576</a>&gt;) was formed. Members left: 2<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 corosync[2105]: notice  [TOTEM ] Failed to<br>
&gt;     receive<br>
&gt;     &gt;&gt; the leave message. failed: 2<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 corosync[2105]:  [TOTEM ] A new membership<br>
&gt;     &gt;&gt; (<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">192.168.100.13:576</a> &lt;<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">http://192.168.100.13:576</a>&gt;<br>
&gt;     &lt;<a href="http://192.168.100.13:576" rel="noreferrer" target="_blank">http://192.168.100.13:576</a>&gt;) was formed. Members left: 2<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 corosync[2105]:  [TOTEM ] Failed to receive the<br>
&gt;     &gt;&gt; leave message. failed: 2<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 attrd[2253]:   notice: crm_update_peer_proc:<br>
&gt;     Node<br>
&gt;     &gt;&gt; b014-cl[2] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 attrd[2253]:   notice: Removing b014-cl/2<br>
&gt;     from the<br>
&gt;     &gt;&gt; membership list<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 attrd[2253]:   notice: Purged 1 peers with id=2<br>
&gt;     &gt;&gt; and/or uname=b014-cl from the membership cache<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 stonith-ng[2251]:   notice:<br>
&gt;     crm_update_peer_proc:<br>
&gt;     &gt;&gt; Node b014-cl[2] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 stonith-ng[2251]:   notice: Removing<br>
&gt;     b014-cl/2 from<br>
&gt;     &gt;&gt; the membership list<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 cib[2249]:   notice: crm_update_peer_proc: Node<br>
&gt;     &gt;&gt; b014-cl[2] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 crmd[2255]:   notice: State transition S_IDLE -&gt;<br>
&gt;     &gt;&gt; S_POLICY_ENGINE [ input=I_PE_CALC cause=C_FSA_INTERNAL<br>
&gt;     &gt;&gt; origin=abort_transition_graph ]<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 kernel: [ 3478.622093] dlm: closing<br>
&gt;     connection to<br>
&gt;     &gt;&gt; node 2<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 stonith-ng[2251]:   notice: Purged 1 peers with<br>
&gt;     &gt;&gt; id=2 and/or uname=b014-cl from the membership cache<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 cib[2249]:   notice: Removing b014-cl/2 from the<br>
&gt;     &gt;&gt; membership list<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 cib[2249]:   notice: Purged 1 peers with id=2<br>
&gt;     &gt;&gt; and/or uname=b014-cl from the membership cache<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 crmd[2255]:   notice: crm_reap_unseen_nodes:<br>
&gt;     Node<br>
&gt;     &gt;&gt; b014-cl[2] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:17 b015 pacemakerd[2159]:   notice:<br>
&gt;     crm_reap_unseen_nodes:<br>
&gt;     &gt;&gt; Node b014-cl[2] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 systemd[1]:<br>
&gt;     &gt;&gt;<br>
&gt;     dev-disk-by\x2did-scsi\<wbr>x2d36782bcb0007085a70000081958<wbr>aee1ff.device: Dev<br>
&gt;     &gt;&gt; dev-disk-by\x2did-scsi\<wbr>x2d36782bcb0007085a70000081958<wbr>aee1ff.device<br>
&gt;     &gt;&gt; appeared twice with different sysfs paths<br>
&gt;     &gt;&gt;<br>
&gt;     /sys/devices/pci0000:00/0000:<wbr>00:03.0/0000:08:00.0/host7/<wbr>port-7:0/end_device-7:0/<wbr>target7:0:0/7:0:0:0/block/sdc<br>
&gt;     &gt;&gt; and /sys/devices/virtual/block/dm-<wbr>0<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 systemd[1]:<br>
&gt;     &gt;&gt;<br>
&gt;     dev-disk-by\x2did-wwn\<wbr>x2d0x6782bcb0007085a7000008195<wbr>8aee1ff.device: Dev<br>
&gt;     &gt;&gt; dev-disk-by\x2did-wwn\<wbr>x2d0x6782bcb0007085a7000008195<wbr>8aee1ff.device<br>
&gt;     &gt;&gt; appeared twice with different sysfs paths<br>
&gt;     &gt;&gt;<br>
&gt;     /sys/devices/pci0000:00/0000:<wbr>00:03.0/0000:08:00.0/host7/<wbr>port-7:0/end_device-7:0/<wbr>target7:0:0/7:0:0:0/block/sdc<br>
&gt;     &gt;&gt; and /sys/devices/virtual/block/dm-<wbr>0<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 systemd[1]:<br>
&gt;     &gt;&gt;<br>
&gt;     dev-disk-by\x2did-scsi\<wbr>x2d36782bcb0007085a70000081958<wbr>aee1ff.device: Dev<br>
&gt;     &gt;&gt; dev-disk-by\x2did-scsi\<wbr>x2d36782bcb0007085a70000081958<wbr>aee1ff.device<br>
&gt;     &gt;&gt; appeared twice with different sysfs paths<br>
&gt;     &gt;&gt;<br>
&gt;     /sys/devices/pci0000:00/0000:<wbr>00:03.0/0000:08:00.0/host7/<wbr>port-7:0/end_device-7:0/<wbr>target7:0:0/7:0:0:0/block/sdc<br>
&gt;     &gt;&gt; and /sys/devices/virtual/block/dm-<wbr>0<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 systemd[1]:<br>
&gt;     &gt;&gt;<br>
&gt;     dev-disk-by\x2did-wwn\<wbr>x2d0x6782bcb0007085a7000008195<wbr>8aee1ff.device: Dev<br>
&gt;     &gt;&gt; dev-disk-by\x2did-wwn\<wbr>x2d0x6782bcb0007085a7000008195<wbr>8aee1ff.device<br>
&gt;     &gt;&gt; appeared twice with different sysfs paths<br>
&gt;     &gt;&gt;<br>
&gt;     /sys/devices/pci0000:00/0000:<wbr>00:03.0/0000:08:00.0/host7/<wbr>port-7:0/end_device-7:0/<wbr>target7:0:0/7:0:0:0/block/sdc<br>
&gt;     &gt;&gt; and /sys/devices/virtual/block/dm-<wbr>0<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 stonith-ng[2251]:  warning: fence_scsi[19818]<br>
&gt;     &gt;&gt; stderr: [ WARNING:root:Parse error: Ignoring unknown option<br>
&gt;     &#39;port=b014-cl&#39; ]<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 stonith-ng[2251]:  warning: fence_scsi[19818]<br>
&gt;     &gt;&gt; stderr: [  ]<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 stonith-ng[2251]:   notice: Operation &#39;reboot&#39;<br>
&gt;     &gt;&gt; [19818] (call 2 from stonith-api.19223) for host &#39;b014-cl&#39; with<br>
&gt;     device<br>
&gt;     &gt;&gt; &#39;fence_wh&#39; returned: 0 (OK)<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 stonith-ng[2251]:   notice: Operation reboot of<br>
&gt;     &gt;&gt; b014-cl by b015-cl for stonith-api.19223@b013-cl.<wbr>7aeb2ffb: OK<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 dlm_controld[2656]: 3479 fence request 2 pid<br>
&gt;     19880<br>
&gt;     &gt;&gt; nodedown time 1490387717 fence_all dlm_stonith<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 dlm_controld[2656]: 3479 tell corosync to remove<br>
&gt;     &gt;&gt; nodeid 1 from cluster<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 systemd[1]:<br>
&gt;     &gt;&gt;<br>
&gt;     dev-disk-by\x2did-scsi\<wbr>x2d36782bcb0007085a70000081958<wbr>aee1ff.device: Dev<br>
&gt;     &gt;&gt; dev-disk-by\x2did-scsi\<wbr>x2d36782bcb0007085a70000081958<wbr>aee1ff.device<br>
&gt;     &gt;&gt; appeared twice with different sysfs paths<br>
&gt;     &gt;&gt;<br>
&gt;     /sys/devices/pci0000:00/0000:<wbr>00:03.0/0000:08:00.0/host7/<wbr>port-7:0/end_device-7:0/<wbr>target7:0:0/7:0:0:0/block/sdc<br>
&gt;     &gt;&gt; and /sys/devices/virtual/block/dm-<wbr>0<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 systemd[1]:<br>
&gt;     &gt;&gt;<br>
&gt;     dev-disk-by\x2did-wwn\<wbr>x2d0x6782bcb0007085a7000008195<wbr>8aee1ff.device: Dev<br>
&gt;     &gt;&gt; dev-disk-by\x2did-wwn\<wbr>x2d0x6782bcb0007085a7000008195<wbr>8aee1ff.device<br>
&gt;     &gt;&gt; appeared twice with different sysfs paths<br>
&gt;     &gt;&gt;<br>
&gt;     /sys/devices/pci0000:00/0000:<wbr>00:03.0/0000:08:00.0/host7/<wbr>port-7:0/end_device-7:0/<wbr>target7:0:0/7:0:0:0/block/sdc<br>
&gt;     &gt;&gt; and /sys/devices/virtual/block/dm-<wbr>0<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 dlm_controld[2656]: 3479 tell corosync to remove<br>
&gt;     &gt;&gt; nodeid 1 from cluster<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 dlm_stonith: stonith_api_time: Found 2<br>
&gt;     entries for<br>
&gt;     &gt;&gt; 2/(null): 0 in progress, 2 completed<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 dlm_stonith: stonith_api_time: Node 2/(null)<br>
&gt;     last<br>
&gt;     &gt;&gt; kicked at: 1490387718<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 kernel: [ 3479.266118] dlm: closing<br>
&gt;     connection to<br>
&gt;     &gt;&gt; node 1<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 kernel: [ 3479.266270] dlm: closing<br>
&gt;     connection to<br>
&gt;     &gt;&gt; node 3<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 dlm_controld[2656]: 3479 abandoned lockspace<br>
&gt;     share_data<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 dlm_controld[2656]: 3479 abandoned lockspace<br>
&gt;     clvmd<br>
&gt;     &gt;&gt; Mar 24 16:35:18 b015 kernel: [ 3479.268325] dlm: dlm user daemon<br>
&gt;     left 2<br>
&gt;     &gt;&gt; lockspaces<br>
&gt;     &gt;&gt; Mar 24 16:35:21 b015 corosync[2105]: notice  [TOTEM ] A processor<br>
&gt;     &gt;&gt; failed, forming new configuration.<br>
&gt;     &gt;&gt; Mar 24 16:35:21 b015 corosync[2105]:  [TOTEM ] A processor failed,<br>
&gt;     &gt;&gt; forming new configuration.<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 corosync[2105]: notice  [TOTEM ] A new<br>
&gt;     membership<br>
&gt;     &gt;&gt; (<a href="http://192.168.100.15:580" rel="noreferrer" target="_blank">192.168.100.15:580</a> &lt;<a href="http://192.168.100.15:580" rel="noreferrer" target="_blank">http://192.168.100.15:580</a>&gt;<br>
&gt;     &lt;<a href="http://192.168.100.15:580" rel="noreferrer" target="_blank">http://192.168.100.15:580</a>&gt;) was formed. Members left: 1<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 corosync[2105]: notice  [TOTEM ] Failed to<br>
&gt;     receive<br>
&gt;     &gt;&gt; the leave message. failed: 1<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 corosync[2105]:  [TOTEM ] A new membership<br>
&gt;     &gt;&gt; (<a href="http://192.168.100.15:580" rel="noreferrer" target="_blank">192.168.100.15:580</a> &lt;<a href="http://192.168.100.15:580" rel="noreferrer" target="_blank">http://192.168.100.15:580</a>&gt;<br>
&gt;     &lt;<a href="http://192.168.100.15:580" rel="noreferrer" target="_blank">http://192.168.100.15:580</a>&gt;) was formed. Members left: 1<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 corosync[2105]:  [TOTEM ] Failed to receive the<br>
&gt;     &gt;&gt; leave message. failed: 1<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 attrd[2253]:   notice: crm_update_peer_proc:<br>
&gt;     Node<br>
&gt;     &gt;&gt; b013-cl[1] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 attrd[2253]:   notice: Removing b013-cl/1<br>
&gt;     from the<br>
&gt;     &gt;&gt; membership list<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 stonith-ng[2251]:   notice:<br>
&gt;     crm_update_peer_proc:<br>
&gt;     &gt;&gt; Node b013-cl[1] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 attrd[2253]:   notice: Purged 1 peers with id=1<br>
&gt;     &gt;&gt; and/or uname=b013-cl from the membership cache<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 stonith-ng[2251]:   notice: Removing<br>
&gt;     b013-cl/1 from<br>
&gt;     &gt;&gt; the membership list<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pacemakerd[2159]:   notice: Membership 580:<br>
&gt;     quorum<br>
&gt;     &gt;&gt; lost (1)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 cib[2249]:   notice: crm_update_peer_proc: Node<br>
&gt;     &gt;&gt; b013-cl[1] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 stonith-ng[2251]:   notice: Purged 1 peers with<br>
&gt;     &gt;&gt; id=1 and/or uname=b013-cl from the membership cache<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pacemakerd[2159]:   notice:<br>
&gt;     crm_reap_unseen_nodes:<br>
&gt;     &gt;&gt; Node b013-cl[1] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 cib[2249]:   notice: Removing b013-cl/1 from the<br>
&gt;     &gt;&gt; membership list<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 cib[2249]:   notice: Purged 1 peers with id=1<br>
&gt;     &gt;&gt; and/or uname=b013-cl from the membership cache<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 crmd[2255]:   notice: Membership 580: quorum<br>
&gt;     lost (1)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 crmd[2255]:   notice: crm_reap_unseen_nodes:<br>
&gt;     Node<br>
&gt;     &gt;&gt; b013-cl[1] - state is now lost (was member)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:   notice: We do not have quorum -<br>
&gt;     &gt;&gt; fencing and resource management disabled<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:  warning: Node b013-cl is unclean<br>
&gt;     &gt;&gt; because the node is no longer part of the cluster<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:  warning: Node b013-cl is unclean<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:  warning: Action dlm:1_stop_0 on<br>
&gt;     &gt;&gt; b013-cl is unrunnable (offline)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:  warning: Action dlm:1_stop_0 on<br>
&gt;     &gt;&gt; b013-cl is unrunnable (offline)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:  warning: Action<br>
&gt;     clvmd:1_stop_0 on<br>
&gt;     &gt;&gt; b013-cl is unrunnable (offline)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:  warning: Action<br>
&gt;     clvmd:1_stop_0 on<br>
&gt;     &gt;&gt; b013-cl is unrunnable (offline)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:  warning: Action<br>
&gt;     gfs2share:1_stop_0<br>
&gt;     &gt;&gt; on b013-cl is unrunnable (offline)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:  warning: Action<br>
&gt;     gfs2share:1_stop_0<br>
&gt;     &gt;&gt; on b013-cl is unrunnable (offline)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:  warning: Node b013-cl is<br>
&gt;     unclean!<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:   notice: Cannot fence<br>
&gt;     unclean nodes<br>
&gt;     &gt;&gt; until quorum is attained (or no-quorum-policy is set to ignore)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:   notice: Start<br>
&gt;     &gt;&gt; fence_wh#011(b015-cl - blocked)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:   notice: Stop<br>
&gt;     dlm:1#011(b013-cl<br>
&gt;     &gt;&gt; - blocked)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:   notice: Stop<br>
&gt;     &gt;&gt;  clvmd:1#011(b013-cl - blocked)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:   notice: Stop<br>
&gt;     &gt;&gt;  gfs2share:1#011(b013-cl - blocked)<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 pengine[2254]:  warning: Calculated<br>
&gt;     Transition 9:<br>
&gt;     &gt;&gt; /var/lib/pacemaker/pengine/pe-<wbr>warn-2669.bz2<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 crmd[2255]:   notice: Transition 9 (Complete=6,<br>
&gt;     &gt;&gt; Pending=0, Fired=0, Skipped=0, Incomplete=0,<br>
&gt;     &gt;&gt; Source=/var/lib/pacemaker/<wbr>pengine/pe-warn-2669.bz2): Complete<br>
&gt;     &gt;&gt; Mar 24 16:35:26 b015 crmd[2255]:   notice: State transition<br>
&gt;     &gt;&gt; S_TRANSITION_ENGINE -&gt; S_IDLE [ input=I_TE_SUCCESS<br>
&gt;     cause=C_FSA_INTERNAL<br>
&gt;     &gt;&gt; origin=notify_crmd ]<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 controld(dlm)[20000]: ERROR: Uncontrolled<br>
&gt;     lockspace<br>
&gt;     &gt;&gt; exists, system must reboot. Executing suicide fencing<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 fence_scsi: Failed: keys cannot be same. You can<br>
&gt;     &gt;&gt; not fence yourself.<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 fence_scsi: Please use &#39;-h&#39; for usage<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 stonith-ng[2251]:  warning: fence_scsi[20020]<br>
&gt;     &gt;&gt; stderr: [ WARNING:root:Parse error: Ignoring unknown option<br>
&gt;     &#39;port=b015-cl&#39; ]<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 stonith-ng[2251]:  warning: fence_scsi[20020]<br>
&gt;     &gt;&gt; stderr: [  ]<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 stonith-ng[2251]:  warning: fence_scsi[20020]<br>
&gt;     &gt;&gt; stderr: [ ERROR:root:Failed: keys cannot be same. You can not fence<br>
&gt;     &gt;&gt; yourself. ]<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 stonith-ng[2251]:  warning: fence_scsi[20020]<br>
&gt;     &gt;&gt; stderr: [  ]<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 stonith-ng[2251]:  warning: fence_scsi[20020]<br>
&gt;     &gt;&gt; stderr: [ Failed: keys cannot be same. You can not fence yourself. ]<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 stonith-ng[2251]:  warning: fence_scsi[20020]<br>
&gt;     &gt;&gt; stderr: [  ]<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 stonith-ng[2251]:  warning: fence_scsi[20020]<br>
&gt;     &gt;&gt; stderr: [ ERROR:root:Please use &#39;-h&#39; for usage ]<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 stonith-ng[2251]:  warning: fence_scsi[20020]<br>
&gt;     &gt;&gt; stderr: [  ]<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 stonith-ng[2251]:  warning: fence_scsi[20020]<br>
&gt;     &gt;&gt; stderr: [ Please use &#39;-h&#39; for usage ]<br>
&gt;     &gt;&gt; Mar 24 16:35:31 b015 stonith-ng[2251]:  warning: fence_scsi[20020]<br>
&gt;     &gt;&gt; stderr: [  ]<br>
&gt;     &gt;&gt;<br>
&gt;     &gt;&gt;<br>
&gt;     &gt;&gt;<br>
&gt;     &gt;&gt; Software versions:<br>
&gt;     &gt;&gt; corosync                           2.3.5-3ubuntu1<br>
&gt;     &gt;&gt; pacemaker-common         1.1.14-2ubuntu1.1<br>
&gt;     &gt;&gt; pcs                                    0.9.149-1ubuntu1<br>
&gt;     &gt;&gt; libqb0:amd64                    1.0-1ubuntu1<br>
&gt;     &gt;&gt; gfs2-utils                            3.1.6-0ubuntu3<br>
&gt;     &gt;&gt;<br>
&gt;     &gt;&gt;<br>
&gt;     &gt;&gt; -------<br>
&gt;     &gt;&gt; Seth Reid<br>
&gt;     &gt;&gt; System Operations Engineer<br>
&gt;     &gt;&gt; Vendini, Inc.<br>
&gt;     &gt;&gt; 415.349.7736<br>
&gt;     &gt;&gt; <a href="mailto:sreid@vendini.com">sreid@vendini.com</a> &lt;mailto:<a href="mailto:sreid@vendini.com">sreid@vendini.com</a>&gt;<br>
</div></div>&gt;     &lt;mailto:<a href="mailto:sreid@vendini.com">sreid@vendini.com</a> &lt;mailto:<a href="mailto:sreid@vendini.com">sreid@vendini.com</a>&gt;&gt;<br>
&gt;     &gt;&gt; <a href="http://www.vendini.com" rel="noreferrer" target="_blank">www.vendini.com</a> &lt;<a href="http://www.vendini.com" rel="noreferrer" target="_blank">http://www.vendini.com</a>&gt; &lt;<a href="http://www.vendini.com" rel="noreferrer" target="_blank">http://www.vendini.com</a>&gt;<br>
</blockquote></div><br></div>