<div dir="ltr"><div><div>On 06/09/2017 07:43 AM, ashutosh tiwari wrote:</div><div>&gt; Hi,</div><div>&gt;</div><div>&gt; We have two node cluster(ACTIVE/STANDBY).</div><div>&gt; Recently we moved these nodes to KVM.</div><div>&gt;</div><div>&gt; When we create a private virtual network and use this vnet for</div><div>&gt; assigning cluster interfaces then things work as expected and both the</div><div>&gt; nodes are able to form the cluster.</div><div>&gt;</div><div>&gt; Nodes are not able to form cluster when we use macvtap(bridge)</div><div>&gt; interfaces for cluster.</div><div>&gt;</div><div>&gt; came across this:</div><div>&gt;</div><div>&gt; <a href="https://github.com/vagrant-libvirt/vagrant-libvirt/issues/650">https://github.com/vagrant-libvirt/vagrant-libvirt/issues/650</a></div><div>&gt; &lt;<a href="https://github.com/vagrant-libvirt/vagrant-libvirt/issues/650">https://github.com/vagrant-libvirt/vagrant-libvirt/issues/650</a>&gt;</div><div>&gt;</div><div><br></div><div>Seems to deal with multicast-issues...</div><div>Wouldn&#39;t using corosync with unicast be a possibility?</div><div><br></div><div>Regards,</div><div>Klaus</div></div><div><br></div><div><br></div>&gt;&gt;&gt;Hi Klaus,<div><br></div><div>&gt;&gt;&gt;Once sure that it can not be achieved with multicast, probably we can look at using unicast for corosync communication.<br><br></div><div>&gt;&gt;&gt;Regards,</div><div>&gt;&gt;&gt;Ashutosh </div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jun 9, 2017 at 3:30 PM,  <span dir="ltr">&lt;<a href="mailto:users-request@clusterlabs.org" target="_blank">users-request@clusterlabs.org</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Send Users mailing list submissions to<br>
        <a href="mailto:users@clusterlabs.org">users@clusterlabs.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
or, via email, send a message with subject or body &#39;help&#39; to<br>
        <a href="mailto:users-request@clusterlabs.org">users-request@clusterlabs.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:users-owner@clusterlabs.org">users-owner@clusterlabs.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than &quot;Re: Contents of Users digest...&quot;<br>
<br>
<br>
Today&#39;s Topics:<br>
<br>
   1. Re: Node attribute disappears when pacemaker is   started<br>
      (Ken Gaillot)<br>
   2. Re: IPMI and APC switched PDUs fencing agents<br>
      (Jean-Francois Malouin)<br>
   3. cluster setup for nodes at KVM guest (ashutosh tiwari)<br>
   4. Re: cluster setup for nodes at KVM guest (Klaus Wenninger)<br>
<br>
<br>
------------------------------<wbr>------------------------------<wbr>----------<br>
<br>
Message: 1<br>
Date: Thu, 8 Jun 2017 09:42:53 -0500<br>
From: Ken Gaillot &lt;<a href="mailto:kgaillot@redhat.com">kgaillot@redhat.com</a>&gt;<br>
To: <a href="mailto:users@clusterlabs.org">users@clusterlabs.org</a><br>
Subject: Re: [ClusterLabs] Node attribute disappears when pacemaker is<br>
        started<br>
Message-ID: &lt;<a href="mailto:5db7ebbe-be2a-c626-932e-27b56969b045@redhat.com">5db7ebbe-be2a-c626-932e-<wbr>27b56969b045@redhat.com</a>&gt;<br>
Content-Type: text/plain; charset=utf-8<br>
<br>
Hi,<br>
<br>
Looking at the incident around May 26 16:40:00, here is what happens:<br>
<br>
You are setting the attribute for rhel73-2 from rhel73-1, while rhel73-2<br>
is not part of cluster from rhel73-1&#39;s point of view.<br>
<br>
The crm shell sets the node attribute for rhel73-2 with a CIB<br>
modification that starts like this:<br>
<br>
++ /cib/configuration/nodes:  &lt;node uname=&quot;rhel73-2&quot; id=&quot;rhel73-2&quot;/&gt;<br>
<br>
Note that the node ID is the same as its name. The CIB accepts the<br>
change (because you might be adding the proper node later). The crmd<br>
knows that this is not currently valid:<br>
<br>
May 26 16:39:39 rhel73-1 crmd[2908]:   error: Invalid node id: rhel73-2<br>
<br>
When rhel73-2 joins the cluster, rhel73-1 learns its node ID, and it<br>
removes the existing (invalid) rhel73-2 entry, including its attributes,<br>
because it assumes that the entry is for an older node that has been<br>
removed.<br>
<br>
I believe attributes can be set for a node that&#39;s not in the cluster<br>
only if the node IDs are specified explicitly in corosync.conf.<br>
<br>
You may want to mention the issue to the crm shell developers. It should<br>
probably at least warn if the node isn&#39;t known.<br>
<br>
<br>
On 05/31/2017 09:35 PM, ?? ?? wrote:<br>
&gt; Hi Ken,<br>
&gt;<br>
&gt; I&#39;m sorry. Attachment size was too large.<br>
&gt; I attached it to GitHub, so look at it.<br>
&gt; <a href="https://github.com/inouekazu/pcmk_report/blob/master/pcmk-Fri-26-May-2017.tar.bz2" rel="noreferrer" target="_blank">https://github.com/inouekazu/<wbr>pcmk_report/blob/master/pcmk-<wbr>Fri-26-May-2017.tar.bz2</a><br>
&gt;<br>
&gt;&gt; -----Original Message-----<br>
&gt;&gt; From: Ken Gaillot [mailto:<a href="mailto:kgaillot@redhat.com">kgaillot@redhat.com</a>]<br>
&gt;&gt; Sent: Thursday, June 01, 2017 8:43 AM<br>
&gt;&gt; To: <a href="mailto:users@clusterlabs.org">users@clusterlabs.org</a><br>
&gt;&gt; Subject: Re: [ClusterLabs] Node attribute disappears when pacemaker is started<br>
&gt;&gt;<br>
&gt;&gt; On 05/26/2017 03:21 AM, ?? ?? wrote:<br>
&gt;&gt;&gt; Hi Ken,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; I got crm_report.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Regards,<br>
&gt;&gt;&gt; Kazunori INOUE<br>
&gt;&gt;<br>
&gt;&gt; I don&#39;t think it attached -- my mail client says it&#39;s 0 bytes.<br>
&gt;&gt;<br>
&gt;&gt;&gt;&gt; -----Original Message-----<br>
&gt;&gt;&gt;&gt; From: Ken Gaillot [mailto:<a href="mailto:kgaillot@redhat.com">kgaillot@redhat.com</a>]<br>
&gt;&gt;&gt;&gt; Sent: Friday, May 26, 2017 4:23 AM<br>
&gt;&gt;&gt;&gt; To: <a href="mailto:users@clusterlabs.org">users@clusterlabs.org</a><br>
&gt;&gt;&gt;&gt; Subject: Re: [ClusterLabs] Node attribute disappears when pacemaker is started<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; On 05/24/2017 05:13 AM, ?? ?? wrote:<br>
&gt;&gt;&gt;&gt;&gt; Hi,<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; After loading the node attribute, when I start pacemaker of that node, the attribute disappears.<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; 1. Start pacemaker on node1.<br>
&gt;&gt;&gt;&gt;&gt; 2. Load configure containing node attribute of node2.<br>
&gt;&gt;&gt;&gt;&gt;    (I use multicast addresses in corosync, so did not set &quot;nodelist {nodeid: }&quot; in corosync.conf.)<br>
&gt;&gt;&gt;&gt;&gt; 3. Start pacemaker on node2, the node attribute that should have been load disappears.<br>
&gt;&gt;&gt;&gt;&gt;    Is this specifications ?<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Hi,<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; No, this should not happen for a permanent node attribute.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Transient node attributes (status-attr in crm shell) are erased when the<br>
&gt;&gt;&gt;&gt; node starts, so it would be expected in that case.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; I haven&#39;t been able to reproduce this with a permanent node attribute.<br>
&gt;&gt;&gt;&gt; Can you attach logs from both nodes around the time node2 is started?<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; 1.<br>
&gt;&gt;&gt;&gt;&gt; [root@rhel73-1 ~]# systemctl start corosync;systemctl start pacemaker<br>
&gt;&gt;&gt;&gt;&gt; [root@rhel73-1 ~]# crm configure show<br>
&gt;&gt;&gt;&gt;&gt; node 3232261507: rhel73-1<br>
&gt;&gt;&gt;&gt;&gt; property cib-bootstrap-options: \<br>
&gt;&gt;&gt;&gt;&gt;   have-watchdog=false \<br>
&gt;&gt;&gt;&gt;&gt;   dc-version=1.1.17-0.1.rc2.el7-<wbr>524251c \<br>
&gt;&gt;&gt;&gt;&gt;   cluster-infrastructure=<wbr>corosync<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; 2.<br>
&gt;&gt;&gt;&gt;&gt; [root@rhel73-1 ~]# cat rhel73-2.crm<br>
&gt;&gt;&gt;&gt;&gt; node rhel73-2 \<br>
&gt;&gt;&gt;&gt;&gt;   utilization capacity=&quot;2&quot; \<br>
&gt;&gt;&gt;&gt;&gt;   attributes attrname=&quot;attr2&quot;<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; [root@rhel73-1 ~]# crm configure load update rhel73-2.crm<br>
&gt;&gt;&gt;&gt;&gt; [root@rhel73-1 ~]# crm configure show<br>
&gt;&gt;&gt;&gt;&gt; node 3232261507: rhel73-1<br>
&gt;&gt;&gt;&gt;&gt; node rhel73-2 \<br>
&gt;&gt;&gt;&gt;&gt;   utilization capacity=2 \<br>
&gt;&gt;&gt;&gt;&gt;   attributes attrname=attr2<br>
&gt;&gt;&gt;&gt;&gt; property cib-bootstrap-options: \<br>
&gt;&gt;&gt;&gt;&gt;   have-watchdog=false \<br>
&gt;&gt;&gt;&gt;&gt;   dc-version=1.1.17-0.1.rc2.el7-<wbr>524251c \<br>
&gt;&gt;&gt;&gt;&gt;   cluster-infrastructure=<wbr>corosync<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; 3.<br>
&gt;&gt;&gt;&gt;&gt; [root@rhel73-1 ~]# ssh rhel73-2 &#39;systemctl start corosync;systemctl start pacemaker&#39;<br>
&gt;&gt;&gt;&gt;&gt; [root@rhel73-1 ~]# crm configure show<br>
&gt;&gt;&gt;&gt;&gt; node 3232261507: rhel73-1<br>
&gt;&gt;&gt;&gt;&gt; node 3232261508: rhel73-2<br>
&gt;&gt;&gt;&gt;&gt; property cib-bootstrap-options: \<br>
&gt;&gt;&gt;&gt;&gt;   have-watchdog=false \<br>
&gt;&gt;&gt;&gt;&gt;   dc-version=1.1.17-0.1.rc2.el7-<wbr>524251c \<br>
&gt;&gt;&gt;&gt;&gt;   cluster-infrastructure=<wbr>corosync<br>
&gt;&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;&gt; Regards,<br>
&gt;&gt;&gt;&gt;&gt; Kazunori INOUE<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Thu, 8 Jun 2017 16:40:59 -0400<br>
From: Jean-Francois Malouin &lt;<a href="mailto:Jean-Francois.Malouin@bic.mni.mcgill.ca">Jean-Francois.Malouin@bic.<wbr>mni.mcgill.ca</a>&gt;<br>
To: Cluster Labs - All topics related to open-source clustering<br>
        welcomed        &lt;<a href="mailto:users@clusterlabs.org">users@clusterlabs.org</a>&gt;<br>
Subject: Re: [ClusterLabs] IPMI and APC switched PDUs fencing agents<br>
Message-ID: &lt;<a href="mailto:20170608204059.GC11019@bic.mni.mcgill.ca">20170608204059.GC11019@bic.<wbr>mni.mcgill.ca</a>&gt;<br>
Content-Type: text/plain; charset=us-ascii<br>
<br>
* Jean-Francois Malouin &lt;<a href="mailto:Jean-Francois.Malouin@bic.mni.mcgill.ca">Jean-Francois.Malouin@bic.<wbr>mni.mcgill.ca</a>&gt; [20170607 13:09]:<br>
&gt; Hi,<br>
<br>
..snip...<br>
<br>
&gt; I&#39;m having some difficulties understanding the fencing_topology syntax.<br>
&gt; Making the changes adapted for my local configuration I get the error<br>
&gt; when trying to add the fence topology:<br>
&gt;<br>
&gt; ~# crm configure fencing_topology antonio: fence_antonio_ipmi fence_antonio_psu1_off,fence_<wbr>antonio_psu2_off,fence_<wbr>antonio_psu1_on,fence_antonio_<wbr>psu2_on \<br>
&gt; leonato: fence_leonato_ipmi fence_leonato_psu1_off,fence_<wbr>leonato_psu2_off,fence_<wbr>leonato_psu1_on,fence_leonato_<wbr>psu2_on<br>
&gt; WARNING: fencing_topology: target antonio not a node<br>
&gt; WARNING: fencing_topology: target antonio not a node<br>
&gt; WARNING: fencing_topology: target leonato not a node<br>
&gt; WARNING: fencing_topology: target leonato not a node<br>
<br>
In retrospect I should have used the long (fqdn) of the nodes rather<br>
than the short names, which as reportd, are not node names.<br>
<br>
&gt; What should I use for the &lt;node&gt; in:<br>
&gt;<br>
&gt; fencing_topology &lt;stonith_resources&gt; [&lt;stonith_resources&gt; ...]<br>
&gt; fencing_topology &lt;fencing_order&gt; [&lt;fencing_order&gt; ...]<br>
&gt;<br>
&gt; fencing_order :: &lt;target&gt; &lt;stonith_resources&gt; [&lt;stonith_resources&gt; ...]<br>
&gt;<br>
&gt; stonith_resources :: &lt;rsc&gt;[,&lt;rsc&gt;...]<br>
&gt; target :: &lt;node&gt;: | attr:&lt;node-attribute&gt;=&lt;value&gt;<br>
<br>
I tried to use the node names (fqdn) when adding the fence_topology<br>
resource to the cib but I always got an error from crm telling me of an<br>
invalid DTD/schema. In the end I had to add a &#39;dummy&#39; attributes to each<br>
nodes (dummy=&lt;node_name&gt;) and use them to create the fence levels, as<br>
in:<br>
<br>
    crm configure fencing_topology \<br>
    attr:dummy=node1 fence_node1_ipmi fence_node1_psu1_off,fence_<wbr>node1_psu2_off,fence_node1_<wbr>psu1_on,fence_node1_psu2_on \<br>
    attr:dummy=node2 fence_node2_ipmi fence_node2_psu1_off,fence_<wbr>node2_psu2_off,fence_node2_<wbr>psu1_on,fence_node2_psu2_on<br>
<br>
Is this the expected behaviour?<br>
<br>
Thanks,<br>
jf<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Fri, 9 Jun 2017 11:13:36 +0530<br>
From: ashutosh tiwari &lt;<a href="mailto:ashutosh.kvas@gmail.com">ashutosh.kvas@gmail.com</a>&gt;<br>
To: <a href="mailto:users@clusterlabs.org">users@clusterlabs.org</a><br>
Subject: [ClusterLabs] cluster setup for nodes at KVM guest<br>
Message-ID:<br>
        &lt;<a href="mailto:CA%2BvEgjj1a7gKYReY-YcFootNHmkAzGJf_3XHxJehW2S0vMrgaA@mail.gmail.com">CA+vEgjj1a7gKYReY-<wbr>YcFootNHmkAzGJf_<wbr>3XHxJehW2S0vMrgaA@mail.gmail.<wbr>com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;utf-8&quot;<br>
<br>
Hi,<br>
<br>
We have two node cluster(ACTIVE/STANDBY).<br>
Recently we moved these nodes to KVM.<br>
<br>
When we create a private virtual network and use this vnet for assigning<br>
cluster interfaces then things work as expected and both the nodes are able<br>
to form the cluster.<br>
<br>
Nodes are not able to form cluster when we use macvtap(bridge) interfaces<br>
for cluster.<br>
<br>
came across this:<br>
<br>
<a href="https://github.com/vagrant-libvirt/vagrant-libvirt/issues/650" rel="noreferrer" target="_blank">https://github.com/vagrant-<wbr>libvirt/vagrant-libvirt/<wbr>issues/650</a><br>
<br>
tried the suggested workaround in the threadbut(trustGuetRxFilters=&#39;<wbr>yes&#39;)<br>
but of no help.<br>
<br>
<br>
Thanks and Regards,<br>
Ashutosh<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: &lt;<a href="http://lists.clusterlabs.org/pipermail/users/attachments/20170609/2305453f/attachment-0001.html" rel="noreferrer" target="_blank">http://lists.clusterlabs.org/<wbr>pipermail/users/attachments/<wbr>20170609/2305453f/attachment-<wbr>0001.html</a>&gt;<br>
<br>
------------------------------<br>
<br>
Message: 4<br>
Date: Fri, 9 Jun 2017 07:49:48 +0200<br>
From: Klaus Wenninger &lt;<a href="mailto:kwenning@redhat.com">kwenning@redhat.com</a>&gt;<br>
To: <a href="mailto:users@clusterlabs.org">users@clusterlabs.org</a><br>
Subject: Re: [ClusterLabs] cluster setup for nodes at KVM guest<br>
Message-ID: &lt;<a href="mailto:bcaac851-2c1f-3204-2839-9145a1b2acae@redhat.com">bcaac851-2c1f-3204-2839-<wbr>9145a1b2acae@redhat.com</a>&gt;<br>
Content-Type: text/plain; charset=utf-8<br>
<br>
On 06/09/2017 07:43 AM, ashutosh tiwari wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; We have two node cluster(ACTIVE/STANDBY).<br>
&gt; Recently we moved these nodes to KVM.<br>
&gt;<br>
&gt; When we create a private virtual network and use this vnet for<br>
&gt; assigning cluster interfaces then things work as expected and both the<br>
&gt; nodes are able to form the cluster.<br>
&gt;<br>
&gt; Nodes are not able to form cluster when we use macvtap(bridge)<br>
&gt; interfaces for cluster.<br>
&gt;<br>
&gt; came across this:<br>
&gt;<br>
&gt; <a href="https://github.com/vagrant-libvirt/vagrant-libvirt/issues/650" rel="noreferrer" target="_blank">https://github.com/vagrant-<wbr>libvirt/vagrant-libvirt/<wbr>issues/650</a><br>
&gt; &lt;<a href="https://github.com/vagrant-libvirt/vagrant-libvirt/issues/650" rel="noreferrer" target="_blank">https://github.com/vagrant-<wbr>libvirt/vagrant-libvirt/<wbr>issues/650</a>&gt;<br>
&gt;<br>
<br>
Seems to deal with multicast-issues...<br>
Wouldn&#39;t using corosync with unicast be a possibility?<br>
<br>
Regards,<br>
Klaus<br>
<br>
&gt; tried the suggested workaround in the<br>
&gt; threadbut(trustGuetRxFilters=&#39;<wbr>yes&#39;) but of no help.<br>
&gt;<br>
&gt;<br>
&gt; Thanks and Regards,<br>
&gt; Ashutosh<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; ______________________________<wbr>_________________<br>
&gt; Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt; <a href="http://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
&gt;<br>
&gt; Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer" target="_blank">http://www.clusterlabs.org/<wbr>doc/Cluster_from_Scratch.pdf</a><br>
&gt; Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
------------------------------<br>
<br>
______________________________<wbr>_________________<br>
Users mailing list<br>
<a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
<a href="http://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
<br>
<br>
End of Users Digest, Vol 29, Issue 10<br>
******************************<wbr>*******<br>
</blockquote></div><br></div>