<div dir="ltr"><div><div><div><div><div>Hello,<br><br></div>This is the status (when not failed):<br><br>Last updated: Fri Mar 17 16:17:44 2017        Last change: Fri Mar 17 14:21:24 2017 by root via cibadmin on db-main<br>Stack: corosync<br>Current DC: db-main (version 1.1.14-70404b0) - partition with quorum<br>2 nodes and 8 resources configured<br><br>Online: [ db-main db-slave ]<br><br> Resource Group: SERVICES<br>     FSDATA    (ocf::heartbeat:Filesystem):    Started db-main<br>     IP    (ocf::heartbeat:IPaddr2):    Started db-main<br>     MYSQLD    (ocf::heartbeat:mysql):    Started db-main<br> Master/Slave Set: DRBD_MASTER [DRBD0]<br>     Masters: [ db-main ]<br>     Slaves: [ db-slave ]<br> Clone Set: CL_PING [PING]<br>     Started: [ db-main db-slave ]<br><br></div>I am not sure how to check (except for the above) whether the ping is really running. <br><br></div>What might be important to mention is that the servers have a direct link between them, so when I cut the ICMP by iptables, the cluster communication continues to work. My feeling is that my configuration has means to demote db-main, but nothing to promote db-slave, but i&#39;m not sure how to add it.<br><br></div>When I drop the ICMP traffic (so the main node fails), it looks like this:<br><br>Last updated: Fri Mar 17 16:21:02 2017        Last change: Fri Mar 17 14:21:24 2017 by root via cibadmin on db-main<br>Stack: corosync<br>Current DC: db-main (version 1.1.14-70404b0) - partition with quorum<br>2 nodes and 8 resources configured<br><br>Online: [ db-main db-slave ]<br><br> Master/Slave Set: DRBD_MASTER [DRBD0]<br>     Slaves: [ db-main db-slave ] !!! no master here, only 2 slaves<br> Clone Set: CL_PING [PING]<br>     Started: [ db-main db-slave ]<br><br><br></div>Just to make it clear, normal failover works (so if instead of cutting ICMP, i reboot db-main, db-slave takes over correctly and completely. Also, if I remove the iptables ICMP rule, db-main starts back the services.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Mar 17, 2017 at 3:22 PM, Klaus Wenninger <span dir="ltr">&lt;<a href="mailto:kwenning@redhat.com" target="_blank">kwenning@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 03/17/2017 01:17 PM, Victor wrote:<br>
&gt; Hello,<br>
&gt;<br>
&gt; I have implemented the following pacemaker configuration, and I have a<br>
&gt; problem which I don&#39;t understand (and all my net searches were in<br>
&gt; vain, probably not looking for the correct keywords). If the ping<br>
&gt; fails on the Master node, it moves into Slave, but the other node also<br>
&gt; remains a slave (is not promoted). Can somebody tell me what I&#39;m doing<br>
&gt; wrong? I have also tried to add a second rule to the location: &quot;rule<br>
&gt; $role=Master ping: defined ping&quot;, so my location had two rules instead<br>
&gt; of one, but it still didn&#39;t work.<br>
<br>
</span>Did you check if the clones of PING are running on all your nodes?<br>
How do the node-attributes on the nodes look like?<br>
<div><div class="h5"><br>
&gt;<br>
&gt; node 1084803074: db-main \<br>
&gt;         attributes standby=off<br>
&gt; node 1084803195: db-slave \<br>
&gt;         attributes standby=off<br>
&gt; primitive DRBD0 ocf:linbit:drbd \<br>
&gt;         params drbd_resource=drbd0 \<br>
&gt;         op monitor role=Master interval=15s \<br>
&gt;         op monitor role=Slave interval=30s \<br>
&gt;         op start interval=0 timeout=240s \<br>
&gt;         op stop interval=0 timeout=100s<br>
&gt; primitive FSDATA Filesystem \<br>
&gt;         params device=&quot;/dev/drbd0&quot; directory=&quot;/data&quot; fstype=ext4 \<br>
&gt;         meta target-role=Started<br>
&gt; primitive IP IPaddr2 \<br>
&gt;         params ip=5.35.208.178 cidr_netmask=32 nic=eth0<br>
&gt; primitive MYSQLD mysql \<br>
&gt;         params binary=&quot;/usr/sbin/mysqld&quot; config=&quot;/etc/mysql/my.cnf&quot;<br>
&gt; datadir=&quot;/var/lib/mysql&quot; pid=&quot;/var/run/mysqld/mysqld.<wbr>pid&quot;<br>
&gt; socket=&quot;/var/run/mysqld/<wbr>mysqld.sock&quot; user=mysql group=mysql \<br>
&gt;         op start timeout=120s interval=0 \<br>
&gt;         op stop timeout=120s interval=0 \<br>
&gt;         op monitor interval=20s timeout=30s<br>
&gt; primitive PING ocf:pacemaker:ping \<br>
&gt;         params name=ping multiplier=1000 host_list=&quot;192.168.1.1<br>
&gt; 192.168.1.2&quot; \<br>
&gt;         op monitor interval=15s timeout=60s start<br>
&gt; group SERVICES FSDATA IP MYSQLD<br>
&gt; ms DRBD_MASTER DRBD0 \<br>
&gt;         meta notify=true master-max=1 master-node-max=1 clone-max=2<br>
&gt; clone-node-max=1 target-role=Master<br>
&gt; clone CL_PING PING \<br>
&gt;         meta interleave=true<br>
&gt; location LOC_DRBD_MASTER_ON_PING DRBD_MASTER \<br>
&gt;         rule $role=Master -inf: not_defined ping or ping number:lte 0<br>
&gt; order SRV_ORDER Mandatory: DRBD_MASTER:promote SERVICES:start<br>
&gt; colocation SRV_RULE inf: DRBD_MASTER:Master SERVICES<br>
&gt; property cib-bootstrap-options: \<br>
&gt;         have-watchdog=false \<br>
&gt;         dc-version=1.1.14-70404b0 \<br>
&gt;         cluster-infrastructure=<wbr>corosync \<br>
&gt;         cluster-name=debian \<br>
&gt;         stonith-enabled=false \<br>
&gt;         no-quorum-policy=ignore<br>
&gt; rsc_defaults rsc-options: \<br>
&gt;         resource-stickiness=100<br>
&gt;<br>
&gt; Thanks,<br>
&gt; Victor<br>
&gt;<br>
&gt;<br>
</div></div>&gt; ______________________________<wbr>_________________<br>
&gt; Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt; <a href="http://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
&gt;<br>
&gt; Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer" target="_blank">http://www.clusterlabs.org/<wbr>doc/Cluster_from_Scratch.pdf</a><br>
&gt; Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
<br>
______________________________<wbr>_________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
<a href="http://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer" target="_blank">http://www.clusterlabs.org/<wbr>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote></div><br></div>