<div dir="ltr"><div><div>Hi Nakahira,<br></div>Thanks so much for the info, this setting was as the wiki page suggested, do you suggest that I take it out? or should I look at the problem where cl2_lb1 is not being promoted?<br></div>Regards<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Mar 16, 2015 at 10:15 AM, NAKAHIRA Kazutomo <span dir="ltr">&lt;<a href="mailto:nakahira_kazutomo_b1@lab.ntt.co.jp" target="_blank">nakahira_kazutomo_b1@lab.ntt.co.jp</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<span class=""><br>
<br>
&gt; Notice there is no VIPs, looks like the VIPs depends on some other resource<br>
&gt; to start 1st?<br>
<br></span>
The following constraints means that &quot;master-group&quot; can not start<br>
without master of msPostgresql resource.<span class=""><br>
<br>
colocation rsc_colocation-1 inf: master-group msPostgresql:Master<br>
<br></span>
After you power off cl1_lb1, msPostgresql on the cl2_lb1 is not promoted and master is not exist in your cluster.<br>
<br>
It means that &quot;master-group&quot; can not run anyware.<br>
<br>
Best regards,<br>
Kazutomo NAKAHIRA<div class="HOEnZb"><div class="h5"><br>
<br>
On 2015/03/16 16:48, Wynand Jansen van Vuuren wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi<br>
When I start out cl1_lb1 (Cluster 1 load balancer 1) is the master as below<br>
cl1_lb1:~ # crm_mon -1 -Af<br>
Last updated: Mon Mar 16 09:44:44 2015<br>
Last change: Mon Mar 16 08:06:26 2015 by root via crm_attribute on cl1_lb1<br>
Stack: classic openais (with plugin)<br>
Current DC: cl2_lb1 - partition with quorum<br>
Version: 1.1.9-2db99f1<br>
2 Nodes configured, 2 expected votes<br>
6 Resources configured.<br>
<br>
<br>
Online: [ cl1_lb1 cl2_lb1 ]<br>
<br>
  Resource Group: master-group<br>
      vip-master    (ocf::heartbeat:IPaddr2):    Started cl1_lb1<br>
      vip-rep    (ocf::heartbeat:IPaddr2):    Started cl1_lb1<br>
      CBC_instance    (ocf::heartbeat:cbc):    Started cl1_lb1<br>
      failover_MailTo    (ocf::heartbeat:MailTo):    Started cl1_lb1<br>
  Master/Slave Set: msPostgresql [pgsql]<br>
      Masters: [ cl1_lb1 ]<br>
      Slaves: [ cl2_lb1 ]<br>
<br>
Node Attributes:<br>
* Node cl1_lb1:<br>
     + master-pgsql                        : 1000<br>
     + pgsql-data-status                   : LATEST<br>
     + pgsql-master-baseline               : 00000008B90061F0<br>
     + pgsql-status                        : PRI<br>
* Node cl2_lb1:<br>
     + master-pgsql                        : 100<br>
     + pgsql-data-status                   : STREAMING|SYNC<br>
     + pgsql-status                        : HS:sync<br>
<br>
Migration summary:<br>
* Node cl2_lb1:<br>
* Node cl1_lb1:<br>
cl1_lb1:~ #<br>
<br>
If I then do a power off on cl1_lb1 (master), Postgres moves to cl2_lb1<br>
(Cluster 2 load balancer 1), but the VIP-MASTER and VIP-REP is not pingable<br>
from the NEW master (cl2_lb1), it stays line this below<br>
cl2_lb1:~ # crm_mon -1 -Af<br>
Last updated: Mon Mar 16 07:32:07 2015<br>
Last change: Mon Mar 16 07:28:53 2015 by root via crm_attribute on cl1_lb1<br>
Stack: classic openais (with plugin)<br>
Current DC: cl2_lb1 - partition WITHOUT quorum<br>
Version: 1.1.9-2db99f1<br>
2 Nodes configured, 2 expected votes<br>
6 Resources configured.<br>
<br>
<br>
Online: [ cl2_lb1 ]<br>
OFFLINE: [ cl1_lb1 ]<br>
<br>
  Master/Slave Set: msPostgresql [pgsql]<br>
      Slaves: [ cl2_lb1 ]<br>
      Stopped: [ pgsql:1 ]<br>
<br>
Node Attributes:<br>
* Node cl2_lb1:<br>
     + master-pgsql                        : -INFINITY<br>
     + pgsql-data-status                   : DISCONNECT<br>
     + pgsql-status                        : HS:alone<br>
<br>
Migration summary:<br>
* Node cl2_lb1:<br>
cl2_lb1:~ #<br>
<br>
Notice there is no VIPs, looks like the VIPs depends on some other resource<br>
to start 1st?<br>
Thanks for the reply!<br>
<br>
<br>
On Mon, Mar 16, 2015 at 9:42 AM, NAKAHIRA Kazutomo &lt;<br>
<a href="mailto:nakahira_kazutomo_b1@lab.ntt.co.jp" target="_blank">nakahira_kazutomo_b1@lab.ntt.<u></u>co.jp</a>&gt; wrote:<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
fine, cl2_lb1 takes over and acts as a slave, but the VIPs does not come<br>
</blockquote>
<br>
cl2_lb1 acts as a slave? It is not a master?<br>
VIPs comes up with master msPostgresql resource.<br>
<br>
If promote action was failed in the cl2_lb1, then<br>
please send a ha-log and PostgreSQL&#39;s log.<br>
<br>
Best regards,<br>
Kazutomo NAKAHIRA<br>
<br>
<br>
On 2015/03/16 16:09, Wynand Jansen van Vuuren wrote:<br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi all,<br>
<br>
I have 2 nodes, with 2 interfaces each, ETH0 is used for an application,<br>
CBC, that&#39;s writing to the Postgres DB on the VIP-MASTER 172.28.200.159,<br>
ETH1 is used for the Corosync configuration and VIP-REP, everything works,<br>
but if the master currently on cl1_lb1 has a catastrophic failure, like<br>
power down, the VIPs does not start on the slave, the Postgres parts works<br>
fine, cl2_lb1 takes over and acts as a slave, but the VIPs does not come<br>
up. If I test it manually, IE kill the application 3 times on the master,<br>
the switchover is smooth, same if I kill Postgres on master, but when<br>
there<br>
is a power failure on the Master, the VIPs stay down. If I then delete the<br>
attributes pgsql-data-status=&quot;LATEST&quot; and attributes<br>
pgsql-data-status=&quot;STREAMING|<u></u>SYNC&quot; on the slave after power off on the<br>
master and restart everything, then the VIPs come up on the slave, any<br>
ideas please?<br>
I&#39;m using this setup<br>
<a href="http://clusterlabs.org/wiki/PgSQL_Replicated_Cluster" target="_blank">http://clusterlabs.org/wiki/<u></u>PgSQL_Replicated_Cluster</a><br>
<br>
With this configuration below<br>
node cl1_lb1 \<br>
          attributes pgsql-data-status=&quot;LATEST&quot;<br>
node cl2_lb1 \<br>
          attributes pgsql-data-status=&quot;STREAMING|<u></u>SYNC&quot;<br>
primitive CBC_instance ocf:heartbeat:cbc \<br>
          op monitor interval=&quot;60s&quot; timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
          op start interval=&quot;0s&quot; timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
          meta target-role=&quot;Started&quot; migration-threshold=&quot;3&quot;<br>
failure-timeout=&quot;60s&quot;<br>
primitive failover_MailTo ocf:heartbeat:MailTo \<br>
          params email=&quot;<a href="mailto:wynandj@rorotika.com" target="_blank">wynandj@rorotika.com</a>&quot; subject=&quot;Cluster Status<br>
change<br>
- &quot; \<br>
          op monitor interval=&quot;10&quot; timeout=&quot;10&quot; dept=&quot;0&quot;<br>
primitive pgsql ocf:heartbeat:pgsql \<br>
          params pgctl=&quot;/opt/app/PostgreSQL/9.<u></u>3/bin/pg_ctl&quot;<br>
psql=&quot;/opt/app/PostgreSQL/9.3/<u></u>bin/psql&quot;<br>
config=&quot;/opt/app/pgdata/9.3/<u></u>postgresql.conf&quot; pgdba=&quot;postgres&quot;<br>
pgdata=&quot;/opt/app/pgdata/9.3/&quot; start_opt=&quot;-p 5432&quot; rep_mode=&quot;sync&quot;<br>
node_list=&quot;cl1_lb1 cl2_lb1&quot; restore_command=&quot;cp /pgtablespace/archive/%f<br>
%p&quot; primary_conninfo_opt=&quot;<u></u>keepalives_idle=60 keepalives_interval=5<br>
keepalives_count=5&quot; master_ip=&quot;172.16.0.5&quot; restart_on_promote=&quot;false&quot;<br>
logfile=&quot;/var/log/OCF.log&quot; \<br>
          op start interval=&quot;0s&quot; timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
          op monitor interval=&quot;4s&quot; timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
          op monitor interval=&quot;3s&quot; role=&quot;Master&quot; timeout=&quot;60s&quot;<br>
on-fail=&quot;restart&quot; \<br>
          op promote interval=&quot;0s&quot; timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
          op demote interval=&quot;0s&quot; timeout=&quot;60s&quot; on-fail=&quot;stop&quot; \<br>
          op stop interval=&quot;0s&quot; timeout=&quot;60s&quot; on-fail=&quot;block&quot; \<br>
          op notify interval=&quot;0s&quot; timeout=&quot;60s&quot;<br>
primitive vip-master ocf:heartbeat:IPaddr2 \<br>
          params ip=&quot;172.28.200.159&quot; nic=&quot;eth0&quot; iflabel=&quot;CBC_VIP&quot;<br>
cidr_netmask=&quot;24&quot; \<br>
          op start interval=&quot;0s&quot; timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
          op monitor interval=&quot;10s&quot; timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
          op stop interval=&quot;0s&quot; timeout=&quot;60s&quot; on-fail=&quot;block&quot; \<br>
          meta target-role=&quot;Started&quot;<br>
primitive vip-rep ocf:heartbeat:IPaddr2 \<br>
          params ip=&quot;172.16.0.5&quot; nic=&quot;eth1&quot; iflabel=&quot;REP_VIP&quot;<br>
cidr_netmask=&quot;24&quot; \<br>
          meta migration-threshold=&quot;0&quot; target-role=&quot;Started&quot; \<br>
          op start interval=&quot;0s&quot; timeout=&quot;60s&quot; on-fail=&quot;stop&quot; \<br>
          op monitor interval=&quot;10s&quot; timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
          op stop interval=&quot;0s&quot; timeout=&quot;60s&quot; on-fail=&quot;restart&quot;<br>
group master-group vip-master vip-rep CBC_instance failover_MailTo<br>
ms msPostgresql pgsql \<br>
          meta master-max=&quot;1&quot; master-node-max=&quot;1&quot; clone-max=&quot;2&quot;<br>
clone-node-max=&quot;1&quot; notify=&quot;true&quot;<br>
colocation rsc_colocation-1 inf: master-group msPostgresql:Master<br>
order rsc_order-1 0: msPostgresql:promote master-group:start<br>
symmetrical=false<br>
order rsc_order-2 0: msPostgresql:demote master-group:stop<br>
symmetrical=false<br>
property $id=&quot;cib-bootstrap-options&quot; \<br>
          dc-version=&quot;1.1.9-2db99f1&quot; \<br>
          cluster-infrastructure=&quot;<u></u>classic openais (with plugin)&quot; \<br>
          expected-quorum-votes=&quot;2&quot; \<br>
          no-quorum-policy=&quot;ignore&quot; \<br>
          stonith-enabled=&quot;false&quot; \<br>
          cluster-recheck-interval=&quot;<u></u>1min&quot; \<br>
          crmd-transition-delay=&quot;0s&quot; \<br>
          last-lrm-refresh=&quot;1426485983&quot;<br>
          rsc_defaults $id=&quot;rsc-options&quot; \<br>
          resource-stickiness=&quot;INFINITY&quot; \<br>
          migration-threshold=&quot;1&quot;<br>
#vim:set syntax=pcmk<br>
<br>
Any ideas please, I&#39;m lost......<br>
<br>
<br>
<br>
______________________________<u></u>_________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank">Users@clusterlabs.org</a><br>
<a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/<u></u>mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
</blockquote>
<br>
<br>
______________________________<u></u>_________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank">Users@clusterlabs.org</a><br>
<a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/<u></u>mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
</blockquote>
<br>
<br>
<br>
______________________________<u></u>_________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank">Users@clusterlabs.org</a><br>
<a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/<u></u>mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
</blockquote>
<br>
<br></div></div><span class="HOEnZb"><font color="#888888">
-- <br>
NTT オープンソースソフトウェアセンタ<br>
中平 和友<br>
TEL: 03-5860-5135 FAX: 03-5463-6490<br>
Mail: <a href="mailto:nakahira_kazutomo_b1@lab.ntt.co.jp" target="_blank">nakahira_kazutomo_b1@lab.ntt.<u></u>co.jp</a></font></span><div class="HOEnZb"><div class="h5"><br>
<br>
<br>
______________________________<u></u>_________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank">Users@clusterlabs.org</a><br>
<a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/<u></u>mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</div></div></blockquote></div><br></div>