<div dir="ltr"><div><div>Hi<br></div>Yes ok a one cluster, 4 nodes configuration, when I set symmetric-cluster=false, I get this output??!!<br>cl1_lb1:/opt/temp # crm_mon -1 -Af<br>Last updated: Thu Mar 19 12:16:20 2015<br>Last change: Thu Mar 19 12:15:22 2015 by hacluster via crmd on cl1_lb1<br>Stack: classic openais (with plugin)<br>Current DC: cl1_lb2 - partition with quorum<br>Version: 1.1.9-2db99f1<br>4 Nodes configured, 4 expected votes<br>6 Resources configured.<br><br><br>Online: [ cl1_lb1 cl1_lb2 cl2_lb1 cl2_lb2 ]<br><br><br>Node Attributes:<br>* Node cl1_lb1:<br>    + pgsql-data-status                   : LATEST    <br>* Node cl1_lb2:<br>* Node cl2_lb1:<br>    + pgsql-data-status                   : LATEST    <br>* Node cl2_lb2:<br><br>Migration summary:<br>* Node cl1_lb2: <br>* Node cl2_lb1: <br>* Node cl2_lb2: <br>* Node cl1_lb1: <br>cl1_lb1:/opt/temp # <br><br></div>No expanded pgsql-data-status anymore? I&#39;m confused!<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Mar 19, 2015 at 11:47 AM, Andrei Borzenkov <span dir="ltr">&lt;<a href="mailto:arvidjaar@gmail.com" target="_blank">arvidjaar@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On Thu, Mar 19, 2015 at 12:31 PM, Wynand Jansen van Vuuren<br>
&lt;<a href="mailto:esawyja@gmail.com">esawyja@gmail.com</a>&gt; wrote:<br>
&gt; Hi all,<br>
&gt; I have a different question please, let say I have the following<br>
&gt; 4 - nodes, 2 clusters, 2 nodes per cluster, so I have in the west of the<br>
&gt; country Cluster 1 with cl1_lb1 and cl1_lb2 as the nodes, in the east of the<br>
&gt; country I have Cluster 2 with cl2_lb1 and cl2_lb2 as the nodes<br>
&gt;<br>
<br>
</span>According to output you provided you have single cluster consisting of<br>
4 nodes, not two clusters of 2 nodes each.<br>
<div><div class="h5"><br>
&gt; I have 3 different applications, Postgres, App1 and App2, App1 uses a VIP to<br>
&gt; write to Postgres, App2 uses Apache2<br>
&gt;<br>
&gt; Can I do the following<br>
&gt; cl1_lb1, runs Postgres streaming with App1 VIP in Master/Slave configuration<br>
&gt; to cl2_lb1<br>
&gt;<br>
&gt; cl1_lb1, cl1_lb2, cl2_lb1 and cl2_lb2 all runs App2 and the VIP round robin<br>
&gt; for the Apache page<br>
&gt;<br>
&gt; So my question is actually this, in this configuration, in the corosync.conf<br>
&gt; file, what would the expected_votes setting be, 2 or 4? and can you separate<br>
&gt; the resources per node? I thought the node_list, rep_mode=&quot;sync&quot;<br>
&gt; node_list=&quot;cl1_lb1 cl2_lb1&quot; in the pgsql primitive would isolate the pgsql<br>
&gt; to run on cl1_lb1 and cl2_lb1 only, but it does not seem to be the case, as<br>
&gt; soon as I add the other nodes to the corosync configuration, I get this<br>
&gt; below<br>
&gt;<br>
&gt; cl1_lb1:/opt/temp # crm_mon -1 -Af<br>
&gt; Last updated: Thu Mar 19 11:29:16 2015<br>
&gt; Last change: Thu Mar 19 11:10:17 2015 by hacluster via crmd on cl1_lb1<br>
&gt; Stack: classic openais (with plugin)<br>
&gt; Current DC: cl1_lb1 - partition with quorum<br>
&gt; Version: 1.1.9-2db99f1<br>
&gt; 4 Nodes configured, 4 expected votes<br>
&gt; 6 Resources configured.<br>
&gt;<br>
&gt;<br>
&gt; Online: [ cl1_lb1 cl1_lb2 cl2_lb1 cl2_lb2 ]<br>
&gt;<br>
&gt;<br>
&gt; Node Attributes:<br>
&gt; * Node cl1_lb1:<br>
&gt;     + master-pgsql                        : -INFINITY<br>
&gt;     + pgsql-data-status                   : LATEST<br>
&gt;     + pgsql-status                        : STOP<br>
&gt; * Node cl1_lb2:<br>
&gt;     + pgsql-status                        : UNKNOWN<br>
&gt; * Node cl2_lb1:<br>
&gt;     + master-pgsql                        : -INFINITY<br>
&gt;     + pgsql-data-status                   : LATEST<br>
&gt;     + pgsql-status                        : STOP<br>
&gt; * Node cl2_lb2:<br>
&gt;     + pgsql-status                        : UNKNOWN<br>
&gt;<br>
&gt; Migration summary:<br>
&gt; * Node cl2_lb1:<br>
&gt;    pgsql:0: migration-threshold=1 fail-count=1000000 last-failure=&#39;Thu Mar<br>
&gt; 19 11:10:18 2015&#39;<br>
&gt; * Node cl1_lb1:<br>
&gt;    pgsql:0: migration-threshold=1 fail-count=1000000 last-failure=&#39;Thu Mar<br>
&gt; 19 11:10:18 2015&#39;<br>
&gt; * Node cl2_lb2:<br>
&gt; * Node cl1_lb2:<br>
&gt;<br>
&gt; Failed actions:<br>
&gt;     pgsql_start_0 (node=cl2_lb1, call=561, rc=1, status=complete): unknown<br>
&gt; error<br>
&gt;     pgsql_start_0 (node=cl1_lb1, call=292, rc=1, status=complete): unknown<br>
&gt; error<br>
&gt;     pgsql_start_0 (node=cl2_lb2, call=115, rc=5, status=complete): not<br>
&gt; installed<br>
&gt;     pgsql_start_0 (node=cl1_lb2, call=73, rc=5, status=complete): not<br>
&gt; installed<br>
&gt; cl1_lb1:/opt/temp #<br>
&gt;<br>
&gt; Any suggestions on how I can achieve this please ?<br>
&gt;<br>
<br>
</div></div>But it does exactly what you want - posgres won&#39;t be started on nodes<br>
cl1_lb2, cl2_lb2. If you want to get rid of probing errors, you need<br>
to either install postgres on all nodes (so agents do not fail) or set<br>
symmetric-cluster=false.<br>
<div class="HOEnZb"><div class="h5"><br>
&gt; Regards<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Wed, Mar 18, 2015 at 7:32 AM, Wynand Jansen van Vuuren<br>
&gt; &lt;<a href="mailto:esawyja@gmail.com">esawyja@gmail.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; Hi<br>
&gt;&gt; Yes the problem was solved, it was the Linux Kernel that started Postgres<br>
&gt;&gt; when the failed server came up again, I disabled the automatic start with<br>
&gt;&gt; chkconfig and that solved the problem, I will take out 172.16.0.5 from the<br>
&gt;&gt; conf file,<br>
&gt;&gt; THANKS SO MUCH for all the help, I will do a blog post on how this is done<br>
&gt;&gt; on SLES 11 SP3 and Postgres 9.3 and will post the URL for the group, in case<br>
&gt;&gt; it will help someone out there, thanks again for all the help!<br>
&gt;&gt; Regards<br>
&gt;&gt;<br>
&gt;&gt; On Wed, Mar 18, 2015 at 3:58 AM, NAKAHIRA Kazutomo<br>
&gt;&gt; &lt;<a href="mailto:nakahira_kazutomo_b1@lab.ntt.co.jp">nakahira_kazutomo_b1@lab.ntt.co.jp</a>&gt; wrote:<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Hi,<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; As Brestan pointed out, old master can not come up as a slave is expected<br>
&gt;&gt;&gt; feature.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; BTW, this action is different from the original problem.<br>
&gt;&gt;&gt; It seems from logs, promote action succeeded in the cl2_lb1 after power<br>
&gt;&gt;&gt; off cl1_lb1.<br>
&gt;&gt;&gt; Was the original problem resolved?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; And cl2_lb1&#39;s postgresql.conf has the following problem.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; 2015-03-17 07:34:28 SAST DETAIL:  The failed archive command was: cp<br>
&gt;&gt;&gt; pg_xlog/0000001D00000008000000C2<br>
&gt;&gt;&gt; 172.16.0.5:/pgtablespace/archive/0000001D00000008000000C2<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; &quot;172.16.0.5&quot; must be eliminated from the archive_command directive in the<br>
&gt;&gt;&gt; postgresql.conf.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Best regards,<br>
&gt;&gt;&gt; Kazutomo NAKAHIRA<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; On 2015/03/18 5:00, Rainer Brestan wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Yes, thats the expected behaviour.<br>
&gt;&gt;&gt;&gt; Takatoshi Matsuo describes in his papers, why a former master cant come<br>
&gt;&gt;&gt;&gt; up as<br>
&gt;&gt;&gt;&gt; slave without possible data corruption.<br>
&gt;&gt;&gt;&gt; And you do not get an indication from Postgres that the data on disk is<br>
&gt;&gt;&gt;&gt; corrupted.<br>
&gt;&gt;&gt;&gt; Therefore, he created the lock file mechanism to prevent a former master<br>
&gt;&gt;&gt;&gt; to<br>
&gt;&gt;&gt;&gt; start up.<br>
&gt;&gt;&gt;&gt; Making the base backup from Master discards any possibly wrong data from<br>
&gt;&gt;&gt;&gt; the<br>
&gt;&gt;&gt;&gt; slave and the removed lock files indicates this for the resource agent.<br>
&gt;&gt;&gt;&gt; To shorten the discussion about &quot;how this can be automated within the<br>
&gt;&gt;&gt;&gt; resource<br>
&gt;&gt;&gt;&gt; agent&quot;, there is no clean way of handling this with very large<br>
&gt;&gt;&gt;&gt; databases, for<br>
&gt;&gt;&gt;&gt; which this can take hours.<br>
&gt;&gt;&gt;&gt; And what you should do is making the base backup in a temporary<br>
&gt;&gt;&gt;&gt; directory and<br>
&gt;&gt;&gt;&gt; then renaming this to the name Postgres instance requires after base<br>
&gt;&gt;&gt;&gt; backup<br>
&gt;&gt;&gt;&gt; finish successful (yes, this requires twice of harddisk space).<br>
&gt;&gt;&gt;&gt; Otherwise you<br>
&gt;&gt;&gt;&gt; might loose everything, when your master brakes during base backup.<br>
&gt;&gt;&gt;&gt; Rainer<br>
&gt;&gt;&gt;&gt; *Gesendet:* Dienstag, 17. März 2015 um 12:16 Uhr<br>
&gt;&gt;&gt;&gt; *Von:* &quot;Wynand Jansen van Vuuren&quot; &lt;<a href="mailto:esawyja@gmail.com">esawyja@gmail.com</a>&gt;<br>
&gt;&gt;&gt;&gt; *An:* &quot;Cluster Labs - All topics related to open-source clustering<br>
&gt;&gt;&gt;&gt; welcomed&quot;<br>
&gt;&gt;&gt;&gt; &lt;<a href="mailto:users@clusterlabs.org">users@clusterlabs.org</a>&gt;<br>
&gt;&gt;&gt;&gt; *Betreff:* Re: [ClusterLabs] Postgres streaming VIP-REP not coming up on<br>
&gt;&gt;&gt;&gt; slave<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Hi<br>
&gt;&gt;&gt;&gt; Ok I found this particular problem, when the failed node comes up again,<br>
&gt;&gt;&gt;&gt; the<br>
&gt;&gt;&gt;&gt; kernel start Postgres, I have disabled this and now the VIPs and<br>
&gt;&gt;&gt;&gt; Postgres remain<br>
&gt;&gt;&gt;&gt; on the new MASTER, but the failed node does not come up as a slave, IE<br>
&gt;&gt;&gt;&gt; there is<br>
&gt;&gt;&gt;&gt; no sync between the new master and slave, is this the expected behavior?<br>
&gt;&gt;&gt;&gt; The<br>
&gt;&gt;&gt;&gt; only way I can get it back into slave mode is to follow the procedure in<br>
&gt;&gt;&gt;&gt; the wiki<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; # su - postgres<br>
&gt;&gt;&gt;&gt; $ rm -rf /var/lib/pgsql/data/<br>
&gt;&gt;&gt;&gt; $ pg_basebackup -h 192.168.2.3 -U postgres -D /var/lib/pgsql/data -X<br>
&gt;&gt;&gt;&gt; stream -P<br>
&gt;&gt;&gt;&gt; $ rm /var/lib/pgsql/tmp/PGSQL.lock<br>
&gt;&gt;&gt;&gt; $ exit<br>
&gt;&gt;&gt;&gt; # pcs resource cleanup msPostgresql<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Looking forward to your reply please<br>
&gt;&gt;&gt;&gt; Regards<br>
&gt;&gt;&gt;&gt; On Tue, Mar 17, 2015 at 7:55 AM, Wynand Jansen van Vuuren<br>
&gt;&gt;&gt;&gt; &lt;<a href="mailto:esawyja@gmail.com">esawyja@gmail.com</a>&gt;<br>
&gt;&gt;&gt;&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Hi Nakahira,<br>
&gt;&gt;&gt;&gt;      I finally got around testing this, below is the initial state<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      cl1_lb1:~ # crm_mon -1 -Af<br>
&gt;&gt;&gt;&gt;      Last updated: Tue Mar 17 07:31:58 2015<br>
&gt;&gt;&gt;&gt;      Last change: Tue Mar 17 07:31:12 2015 by root via crm_attribute on<br>
&gt;&gt;&gt;&gt; cl1_lb1<br>
&gt;&gt;&gt;&gt;      Stack: classic openais (with plugin)<br>
&gt;&gt;&gt;&gt;      Current DC: cl1_lb1 - partition with quorum<br>
&gt;&gt;&gt;&gt;      Version: 1.1.9-2db99f1<br>
&gt;&gt;&gt;&gt;      2 Nodes configured, 2 expected votes<br>
&gt;&gt;&gt;&gt;      6 Resources configured.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Online: [ cl1_lb1 cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;        Resource Group: master-group<br>
&gt;&gt;&gt;&gt;            vip-master    (ocf::heartbeat:IPaddr2):    Started cl1_lb1<br>
&gt;&gt;&gt;&gt;            vip-rep    (ocf::heartbeat:IPaddr2):    Started cl1_lb1<br>
&gt;&gt;&gt;&gt;            CBC_instance    (ocf::heartbeat:cbc):    Started cl1_lb1<br>
&gt;&gt;&gt;&gt;            failover_MailTo    (ocf::heartbeat:MailTo):    Started<br>
&gt;&gt;&gt;&gt; cl1_lb1<br>
&gt;&gt;&gt;&gt;        Master/Slave Set: msPostgresql [pgsql]<br>
&gt;&gt;&gt;&gt;            Masters: [ cl1_lb1 ]<br>
&gt;&gt;&gt;&gt;            Slaves: [ cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Node Attributes:<br>
&gt;&gt;&gt;&gt;      * Node cl1_lb1:<br>
&gt;&gt;&gt;&gt;           + master-pgsql                        : 1000<br>
&gt;&gt;&gt;&gt;           + pgsql-data-status                   : LATEST<br>
&gt;&gt;&gt;&gt;           + pgsql-master-baseline               : 00000008BE000000<br>
&gt;&gt;&gt;&gt;           + pgsql-status                        : PRI<br>
&gt;&gt;&gt;&gt;      * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;           + master-pgsql                        : 100<br>
&gt;&gt;&gt;&gt;           + pgsql-data-status                   : STREAMING|SYNC<br>
&gt;&gt;&gt;&gt;           + pgsql-status                        : HS:sync<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Migration summary:<br>
&gt;&gt;&gt;&gt;      * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;      * Node cl1_lb1:<br>
&gt;&gt;&gt;&gt;      cl1_lb1:~ #<br>
&gt;&gt;&gt;&gt;      ###### -  I then did a init 0 on the master node, cl1_lb1<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      cl1_lb1:~ # init 0<br>
&gt;&gt;&gt;&gt;      cl1_lb1:~ #<br>
&gt;&gt;&gt;&gt;      Connection closed by foreign host.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Disconnected from remote host(cl1_lb1) at 07:36:18.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Type `help&#39; to learn how to use Xshell prompt.<br>
&gt;&gt;&gt;&gt;      [c:\~]$<br>
&gt;&gt;&gt;&gt;      ###### - This was ok as the slave took over, became master<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      cl2_lb1:~ # crm_mon -1 -Af<br>
&gt;&gt;&gt;&gt;      Last updated: Tue Mar 17 07:35:04 2015<br>
&gt;&gt;&gt;&gt;      Last change: Tue Mar 17 07:34:29 2015 by root via crm_attribute on<br>
&gt;&gt;&gt;&gt; cl2_lb1<br>
&gt;&gt;&gt;&gt;      Stack: classic openais (with plugin)<br>
&gt;&gt;&gt;&gt;      Current DC: cl2_lb1 - partition WITHOUT quorum<br>
&gt;&gt;&gt;&gt;      Version: 1.1.9-2db99f1<br>
&gt;&gt;&gt;&gt;      2 Nodes configured, 2 expected votes<br>
&gt;&gt;&gt;&gt;      6 Resources configured.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Online: [ cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;      OFFLINE: [ cl1_lb1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;        Resource Group: master-group<br>
&gt;&gt;&gt;&gt;            vip-master    (ocf::heartbeat:IPaddr2):    Started cl2_lb1<br>
&gt;&gt;&gt;&gt;            vip-rep    (ocf::heartbeat:IPaddr2):    Started cl2_lb1<br>
&gt;&gt;&gt;&gt;            CBC_instance    (ocf::heartbeat:cbc):    Started cl2_lb1<br>
&gt;&gt;&gt;&gt;            failover_MailTo    (ocf::heartbeat:MailTo):    Started<br>
&gt;&gt;&gt;&gt; cl2_lb1<br>
&gt;&gt;&gt;&gt;        Master/Slave Set: msPostgresql [pgsql]<br>
&gt;&gt;&gt;&gt;            Masters: [ cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;            Stopped: [ pgsql:1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Node Attributes:<br>
&gt;&gt;&gt;&gt;      * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;           + master-pgsql                        : 1000<br>
&gt;&gt;&gt;&gt;           + pgsql-data-status                   : LATEST<br>
&gt;&gt;&gt;&gt;           + pgsql-master-baseline               : 00000008C2000090<br>
&gt;&gt;&gt;&gt;           + pgsql-status                        : PRI<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Migration summary:<br>
&gt;&gt;&gt;&gt;      * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;      cl2_lb1:~ #<br>
&gt;&gt;&gt;&gt;      And the logs from Postgres and Corosync are attached<br>
&gt;&gt;&gt;&gt;      ###### - I then restarted the original Master cl1_lb1 and started<br>
&gt;&gt;&gt;&gt; Corosync<br>
&gt;&gt;&gt;&gt;      manually<br>
&gt;&gt;&gt;&gt;      Once the original Master cl1_lb1 was up and Corosync running, the<br>
&gt;&gt;&gt;&gt; status<br>
&gt;&gt;&gt;&gt;      below happened, notice no VIPs and Postgres<br>
&gt;&gt;&gt;&gt;      ###### - Still working below<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      cl2_lb1:~ # crm_mon -1 -Af<br>
&gt;&gt;&gt;&gt;      Last updated: Tue Mar 17 07:36:55 2015<br>
&gt;&gt;&gt;&gt;      Last change: Tue Mar 17 07:34:29 2015 by root via crm_attribute on<br>
&gt;&gt;&gt;&gt; cl2_lb1<br>
&gt;&gt;&gt;&gt;      Stack: classic openais (with plugin)<br>
&gt;&gt;&gt;&gt;      Current DC: cl2_lb1 - partition WITHOUT quorum<br>
&gt;&gt;&gt;&gt;      Version: 1.1.9-2db99f1<br>
&gt;&gt;&gt;&gt;      2 Nodes configured, 2 expected votes<br>
&gt;&gt;&gt;&gt;      6 Resources configured.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Online: [ cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;      OFFLINE: [ cl1_lb1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;        Resource Group: master-group<br>
&gt;&gt;&gt;&gt;            vip-master    (ocf::heartbeat:IPaddr2):    Started cl2_lb1<br>
&gt;&gt;&gt;&gt;            vip-rep    (ocf::heartbeat:IPaddr2):    Started cl2_lb1<br>
&gt;&gt;&gt;&gt;            CBC_instance    (ocf::heartbeat:cbc):    Started cl2_lb1<br>
&gt;&gt;&gt;&gt;            failover_MailTo    (ocf::heartbeat:MailTo):    Started<br>
&gt;&gt;&gt;&gt; cl2_lb1<br>
&gt;&gt;&gt;&gt;        Master/Slave Set: msPostgresql [pgsql]<br>
&gt;&gt;&gt;&gt;            Masters: [ cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;            Stopped: [ pgsql:1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Node Attributes:<br>
&gt;&gt;&gt;&gt;      * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;           + master-pgsql                        : 1000<br>
&gt;&gt;&gt;&gt;           + pgsql-data-status                   : LATEST<br>
&gt;&gt;&gt;&gt;           + pgsql-master-baseline               : 00000008C2000090<br>
&gt;&gt;&gt;&gt;           + pgsql-status                        : PRI<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Migration summary:<br>
&gt;&gt;&gt;&gt;      * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      ###### - After original master is up and Corosync running on<br>
&gt;&gt;&gt;&gt; cl1_lb1<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      cl2_lb1:~ # crm_mon -1 -Af<br>
&gt;&gt;&gt;&gt;      Last updated: Tue Mar 17 07:37:47 2015<br>
&gt;&gt;&gt;&gt;      Last change: Tue Mar 17 07:37:21 2015 by root via crm_attribute on<br>
&gt;&gt;&gt;&gt; cl1_lb1<br>
&gt;&gt;&gt;&gt;      Stack: classic openais (with plugin)<br>
&gt;&gt;&gt;&gt;      Current DC: cl2_lb1 - partition with quorum<br>
&gt;&gt;&gt;&gt;      Version: 1.1.9-2db99f1<br>
&gt;&gt;&gt;&gt;      2 Nodes configured, 2 expected votes<br>
&gt;&gt;&gt;&gt;      6 Resources configured.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Online: [ cl1_lb1 cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Node Attributes:<br>
&gt;&gt;&gt;&gt;      * Node cl1_lb1:<br>
&gt;&gt;&gt;&gt;           + master-pgsql                        : -INFINITY<br>
&gt;&gt;&gt;&gt;           + pgsql-data-status                   : LATEST<br>
&gt;&gt;&gt;&gt;           + pgsql-status                        : STOP<br>
&gt;&gt;&gt;&gt;      * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;           + master-pgsql                        : -INFINITY<br>
&gt;&gt;&gt;&gt;           + pgsql-data-status                   : DISCONNECT<br>
&gt;&gt;&gt;&gt;           + pgsql-status                        : STOP<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Migration summary:<br>
&gt;&gt;&gt;&gt;      * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;          pgsql:0: migration-threshold=1 fail-count=2 last-failure=&#39;Tue<br>
&gt;&gt;&gt;&gt; Mar 17<br>
&gt;&gt;&gt;&gt;      07:37:26 2015&#39;<br>
&gt;&gt;&gt;&gt;      * Node cl1_lb1:<br>
&gt;&gt;&gt;&gt;          pgsql:0: migration-threshold=1 fail-count=2 last-failure=&#39;Tue<br>
&gt;&gt;&gt;&gt; Mar 17<br>
&gt;&gt;&gt;&gt;      07:37:26 2015&#39;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Failed actions:<br>
&gt;&gt;&gt;&gt;           pgsql_monitor_4000 (node=cl2_lb1, call=735, rc=7,<br>
&gt;&gt;&gt;&gt; status=complete): not<br>
&gt;&gt;&gt;&gt;      running<br>
&gt;&gt;&gt;&gt;           pgsql_monitor_4000 (node=cl1_lb1, call=42, rc=7,<br>
&gt;&gt;&gt;&gt; status=complete): not<br>
&gt;&gt;&gt;&gt;      running<br>
&gt;&gt;&gt;&gt;      cl2_lb1:~ #<br>
&gt;&gt;&gt;&gt;      ##### - No VIPs up<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      cl2_lb1:~ # ping 172.28.200.159<br>
&gt;&gt;&gt;&gt;      PING 172.28.200.159 (172.28.200.159) 56(84) bytes of data.<br>
&gt;&gt;&gt;&gt;       &gt;From 172.28.200.168 &lt;<a href="http://172.28.200.168" target="_blank">http://172.28.200.168</a>&gt;: icmp_seq=1<br>
&gt;&gt;&gt;&gt; Destination Host<br>
&gt;&gt;&gt;&gt;      Unreachable<br>
&gt;&gt;&gt;&gt;       &gt;From 172.28.200.168 icmp_seq=1 Destination Host Unreachable<br>
&gt;&gt;&gt;&gt;       &gt;From 172.28.200.168 icmp_seq=2 Destination Host Unreachable<br>
&gt;&gt;&gt;&gt;       &gt;From 172.28.200.168 icmp_seq=3 Destination Host Unreachable<br>
&gt;&gt;&gt;&gt;      ^C<br>
&gt;&gt;&gt;&gt;      --- 172.28.200.159 ping statistics ---<br>
&gt;&gt;&gt;&gt;      5 packets transmitted, 0 received, +4 errors, 100% packet loss,<br>
&gt;&gt;&gt;&gt; time 4024ms<br>
&gt;&gt;&gt;&gt;      , pipe 3<br>
&gt;&gt;&gt;&gt;      cl2_lb1:~ # ping 172.16.0.5<br>
&gt;&gt;&gt;&gt;      PING 172.16.0.5 (172.16.0.5) 56(84) bytes of data.<br>
&gt;&gt;&gt;&gt;       &gt;From 172.16.0.3 &lt;<a href="http://172.16.0.3" target="_blank">http://172.16.0.3</a>&gt;: icmp_seq=1 Destination Host<br>
&gt;&gt;&gt;&gt; Unreachable<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;       &gt;From 172.16.0.3 icmp_seq=1 Destination Host Unreachable<br>
&gt;&gt;&gt;&gt;       &gt;From 172.16.0.3 icmp_seq=2 Destination Host Unreachable<br>
&gt;&gt;&gt;&gt;       &gt;From 172.16.0.3 icmp_seq=3 Destination Host Unreachable<br>
&gt;&gt;&gt;&gt;       &gt;From 172.16.0.3 icmp_seq=5 Destination Host Unreachable<br>
&gt;&gt;&gt;&gt;       &gt;From 172.16.0.3 icmp_seq=6 Destination Host Unreachable<br>
&gt;&gt;&gt;&gt;       &gt;From 172.16.0.3 icmp_seq=7 Destination Host Unreachable<br>
&gt;&gt;&gt;&gt;      ^C<br>
&gt;&gt;&gt;&gt;      --- 172.16.0.5 ping statistics ---<br>
&gt;&gt;&gt;&gt;      8 packets transmitted, 0 received, +7 errors, 100% packet loss,<br>
&gt;&gt;&gt;&gt; time 7015ms<br>
&gt;&gt;&gt;&gt;      , pipe 3<br>
&gt;&gt;&gt;&gt;      cl2_lb1:~ #<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;      Any ideas please, or it it a case of recovering the original master<br>
&gt;&gt;&gt;&gt; manually<br>
&gt;&gt;&gt;&gt;      before starting Corosync etc?<br>
&gt;&gt;&gt;&gt;      All logs are attached<br>
&gt;&gt;&gt;&gt;      Regards<br>
&gt;&gt;&gt;&gt;      On Mon, Mar 16, 2015 at 11:01 AM, Wynand Jansen van Vuuren<br>
&gt;&gt;&gt;&gt;      &lt;<a href="mailto:esawyja@gmail.com">esawyja@gmail.com</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;          Thanks for the advice, I have a demo on this now, so I don&#39;t<br>
&gt;&gt;&gt;&gt; want to<br>
&gt;&gt;&gt;&gt;          test this now, I will do so tomorrow and forwards the logs,<br>
&gt;&gt;&gt;&gt; many thanks!!<br>
&gt;&gt;&gt;&gt;          On Mon, Mar 16, 2015 at 10:54 AM, NAKAHIRA Kazutomo<br>
&gt;&gt;&gt;&gt;          &lt;<a href="mailto:nakahira_kazutomo_b1@lab.ntt.co.jp">nakahira_kazutomo_b1@lab.ntt.co.jp</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;              Hi,<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;              &gt; do you suggest that I take it out? or should I look at<br>
&gt;&gt;&gt;&gt; the problem where<br>
&gt;&gt;&gt;&gt;              &gt; cl2_lb1 is not being promoted?<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;              You should look at the problem where cl2_lb1 is not being<br>
&gt;&gt;&gt;&gt; promoted.<br>
&gt;&gt;&gt;&gt;              And I look it if you send me a ha-log and PostgreSQL&#39;s log.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;              Best regards,<br>
&gt;&gt;&gt;&gt;              Kazutomo NAKAHIRA<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;              On 2015/03/16 17:18, Wynand Jansen van Vuuren wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                  Hi Nakahira,<br>
&gt;&gt;&gt;&gt;                  Thanks so much for the info, this setting was as the<br>
&gt;&gt;&gt;&gt; wiki page<br>
&gt;&gt;&gt;&gt;                  suggested,<br>
&gt;&gt;&gt;&gt;                  do you suggest that I take it out? or should I look at<br>
&gt;&gt;&gt;&gt; the<br>
&gt;&gt;&gt;&gt;                  problem where<br>
&gt;&gt;&gt;&gt;                  cl2_lb1 is not being promoted?<br>
&gt;&gt;&gt;&gt;                  Regards<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                  On Mon, Mar 16, 2015 at 10:15 AM, NAKAHIRA Kazutomo &lt;<br>
&gt;&gt;&gt;&gt;                  <a href="mailto:nakahira_kazutomo_b1@lab.ntt.co.jp">nakahira_kazutomo_b1@lab.ntt.co.jp</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      Hi,<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          Notice there is no VIPs, looks like the VIPs<br>
&gt;&gt;&gt;&gt; depends on<br>
&gt;&gt;&gt;&gt;                          some other<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      resource<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          to start 1st?<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      The following constraints means that &quot;master-group&quot;<br>
&gt;&gt;&gt;&gt; can not<br>
&gt;&gt;&gt;&gt;                      start<br>
&gt;&gt;&gt;&gt;                      without master of msPostgresql resource.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      colocation rsc_colocation-1 inf: master-group<br>
&gt;&gt;&gt;&gt;                      msPostgresql:Master<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      After you power off cl1_lb1, msPostgresql on the<br>
&gt;&gt;&gt;&gt; cl2_lb1 is<br>
&gt;&gt;&gt;&gt;                      not promoted<br>
&gt;&gt;&gt;&gt;                      and master is not exist in your cluster.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      It means that &quot;master-group&quot; can not run anyware.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      Best regards,<br>
&gt;&gt;&gt;&gt;                      Kazutomo NAKAHIRA<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      On 2015/03/16 16:48, Wynand Jansen van Vuuren<br>
&gt;&gt;&gt;&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          Hi<br>
&gt;&gt;&gt;&gt;                          When I start out cl1_lb1 (Cluster 1 load<br>
&gt;&gt;&gt;&gt; balancer 1) is<br>
&gt;&gt;&gt;&gt;                          the master as<br>
&gt;&gt;&gt;&gt;                          below<br>
&gt;&gt;&gt;&gt;                          cl1_lb1:~ # crm_mon -1 -Af<br>
&gt;&gt;&gt;&gt;                          Last updated: Mon Mar 16 09:44:44 2015<br>
&gt;&gt;&gt;&gt;                          Last change: Mon Mar 16 08:06:26 2015 by root<br>
&gt;&gt;&gt;&gt; via<br>
&gt;&gt;&gt;&gt;                          crm_attribute on cl1_lb1<br>
&gt;&gt;&gt;&gt;                          Stack: classic openais (with plugin)<br>
&gt;&gt;&gt;&gt;                          Current DC: cl2_lb1 - partition with quorum<br>
&gt;&gt;&gt;&gt;                          Version: 1.1.9-2db99f1<br>
&gt;&gt;&gt;&gt;                          2 Nodes configured, 2 expected votes<br>
&gt;&gt;&gt;&gt;                          6 Resources configured.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          Online: [ cl1_lb1 cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                              Resource Group: master-group<br>
&gt;&gt;&gt;&gt;                                  vip-master    (ocf::heartbeat:IPaddr2):<br>
&gt;&gt;&gt;&gt;                          Started cl1_lb1<br>
&gt;&gt;&gt;&gt;                                  vip-rep    (ocf::heartbeat:IPaddr2):<br>
&gt;&gt;&gt;&gt; Started<br>
&gt;&gt;&gt;&gt;                          cl1_lb1<br>
&gt;&gt;&gt;&gt;                                  CBC_instance    (ocf::heartbeat:cbc):<br>
&gt;&gt;&gt;&gt; Started<br>
&gt;&gt;&gt;&gt;                          cl1_lb1<br>
&gt;&gt;&gt;&gt;                                  failover_MailTo<br>
&gt;&gt;&gt;&gt; (ocf::heartbeat:MailTo):<br>
&gt;&gt;&gt;&gt;                          Started cl1_lb1<br>
&gt;&gt;&gt;&gt;                              Master/Slave Set: msPostgresql [pgsql]<br>
&gt;&gt;&gt;&gt;                                  Masters: [ cl1_lb1 ]<br>
&gt;&gt;&gt;&gt;                                  Slaves: [ cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          Node Attributes:<br>
&gt;&gt;&gt;&gt;                          * Node cl1_lb1:<br>
&gt;&gt;&gt;&gt;                                 + master-pgsql                        :<br>
&gt;&gt;&gt;&gt; 1000<br>
&gt;&gt;&gt;&gt;                                 + pgsql-data-status                   :<br>
&gt;&gt;&gt;&gt; LATEST<br>
&gt;&gt;&gt;&gt;                                 + pgsql-master-baseline               :<br>
&gt;&gt;&gt;&gt;                          00000008B90061F0<br>
&gt;&gt;&gt;&gt;                                 + pgsql-status                        :<br>
&gt;&gt;&gt;&gt; PRI<br>
&gt;&gt;&gt;&gt;                          * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;                                 + master-pgsql                        :<br>
&gt;&gt;&gt;&gt; 100<br>
&gt;&gt;&gt;&gt;                                 + pgsql-data-status                   :<br>
&gt;&gt;&gt;&gt;                          STREAMING|SYNC<br>
&gt;&gt;&gt;&gt;                                 + pgsql-status                        :<br>
&gt;&gt;&gt;&gt; HS:sync<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          Migration summary:<br>
&gt;&gt;&gt;&gt;                          * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;                          * Node cl1_lb1:<br>
&gt;&gt;&gt;&gt;                          cl1_lb1:~ #<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          If I then do a power off on cl1_lb1 (master),<br>
&gt;&gt;&gt;&gt; Postgres<br>
&gt;&gt;&gt;&gt;                          moves to cl2_lb1<br>
&gt;&gt;&gt;&gt;                          (Cluster 2 load balancer 1), but the VIP-MASTER<br>
&gt;&gt;&gt;&gt; and<br>
&gt;&gt;&gt;&gt;                          VIP-REP is not<br>
&gt;&gt;&gt;&gt;                          pingable<br>
&gt;&gt;&gt;&gt;                          from the NEW master (cl2_lb1), it stays line<br>
&gt;&gt;&gt;&gt; this below<br>
&gt;&gt;&gt;&gt;                          cl2_lb1:~ # crm_mon -1 -Af<br>
&gt;&gt;&gt;&gt;                          Last updated: Mon Mar 16 07:32:07 2015<br>
&gt;&gt;&gt;&gt;                          Last change: Mon Mar 16 07:28:53 2015 by root<br>
&gt;&gt;&gt;&gt; via<br>
&gt;&gt;&gt;&gt;                          crm_attribute on cl1_lb1<br>
&gt;&gt;&gt;&gt;                          Stack: classic openais (with plugin)<br>
&gt;&gt;&gt;&gt;                          Current DC: cl2_lb1 - partition WITHOUT quorum<br>
&gt;&gt;&gt;&gt;                          Version: 1.1.9-2db99f1<br>
&gt;&gt;&gt;&gt;                          2 Nodes configured, 2 expected votes<br>
&gt;&gt;&gt;&gt;                          6 Resources configured.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          Online: [ cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;                          OFFLINE: [ cl1_lb1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                              Master/Slave Set: msPostgresql [pgsql]<br>
&gt;&gt;&gt;&gt;                                  Slaves: [ cl2_lb1 ]<br>
&gt;&gt;&gt;&gt;                                  Stopped: [ pgsql:1 ]<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          Node Attributes:<br>
&gt;&gt;&gt;&gt;                          * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;                                 + master-pgsql                        :<br>
&gt;&gt;&gt;&gt; -INFINITY<br>
&gt;&gt;&gt;&gt;                                 + pgsql-data-status                   :<br>
&gt;&gt;&gt;&gt; DISCONNECT<br>
&gt;&gt;&gt;&gt;                                 + pgsql-status                        :<br>
&gt;&gt;&gt;&gt; HS:alone<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          Migration summary:<br>
&gt;&gt;&gt;&gt;                          * Node cl2_lb1:<br>
&gt;&gt;&gt;&gt;                          cl2_lb1:~ #<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          Notice there is no VIPs, looks like the VIPs<br>
&gt;&gt;&gt;&gt; depends on<br>
&gt;&gt;&gt;&gt;                          some other<br>
&gt;&gt;&gt;&gt;                          resource<br>
&gt;&gt;&gt;&gt;                          to start 1st?<br>
&gt;&gt;&gt;&gt;                          Thanks for the reply!<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          On Mon, Mar 16, 2015 at 9:42 AM, NAKAHIRA<br>
&gt;&gt;&gt;&gt; Kazutomo &lt;<br>
&gt;&gt;&gt;&gt;                          <a href="mailto:nakahira_kazutomo_b1@lab.ntt.co.jp">nakahira_kazutomo_b1@lab.ntt.co.jp</a>&gt; wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                             Hi,<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                                 fine, cl2_lb1 takes over and acts as a<br>
&gt;&gt;&gt;&gt; slave, but<br>
&gt;&gt;&gt;&gt;                              the VIPs does not come<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                              cl2_lb1 acts as a slave? It is not a<br>
&gt;&gt;&gt;&gt; master?<br>
&gt;&gt;&gt;&gt;                              VIPs comes up with master msPostgresql<br>
&gt;&gt;&gt;&gt; resource.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                              If promote action was failed in the<br>
&gt;&gt;&gt;&gt; cl2_lb1, then<br>
&gt;&gt;&gt;&gt;                              please send a ha-log and PostgreSQL&#39;s log.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                              Best regards,<br>
&gt;&gt;&gt;&gt;                              Kazutomo NAKAHIRA<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                              On 2015/03/16 16:09, Wynand Jansen van<br>
&gt;&gt;&gt;&gt; Vuuren wrote:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                                 Hi all,<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                                  I have 2 nodes, with 2 interfaces each,<br>
&gt;&gt;&gt;&gt; ETH0 is<br>
&gt;&gt;&gt;&gt;                                  used for an application,<br>
&gt;&gt;&gt;&gt;                                  CBC, that&#39;s writing to the Postgres DB<br>
&gt;&gt;&gt;&gt; on the<br>
&gt;&gt;&gt;&gt;                                  VIP-MASTER 172.28.200.159,<br>
&gt;&gt;&gt;&gt;                                  ETH1 is used for the Corosync<br>
&gt;&gt;&gt;&gt; configuration and<br>
&gt;&gt;&gt;&gt;                                  VIP-REP, everything<br>
&gt;&gt;&gt;&gt;                                  works,<br>
&gt;&gt;&gt;&gt;                                  but if the master currently on cl1_lb1<br>
&gt;&gt;&gt;&gt; has a<br>
&gt;&gt;&gt;&gt;                                  catastrophic failure, like<br>
&gt;&gt;&gt;&gt;                                  power down, the VIPs does not start on<br>
&gt;&gt;&gt;&gt; the<br>
&gt;&gt;&gt;&gt;                                  slave, the Postgres parts<br>
&gt;&gt;&gt;&gt;                                  works<br>
&gt;&gt;&gt;&gt;                                  fine, cl2_lb1 takes over and acts as a<br>
&gt;&gt;&gt;&gt; slave,<br>
&gt;&gt;&gt;&gt;                                  but the VIPs does not come<br>
&gt;&gt;&gt;&gt;                                  up. If I test it manually, IE kill the<br>
&gt;&gt;&gt;&gt;                                  application 3 times on the<br>
&gt;&gt;&gt;&gt;                                  master,<br>
&gt;&gt;&gt;&gt;                                  the switchover is smooth, same if I<br>
&gt;&gt;&gt;&gt; kill<br>
&gt;&gt;&gt;&gt;                                  Postgres on master, but when<br>
&gt;&gt;&gt;&gt;                                  there<br>
&gt;&gt;&gt;&gt;                                  is a power failure on the Master, the<br>
&gt;&gt;&gt;&gt; VIPs stay<br>
&gt;&gt;&gt;&gt;                                  down. If I then delete<br>
&gt;&gt;&gt;&gt;                                  the<br>
&gt;&gt;&gt;&gt;                                  attributes pgsql-data-status=&quot;LATEST&quot;<br>
&gt;&gt;&gt;&gt; and attributes<br>
&gt;&gt;&gt;&gt;                                  pgsql-data-status=&quot;STREAMING|SYNC&quot; on<br>
&gt;&gt;&gt;&gt; the slave<br>
&gt;&gt;&gt;&gt;                                  after power off on the<br>
&gt;&gt;&gt;&gt;                                  master and restart everything, then the<br>
&gt;&gt;&gt;&gt; VIPs<br>
&gt;&gt;&gt;&gt;                                  come up on the slave, any<br>
&gt;&gt;&gt;&gt;                                  ideas please?<br>
&gt;&gt;&gt;&gt;                                  I&#39;m using this setup<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; <a href="http://clusterlabs.org/wiki/PgSQL_Replicated_Cluster" target="_blank">http://clusterlabs.org/wiki/PgSQL_Replicated_Cluster</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                                  With this configuration below<br>
&gt;&gt;&gt;&gt;                                  node cl1_lb1 \<br>
&gt;&gt;&gt;&gt;                                              attributes<br>
&gt;&gt;&gt;&gt; pgsql-data-status=&quot;LATEST&quot;<br>
&gt;&gt;&gt;&gt;                                  node cl2_lb1 \<br>
&gt;&gt;&gt;&gt;                                              attributes<br>
&gt;&gt;&gt;&gt;                                  pgsql-data-status=&quot;STREAMING|SYNC&quot;<br>
&gt;&gt;&gt;&gt;                                  primitive CBC_instance<br>
&gt;&gt;&gt;&gt; ocf:heartbeat:cbc \<br>
&gt;&gt;&gt;&gt;                                              op monitor interval=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
&gt;&gt;&gt;&gt;                                              op start interval=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt; timeout=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  on-fail=&quot;restart&quot; \<br>
&gt;&gt;&gt;&gt;                                              meta target-role=&quot;Started&quot;<br>
&gt;&gt;&gt;&gt;                                  migration-threshold=&quot;3&quot;<br>
&gt;&gt;&gt;&gt;                                  failure-timeout=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  primitive failover_MailTo<br>
&gt;&gt;&gt;&gt; ocf:heartbeat:MailTo \<br>
&gt;&gt;&gt;&gt;                                              params<br>
&gt;&gt;&gt;&gt; email=&quot;<a href="mailto:wynandj@rorotika.com">wynandj@rorotika.com</a>&quot;<br>
&gt;&gt;&gt;&gt;                                  subject=&quot;Cluster Status<br>
&gt;&gt;&gt;&gt;                                  change<br>
&gt;&gt;&gt;&gt;                                  - &quot; \<br>
&gt;&gt;&gt;&gt;                                              op monitor interval=&quot;10&quot;<br>
&gt;&gt;&gt;&gt;                                  timeout=&quot;10&quot; dept=&quot;0&quot;<br>
&gt;&gt;&gt;&gt;                                  primitive pgsql ocf:heartbeat:pgsql \<br>
&gt;&gt;&gt;&gt;                                              params<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; pgctl=&quot;/opt/app/PostgreSQL/9.3/bin/pg_ctl&quot;<br>
&gt;&gt;&gt;&gt;                                  psql=&quot;/opt/app/PostgreSQL/9.3/bin/psql&quot;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; config=&quot;/opt/app/pgdata/9.3/postgresql.conf&quot;<br>
&gt;&gt;&gt;&gt;                                  pgdba=&quot;postgres&quot;<br>
&gt;&gt;&gt;&gt;                                  pgdata=&quot;/opt/app/pgdata/9.3/&quot;<br>
&gt;&gt;&gt;&gt; start_opt=&quot;-p<br>
&gt;&gt;&gt;&gt;                                  5432&quot; rep_mode=&quot;sync&quot;<br>
&gt;&gt;&gt;&gt;                                  node_list=&quot;cl1_lb1 cl2_lb1&quot;<br>
&gt;&gt;&gt;&gt; restore_command=&quot;cp<br>
&gt;&gt;&gt;&gt;                                  /pgtablespace/archive/%f<br>
&gt;&gt;&gt;&gt;                                  %p&quot;<br>
&gt;&gt;&gt;&gt; primary_conninfo_opt=&quot;keepalives_idle=60<br>
&gt;&gt;&gt;&gt;                                  keepalives_interval=5<br>
&gt;&gt;&gt;&gt;                                  keepalives_count=5&quot;<br>
&gt;&gt;&gt;&gt; master_ip=&quot;172.16.0.5&quot;<br>
&gt;&gt;&gt;&gt;                                  restart_on_promote=&quot;false&quot;<br>
&gt;&gt;&gt;&gt;                                  logfile=&quot;/var/log/OCF.log&quot; \<br>
&gt;&gt;&gt;&gt;                                              op start interval=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt; timeout=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  on-fail=&quot;restart&quot; \<br>
&gt;&gt;&gt;&gt;                                              op monitor interval=&quot;4s&quot;<br>
&gt;&gt;&gt;&gt;                                  timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
&gt;&gt;&gt;&gt;                                              op monitor interval=&quot;3s&quot;<br>
&gt;&gt;&gt;&gt;                                  role=&quot;Master&quot; timeout=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  on-fail=&quot;restart&quot; \<br>
&gt;&gt;&gt;&gt;                                              op promote interval=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt;                                  timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
&gt;&gt;&gt;&gt;                                              op demote interval=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt;                                  timeout=&quot;60s&quot; on-fail=&quot;stop&quot; \<br>
&gt;&gt;&gt;&gt;                                              op stop interval=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt; timeout=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  on-fail=&quot;block&quot; \<br>
&gt;&gt;&gt;&gt;                                              op notify interval=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt; timeout=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  primitive vip-master<br>
&gt;&gt;&gt;&gt; ocf:heartbeat:IPaddr2 \<br>
&gt;&gt;&gt;&gt;                                              params ip=&quot;172.28.200.159&quot;<br>
&gt;&gt;&gt;&gt;                                  nic=&quot;eth0&quot; iflabel=&quot;CBC_VIP&quot;<br>
&gt;&gt;&gt;&gt;                                  cidr_netmask=&quot;24&quot; \<br>
&gt;&gt;&gt;&gt;                                              op start interval=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt; timeout=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  on-fail=&quot;restart&quot; \<br>
&gt;&gt;&gt;&gt;                                              op monitor interval=&quot;10s&quot;<br>
&gt;&gt;&gt;&gt;                                  timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
&gt;&gt;&gt;&gt;                                              op stop interval=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt; timeout=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  on-fail=&quot;block&quot; \<br>
&gt;&gt;&gt;&gt;                                              meta target-role=&quot;Started&quot;<br>
&gt;&gt;&gt;&gt;                                  primitive vip-rep ocf:heartbeat:IPaddr2<br>
&gt;&gt;&gt;&gt; \<br>
&gt;&gt;&gt;&gt;                                              params ip=&quot;172.16.0.5&quot;<br>
&gt;&gt;&gt;&gt; nic=&quot;eth1&quot;<br>
&gt;&gt;&gt;&gt;                                  iflabel=&quot;REP_VIP&quot;<br>
&gt;&gt;&gt;&gt;                                  cidr_netmask=&quot;24&quot; \<br>
&gt;&gt;&gt;&gt;                                              meta<br>
&gt;&gt;&gt;&gt; migration-threshold=&quot;0&quot;<br>
&gt;&gt;&gt;&gt;                                  target-role=&quot;Started&quot; \<br>
&gt;&gt;&gt;&gt;                                              op start interval=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt; timeout=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  on-fail=&quot;stop&quot; \<br>
&gt;&gt;&gt;&gt;                                              op monitor interval=&quot;10s&quot;<br>
&gt;&gt;&gt;&gt;                                  timeout=&quot;60s&quot; on-fail=&quot;restart&quot; \<br>
&gt;&gt;&gt;&gt;                                              op stop interval=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt; timeout=&quot;60s&quot;<br>
&gt;&gt;&gt;&gt;                                  on-fail=&quot;restart&quot;<br>
&gt;&gt;&gt;&gt;                                  group master-group vip-master vip-rep<br>
&gt;&gt;&gt;&gt;                                  CBC_instance failover_MailTo<br>
&gt;&gt;&gt;&gt;                                  ms msPostgresql pgsql \<br>
&gt;&gt;&gt;&gt;                                              meta master-max=&quot;1&quot;<br>
&gt;&gt;&gt;&gt;                                  master-node-max=&quot;1&quot; clone-max=&quot;2&quot;<br>
&gt;&gt;&gt;&gt;                                  clone-node-max=&quot;1&quot; notify=&quot;true&quot;<br>
&gt;&gt;&gt;&gt;                                  colocation rsc_colocation-1 inf:<br>
&gt;&gt;&gt;&gt; master-group<br>
&gt;&gt;&gt;&gt;                                  msPostgresql:Master<br>
&gt;&gt;&gt;&gt;                                  order rsc_order-1 0:<br>
&gt;&gt;&gt;&gt; msPostgresql:promote<br>
&gt;&gt;&gt;&gt;                                  master-group:start<br>
&gt;&gt;&gt;&gt;                                  symmetrical=false<br>
&gt;&gt;&gt;&gt;                                  order rsc_order-2 0:<br>
&gt;&gt;&gt;&gt; msPostgresql:demote<br>
&gt;&gt;&gt;&gt;                                  master-group:stop<br>
&gt;&gt;&gt;&gt;                                  symmetrical=false<br>
&gt;&gt;&gt;&gt;                                  property $id=&quot;cib-bootstrap-options&quot; \<br>
&gt;&gt;&gt;&gt;                                              dc-version=&quot;1.1.9-2db99f1&quot;<br>
&gt;&gt;&gt;&gt; \<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; cluster-infrastructure=&quot;classic<br>
&gt;&gt;&gt;&gt;                                  openais (with plugin)&quot; \<br>
&gt;&gt;&gt;&gt;                                              expected-quorum-votes=&quot;2&quot; \<br>
&gt;&gt;&gt;&gt;                                              no-quorum-policy=&quot;ignore&quot; \<br>
&gt;&gt;&gt;&gt;                                              stonith-enabled=&quot;false&quot; \<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; cluster-recheck-interval=&quot;1min&quot; \<br>
&gt;&gt;&gt;&gt;                                              crmd-transition-delay=&quot;0s&quot;<br>
&gt;&gt;&gt;&gt; \<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; last-lrm-refresh=&quot;1426485983&quot;<br>
&gt;&gt;&gt;&gt;                                              rsc_defaults<br>
&gt;&gt;&gt;&gt; $id=&quot;rsc-options&quot; \<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; resource-stickiness=&quot;INFINITY&quot; \<br>
&gt;&gt;&gt;&gt;                                              migration-threshold=&quot;1&quot;<br>
&gt;&gt;&gt;&gt;                                  #vim:set syntax=pcmk<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                                  Any ideas please, I&#39;m lost......<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt;                                  Users mailing list:<br>
&gt;&gt;&gt;&gt; <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                                  Project Home:<br>
&gt;&gt;&gt;&gt; <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;                                  Getting started:<br>
&gt;&gt;&gt;&gt; <a href="http://www.clusterlabs.org/" target="_blank">http://www.clusterlabs.org/</a><br>
&gt;&gt;&gt;&gt;                                  doc/Cluster_from_Scratch.pdf<br>
&gt;&gt;&gt;&gt;                                  Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt;                              Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                              Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;                              Getting started:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt;&gt;&gt;&gt;                              Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          _______________________________________________<br>
&gt;&gt;&gt;&gt;                          Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;                          <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                          Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;                          Getting started:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt;&gt;&gt;&gt;                          Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      --<br>
&gt;&gt;&gt;&gt;                      NTT オープンソースソフトウェアセンタ<br>
&gt;&gt;&gt;&gt;                      中平 和友<br>
&gt;&gt;&gt;&gt;                      TEL: 03-5860-5135 FAX: 03-5463-6490<br>
&gt;&gt;&gt;&gt;                      Mail: <a href="mailto:nakahira_kazutomo_b1@lab.ntt.co.jp">nakahira_kazutomo_b1@lab.ntt.co.jp</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      _______________________________________________<br>
&gt;&gt;&gt;&gt;                      Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;                      <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                      Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;                      Getting started:<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt;&gt;&gt;&gt;                      Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                  _______________________________________________<br>
&gt;&gt;&gt;&gt;                  Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;                  <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;                  Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;                  Getting started:<br>
&gt;&gt;&gt;&gt;                  <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt;&gt;&gt;&gt;                  Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;              --<br>
&gt;&gt;&gt;&gt;              NTT オープンソースソフトウェアセンタ<br>
&gt;&gt;&gt;&gt;              中平 和友<br>
&gt;&gt;&gt;&gt;              TEL: 03-5860-5135 FAX: 03-5463-6490<br>
&gt;&gt;&gt;&gt;              Mail: <a href="mailto:nakahira_kazutomo_b1@lab.ntt.co.jp">nakahira_kazutomo_b1@lab.ntt.co.jp</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;              _______________________________________________<br>
&gt;&gt;&gt;&gt;              Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;              <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;              Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;              Getting started:<br>
&gt;&gt;&gt;&gt; <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt;&gt;&gt;&gt;              Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; _______________________________________________ Users mailing list:<br>
&gt;&gt;&gt;&gt; <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a> <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt; Project<br>
&gt;&gt;&gt;&gt; Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a> Getting started:<br>
&gt;&gt;&gt;&gt; <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a> Bugs:<br>
&gt;&gt;&gt;&gt; <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt;&gt; Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt;&gt;&gt;&gt; <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt;&gt;&gt;&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt;&gt;&gt; <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt;&gt;&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt;&gt;&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
&gt; <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
&gt;<br>
&gt; Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
&gt; Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
&gt; Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
&gt;<br>
<br>
_______________________________________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
<a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</div></div></blockquote></div><br></div>