<html dir="ltr">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<style id="owaParaStyle" type="text/css">P {margin-top:0;margin-bottom:0;}</style>
</head>
<body ocsi="0" fpstyle="1">
<div style="direction: ltr;font-family: Tahoma;color: #000000;font-size: 10pt;">Hello, I am having some issues ordering a resource that depends on a clone.&nbsp; Specifically, I have a two node cluster with two virtual IPs.&nbsp; Each vip has a slight preference for
 its own &quot;home&quot; node via a location constraint, and they have mandatory colocation and order constraints on a cloned (anonymous) webserver.&nbsp; Problem I am seeing is when a node comes back after being down (let's say node2 goes down).&nbsp; Both vips fail over to
 node1 (still up), but when node2 comes back the vip is moved back immediately.&nbsp; This results in vip2 being unavailable until the webserver actually comes back up on node2.<br>
<br>
* node2 goes down.<br>
* vip2 moves to node1<br>
* node2 comes back up<br>
* everything starts/moves IMMEDIATELY to node2 (same transition)<br>
&nbsp;&nbsp;&nbsp; * cloned tomcat webserver starting up<br>
&nbsp;&nbsp;&nbsp; * vip2 is stopped on node1<br>
* webserver becomes started on node2<br>
* vip2 finally becomes available again on node2<br>
<br>
The vip resources have colocation and ordering constraints on the cloned webserver, so I am confused why they are immediately moved when the node comes back online, instead of waiting to move them until the webserver resource finishes starting on node2.&nbsp; Does
 ordering on a cloned resource only take into account that the resource is started &quot;somewhere&quot;? Should my webserver clone to be globally unique?&nbsp; Is there a different way to enforce what I am trying to achieve here?&nbsp; I want to make sure the cloned resource
 is started on the target node before dependant resources are started/moved there.<br>
<br>
Relevant Config (crm format):<br>
<br>
clone tomcat-clone tomcat-group<br>
location loc-vip1 vip1 rule 100: nodeNumber eq 1<br>
location loc-vip2 vip2 rule 100: nodeNumber eq 2<br>
order order-vip1 inf: tomcat-clone vip1<br>
order order-vip2 inf: tomcat-clone vip2<br>
colocation colo-vip1 inf: vip1 tomcat-clone<br>
colocation colo-vip2 inf: vip2 tomcat-clone<br>
<br>
Relevant Logs:<br>
<br>
Mar 16 17:27:24 localhost corosync[3198]: [TOTEM ] A new membership (172.20.70.151:100) was formed. Members joined: 2<br>
Mar 16 17:27:24 localhost corosync[3198]: [QUORUM] Members[2]: 1 2<br>
Mar 16 17:27:24 localhost corosync[3198]: [MAIN&nbsp; ] Completed service synchronization, ready to provide service.<br>
Mar 16 17:27:24 localhost pacemakerd[3241]: notice: crm_update_peer_state: pcmk_quorum_notification: Node module-2[2] - state is now member (was lost)<br>
<br>
Mar 16 17:27:31 localhost pengine[3268]: notice: LogActions: Move&nbsp; vip1 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (Started module-1 -&gt; module-2)<br>
Mar 16 17:27:31 localhost pengine[3268]: notice: LogActions: Start&nbsp;&nbsp; postgres:1 (module-2)<br>
Mar 16 17:27:31 localhost pengine[3268]: notice: LogActions: Start&nbsp;&nbsp; ethmonitor:1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (module-2)<br>
Mar 16 17:27:31 localhost pengine[3268]: notice: LogActions: Start&nbsp;&nbsp; fsmonitor:1&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (module-2)<br>
Mar 16 17:27:31 localhost pengine[3268]: notice: LogActions: Start&nbsp;&nbsp; tomcat-instance:1&nbsp; (module-2)<br>
Mar 16 17:27:31 localhost pengine[3268]: notice: LogActions: Start&nbsp;&nbsp; ClusterMonitor:1&nbsp;&nbsp; (module-2)<br>
Mar 16 17:27:33 localhost pengine[3268]: notice: process_pe_message: Calculated Transition 26: /var/lib/pacemaker/pengine/pe-input-66.bz2<br>
<br>
Mar 16 17:27:33 localhost crmd[3269]: notice: te_rsc_command: Initiating action 41: stop vip1_stop_0 on module-1 (local)<br>
Mar 16 17:27:33 localhost crmd[3269]: notice: te_rsc_command: Initiating action 117: notify postgres_pre_notify_start_0 on module-1 (local)<br>
Mar 16 17:27:33 localhost crmd[3269]: notice: te_rsc_command: Initiating action 80: start ethmonitor_start_0 on module-2<br>
Mar 16 17:27:33 localhost crmd[3269]: notice: te_rsc_command: Initiating action 102: start tomcat-instance_start_0 on module-2<br>
<br>
Mar 16 17:28:23 localhost pengine[3268]: notice: LogActions: Start&nbsp;&nbsp; vip1 &nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (module-2)<br>
<br>
Mar 16 17:29:55 localhost crmd[3269]: notice: te_rsc_command: Initiating action 39: start vip1_start_0 on module-2<br>
<br>
<br>
</div>
</body>
</html>