<div dir="ltr"><br><div class="gmail_extra">2016-09-13 23:14 GMT+02:00 Ken Gaillot <span dir="ltr">&lt;<a target="_blank" href="mailto:kgaillot@redhat.com">kgaillot@redhat.com</a>&gt;</span>:<br><div class="gmail_quote"><blockquote style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex" class="gmail_quote"><span>On 09/13/2016 03:27 PM, Gienek Nowacki wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; I&#39;m still testing (before production running) the solution with<br>
&gt; pacemaker+corosync+drbd+dlm+gf<wbr>s2 on Centos7 with double-primary config.<br>
&gt;<br>
&gt; I have two nodes: wirt1v and wirt2v - each node contains LVM partition<br>
&gt; with DRBD (/dev/drbd2) and filesystem mounted as /virtfs2. Filesystems<br>
&gt; /virtfs2 contain the images of virtual machines.<br>
&gt;<br>
&gt; My problem is so - I can&#39;t start the cluster and the resources on one<br>
&gt; node only (cold start) when the second node is completely powered off.<br>
<br>
</span>&quot;two_node: 1&quot; implies &quot;wait_for_all: 1&quot; in corosync.conf; see the<br>
votequorum(5) man page for details.<br>
<br>
This is a safeguard against the situation where the other node is up,<br>
but not reachable from the newly starting node.<br>
<br>
You can get around this by setting &quot;wait_for_all: 0&quot;, and rely on<br>
pacemaker&#39;s fencing to resolve that situation. But if so, be careful<br>
about starting pacemaker when the nodes can&#39;t see each other, because<br>
each will try to fence the other.<br>(...)<br></blockquote><div><br> <br>Yes, this is the solution of my problem - now it&#39;s work as I expected.<br><br>Many thanks for your answer,<br>Gienek<br><br></div></div></div></div>