först publicerad på MSDN den 27 maj 2011
Hi Cluster Fans,

detta blogginlägg kommer att klargöra planeringshänsyn kring
quorum
i ett failover Cluster och svara på några av de vanligaste frågorna vi hör.

kvorumkonfigurationen i ett failover-kluster bestämmer antalet fel som klustret kan upprätthålla medan det fortfarande är online. Om ett ytterligare fel inträffar utöver detta tröskelvärde kommer klustret att sluta köra. En vanlig uppfattning är att anledningen till att klustret slutar springa om för många fel uppstår är att förhindra att de återstående noderna tar på sig för många arbetsbelastningar och att värdarna är överbeslutna. Faktum är att klustret inte känner till dina kapacitetsbegränsningar eller om du skulle vara villig att ta en prestationshit för att hålla den online. Snarare är kvorum design för att hantera scenariot när det finns ett problem med kommunikation mellan uppsättningar av klusternoder, så att två servrar inte försöker samtidigt vara värd för en resursgrupp och skriva till samma disk samtidigt. Detta är känt som en ”delad hjärna” och vi vill förhindra detta för att undvika eventuell korruption till en disk som jag har två samtidiga gruppägare. Genom att ha detta kvorumbegrepp kommer klustret att tvinga klustertjänsten att stanna i en av delmängderna av noder för att säkerställa att det bara finns en sann ägare till en viss resursgrupp. När noder som har stoppats kan återigen kommunicera med huvudgruppen av noder, kommer de automatiskt att ansluta sig till klustret och starta sin klustertjänst.

för mer information om kvorum i ett kluster, besök:
http://technet.microsoft.com/en-us/library/cc731739.aspx
.

rösta mot kvorum

att ha ’kvorum’, eller en majoritet av väljarna, baseras på röstningsalgoritm där mer än hälften av väljarna måste vara online och kunna kommunicera med varandra. Eftersom ett givet kluster har en specifik uppsättning noder och en specifik kvorumkonfiguration, kommer klustret att veta hur många ”röster” som utgör en majoritet av rösterna, eller kvorum. Om antalet väljare sjunker under majoriteten kommer klustertjänsten att stanna på noderna i den gruppen. Dessa noder lyssnar fortfarande efter närvaron av andra noder, om en annan nod visas igen i nätverket, men noderna börjar inte fungera som ett kluster förrän kvorumet finns igen.

det är viktigt att inse att klustret kräver
mer än
hälften av de totala rösterna för att uppnå kvorum. Detta för att undvika att ha en ’slips’ i antalet röster i en partition, eftersom majoriteten alltid kommer att innebära att den andra partitionen har mindre än hälften av rösterna. I ett 5-nodskluster måste 3 väljare vara online; men i ett 4-nodskluster måste 3 väljare också vara online för att ha majoritet. På grund av denna logik rekommenderas det att alltid ha ett udda antal totala väljare i klustret. Detta betyder inte nödvändigtvis att ett udda antal noder behövs eftersom både en disk eller en fildelning kan bidra med en omröstning, beroende på kvorummodellen.

en väljare kan vara:

  • en nod
    • 1 röst
    • varje nod i klustret har 1 röst
  • ett ”Diskvittne ” eller”File Share Witness”
    • 1 Vote
    • antingen 1 Diskvittne eller 1 File Share Witness kan ha en röst i klustret, men inte flera diskar, flera filaktier eller någon kombination av de två

Kvorumtyper

det finns fyra kvorumtyper. Denna information finns också här:
http://technet.microsoft.com/en-us/library/cc731739.aspx#BKMK_choices
.

Nodmajoritet

Detta är den enklaste kvorumtypen att förstå och rekommenderas för kluster med ett udda antal noder (3-noder, 5-noder etc.). I den här konfigurationen har varje nod 1 röst, så det finns ett udda antal totala röster i klustret. Om det finns en partition mellan två delmängder av noder, kommer delmängden med mer än hälften av noderna att behålla kvorum. Till exempel, om en 5-nod kluster partitioner i en 3-nod delmängd och en 2-nod delmängd, 3-nod delmängd kommer att stanna online och 2-nod delmängd kommer offline tills den kan återansluta med de andra 3 noderna.

nod & Disk majoritet

denna kvorum konfiguration används oftast eftersom det fungerar bra med 2-nod och 4-nod kluster som är de vanligaste distributioner. Denna konfiguration används när det finns ett jämnt antal noder i klustret. I den här konfigurationen får varje nod 1 röst, och dessutom får 1 disk 1 röst, så det finns i allmänhet ett udda antal totala röster.

den här skivan kallas Diskvittnet (ibland kallad ’kvorumskivan’) och är helt enkelt en liten grupperad disk som finns i gruppen tillgänglig lagring i klustret. Den här skivan är mycket tillgänglig och kan misslyckas mellan noder. Det anses vara en del av gruppen Cluster Core Resources, men det är i allmänhet dolt för visning i failover Cluster Manager eftersom det inte behöver interageras med.

eftersom det finns ett jämnt antal noder och 1 tillägg Disk vittne rösta, totalt kommer det att finnas ett udda antal röster. Om det finns en partition mellan två delmängder av noder, kommer delmängden med mer än hälften av rösterna att behålla kvorum. Till exempel, om ett 4-nodskluster med en Diskvittne partitioner i en 2-nod delmängd och en annan 2-nod delmängd, kommer en av dessa delmängder också att äga Diskvittnet, så det kommer att ha 3 totala röster och kommer att stanna online. Den 2-nod delmängd kommer offline tills den kan återansluta med de andra 3 väljarna. Detta innebär att klustret kan förlora kommunikation med två väljare, oavsett om de är 2 noder, eller 1 nod och Vittnesskivan.

nod & fildelning majoritet

denna kvorumkonfiguration används vanligtvis i kluster med flera platser. Denna konfiguration används när det finns ett jämnt antal noder i klustret, så det kan användas omväxlande med nod-och Diskmajoritetskvorumläget. I den här konfigurationen får varje nod 1 röst, och dessutom får 1 fjärrfildelning 1 röst.

denna fildelning kallas File Share Witness (FSW) och är helt enkelt en fildelning på vilken server som helst i samma Annonsskog som alla klusternoder har tillgång till. En nod i klustret placerar ett lås på filresursen för att betrakta den som ägare till den filresursen, och en annan nod tar tag i låset om den ursprungliga ägandenoden misslyckas. På en fristående server är fildelningen i sig inte mycket tillgänglig, men fildelningen kan också sätta på en grupperad fildelning på ett oberoende kluster, vilket gör FSW grupperad och ger den möjlighet att misslyckas mellan noder. Det är viktigt att du inte lägger denna omröstning på en nod i samma kluster eller inom en VM på samma kluster, för att förlora den noden skulle få dig att förlora FSW-omröstningen, vilket leder till att två röster går förlorade på ett enda misslyckande. En enda filserver kan vara värd för flera FSWs för flera kluster.

i allmänhet har kluster med flera platser två platser med lika många noder på varje plats, vilket ger ett jämnt antal noder. Genom att lägga till denna extra röst på en 3
rd
webbplats finns det ett udda antal röster i klustret, till mycket liten kostnad jämfört med att distribuera en 3
rd
webbplats med en aktiv klusternod och skrivbar DC. Det betyder att antingen site eller FSW kan gå vilse och klustret kan fortfarande behålla kvorum. Till exempel, i en multi-site kluster med 2 noder på Site1, 2 noder på Site2 och en FSW på Site3, det finns 5 totala röster. Om det finns en partition mellan platserna, en av noderna på en plats kommer att äga låset till FSW, så att platsen kommer att ha 3 totala röster och kommer att stanna på nätet. 2-nodplatsen kommer offline tills den kan återansluta med de andra 3 väljarna.

Legacy: endast Disk

viktigt:
denna kvorumtyp rekommenderas inte eftersom den har en enda felpunkt.

skivans enda kvorumtyp var tillgänglig i Windows Server 2003 och har bibehållits av kompatibilitetsskäl, men det rekommenderas starkt att aldrig använda det här läget om det inte styrs av en lagringsvender. I det här läget innehåller endast Diskvittnet en omröstning och det finns inga andra väljare i klustret. Det betyder att om disken blir otillgänglig kommer hela klustret att vara offline, så detta anses vara en enda felpunkt. Men vissa kunder väljer att distribuera denna konfiguration för att få en ”last man standing” – konfiguration där klustret förblir online, så länge någon nod fortfarande är i drift och kan komma åt klusterskivan. Men med detta distributionsmål är det viktigt att överväga om den sista kvarvarande noden till och med kan hantera kapaciteten för alla arbetsbelastningar som har flyttat till den från andra noder.

default Quorum Selection

när klustret skapas med failover Cluster Manager, Cluster.exe eller PowerShell väljer klustret automatiskt den bästa kvorumtypen för att förenkla distributionen. Detta val är baserat på antalet noder och tillgänglig lagring. Logiken är som följer:

  • udda antal noder-använd Nodmajoritet
    • jämnt antal noder
      • tillgängliga Klusterskivor-använd nod & Diskmajoritet
      • Ingen tillgänglig Klusterdisk-använd Nodmajoritet

klustret väljer Aldrig Node och File Share Majority eller Legacy: endast Disk. Kvorumtypen kan fortfarande konfigureras fullt ut av administratören om standardvalen inte föredras.

att ändra Kvorumtyper

att ändra kvorumtypen är enkelt genom failover Cluster Manager. Högerklicka på namnet på klustret, välj Fler åtgärder… och välj sedan konfigurera Klusterkvoruminställningar… för att starta guiden Konfigurera Klusterkvorum. Från guiden är det möjligt att konfigurera alla 4 kvorumtyper, ändra Diskvittnet eller Fildelningsvittnet. Guiden kommer även att berätta hur många fel som kan upprätthållas baserat på din konfiguration.

för en steg-för-steg-guide för att konfigurera kvorum, besök:
http://technet.microsoft.com/en-us/library/cc733130.aspx
.

tack!
Symon Perriman
Teknisk Evangelist
Privat Molnteknik
Microsoft

Uppdaterad: 6 November, 2019 av Rob Hindman

Lämna ett svar

Din e-postadress kommer inte publiceras.

lg