pacemaker: как добить лежачего

от автора

При резервировании некоторых типов ресурсов, очень важно что бы одновременно ресурсом пользовалось не более одного клиента, как, например, с drbd: нельзя допускать что бы drbd была подмонтирована в RW режиме на двух системах. То же касается и дисковых систем, подключаемых к нескольким серверам.

За этим следит сам pacemaker, но могут возникнуть ситуации, когда pacemaker решит что ресурс нужно переносить, но команду на отключение на другом узле дать не сможет (например, потеря сетевой связности при использовании iscsi через отдельную сеть итд). Для борьбы с этим используется stonith (Shoot The Other Node In The Head). В pacemaker он настраивается как ресурс и способен решить многие проблемы.

Изначальная конфигурация будет простой:

  • node1.eth, node2.eth — адреса узлов, на которых строится кластер
  • node1.ipmi, node2.ipmi — IP адреса IPMI интерфейсов узлов
  • FS — ресурс для которого требуется обеспечить высокую доступность

На первом шаге, во избежании проблем, делаем дамп текущей конфигурации

pcs cluster cib stonith.xml 

Затем создаем ipmi-stonith ресурсы (полный список возможных stonith ресурсов выдаст pcs stonith list, а полный список параметров доступен по pcs stonith describe <agent>)

pcs -f stonith.xml stonith create node1.stonith  fence_ipmilan ipaddr="node1.ipmi" passwd="xXx" login="xXx" action="reboot" method="cycle" pcmk_host_list="node1.eth" pcmk_host_check=static-list stonith-timeout=10s  op monitor interval=10s  pcs -f stonith.xml stonith create node2.stonith  fence_ipmilan ipaddr="node2.ipmi" passwd="xXx" login="xXx" action="reboot" method="cycle" pcmk_host_list="node2.eth" pcmk_host_check=static-list stonith-timeout=10s  op monitor interval=10s 

Особое внимание нужно обратить на два параметра: ipaddr и pcmk_host_list. Первый говорит о том по какому адресу находится IPMI интерфейс, а второй — какие узлы можно добить создаваемым ресурсом.

Поскольку stonith, с точки зрения pacemaker’a, — обычный ресурс он может мигрировать, как и все остальные ресурсы. Будет очень неприятно, если процесс отвечающий за перезагрузку node2 окажется на node2. По этому запрещаем stonith ресурсам попадать на узлы, которые они будут перегружать.

pcs -f stonith.xml constraint location node1.stonith avoids node1.eth=INFINITY pcs -f stonith.xml constraint location node2.stonith avoids node2.eth=INFINITY 

Настройка закончена. Заливам конфигурацию в pacemaker

pcs cluster push cib stonith.xml 

После этого простая проверка

stonith_admin -t 20 --reboot node1.eth 

даст понять что все получилось правильно.

Итоговая конфигурация должна выглядеть примерно так

# pcs status Online: [ node1.eth node2.eth ]  Full list of resources:   FS     (ocf::heartbeat:Filesystem):    Started node2.eth  node1.stonith     (stonith:fence_ipmilan):        Started node2.eth  node2.stonith     (stonith:fence_ipmilan):        Started node1.eth  # pcs constraint location Location Constraints:   Resource: node1.stonith     Disabled on: node1.eth   Resource: node2.stonith     Disabled on: node2.eth  

ссылка на оригинал статьи http://habrahabr.ru/post/200348/


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *