Jump to content

Recommended Posts

Добрый день!

Вопрос в следующем. Настроен кластер из двух HW1000. При тестировании возникает интересная ситуация. Как и положено один комплекс находится в активе, другой в пассиве. Выдергиваем интерфейс, который мониторится, активный координатор, как и положено, уходит в ребут, пассивный становится активным и... тоже через секунд 30 уходит в ребут (с него оба testip пингуются, успел проверить перед ребутом). После перезагрузки обоих тот который был активным, остается активным, тот который был пассивным - остается пассивным. НО. Если изначально активным был второй координатор, и ему дернуть интерфейс, то все проходит как по маслу - он ребутится а пассив становится активом и продолжает работу без перезагрузки. Настройки Failover проверены уже пару сотен раз... Никак не могу вникнуть в логику работы, может я чего то не так понял?

Share this post


Link to post
Share on other sites

Запустите постоянный ping с любого внешнего узла на active ip (ping должен проходить). Выдерните сетевой шнур. Произошло ли обратное переключение?

Из bash предоставьте вывод команды с пассивного, который ставится актвный и перезагружается, cat /var/log/rebootlog

Share this post


Link to post
Share on other sites

Проблема решена. Дело было в следующем: в качестве устройства testip использовался D-link DFL, где по умолчанию стоял drop при попытке обновления arp таблиц... Стоило убрать этот drop, все заработало как по маслу. Аккуратней с умным оборудованием:)

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...

Important Information

By using this site, you agree to our Terms of Use.