Jump to content

Recommended Posts

В центре управления сетью есть лицензия на один HW 1000, вопрос, если установить еще один с тем же конфигом в режиме failover, есть ли необходимость дополнять еще одну лицензию в ЦУС.

Share this post


Link to post
Share on other sites

На два аппарата ставится одна и та же конфигурация (dst), различие только в failover.conf и в адресах интерфейсов, следовательно лицензия одна на два координатора. Дополнять ничего не нужно.

Share this post


Link to post
Share on other sites

Хм, тоесть если я сгенерирую еще один dst файл, с основным HW 1000 ничего случится не должно?

Share this post


Link to post
Share on other sites

Для начала вы регистрируете задачу failover, а потом уже делаете новый dst, без этого у вас просто не запустится служба. А потом этот dst накатить на два HW1000.

Ну а если уже лицензия прикреплена, то достаточно взять dst, который вы грузили в основной HW1000 и залить его на другой аппарат. Потом уже собирать из них failover.

По сути у вас из двух hw1000 получится один на мониторе, с одним и тем же dst.

Share this post


Link to post
Share on other sites

Для начала вы регистрируете задачу failover, а потом уже делаете новый dst, без этого у вас просто не запустится служба. А потом этот dst накатить на два HW1000.

Ну а если уже лицензия прикреплена, то достаточно взять dst, который вы грузили в основной HW1000 и залить его на другой аппарат. Потом уже собирать из них failover.

По сути у вас из двух hw1000 получится один на мониторе, с одним и тем же dst.

Спасибо за помощь, просто дело в том что основной hw 1000 разворачивался 2 года назад и на нем работает более 20 hw 100 координаторов, тут и возникает вопрос, как провести операцию без потерь.

Такое вообще возможно, из рабочей сети уже кластер сделать?

Share this post


Link to post
Share on other sites

Спасибо за помощь, просто дело в том что основной hw 1000 разворачивался 2 года назад и на нем работает более 20 hw 100 координаторов, тут и возникает вопрос, как провести операцию без потерь.

Такое вообще возможно, из рабочей сети уже кластер сделать?

Думаю что можно.

- В ЦУСе добавить ПЗ "Failover" вашему HW1000. Сформировать справочники. Разослать справочники.

- В ЦУСе дать команду в УКЦ о выпуске нового дистрибутива для HW1000. В УКЦ сделать дистрибутив для HW1000.

- Настроить и перевести первый HW1000 в режим кластера-failover (он запустится как активная нода).

- Проинсталлировать второй HW1000. Настроить и перевести его в режим кластера-failover (запустится как пассивная нода).

Только IP-адреса (физические) надо будет правильно назначить на HW, если хотите чтобы старые адреса стали кластерными.

Share this post


Link to post
Share on other sites

Немного дополню предыдущего оратора. В последних версиях ПО нет задачи "Failover", по словам технической поддержки она подразумевается по умолчанию. Недавно разворачивали боевой кластер без регистрации в ней, все работает.

Share this post


Link to post
Share on other sites

Поэтому стоит проверить версию ПО на координаторе - она должна быть из разряда 3.х и версию лицензионного файла в ЦУС чтобы была не ниже 3.7.

Share this post


Link to post
Share on other sites

Немного дополню предыдущего оратора. В последних версиях ПО нет задачи "Failover", по словам технической поддержки она подразумевается по умолчанию. Недавно разворачивали боевой кластер без регистрации в ней, все работает.

Столкнулись с данной проблемой. ПЗ "Failover" нет. Версия 3.3.0 (921). Версионность - 3.7. После перевода файловера в режим кластера обе hw1000 циклично и красиво перезагружаются спустя 1 минуту работы.

Сталкивались с таким?

Share this post


Link to post
Share on other sites

Значит проблема с доступностью testip.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

×

Important Information

By using this site, you agree to our Terms of Use.