Jump to content

Recommended Posts

Добрый день!

Подскажите с чем может быть связана следующая проблема:

Имеем два hw1000 объединенных в отказоустойчивый кластер.

Текущий режим работы: 1 - активный, 2 - пассивный

Проделываем следующие:

1. Запускаем пинг до айпи кластера (активный айпи на одном из его интерфейсов). Пинг идет.

2. Выключаем активный ("жмем раз по кнопке"). Через секунд 30-ть он выключился. Пинг пропал.

3. Пассивный прождали 3 минуты он не стал активным((

В чем может быть проблема ? (неправильные настройки или баг)

Проделываем следующе:

1. Запускам пинг до активного апи. Пинг идет.

2. Отключаем один интерфейс на активном элементе кластера (физически отключили патч-корд).

3. Активный уходит в перезагрузку на 40 сек. Второй не становится в активный!

4. После перезагрузки встает в пассивный режим.

5. Таким образом, оба стоят в пассивном режиме! Пинга так и не дождались.

failover show info

Versions: ViPNet 3.3.0 (886), daemon 1.5 (1)

The workstation works in a cluster mode of protection against failures

* local * remote

failover mode * active * passive

failover uptime * 0d 0:36 * 0d 1:58

total cpu * 20% * 6%

total memory * 2047532 kB * 2047532 kB

free memory * 1820096 kB * 1889892 kB

failover state * works * works

failover cpu * 0% * 0%

iplir state * works * works

iplir cpu * 1% * 0%

mftp state * works * works

mftp cpu * 3% * 26%

failover show config

[network]

checktime = 10

timeout = 2

activeretries = 3

channelretries = 3

synctime = 5

fastdown = yes

[channel]

device = eth1

ident = iface-0

activeip = 10.4.x.5

passiveip = 10.4.x.3

testip = 10.4.x.253

testip = 10.4.x.251

testip = 10.4.x.252

checkonlyidle = yes

[channel]

device = eth2

ident = iface-1

activeip = 10.4.y.57

passiveip = 10.4.y.55

testip = 10.4.y.245

testip = 10.4.y.1

checkonlyidle = yes

[sendconfig]

activeip = 172.16.10.2

sendtime = 60

device = eth0

config = yes

keys = yes

journals = yes

port = 10090

[misc]

activeconfig = /etc/iplirpsw

passiveconfig = /etc/iplirpsw

maxjournal = 30 #days

reboot = yes

[debug]

debuglevel = 3

debuglogfile = syslog:daemon.debug

[events]

На пассивном все по инструкции.

Share this post


Link to post
Share on other sites

Посмотрите failover show info на пассивном координаторе.

Встречался с такой проблемой.

Не было установленной связи active-passive.

Помогла перезагрузка пассивного.

Share this post


Link to post
Share on other sites

На пассивно есть связь с активным. Перезагрузка не помогает.

Share this post


Link to post
Share on other sites

Попробуйте обновиться. На прошлой версии HW1000 были подобные проблемы - постоянно рушился кластер.

сейчас:

Platform: HW1000 Q2/Q3
Version: 3.3 (1099)

ViPNet Coordinator version: 3.7.3-(6723)
ViPNet iplir daemon version: 3.0-670
ViPNet mftp daemon version: 3.53-60
ViPNet failover daemon version: 1.5-1

ViPNet drivers versions:
Iplir:
3.3.3
Watchdog:
1.0.5

HW1000 command line interface version: 1.2-11

Пока в тестовом режиме неделя - полет нормальный.

--

С уважением

Share this post


Link to post
Share on other sites

вот такая версия стоит. просто может взять и потерять связи. и перезаупскаться пол дня. потом сами договариваются и могут неделю работать. уже весь мозг сломал

---

version full

Platform: HW2000 Q2/Q3

Version: 3.3 (582)

ViPNet Coordinator version: 3.7.3-(6726)

ViPNet iplir daemon version: 3.0-670

ViPNet mftp daemon version: 3.53-60

ViPNet failover daemon version: 1.5-1

ViPNet drivers versions:

Iplir:

3.3.3

Watchdog:

1.0.5

HW2000 command line interface version: 1.2-11

---

конфиг первого HW2000

---

[network]

checktime = 10

timeout = 6

activeretries = 3

channelretries = 3

synctime = 5

fastdown = yes

[channel]

device = eth0

ident = iface-0

activeip = 192.168.0.74

passiveip = 192.168.0.76

testip = 192.168.0.1

checkonlyidle = yes

[channel]

device = eth1

ident = iface-1

activeip = 172.31.1.201

passiveip = 172.31.1.203

testip = 172.31.0.1

checkonlyidle = yes

[sendconfig]

activeip = 172.27.1.1

sendtime = 60

device = eth2

config = yes

keys = yes

journals = yes

port = 10090

[misc]

activeconfig = /etc/iplirpsw

passiveconfig = /etc/iplirpsw

maxjournal = 30 #days

reboot = yes

[debug]

debuglevel = 3

debuglogfile = syslog:daemon.debug

[events]

---

вот его интерфейсы

---

eth0 инет

inet addr:192.168.0.74 Bcast:192.168.0.255 Mask:255.255.255.0

eth1 локалка

inet addr:172.31.1.201 Bcast:172.31.255.255 Mask:255.255.0.0

eth2 кластер

inet addr:172.27.1.2 Bcast:172.27.1.3 Mask:255.255.255.252

---

настройки второго HW2000

---

[network]

checktime = 10

timeout = 6

activeretries = 3

channelretries = 3

synctime = 5

fastdown = yes

[channel]

device = eth0

ident = iface-0

activeip = 192.168.0.74

passiveip = 192.168.0.75

testip = 192.168.0.1

checkonlyidle = yes

[channel]

device = eth1

ident = iface-1

activeip = 172.31.1.201

passiveip = 172.31.1.202

testip = 172.31.0.1

checkonlyidle = yes

[sendconfig]

activeip = 172.27.1.2

sendtime = 60

device = eth2

config = yes

keys = yes

journals = yes

port = 10090

[misc]

activeconfig = /etc/iplirpsw

passiveconfig = /etc/iplirpsw

maxjournal = 30 #days

reboot = yes

[debug]

debuglevel = 3

debuglogfile = syslog:daemon.debug

[events]

---

интерфейсы

---

eth0 инет

inet addr:192.168.0.75 Bcast:192.168.0.255 Mask:255.255.255.0

eth1 локалка

inet addr:172.31.1.202 Bcast:172.31.255.255 Mask:255.255.0.0

eth2 кластер

inet addr:172.27.1.1 Bcast:172.27.1.3 Mask:255.255.255.252

---

есть идеи от чего могут мигать, как новогодняя елка

нагрузки на них нету

Share this post


Link to post
Share on other sites

А HW в один коммутатор включены? Возможно дело в том, что на коммутаторе редко обновляется таблица mac-adress. Надо уменьшить до допустимого минимума 20-30 секунд.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

×

Important Information

By using this site, you agree to our Terms of Use.