Jump to content

Search the Community

Showing results for tags 'cluster'.

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Продуктовый ряд ViPNet
    • Общие вопросы по продуктовому ряду ViPNet для корпоративных пользователей
    • Общие вопросы по программным решениям ViPNet для индивидуальных пользователей
    • Общие вопросы по продуктовой линейке ViPNet PKI
    • Пожелания к разработчикам ПО ViPNet
    • Пользовательские интерфейсы продуктов ViPNet
  • Бета-тестирование продуктов ViPNet
    • ViPNet Client/Coordinator x64
    • ViPNet Custom Windows
    • ViPNet Office Firewall Windows
    • ViPNet Office Firewall Linux
    • ViPNet Safe Disk
    • ViPNet Personal Firewall
    • ViPNet CSP 4.х
    • ViPNet Java Crypto SDK

Calendars

  • Основной календарь

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


AIM


MSN


Сайт


ICQ


Yahoo


Jabber


Skype


Город


Интересы

Found 3 results

  1. Настраиваю vipnet cordinator hw 1000 в режиме кластера, 4 интерфейса + кластерный - 2 интерфейса это медь (менедж), 2 это в ядро (дата сеть), то есть 4 интрефейса=2 бонда(1 внешний другой внутренний)+ 1 кластерный, (eth0 eth1 - внутренний, eth3-cluster, eth4 eth5-внешний). inet ifconfig Eth0 class slave inet ifconfig Eth1 class slave inet bonding add 0 mode 802.3ad slaves eth0 eth1 inet ifconfig bond0 bonding xmit-hash-policy layer3+4 inet ifconfig Eth4 class slave inet ifconfig Eth5 class slave inet bonding add 1 mode 802.3ad slaves eth4 eth5 inet ifconfig bond1 bonding xmit-hash-policy layer3+4 eth0 eth1 eth4 eth5 не добавлял айпишник, потому что сразу бонд настраивал и класс slaves ставил, и нельзя добавить интерфейсам айпишики !!!! добавил все в бонд при этом ip тоже написал Далее настроил 3 интерфейс inet ifconfig eth3 address ...... netmask ...... В файловер добавил Внутренняя сеть [channel] device = bond0 ident = if-1 checkonlyidle = yes [channel] device = bond0 testip = 10.10.30.154/24 ident = if-1 checkonlyidle = yes Внешняя сеть [channel] device = bond1 activeip = 10.10.40.23/24 testip = 10.10.40.6/24[АМ1] ident = if-2 checkonlyidle = yes [channel] device = bond1 activeip = 10.10.40.23/24 testip = 10.10.40.6/24 ident = if-2 checkonlyidle = yes Между координаторами [sendconfig] device = eth3 activeip = 192.167.1.2 port = 10090 sendtime = 60 [sendconfig] device = eth3 activeip = 192.167.1.1 port = 10090 sendtime = 60 Далее все изменяю iplir [adapter] name= bond0 allowtraffic= on type= internal [adapter] name= bond1 allowtraffic= on type= internal iplir start inet ifconfig eth0 up inet ifconfig eth1 up inet ifconfig eth4 up inet ifconfig eth5 up inet ifconfig bond0 up inet ifconfig bond1 up НО при этом не сихронизируются между кластерами, и не видят сеть, если есть у кого-то подробная инструкция по настройке поэтапно с статическим межсетевым экраном, с 2 бондами, был очень благодарен, либо что не хватает
  2. Здравствуйте. В данный момент есть вот такая действующая схема. Всё работает без проблем. Скажите, можно ли данный кластер модернизировать вот до такого состояния?
  3. Добрый день! Вопрос в следующем. Настроен кластер из двух HW1000. При тестировании возникает интересная ситуация. Как и положено один комплекс находится в активе, другой в пассиве. Выдергиваем интерфейс, который мониторится, активный координатор, как и положено, уходит в ребут, пассивный становится активным и... тоже через секунд 30 уходит в ребут (с него оба testip пингуются, успел проверить перед ребутом). После перезагрузки обоих тот который был активным, остается активным, тот который был пассивным - остается пассивным. НО. Если изначально активным был второй координатор, и ему дернуть интерфейс, то все проходит как по маслу - он ребутится а пассив становится активом и продолжает работу без перезагрузки. Настройки Failover проверены уже пару сотен раз... Никак не могу вникнуть в логику работы, может я чего то не так понял?
×
×
  • Create New...

Important Information

By using this site, you agree to our Terms of Use.