Возникает проблема с задержкой на резервном сервере

Журналы основного брокера ActiveMQ Artemis:

2024-05-25 02:00:52,946 WARN  [org.apache.activemq.artemis.core.server] AMQ222207: The backup server is not responding promptly introducing latency beyond the limit. Replication server being disconnected now.

Журналы брокера резервного копирования ActiveMQ Artemis:

2024-05-25 02:01:00,230 INFO  [org.apache.activemq.artemis.core.server] AMQ221066: Initiating quorum vote: PrimaryFailoverQuorumVote
2024-05-25 02:01:00,230 INFO  [org.apache.activemq.artemis.core.server] AMQ221084: Requested 0 quorum votes
2024-05-25 02:01:00,231 INFO  [org.apache.activemq.artemis.core.server] AMQ221083: ignoring quorum vote as max cluster size is 1.
2024-05-25 02:01:00,231 INFO  [org.apache.activemq.artemis.core.server] AMQ221071: Failing over based on quorum vote results.
2024-05-25 02:01:00,242 INFO  [org.apache.activemq.artemis.core.server] AMQ221037: ActiveMQServerImpl::name=amq2 to become 'active'
2024-05-25 02:01:02,167 INFO  [org.apache.activemq.artemis.core.server] AMQ221080: Deploying address exampleQueue supporting [ANYCAST]
2024-05-25 02:01:02,167 INFO  [org.apache.activemq.artemis.core.server] AMQ221003: Deploying ANYCAST queue exampleQueue on address exampleQueue
2024-05-25 02:01:02,167 INFO  [org.apache.activemq.artemis.core.server] AMQ221080: Deploying address DLQ supporting []
2024-05-25 02:01:02,167 WARN  [org.apache.activemq.artemis.core.server] AMQ222274: Failed to deploy address DLQ: AMQ229209: Can't remove routing type MULTICAST, queues exists for address: DLQ. Please delete queues before removing this routing type.
2024-05-25 02:01:02,167 INFO  [org.apache.activemq.artemis.core.server] AMQ221080: Deploying address ExpiryQueue supporting [ANYCAST]
2024-05-25 02:01:02,167 INFO  [org.apache.activemq.artemis.core.server] AMQ221003: Deploying ANYCAST queue ExpiryQueue on address ExpiryQueue
2024-05-25 02:01:02,183 WARN  [org.apache.activemq.artemis.core.client] AMQ212034: There are more than one servers on the network broadcasting the same node id. You will see this message exactly once (per node) if a node is restarted, in which case it can be safely ignored. But if it is logged continuously it means you really do have more than one node on the same network active concurrently with the same node id. This could occur if you have a backup node active at the same time as its primary node. nodeID=3468b7ea-0e82-11ef-922f-0050568e2645
2024-05-25 02:01:02,199 INFO  [org.apache.activemq.artemis.core.server] AMQ221007: Server is now active
2024-05-25 02:01:02,199 INFO  [org.apache.activemq.artemis.core.server] AMQ221020: Started NIO Acceptor at 0.0.0.0:61616 for protocols [CORE,MQTT,AMQP,STOMP,HORNETQ,OPENWIRE]
2024-05-25 02:01:02,214 INFO  [org.apache.activemq.artemis.core.server] AMQ221020: Started NIO Acceptor at 0.0.0.0:5445 for protocols [HORNETQ,STOMP]
2024-05-25 02:01:02,214 WARN  [org.apache.activemq.artemis.core.client] AMQ212034: There are more than one servers on the network broadcasting the same node id. You will see this message exactly once (per node) if a node is restarted, in which case it can be safely ignored. But if it is logged continuously it means you really do have more than one node on the same network active concurrently with the same node id. This could occur if you have a backup node active at the same time as its primary node.nodeID=3468b7ea-0e82-11ef-922f-0050568e2645
2024-05-25 02:01:02,214 INFO  [org.apache.activemq.artemis.core.server] AMQ221020: Started NIO Acceptor at 0.0.0.0:5672 for protocols [CORE,AMQP]
2024-05-25 02:01:02,230 INFO  [org.apache.activemq.artemis.core.server] AMQ221020: Started NIO Acceptor at 0.0.0.0:1883 for protocols [MQTT,CORE]
2024-05-25 02:01:02,246 INFO  [org.apache.activemq.artemis.core.server] AMQ221020: Started NIO Acceptor at 0.0.0.0:61613 for protocols [CORE,STOMP]
2024-05-25 02:01:04,197 WARN  [org.apache.activemq.artemis.core.client] AMQ212034: There are more than one servers on the network broadcasting the same node id. You will see this message exactly once (per node) if a node is restarted, in which case it can be safely ignored. But if it is logged continuously it means you really do have more than one node on the same network active concurrently with the same node id. This could occur if you have a backup node active at the same time as its primary node. nodeID=3468b7ea-0e82-11ef-922f-0050568e2645

У нас возникают проблемы с задержкой при резервном копировании, возникающие на основном сервере, но с резервным сервером проблем нет. Когда резервный сервер обнаруживает проблему с основным сервером, он становится активным. Однако основной сервер также остается активным, что приводит к конфликту, поскольку оба сервера активны одновременно. Это приводит к тому, что брокер не отвечает на запросы должным образом.

Первичное broker.xml:

<?xml version='1.0'?>
<configuration xmlns = "urn:activemq"
               xmlns:xsi = "http://www.w3.org/2001/XMLSchema-instance"
               xmlns:xi = "http://www.w3.org/2001/XInclude"
               xsi:schemaLocation = "urn:activemq /schema/artemis-configuration.xsd">

   <core xmlns = "urn:activemq:core" xmlns:xsi = "http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation = "urn:activemq:core ">

      <name>amq1</name>
      <persistence-enabled>true</persistence-enabled>
      <journal-type>ASYNCIO</journal-type>
      <paging-directory>data/paging</paging-directory>
      <bindings-directory>data/bindings</bindings-directory>
      <journal-directory>data/journal</journal-directory>
      <large-messages-directory>data/large-messages</large-messages-directory>
      <journal-datasync>true</journal-datasync>
      <journal-min-files>2</journal-min-files>
      <journal-pool-files>10</journal-pool-files>
      <journal-device-block-size>4096</journal-device-block-size>
      <journal-file-size>100M</journal-file-size>
      <journal-buffer-timeout>28000</journal-buffer-timeout>
      <journal-max-io>8192</journal-max-io>
      <disk-scan-period>5000</disk-scan-period>
      <max-disk-usage>100</max-disk-usage>
      <critical-analyzer>true</critical-analyzer>
      <critical-analyzer-timeout>150000</critical-analyzer-timeout>
      <critical-analyzer-check-period>60000</critical-analyzer-check-period>
      <critical-analyzer-policy>HALT</critical-analyzer-policy>
      <page-sync-timeout>1628000</page-sync-timeout>
      <global-max-size>2GB</global-max-size>

      <connectors>
        <connector name = "amq1">tcp://pro-t24-qve-01:61616</connector>
        <connector name = "amq2">tcp://pro-t24-qve-02:61616</connector>
      </connectors>
       <acceptors>
           <acceptor name = "artemis">tcp://0.0.0.0:61616?tcpSendBufferSize=1048576;tcpReceiveBufferSize=1048576;amqpMinLargeMessageSize=102400;protocols=CORE,AMQP,STOMP,HORNETQ,MQTT,OPENWIRE;useEpoll=true;amqpCredits=1000;amqpLowCredits=300;amqpDuplicateDetection=true</acceptor>
           <acceptor name = "amqp">tcp://0.0.0.0:5672?tcpSendBufferSize=1048576;tcpReceiveBufferSize=1048576;protocols=AMQP,CORE;useEpoll=true;amqpCredits=1000;amqpLowCredits=300;amqpMinLargeMessageSize=102400;amqpDuplicateDetection=true</acceptor>
       </acceptors>
       <broadcast-groups>
           <broadcast-group name = "artemis-broadcast-group">
               <group-address>231.7.7.7</group-address>
               <group-port>9876</group-port>
               <broadcast-period>2000</broadcast-period>
               <connector-ref>amq1</connector-ref>
           </broadcast-group>
       </broadcast-groups>
       <discovery-groups>
           <discovery-group name = "artemis-discovery-group">
               <group-address>231.7.7.7</group-address>
               <group-port>9876</group-port>
               <refresh-timeout>10000</refresh-timeout>
           </discovery-group>
       </discovery-groups>
      <cluster-user>admin</cluster-user>
      <cluster-password>admin</cluster-password>
      <cluster-connections>
         <cluster-connection name = "artemis-cluster">
            <connector-ref>amq1</connector-ref>
            <retry-interval>1000</retry-interval>
            <retry-interval-multiplier>3</retry-interval-multiplier>
            <max-retry-interval>5000</max-retry-interval>
            <initial-connect-attempts>-1</initial-connect-attempts>
            <reconnect-attempts>-1</reconnect-attempts>
            <use-duplicate-detection>true</use-duplicate-detection>
            <message-load-balancing>STRICT</message-load-balancing>
            <max-hops>1</max-hops>
             <discovery-group-ref discovery-group-name = "artemis-discovery-group"/>
         </cluster-connection>
      </cluster-connections>
      
      <!-- Other config -->
      <ha-policy>
        <replication>
          <primary>
            <group-name>artemis-discovery-group</group-name>
            <check-for-active-server>true</check-for-active-server>
          </primary>
        </replication>
      </ha-policy>

      <security-settings>
         <security-setting match = "#">
            <permission type = "createNonDurableQueue" roles = "amq"/>
            <permission type = "deleteNonDurableQueue" roles = "amq"/>
            <permission type = "createDurableQueue" roles = "amq"/>
            <permission type = "deleteDurableQueue" roles = "amq"/>
            <permission type = "createAddress" roles = "amq"/>
            <permission type = "deleteAddress" roles = "amq"/>
            <permission type = "consume" roles = "amq"/>
            <permission type = "browse" roles = "amq"/>
            <permission type = "send" roles = "amq"/>
            <!-- we need this otherwise ./artemis data imp wouldn't work -->
            <permission type = "manage" roles = "amq"/>
         </security-setting>
      </security-settings>
      <addresses>
         <address name = "exampleQueue">
            <anycast>
               <queue name = "exampleQueue"/>
            </anycast>
         </address>
         <address name = "DLQ">
         </address>
         <address name = "ExpiryQueue">
            <anycast>
               <queue name = "ExpiryQueue" />
            </anycast>
         </address>
      </addresses>
      <address-settings>
         <!-- if you define auto-create on certain queues, management has to be auto-create -->
         <address-setting match = "activemq.management#">
            <dead-letter-address>DLQ</dead-letter-address>
            <expiry-address>ExpiryQueue</expiry-address>
            <redelivery-delay>1000</redelivery-delay>
            <max-delivery-attempts>3</max-delivery-attempts>
            <!-- with -1 only the global-max-size is in use for limiting -->
            <max-size-bytes>-1</max-size-bytes>
            <message-counter-history-day-limit>10</message-counter-history-day-limit>
            <address-full-policy>PAGE</address-full-policy>
            <auto-create-queues>true</auto-create-queues>
            <auto-create-addresses>true</auto-create-addresses>
            <auto-create-jms-queues>true</auto-create-jms-queues>
            <auto-create-jms-topics>true</auto-create-jms-topics>
            <auto-delete-queues>false</auto-delete-queues>   
            <auto-delete-addresses>false</auto-delete-addresses> 
            <auto-delete-jms-queues>false</auto-delete-jms-queues> 
            <auto-delete-jms-topics>false</auto-delete-jms-topics>
         </address-setting>
         <!--default for catch all-->
         <address-setting match = "#">
            <dead-letter-address>DLQ</dead-letter-address>
            <expiry-address>ExpiryQueue</expiry-address>
            <redelivery-delay>1000</redelivery-delay>
            <max-delivery-attempts>3</max-delivery-attempts>
            <auto-create-dead-letter-resources>true</auto-create-dead-letter-resources>
            <!-- with -1 only the global-max-size is in use for limiting -->
            <max-size-bytes>-1</max-size-bytes>
            <message-counter-history-day-limit>10</message-counter-history-day-limit>
            <address-full-policy>PAGE</address-full-policy>
            <auto-create-queues>true</auto-create-queues>
            <auto-create-addresses>true</auto-create-addresses>
            <auto-create-jms-queues>true</auto-create-jms-queues>
            <auto-create-jms-topics>true</auto-create-jms-topics>
            <auto-delete-queues>false</auto-delete-queues>   
            <auto-delete-addresses>false</auto-delete-addresses> 
            <auto-delete-jms-queues>false</auto-delete-jms-queues> 
            <auto-delete-jms-topics>false</auto-delete-jms-topics>  
         </address-setting>
         <address-setting match = "exampleQueue">            
            <dead-letter-address>DLQ</dead-letter-address>                      
            <redelivery-delay>1000</redelivery-delay>    
            <max-delivery-attempts>3</max-delivery-attempts>
            <max-size-bytes>-1</max-size-bytes>
            <page-size-bytes>1048576</page-size-bytes>
            <message-counter-history-day-limit>10</message-counter-history-day-limit>
            <address-full-policy>PAGE</address-full-policy>
         </address-setting>
      </address-settings>
   </core>
</configuration>

Резервная копия broker.xml:

<?xml version='1.0'?>
<configuration xmlns = "urn:activemq"
               xmlns:xsi = "http://www.w3.org/2001/XMLSchema-instance"
               xmlns:xi = "http://www.w3.org/2001/XInclude"
               xsi:schemaLocation = "urn:activemq /schema/artemis-configuration.xsd">

   <core xmlns = "urn:activemq:core" xmlns:xsi = "http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation = "urn:activemq:core ">

      <name>amq2</name>
      <persistence-enabled>true</persistence-enabled>
      <journal-type>ASYNCIO</journal-type>
      <paging-directory>data/paging</paging-directory>
      <bindings-directory>data/bindings</bindings-directory>
      <journal-directory>data/journal</journal-directory>
      <large-messages-directory>data/large-messages</large-messages-directory>
      <journal-datasync>true</journal-datasync>
      <journal-min-files>2</journal-min-files>
      <journal-pool-files>10</journal-pool-files>
      <journal-device-block-size>4096</journal-device-block-size>
      <journal-file-size>100M</journal-file-size>
      <journal-buffer-timeout>28000</journal-buffer-timeout>
      <journal-max-io>8192</journal-max-io>
      <disk-scan-period>5000</disk-scan-period>
      <max-disk-usage>100</max-disk-usage>
      <critical-analyzer>true</critical-analyzer>
      <critical-analyzer-timeout>150000</critical-analyzer-timeout>
      <critical-analyzer-check-period>60000</critical-analyzer-check-period>
      <critical-analyzer-policy>HALT</critical-analyzer-policy>
      <page-sync-timeout>1628000</page-sync-timeout>
      <global-max-size>2GB</global-max-size>

      <connectors>
         <connector name = "amq1">tcp://pro-t24-qve-01:61616</connector>
         <connector name = "amq2">tcp://pro-t24-qve-02:61616</connector>
      </connectors>
      <acceptors>
         <acceptor name = "artemis">tcp://0.0.0.0:61616?tcpSendBufferSize=1048576;tcpReceiveBufferSize=1048576;amqpMinLargeMessageSize=102400;protocols=CORE,AMQP,STOMP,HORNETQ,MQTT,OPENWIRE;useEpoll=true;amqpCredits=1000;amqpLowCredits=300;amqpDuplicateDetection=true</acceptor>
         <acceptor name = "amqp">tcp://0.0.0.0:5672?tcpSendBufferSize=1048576;tcpReceiveBufferSize=1048576;protocols=AMQP,CORE;useEpoll=true;amqpCredits=1000;amqpLowCredits=300;amqpMinLargeMessageSize=102400;amqpDuplicateDetection=true</acceptor>
         <acceptor name = "stomp">tcp://0.0.0.0:61613?tcpSendBufferSize=1048576;tcpReceiveBufferSize=1048576;protocols=STOMP,CORE;useEpoll=true</acceptor>
         <acceptor name = "hornetq">tcp://0.0.0.0:5445?anycastPrefix=jms.queue.;multicastPrefix=jms.topic.;protocols=HORNETQ,STOMP;useEpoll=true</acceptor>
         <acceptor name = "mqtt">tcp://0.0.0.0:1883?tcpSendBufferSize=1048576;tcpReceiveBufferSize=1048576;protocols=MQTT,CORE;useEpoll=true</acceptor>
      </acceptors>
      <broadcast-groups>
         <broadcast-group name = "artemis-broadcast-group">
            <group-address>231.7.7.7</group-address>
            <group-port>9876</group-port>
            <broadcast-period>2000</broadcast-period>
            <connector-ref>amq2</connector-ref>
         </broadcast-group>
      </broadcast-groups>
      <discovery-groups>
         <discovery-group name = "artemis-discovery-group">
            <group-address>231.7.7.7</group-address>
            <group-port>9876</group-port>
            <refresh-timeout>10000</refresh-timeout>
         </discovery-group>
      </discovery-groups>
      <cluster-user>admin</cluster-user>
      <cluster-password>admin</cluster-password>
      <cluster-connections>
         <cluster-connection name = "artemis-cluster">
            <connector-ref>amq2</connector-ref>
            <retry-interval>1000</retry-interval>
            <retry-interval-multiplier>3</retry-interval-multiplier>
            <max-retry-interval>5000</max-retry-interval>
            <initial-connect-attempts>-1</initial-connect-attempts>
            <reconnect-attempts>-1</reconnect-attempts>
            <use-duplicate-detection>true</use-duplicate-detection>
            <message-load-balancing>STRICT</message-load-balancing>
            <max-hops>1</max-hops>
             <discovery-group-ref discovery-group-name = "artemis-discovery-group"/>
         </cluster-connection>
      </cluster-connections>
      
      <!-- Other config -->
      <ha-policy>
         <replication>
            <backup>
               <group-name>artemis-discovery-group</group-name>
               <allow-failback>true</allow-failback>
               <failback-delay>5000</failback-delay>
            </backup>
         </replication>
      </ha-policy>

      <security-settings>
         <security-setting match = "#">
            <permission type = "createNonDurableQueue" roles = "amq"/>
            <permission type = "deleteNonDurableQueue" roles = "amq"/>
            <permission type = "createDurableQueue" roles = "amq"/>
            <permission type = "deleteDurableQueue" roles = "amq"/>
            <permission type = "createAddress" roles = "amq"/>
            <permission type = "deleteAddress" roles = "amq"/>
            <permission type = "consume" roles = "amq"/>
            <permission type = "browse" roles = "amq"/>
            <permission type = "send" roles = "amq"/>
            <!-- we need this otherwise ./artemis data imp wouldn't work -->
            <permission type = "manage" roles = "amq"/>
         </security-setting>
      </security-settings>
      <addresses>
         <address name = "exampleQueue">
            <anycast>
               <queue name = "exampleQueue"/>
            </anycast>
         </address>
         <address name = "DLQ">
         </address>
         <address name = "ExpiryQueue">
            <anycast>
               <queue name = "ExpiryQueue" />
            </anycast>
         </address>
      </addresses>
      <address-settings>
         <!-- if you define auto-create on certain queues, management has to be auto-create -->
         <address-setting match = "activemq.management#">
            <dead-letter-address>DLQ</dead-letter-address>
            <expiry-address>ExpiryQueue</expiry-address>
            <redelivery-delay>1000</redelivery-delay>
            <max-delivery-attempts>3</max-delivery-attempts>
            <!-- with -1 only the global-max-size is in use for limiting -->
            <max-size-bytes>-1</max-size-bytes>
            <message-counter-history-day-limit>10</message-counter-history-day-limit>
            <address-full-policy>PAGE</address-full-policy>
            <auto-create-queues>true</auto-create-queues>
            <auto-create-addresses>true</auto-create-addresses>
            <auto-create-jms-queues>true</auto-create-jms-queues>
            <auto-create-jms-topics>true</auto-create-jms-topics>
            <auto-delete-queues>false</auto-delete-queues>   
            <auto-delete-addresses>false</auto-delete-addresses> 
            <auto-delete-jms-queues>false</auto-delete-jms-queues> 
            <auto-delete-jms-topics>false</auto-delete-jms-topics>
         </address-setting>
         <!--default for catch all-->
         <address-setting match = "#">
            <dead-letter-address>DLQ</dead-letter-address>
            <expiry-address>ExpiryQueue</expiry-address>
            <redelivery-delay>1000</redelivery-delay>
            <max-delivery-attempts>3</max-delivery-attempts>
            <auto-create-dead-letter-resources>true</auto-create-dead-letter-resources>
            <!-- with -1 only the global-max-size is in use for limiting -->
            <max-size-bytes>-1</max-size-bytes>
            <message-counter-history-day-limit>10</message-counter-history-day-limit>
            <address-full-policy>PAGE</address-full-policy>
            <auto-create-queues>true</auto-create-queues>
            <auto-create-addresses>true</auto-create-addresses>
            <auto-create-jms-queues>true</auto-create-jms-queues>
            <auto-create-jms-topics>true</auto-create-jms-topics>
            <auto-delete-queues>false</auto-delete-queues>   
            <auto-delete-addresses>false</auto-delete-addresses> 
            <auto-delete-jms-queues>false</auto-delete-jms-queues> 
            <auto-delete-jms-topics>false</auto-delete-jms-topics>
         </address-setting>
         <address-setting match = "exampleQueue">            
            <dead-letter-address>DLQ</dead-letter-address>                      
            <redelivery-delay>1000</redelivery-delay>    
            <max-delivery-attempts>3</max-delivery-attempts>
            <max-size-bytes>-1</max-size-bytes>
            <page-size-bytes>1048576</page-size-bytes>
            <message-counter-history-day-limit>10</message-counter-history-day-limit>
            <address-full-policy>PAGE</address-full-policy>
         </address-setting>
      </address-settings>
   </core>
</configuration>
Стоит ли изучать PHP в 2023-2024 годах?
Стоит ли изучать PHP в 2023-2024 годах?
Привет всем, сегодня я хочу высказать свои соображения по поводу вопроса, который я уже много раз получал в своем сообществе: "Стоит ли изучать PHP в...
Поведение ключевого слова "this" в стрелочной функции в сравнении с нормальной функцией
Поведение ключевого слова "this" в стрелочной функции в сравнении с нормальной функцией
В JavaScript одним из самых запутанных понятий является поведение ключевого слова "this" в стрелочной и обычной функциях.
Приемы CSS-макетирования - floats и Flexbox
Приемы CSS-макетирования - floats и Flexbox
Здравствуйте, друзья-студенты! Готовы совершенствовать свои навыки веб-дизайна? Сегодня в нашем путешествии мы рассмотрим приемы CSS-верстки - в...
Тестирование функциональных ngrx-эффектов в Angular 16 с помощью Jest
В системе управления состояниями ngrx, совместимой с Angular 16, появились функциональные эффекты. Это здорово и делает код определенно легче для...
Концепция локализации и ее применение в приложениях React ⚡️
Концепция локализации и ее применение в приложениях React ⚡️
Локализация - это процесс адаптации приложения к различным языкам и культурным требованиям. Это позволяет пользователям получить опыт, соответствующий...
Пользовательский скаляр GraphQL
Пользовательский скаляр GraphQL
Листовые узлы системы типов GraphQL называются скалярами. Достигнув скалярного типа, невозможно спуститься дальше по иерархии типов. Скалярный тип...
0
0
66
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий

То, что вы наблюдаете, называется «расщепление мозга» и подробно обсуждается в документации. Похоже, что вы ничего не настроили для предотвращения разделения мозга в своем развертывании. Я рекомендую вам просмотреть документацию и соответствующим образом обновить развертывание. Если у вас есть дополнительные вопросы, не рассмотренные в документации, сообщите нам об этом.

Чтобы внести ясность, невозможно сказать, какова основная причина проблемы с задержкой, учитывая предоставленную информацию. Это может быть проблема с сетью, аппаратная проблема и т. д. Предел задержки, на который ссылается сообщение AMQ222207, контролируется значением <call-timeout>, установленным для <cluster-connection>, определенного вbroker.xml, который отвечает за присоединение к основному и резервному серверам. По умолчанию это значение составляет 30 000 миллисекунд. Если вы чувствуете, что это слишком мало для вашей среды и/или варианта использования, вы можете увеличить его, но имейте в виду, что основной брокер должен получить ответ от резервного, прежде чем он ответит производителю с такой большой задержкой. между основным и резервным будет доходить до клиентов, создающих сообщения. 

Пинг сети: эта конфигурация позволяет избежать проблемы разделения мозгов. Например, если при резервном копировании возникла проблема с задержкой и основной сервер отключен, резервная копия будет ждать 30 секунд. Если он остается отключенным, резервная копия не станет активной, поскольку она продолжает проверять связь с основным. Если пинг успешен, резервная копия не переключится в активную

Albaasith 26.05.2024 17:38

MQ2broker.xml <!-- Конфигурация проверки сети --> <network-check- period>10000</network-check- period> <network-check-timeout>1000</network-check-timeout> <network-check -list>172.16.7.55</network-check-list> <network-check-ping-command>ping -n 1 -w %d %s</network-check-ping-command> <network-check-ping6- команда>ping6 -c 1 %2$s</network-check-ping6-command>

Albaasith 26.05.2024 17:39

MQ1broker.xml <!-- Конфигурация проверки сети --> <network-check- period>10000</network-check- period> <network-check-timeout>1000</network-check-timeout> <network-check -list>172.16.7.56</network-check-list> <network-check-ping-command>ping -n 1 -w %d %s</network-check-ping-command> <network-check-ping6- команда>ping6 -c 1 %2$s</network-check-ping6-command>

Albaasith 26.05.2024 17:39

Другие вопросы по теме