В настоящее время у меня возникла проблема с правильной работой резервных копий для ElasticSearch через их систему моментальных снимков. Согласно их инструкциям, сначала необходимо настроить репозиторий моментальных снимков, используя эту команду:
curl -XPUT 'http://$server_IP:9200/_snapshot/backup' -d '{
"type": "fs",
"settings": {
"location": "/data/backup/elasticsearch/snapshots",
"compress": true
}
}'
Однако когда я запускаю эту команду, я сталкиваюсь с этой ошибкой:
No handler found for uri [/_snapshot/backup] and method [PUT]
Эта ошибка практически не помогает при поиске в Интернете в любом подобном формате. Я могу поменять свой $ server_IP на 127.0.0.1 или просто на localhost, и ошибка изменится на:
curl: (7) Failed to connect to 127.0.0.1 port 9200: Connection refused
Хорошо, кажется достаточно простым. За исключением того, что если я просто свернусь до 127.0.0.1:9200, он вернется в норму. Ошибка существует только в том случае, если я ссылаюсь на репозиторий _snapshot при его создании.
У меня настроен и работает каталог Samba, и система прослушивает: 9200. Каталог Samba имеет правильные разрешения при тестировании из других систем. Я как бы не знаю, в чем заключается настоящая ошибка.
Это не кластерная система, которая действует как один главный узел / сегмент ElasticSearch. Я настраиваю Samba как шаг по устранению неполадок, и поскольку в документах ES сказано, что требуется общий каталог хранилища. Можно ли сделать резервную копию каталога данных ElasticSearch, просто используя tar / gzip? Это для установки Graylog, поэтому мне нужны откатывающиеся резервные копии входящих журналов. Если я могу сделать резервную копию / восстановить их с помощью стандартного tar / gzip, я буду счастлив, избегая вышеуказанных вызовов. Меня беспокоит только то, как обрабатывается информация, когда ES инициализируется, загружает его индексы и т. Д.