У меня есть сервер Debian, который используется в основном как веб-сервер с очень низким трафиком. Недавно у него начались проблемы с подключением к сети. Я могу использовать SFTP для загрузки файла на этот сервер через внешнее соединение, и скорость в порядке. Однако, если я захожу на сервер через SSH и пытаюсь загрузить файл с помощью wget, curl или даже «apt-get update», соединение прервется после загрузки 100-200 килобайт данных. Я даже не могу сейчас обновить систему из-за этой проблемы.
Что меня сбивает с толку, так это то, что загрузка файлов на него через FTP или SFTP из полностью отдельного внешнего соединения работает нормально, поэтому я знаю, что восходящий и нисходящий поток для сервера в порядке. Сам сервер также может загружать на внешние источники с нормальной скоростью. Кто-нибудь имеет представление о том, что происходит? Если вам нужна дополнительная информация, просто спросите. Мне нужно это исправить. :)
Спасибо!
Существует множество причин, по которым передача файла может завершиться неудачей. Зачем относиться к нему как к черному ящику, если в этом нет необходимости? Запустите tcpdump, вызовите ошибку и посмотрите, что на самом деле происходит. Если это не имеет для вас смысла, опубликуйте ссылку, по которой хорошие люди здесь, в ServerFault, могут загрузить файл pcap.
Кроме того, подтвердили ли вы, что это общая проблема с загрузками из разных мест? Или просто подходящее зеркало?