Назад | Перейти на главную страницу

Не удалось открыть / etc / webmin / apache / site для записи: На устройстве не осталось места

Я запускаю centos 6.8 с виртуальным мин

Мой сервер с kimsufi.com с дисковым пространством 2 ТБ

файловая система 20gb

ниже у меня есть вывод df -h:

[root@server ~]# df -h 
Filesystem      Size  Used Avail Use% Mounted on
rootfs           20G  8,7G  9,7G  48% /
devtmpfs        7,8G  176K  7,8G   1% /dev
tmpfs           7,9G     0  7,9G   0% /dev/shm
/dev/sda2        20G  8,7G  9,7G  48% /
/dev/sda2        20G  8,7G  9,7G  48% /var/named/chroot/etc/named
/dev/sda2        20G  8,7G  9,7G  48% /var/named/chroot/var/named
/dev/sda2        20G  8,7G  9,7G  48% /var/named/chroot/etc/named.conf
/dev/sda2        20G  8,7G  9,7G  48% /var/named/chroot/etc/named.rfc1912.zones
/dev/sda2        20G  8,7G  9,7G  48% /var/named/chroot/etc/rndc.key
/dev/sda2        20G  8,7G  9,7G  48% /var/named/chroot/usr/lib64/bind
/dev/sda2        20G  8,7G  9,7G  48% /var/named/chroot/etc/named.iscdlv.key
/dev/sda2        20G  8,7G  9,7G  48% /var/named/chroot/etc/named.root.key
[root@server ~]# 

with df -i 48% is 100% Im newbea, но мой сервер работал нормально с месяц назад.

Я попытался очистить кеш после поиска в Google с помощью следующей команды:

sudo rm -rf /var/cache/yum/x86_64/6/$REPONAME

поэтому после выполнения этой команды я вошел в webmin, и вместо ошибки в заголовке я получил экран webmin, он работал, и на панели локальное дисковое пространство составляло 50%.

после этого я попытался перезапустить mysql через /etc/init.d/mysqld restart, и mysql не запустился

Теперь у меня нет mysql

последняя ошибка /usr/bin/mysqlshow: Can't connect to local MySQL server through socket '/var/lib/mysql/mysql.sock' (2)

и снова последний Failed to open /etc/webmin/apache/site for writing : No space left on device сообщение в webmin или virtualmin.

Ребята, я очень запутался и боюсь потерять свои базы данных, пожалуйста, если кто-нибудь может помочь мне здесь решить эту проблему, буду очень признателен

редактировать:

[root@server ~]# ls -l /var/spool/postfix/
total 56
drwx------  2 postfix root     4096 Oct 25 04:46 active
drwx------  2 postfix root     4096 Oct 24 21:45 bounce
drwx------  2 postfix root     4096 Nov 10  2015 corrupt
drwx------  6 postfix root     4096 Oct 10 02:17 defer
drwx------  6 postfix root     4096 Oct 10 02:17 deferred
drwx------  2 postfix root     4096 Nov 10  2015 flush
drwx------  2 postfix root     4096 Nov 10  2015 hold
drwx------  2 postfix root     4096 Oct 25 04:46 incoming
drwx-wx---  2 postfix postdrop 4096 Oct 25 04:46 maildrop
drwxr-xr-x. 2 root    root     4096 Oct 25 08:58 pid
drwx------. 2 postfix root     4096 Oct 25 11:21 private
drwx--x---. 2 postfix postdrop 4096 Oct 25 11:21 public
drwx------  2 postfix root     4096 Nov 10  2015 saved
drwx------  2 postfix root     4096 Nov 10  2015 trace
[root@server ~]# 

У вас, вероятно, есть программа, которая создает множество очень маленьких файлов, по моему опыту работы с RH6, какой-то скрипт cron, который производит вывод, который отправляется по локальной почте.

Проверьте вывод:

ls -l /var/spool/postfix/

Если число в пятом столбце велико по сравнению с другими файлами, то все.

Обновить

Из вывода ls -l / var / spool / postfix кажется, что комбинация cron + postfix не является проблемой в этом случае.

На этом этапе, за исключением переустановки с возможностью добавления дополнительных инодов, проверьте, есть ли у вас место, заполненное файлами, в соответствии с этим вопросом:

https://unix.stackexchange.com/questions/117093/find-where-inodes-are-being-used#117094

Пытаться:

find / -xdev -printf '% h \ n' | сортировать | uniq -c | сортировать -k 1 -n

Но будьте осторожны, это займет много времени. Последней записью будет каталог с большим количеством inodes внутри, что должно дать некоторую подсказку.