У меня есть сервер Linux, работающий на виртуальной машине VMware с 4 виртуальными жесткими дисками. По прошествии месяца я добавил 2 из 4 жестких дисков в клиент vSphere; Мне нужно больше места. Я сделал этот шаг несколько недель назад, затем меня втянули в другой проект перед созданием файловых систем и настройкой монтирования. Теперь я не знаю, какой диск какой в Linux. У меня есть / dev / sda, / dev / sda1, / dev / sda2 и / dev / sdb
Как определить, на каких дисках есть существующие данные, а на каких - новые? Или как мне удалить диски и начать все сначала (я знаю, как удалить диски в клиенте vSphere, но не знаю, как удалить ссылки на них в Linux).
Вот результаты dmesg| grep sd
:
[ 1.361162] sd 2:0:0:0: [sda] 16777216 512-byte logical blocks: (8.58 GB/8.00 GiB)
[ 1.361205] sd 2:0:0:0: [sda] Write Protect is off
[ 1.361210] sd 2:0:0:0: [sda] Mode Sense: 61 00 00 00
[ 1.361253] sd 2:0:0:0: [sda] Cache data unavailable
[ 1.361257] sd 2:0:0:0: [sda] Assuming drive cache: write through
[ 1.363223] sd 2:0:0:0: Attached scsi generic sg1 type 0
[ 1.363398] sda: sda1 sda2
[ 1.363788] sd 2:0:0:0: [sda] Attached SCSI disk
[ 1.364425] sd 2:0:1:0: [sdb] 1572864000 512-byte logical blocks: (805 GB/750 GiB)
[ 1.364466] sd 2:0:1:0: [sdb] Write Protect is off
[ 1.364471] sd 2:0:1:0: [sdb] Mode Sense: 61 00 00 00
[ 1.364512] sd 2:0:1:0: [sdb] Cache data unavailable
[ 1.364515] sd 2:0:1:0: [sdb] Assuming drive cache: write through
[ 1.370673] sd 2:0:1:0: Attached scsi generic sg2 type 0
[ 1.405886] sdb: unknown partition table
[ 1.406228] sd 2:0:1:0: [sdb] Attached SCSI disk
[ 4.493214] Installing knfsd (copyright (C) 1996 okir@monad.swb.de).
[ 4.493849] SELinux: initialized (dev nfsd, type nfsd), uses genfs_contexts
[ 5.933636] EXT4-fs (sdb): mounted filesystem with ordered data mode. Opts: (null)
[ 5.933649] SELinux: initialized (dev sdb, type ext4), uses xattr
[ 6.099670] EXT4-fs (sda1): mounted filesystem with ordered data mode. Opts: (null)
[ 6.108488] SELinux: initialized (dev sda1, type ext4), uses xattr
Выход из fdisk -l
Disk /dev/sda: 8 GiB, 8589934592 bytes, 16777216 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x000dfc09
Device Boot Start End Blocks Id System
/dev/sda1 * 2048 1026047 512000 83 Linux
/dev/sda2 1026048 16777215 7875584 8e Linux LVM
Disk /dev/sdb: 750 GiB, 805306368000 bytes, 1572864000 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/fedora_dataserv-swap: 820 MiB, 859832320 bytes, 1679360 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/fedora_dataserv-root: 6.7 GiB, 7201619968 bytes, 14065664 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Судя по предоставленной вами информации, у вас есть два виртуальных диска:
/ dev / sda: 8 ГБ с двумя разделами / dev / sda1 и / dev / sda2
/ dev / sdb: 750 ГБ без раздела, который вы должны добавить заново.
Ваш fdisk -l Результат команды показывает, что вы создали том LVM с именем fedora_dataserv и в зависимости от используемого дискового пространства вы используете / dev / sda только диск.
Вы можете обратиться к Ответ Я уже писал ранее, измените значение deb-web138 к fedora_dataserv. Например:
# vgextend deb-web138 /dev/sdb1
# lvresize -L+70G /dev/deb-web138/root
# resize2fs /dev/deb-web138/root
изменены на:
# vgextend fedora_dataserv /dev/sdb1
# lvresize -L+70G /dev/fedora_dataserv/root
# resize2fs /dev/fedora_dataserv/root
чтобы увеличить пространство, которое вы можете использовать.
Если вы просто наберете
mount
вы увидите, какая папка к какому диску подключена.
lsscsi
dmesg| grep sd
cat /proc/scsi/scsi
fdisk -l
sda - это диск, подключенный к первому логическому порту в конфигурации вашей виртуальной машины. sdb - это диск, подключенный ко второму логическому порту в конфигурации вашей виртуальной машины. sda1 и sda2 - это два раздела на первом диске, а sdb, похоже, не имеет разделов (то есть тот, который вы добавили). Вы можете использовать gparted или (если он отформатирован как таковой, lvm), чтобы увидеть, как расположены ваши разделы.
blkid
перечислит диски. Вы должны уметь идентифицировать их по размеру, разделам, UUID, типам файловой системы и так далее. lsblk
также весьма полезен для получения графического обзора устройств, но не показывает тип файловой системы.
Спасибо всем, кто ответил. Все, кто это сделал, помогли мне разобраться в проблеме и многому меня научили!
По какой-то причине Linux не распознал 2 новых диска. (Я не знал этого, пока не узнал из ответов других.
Окончательное решение было:
fdisk -l
), что он и сделалfdisk -l теперь показывает / dev / sdc и / dev / sdd
Еще раз спасибо всем за помощь!
/ dev / mapper - это место, где автоматически монтируются смонтированные логические модули и разделы LVM, обычно с понятными именами.
Если ваша система использует LVM, man lvm. Если вы используете смонтированные lun'ы, попробуйте dm-multipath.