Я делаю что-то подобное, и форматирование файловой системы занимает много времени, поэтому я предполагаю, что у меня что-то не так.
sda крутится, а sdb, sdc и sdd - SSD.
clearpart --drives=sda,sdb,sdc,sdd --initlabel
part swap --recommended --ondisk=sda
part / --size=4096 --grow --ondisk=sda
part pv.11 --size=100 --grow --ondisk=sdb
part pv.12 --size=100 --grow --ondisk=sdc
part pv.13 --size=100 --grow --ondisk=sdd
volgroup datavg --pesize=4096 pv.11 pv.12 pv.13
logvol /data --fstype=ext4 --name=datalv --vgname=datavg --size=100 --grow --percent=100 raid.11 raid.12 raid.13
Вопросы:
Цель:
Спасибо!
Алан
В итоге я сделал что-то вроде этого:
# Partition clearing information
clearpart --drives=sda,sdb,sdc,sdd --initlabel
part swap --recommended --ondisk=sda
part / --size=4096 --grow --ondisk=sda
# create the ssd partitions
part pv.11 --size=100 --grow --ondisk=sdb
part pv.12 --size=100 --grow --ondisk=sdc
part pv.13 --size=100 --grow --ondisk=sdd
%post
vgcreate cassvg /dev/sdb1 /dev/sdc1 /dev/sdd1
lvcreate -l 100%FREE --stripes 3 --stripesize 4096 --name casslv cassvg
mkfs.ext4 -b 4096 -E stride=128,stripe-width=128 /dev/cassvg/casslv
mkdir -p /cache/cassandra/storage
echo "/dev/mapper/cassvg-casslv /cache/cassandra/storage ext4 discard, noatime,nodiratime 1 2" >> /etc/fstab
Я переместил том и логическое создание в раздел% post, чтобы избежать проблем с новой средой кикстарта initramfs в centos6.2. Создание тома и логики на этапе% post создает их с правильным именем хоста, чтобы они правильно монтировались во время выполнения.
Существуют изощренные способы решения проблемы initramfs, но это выглядело как кроличья нора, когда я мог просто переместить их в% post для этого объема данных приложения.
Если под словом «полоса» вы подразумеваете свой размер PE, здесь мы говорим о двух разных вещах. Физический экстент - это просто размер фрагмента хранилища, которым вы можете расширить свой логический том. Полоса - это часть хранилища, которая разделена на несколько устройств хранения. Физическая протяженность не требует такого требования.
Я думаю, что произойдет, если ваш LV будет охватывать все три диска, но таким образом, чтобы сначала заполнить диск sdb, затем sdc и, наконец, sdd.
Я не уверен, что LVM - самый логичный способ сделать это. Лично я бы выбрал программный RAID-массив с mdadm. Это сделает реальный набор RAID, а не LV, который охватывает три диска.
Кроме того: без дополнительной информации невозможно определить, имеет ли ваша полоса 4 МБ нужный размер. Оптимальный размер полосы определяется размером среднего размера запроса, который является средним размером запроса на чтение из набора дисков. Что вам нужно сделать, это запустить типичную нагрузку на эту машину и использовать SAR или что-то подобное для измерения среднего размера запроса. Затем вы переустанавливаете машину (или просто переформатируете набор RAID) и используете этот средний размер запроса, разделенный на два (!) А, как размер блока данных. Третий диск будет содержать ваши блоки четности (при условии, что вы создаете набор RAID 5). Тогда размер вашей полосы будет (avg req size / 2) * 3, с 2 блоками данных и блоком четности, все размером (avg req size / 2).
Надеюсь, я правильно говорю :) Устаю. Я еще раз пройдусь по этому поводу завтра, чтобы посмотреть, есть ли смысл :)
Обычно средний размер запроса составляет порядка килобайт, а не мегабайт, но для вашей конкретной ситуации это невозможно узнать без измерения.
Тем не менее, у меня мало опыта использования LVM для схем, подобных RAID.