raid 與 lvm

Post on 01-Feb-2016

199 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

DESCRIPTION

RAID 與 LVM. 磁碟陣列 (RAID). RAID 簡介 RAID 狀態 指令介紹 RAID 5 實作. RAID 簡介. 容錯式廉價磁碟陣列 『 Redundant Arrays of Inexpensive Disks, RAID 』 。 RAID 可以透過一個技術 ( 軟體或硬體 ) ,將多個較小的磁碟整合成為一個較大的磁碟裝置 。. ref:http://linux.vbird.org/linux_basic/0420quota.php#raid. RAID 狀態. RAID 狀態. - PowerPoint PPT Presentation

TRANSCRIPT

1

RAID 與 LVM

2

磁碟陣列磁碟陣列 (RAID)(RAID)

RAIDRAID 簡介簡介RAIDRAID 狀態狀態指令介紹指令介紹RAID 5 實作

3

RAID 簡介容錯式廉價磁碟陣列 『 Redundant

Arrays of Inexpensive Disks, RAID 』。

RAID 可以透過一個技術 ( 軟體或硬體 ) ,將多個較小的磁碟整合成為一個較大的磁碟裝置 。

ref:http://linux.vbird.org/linux_basic/0420quota.php#raid

4

RAIDRAID 狀態狀態RAID 狀態 解釋RAID-0  等量模式 , stripe

優點 : 效能最佳。缺點 : 只要有任一磁碟損毀,在 RAID 上面的所有資料都會遺失而無法讀取。

RAID-1 映射模式 , mirror優點 : 完整備份缺點 : 寫入效能不佳

RAID 0+1 Stripe+mirror優缺點 : 具有 RAID 0 的優點,所以效能得以提升,具有 RAID 1 的優點,所以資料得以備份。 但是也由於 RAID 1 的缺點,所以總容量會少一半用來做為備份

5

RAIDRAID 狀態狀態RAID 狀態 解釋RAID 5 效能與資料備份的均衡考量

需要三顆以上磁碟才能夠組成,允許一顆故障。每個循環的寫入過程中,在每顆磁碟還加入一個同位檢查資料 (Parity) ,這個資料會記錄其他磁碟的備份資料, 用於當有磁碟損毀時的救援。

RAID 6 增加了第二個獨立的奇偶校驗信息塊,可靠度高。需要四顆以上磁碟才能夠組成,允許兩顆故障。

Spare Disk 預備磁碟

ref:http://zh.wikipedia.org/wiki/RAID

6

建立建立 RAID-RAID-mdadmmdadm--create :為建立 RAID 的選項; --spare-devices=N :使用幾個磁碟

作為備用 (spare) 裝置 --level=[015] :設定這組磁碟陣列

的等級。支援很多,不過建議只要用 0, 1, 5 即可 --detail :後面所接的那個磁碟陣列裝置的詳細資訊

--detail :後面所接的那個磁碟陣列裝置的詳細資訊

7

常用指令常用指令mdadm --detail /dev/md0mdadm --create --auto=yes /dev/md0 --level=5 \ > --raid-devices=4 /dev/{b-e}

mdadm --manage /dev/md

8

RAID 5 實作 準備 4 顆硬碟 檢查 partitions 狀態

◦ #cat /proc/partitions格式化新硬碟

◦ #fisk /dev/sdb◦ n◦ p◦ t 選擇其它類型◦ l 列出所有類型◦ fd RAID 類型◦ w 選好之後存檔◦ #partprobe 重讀分割區表 , 不用重開機

依續完成格式化其它 3 顆的 RAID 類型◦ fisk /dev/sdc◦ fisk /dev/sdd◦ fisk /dev/sde

完成之後,查看 4 顆硬碟的狀態,確認後重新開機◦ fdisk -l /dev/sd[bcde]

9

建立 RAID 5 #mdadm -C /dev/md0 -l5 -n3 /dev/sd[bcd]1 -x 1

/dev/sde1

-C creat-l5 指定 raid 5 模式-n3 指定 3 顆硬諜加入 raid-x 指定 1 顆備援硬諜加入 raid

#mdadm –D /dev/md0-D 查看詳細資料

10

RAID 建置時電腦變慢可以查看 raid 的其它詳細資訊 ,同時

可看到 recovery 仍在進行中。◦#cat /proc/mdstat

格式化 /dev/md0◦#mkfs –j /dev/md0

建立 raid 目錄並掛載◦#mkdir /media/raid◦#mount /dev/md0 /media/raid

#df -h 會看到只有兩顆硬碟的空間

11

RAID 的故障測試拷貝一個檔案到 raid 目錄,準備測試工作

◦#cp /etc/passwd /media/raid先查看 raid 的運作狀態

◦#mdadm -D /dev/md0

故意將 dev/sdc1 設為故障狀態◦#mdadm /dev/md0 -f /dev/sdc1

再查看 raid 的運作狀態,會發現 sde1 逐漸替補 sdc1 的工作◦#mdadm -D /dev/md0

此時仍可正常讀檔,表示 raid 有正常運作◦#cat /media/raid/passwd

12

RAID 的移出與加入將故障的 dev/sdc1 移出,可以送修

◦ #mdadm /dev/md0 -r /dev/sdc1

查看是否已移出◦ #mdadm -D /dev/md0

當故障的硬碟修復後 , 將其加回◦ #mdadm /dev/md0 -a /dev/sdc1

關閉軟體 RAID◦ #umount /dev/md0◦ #mdadm --stop /dev/md0

13

開機自動掛載#vi /etc/fstab/dev/md0 /media/raid ext3 defaults

1 2

14

邏輯磁卷管理員邏輯磁卷管理員

LVMLVM 介紹介紹LVMLVM 架構架構LVMLVM 管理工具管理工具LVMLVM 實作實作

15

LVMLVM 介紹介紹LVM 的全名邏輯磁卷管理 , 是以磁卷

(Volume) 為單位 , 捨棄傳統磁碟以分割 (Partition) 為磁碟的單位。

LVM 的重點在於『可以彈性的調整 filesystem 的容量!』而並非在於效能與資料保全上面。

ref:http://linux.vbird.org/linux_basic/0420quota.php#lvm

16

LVMLVM 架構架構

17

LVMLVM 的三個元件的三個元件實體磁卷 PV:(Physical Volume) 磁

碟分割區 ;System ID 必須標示為 8e 。磁卷群組 VG:(Volume Group) 把多

割磁碟分割區 ( 實體磁卷 ) 建立成一個磁卷群組。

邏輯磁卷 LV:(Logic Volume) 把邏輯磁卷當作原本的分割區使用。

18

LVMLVM 管理工具管理工具實體磁卷 磁卷群組 虛擬磁卷

掃描 pvscan vgscan lvscan

檢視 pvdisplay vgdisplay lvdisplay

新建 pvcreate vgcreate lvscreate

移除 pvremove vgremove vgremove

放大 vgextend lvestend

縮小 vgreduce lvreduce

19

LVM流程圖

ref :http://linux.vbird.org/linux_basic/0420quota.php#lvm

20

LVM 實作準備 3 顆 HDD首先查看 partitions

◦ #cat /proc/partitions進行各硬碟格式化工作

◦ #fdisk /dev/sdc◦ n◦ p◦ t◦ l 列出類型◦ 8e lvm 類型◦ w save◦ #partprobe 重讀分割表 , 不用重開機

檢查 3 顆硬碟的格式化結果◦ #fdisk -l /dev/sd[cde]

21

•建立 LVM•#pvcreate /dev/sdc1

•查詢 LVM•#pvscan•PV 裝置名稱 lvm2 容量大小

•指定 dev/sdc1 在 vg00 群組•#vgcreate vg00 /dev/sdc1

•再查詢 LVM•#pvscan

•也可查詢群組狀態•#vgdisplay vg00•#vgscan

•指定大小 100M 並且叫做 lv00 邏輯分割 由 vg00 群組切割 •#lvcreate -L 100M -n lv00 vg00

•會發現少 100M•#pvscan

22

•找出 lv•#lvscan

•列出 lv 詳細資訊•#lvdisplay /dev/vg00/lv00

•格式為 ext3•#mkfs -j /dev/vg00/lv00

•掛載•#mkdir /media/lvm•#mount /dev/vg00/lv00 /media/lvm

•查看空間•#df -h

23

•若之後空間不足要擴大到 200M•#lvextend -L 200M /dev/vg00/lv00

•變成 200M•#lvscan

•因擴大的是分割區 , 分割區內容沒有變更 , 所以掛載 100M 不變•#df –h

•將指定的分割區做動態調整•#resize2fs /dev/vg00/lv00

•變成 200M 了•#df -h

24

將其它硬碟加到 LVM 群組先檢查 LVM

◦#pvscan

加入群組◦#vgextend vg00 /dev/sdd1

移出群組◦#vgreduce vg00 /dev/sdd1

top related