ผมมี HDD 4 ลูก จะใช้งาน VPS ควรจะทำ Raid 5 หรือ 10 ดีครับ

หมายถึงเร็วกว่า ssd 24 ลูกรึว่าแค่ลูกเดียวครับ

อยากรู้จังว่า controller ตัวไหนที่ read จาก 2 ลูกใน raid1 ได้แบบที่ท่าน rtsp ว่าบ้าง
เป็นทางเลือกที่น่าสนใจมาก

[COLOR=#333333]SAS 2.5" 1TBx24

โหดเกิน.

ตอนนี้สนใจเรื่อง hybrid raid มากกว่า มีใครเคยลองอย่างจริง ๆ จัง ๆ ไหมครับ. ไม่มีสงสัยจะต้องเป็นหนูตัวแรก ๆ เหมือนเดิม - -"[/COLOR]

ตอนนี้มอยากได้แค่ ทำ raid software raid10 HDD 4 ลูก ครับ ยังทำไม่ได้เลย T __ T

ลองทำตามพี่ pizzman บอกแล้ว มันขึ้น invalid raid หน่ะครับ

[COLOR=#333333][FONT=Tahoma][I]

mdadm -v --create /dev/md0 --level=raid10 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

[/I][/FONT]
[/COLOR]
[COLOR=#333333]ระหว่างรอ mdadm สร้าง raid volume ก็ดูสถานะได้จากคำสั่งนี้[/COLOR]

[COLOR=#333333]#cat /proc/mdstat[/COLOR]

ลูกเดียวครับ :slight_smile:

4 ลูกทำ raid0

ใช้คำสั่ง vgdisplay

แล้วขึ้นแบบนี้ อะครับ

No volume groups found

ผมจะทำ volume groups ได้ยังไงอะครับ

เร็วกว่าก็แค่ตัวเลข MB/sec ครับ แต่ IOP ยังไงก็สู้ SSD ไม่ได้ชัวร์ :slight_smile:

hybrid raid ก็ยังมีปัญหาคือ write ได้เท่ากับ hdd ธรรมดานะครับ
แต่ขา read ได้เกือบเท่า ssd
จะว่าไปก็คล้ายๆ flashcache

เข้าไปอ่านทฤษฏี hybrid raid คือ

การเวลาเขียนจะเขียนลงทั้งฝั่ง hdd และ ssd แต่เวลาอ่านจะอ่านจะฝั่ง ssd

ดังนั้นถั่วต้มเลยครับที่ว่าเร็วขึ้นแน่นอนในขา read

แต่ฝั่ง write นี่ยังไม่แน่ใจว่าถ้าต้องเขียนลง disk สองแบบมันจะต้องรอให้เสร็จทั้งสองฝั่งก่อนแล้วค่อยหยิบมา read หรือเปล่า. หรือถ้าฝั่ง ssd เสร็จก่อนก็หยิบมา read ได้เลย.

ไปดูราคา card จาก amazon ก็ไม่แพงมาก อยู่ในระดับที่รับได้

sw raid ใช้งานได้ดีครับ ผมใช้มาหลายเครื่องไม่มีปัญหาเลย แต่ไงก็สู้ การ์ดดีๆไม่ได้ เพราะว่ามันใช้ cpu ของ server

ซื้อในไทยถูกกว่าแถมมีประกันเคลมสะดวก adaptec มีขายหลายเจ้าครับ

ผมคิดว่ามันจำเป็นต้อง sync กันตลอดเวลานะครับเพราะถ้าปล่อยให้ ssd เขียนล่วงหน้าไปก่อนได้
แล้วเกิด ssd พังขึ้นมานี้แน่เลย

ถ้าเทียบกับ flashcache มันจะมี 3 mode ครับ

  1. writearound => เขียนลง hdd อย่างเดียว
  2. writethrough => เขียนลง hdd + ssd พร้อมกัน (ต้องเสร้จทั้งคู่ถึงจะถือว่าเขียนไฟล์สมบูรณ์) ข้อมูลที่เขียนไปเท่ากับว่า cache ไว้ในตัว
  3. writeback => เขียนลง ssd แล้ว hdd ว่างเมื่อไหร่ค่อยเอาข้อมูลจาก ssd ไปเก็บอีกที

mode ที่ 3 จะเร็วที่สุด แต่ถ้า ssd พังข้อมูลที่ยังไม่ได้ flush ลง disk ก็พังเหมือนกันครับ
ส่วน 1 2 ข้อมูลปลอดภัย แต่ถ้าใช้ mode2 ต้องแน่ใจว่า ssd เร็วกว่า hdd ครับ ไม่งั้นมันจะช้า

โหมด 2 ตอนอ่านจะอ่านจาก cache ก่อนถ้าไม่เจอค่อยไปหาใน hdd ถูกรึเปล่าครับ

ออกทะเลไปไกล ย้อนกลับมาตอบจขกทหน่อย

cisco c200 raid on board เป็น fake raid ทำงานร่วมกับ drivers ครับ ถ้า os มี driver มาด้วย ตอนลง os ก็จะเห็นเป็น hdd ลูกเดียวเลย
จากที่เคยลอง centos 6 รองรับนะ ตอนลงมันจะเห็นเป็น /dev/mapper/… ประมาณนี้

แต่ถ้าลงพวก proxmox esxi อะไรพวกนี้มันจะเห็น hdd จริงเป็นลูกๆ ก็คือไม่รองรับนั้นเอง

โดยส่วนตัวถ้า os รู้จัก raid มองเห็นเป็น hdd ลูกเดียว ก็ใช้ raid บนบอร์ดดีกว่ามาสร้าง mdadm เอง
แต่จะปิด raid บนบอร์ดแล้วใช้ sw raid (mdadm) ก็ได้เหมือนกัน แต่การสร้างจะต่างกัน
ถ้าใช้ raid บนบอร์ด ตอนลง os ก็แบ่ง partition ได้ตามปกติเลย
แต่ถ้าใช้ mdadm จะต้องสร้าง raid volume แยกสำหรับแต่ละ partition อีกทีหนึ่ง (สามารถทำผ่านหน้าจัดการ partition ตอน setup os ได้่เลย จะง่ายกว่ามาใช้ command แบ่งทีหลัง)

ขอบคุณครับพี่ KKE

ผมลองทำแล้วมันบอกเหมือนว่าไม่ได้ครับ raid bios อะไรซักอย่างลืมจดไว้

ตอนนี้เลยไปทำตามคลิปนี้ มันก็บูทอะไรไม่ขึ้นตอนลงเสร็จแล้ว

RAID 10 Installation How-to Tutorial on CentOS 6.2 (64-bit)


http://www.youtube.com/watch?v=zlOK1voR2nA

ถ้าทำตามวิดีโอเป้ะ แสดงว่าแบ่ง /boot เป็น RAID-1 ใช่มั้ยเอ่ย ถ้าเป็นตามนี้ก็ถูกต้องแล้วนะครับ

ที่ว่าไม่ขึ้นนี่ค้างตรงหน้าไหนครับ เลือก boot device ถูกอันรึเปล่า มันอาการเป็นไงแคปจอมาให้ดูก็ดีครับ

เอาตั้งแต่แรกเลยนะครับ ผมตั้ง แบบนี้ถูกหรือเปล่า ตอนแรกผมตั้งเป็น ACHI

AHCI ถูกแล้วครับ
ขอหน้าที่บูทไม่ขึ้นเลยครับ