หมายถึงเร็วกว่า ssd 24 ลูกรึว่าแค่ลูกเดียวครับ
อยากรู้จังว่า controller ตัวไหนที่ read จาก 2 ลูกใน raid1 ได้แบบที่ท่าน rtsp ว่าบ้าง
เป็นทางเลือกที่น่าสนใจมาก
หมายถึงเร็วกว่า ssd 24 ลูกรึว่าแค่ลูกเดียวครับ
อยากรู้จังว่า controller ตัวไหนที่ read จาก 2 ลูกใน raid1 ได้แบบที่ท่าน rtsp ว่าบ้าง
เป็นทางเลือกที่น่าสนใจมาก
[COLOR=#333333]SAS 2.5" 1TBx24
โหดเกิน.
ตอนนี้สนใจเรื่อง hybrid raid มากกว่า มีใครเคยลองอย่างจริง ๆ จัง ๆ ไหมครับ. ไม่มีสงสัยจะต้องเป็นหนูตัวแรก ๆ เหมือนเดิม - -"[/COLOR]
ตอนนี้มอยากได้แค่ ทำ raid software raid10 HDD 4 ลูก ครับ ยังทำไม่ได้เลย T __ T
ลองทำตามพี่ pizzman บอกแล้ว มันขึ้น invalid raid หน่ะครับ
[COLOR=#333333][FONT=Tahoma][I]
[/I][/FONT]
[/COLOR]
[COLOR=#333333]ระหว่างรอ mdadm สร้าง raid volume ก็ดูสถานะได้จากคำสั่งนี้[/COLOR]
[COLOR=#333333]#cat /proc/mdstat[/COLOR]
ลูกเดียวครับ
4 ลูกทำ raid0
ใช้คำสั่ง vgdisplay
แล้วขึ้นแบบนี้ อะครับ
No volume groups found
ผมจะทำ volume groups ได้ยังไงอะครับ
เร็วกว่าก็แค่ตัวเลข MB/sec ครับ แต่ IOP ยังไงก็สู้ SSD ไม่ได้ชัวร์
hybrid raid ก็ยังมีปัญหาคือ write ได้เท่ากับ hdd ธรรมดานะครับ
แต่ขา read ได้เกือบเท่า ssd
จะว่าไปก็คล้ายๆ flashcache
เข้าไปอ่านทฤษฏี hybrid raid คือ
การเวลาเขียนจะเขียนลงทั้งฝั่ง hdd และ ssd แต่เวลาอ่านจะอ่านจะฝั่ง ssd
ดังนั้นถั่วต้มเลยครับที่ว่าเร็วขึ้นแน่นอนในขา read
แต่ฝั่ง write นี่ยังไม่แน่ใจว่าถ้าต้องเขียนลง disk สองแบบมันจะต้องรอให้เสร็จทั้งสองฝั่งก่อนแล้วค่อยหยิบมา read หรือเปล่า. หรือถ้าฝั่ง ssd เสร็จก่อนก็หยิบมา read ได้เลย.
ไปดูราคา card จาก amazon ก็ไม่แพงมาก อยู่ในระดับที่รับได้
sw raid ใช้งานได้ดีครับ ผมใช้มาหลายเครื่องไม่มีปัญหาเลย แต่ไงก็สู้ การ์ดดีๆไม่ได้ เพราะว่ามันใช้ cpu ของ server
ซื้อในไทยถูกกว่าแถมมีประกันเคลมสะดวก adaptec มีขายหลายเจ้าครับ
ผมคิดว่ามันจำเป็นต้อง sync กันตลอดเวลานะครับเพราะถ้าปล่อยให้ ssd เขียนล่วงหน้าไปก่อนได้
แล้วเกิด ssd พังขึ้นมานี้แน่เลย
ถ้าเทียบกับ flashcache มันจะมี 3 mode ครับ
mode ที่ 3 จะเร็วที่สุด แต่ถ้า ssd พังข้อมูลที่ยังไม่ได้ flush ลง disk ก็พังเหมือนกันครับ
ส่วน 1 2 ข้อมูลปลอดภัย แต่ถ้าใช้ mode2 ต้องแน่ใจว่า ssd เร็วกว่า hdd ครับ ไม่งั้นมันจะช้า
โหมด 2 ตอนอ่านจะอ่านจาก cache ก่อนถ้าไม่เจอค่อยไปหาใน hdd ถูกรึเปล่าครับ
ออกทะเลไปไกล ย้อนกลับมาตอบจขกทหน่อย
cisco c200 raid on board เป็น fake raid ทำงานร่วมกับ drivers ครับ ถ้า os มี driver มาด้วย ตอนลง os ก็จะเห็นเป็น hdd ลูกเดียวเลย
จากที่เคยลอง centos 6 รองรับนะ ตอนลงมันจะเห็นเป็น /dev/mapper/… ประมาณนี้
แต่ถ้าลงพวก proxmox esxi อะไรพวกนี้มันจะเห็น hdd จริงเป็นลูกๆ ก็คือไม่รองรับนั้นเอง
โดยส่วนตัวถ้า os รู้จัก raid มองเห็นเป็น hdd ลูกเดียว ก็ใช้ raid บนบอร์ดดีกว่ามาสร้าง mdadm เอง
แต่จะปิด raid บนบอร์ดแล้วใช้ sw raid (mdadm) ก็ได้เหมือนกัน แต่การสร้างจะต่างกัน
ถ้าใช้ raid บนบอร์ด ตอนลง os ก็แบ่ง partition ได้ตามปกติเลย
แต่ถ้าใช้ mdadm จะต้องสร้าง raid volume แยกสำหรับแต่ละ partition อีกทีหนึ่ง (สามารถทำผ่านหน้าจัดการ partition ตอน setup os ได้่เลย จะง่ายกว่ามาใช้ command แบ่งทีหลัง)
ขอบคุณครับพี่ KKE
ผมลองทำแล้วมันบอกเหมือนว่าไม่ได้ครับ raid bios อะไรซักอย่างลืมจดไว้
ตอนนี้เลยไปทำตามคลิปนี้ มันก็บูทอะไรไม่ขึ้นตอนลงเสร็จแล้ว
RAID 10 Installation How-to Tutorial on CentOS 6.2 (64-bit)
ถ้าทำตามวิดีโอเป้ะ แสดงว่าแบ่ง /boot เป็น RAID-1 ใช่มั้ยเอ่ย ถ้าเป็นตามนี้ก็ถูกต้องแล้วนะครับ
ที่ว่าไม่ขึ้นนี่ค้างตรงหน้าไหนครับ เลือก boot device ถูกอันรึเปล่า มันอาการเป็นไงแคปจอมาให้ดูก็ดีครับ
AHCI ถูกแล้วครับ
ขอหน้าที่บูทไม่ขึ้นเลยครับ