[FUG-BR] Raid 5 no FreeBSD
Luiz Gustavo Costa
luizgustavo em luizgustavo.pro.br
Sábado Outubro 15 16:54:53 BRT 2011
Buenas Marcelo !!!
Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
mas até algum tempo atras não estava estavel (falo isso mas eu não sei
como esta o estado dele hoje).
Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
no ports, sinceramente nunca usei, mas pode-se testar:
[root em desktop] /usr/ports/sysutils/graid5# cat pkg-descr
FreeBSD GEOM class for RAID5.
This is RAID5 geom class, originally written by Arne Worner
<arne_woerner em yahoo.com>
WWW: http://lev.serebryakov.spb.ru/download/graid5/
Abraços
Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim <gondim em bsdinfo.com.br>
escreveu:
> Olá Pesssoal,
>
> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
> com eles. Usei o gvinum:
>
> drive r0 device /dev/ad12a
> drive r1 device /dev/ad14a
> drive r2 device /dev/ad16a
> drive r3 device /dev/ad18a
> volume raid5
> plex org raid5 512k
> sd drive r0
> sd drive r1
> sd drive r2
> sd drive r3
>
> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
> ou existe alguma outra forma melhor no FreeBSD?
> Uma outra coisa que aparece no boot é essa mensagem:
>
> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
> gvinum/raid5[READ(offset=1500321938944, length=512)]
>
> Mas parece que está tudo funcionando:
>
> gvinum -> printconfig
> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
> 14:48:59 2011
> drive r0 device /dev/ad12a
> drive r1 device /dev/ad14a
> drive r2 device /dev/ad16a
> drive r3 device /dev/ad18a
> volume raid5
> plex name raid5.p0 org raid5 1024s vol raid5
> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
> raid5.p0 plexoffset 0s
> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
> raid5.p0 plexoffset 1024s
> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
> raid5.p0 plexoffset 2048s
> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
> raid5.p0 plexoffset 3072s
>
> gvinum -> l
> 4 drives:
> D r0 State: up /dev/ad12a A: 0/476939 MB
> (0%)
> D r1 State: up /dev/ad14a A: 0/476939 MB
> (0%)
> D r2 State: up /dev/ad16a A: 0/476939 MB
> (0%)
> D r3 State: up /dev/ad18a A: 0/476939 MB
> (0%)
>
> 1 volume:
> V raid5 State: up Plexes: 1 Size: 1397
> GB
>
> 1 plex:
> P raid5.p0 R5 State: up Subdisks: 4 Size: 1397
> GB
>
> 4 subdisks:
> S raid5.p0.s0 State: up D: r0 Size: 465
> GB
> S raid5.p0.s1 State: up D: r1 Size: 465
> GB
> S raid5.p0.s2 State: up D: r2 Size: 465
> GB
> S raid5.p0.s3 State: up D: r3 Size: 465
> GB
>
> Essa mensagem de erro no boot é normal?
>
> Grande abraço à todos
>
> -------------------------
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
--
/\ Luiz Gustavo S. Costa
/ \ Programmer at BSD Perimeter
/ \ /\/\/\ Visit the pfSense Project
/ \ \ \ http://www.pfsense.org
---------------------------------------------------------------------
BSD da serra carioca, Teresopolis (visite: http://miud.in/Inv)
Contatos: luizgustavo em luizgustavo.pro.br / lgcosta em pfsense.org
Blog: http://www.luizgustavo.pro.br
Mais detalhes sobre a lista de discussão freebsd