[FUG-BR] Raid 5 no FreeBSD
Marcelo Gondim
gondim em bsdinfo.com.br
Sábado Outubro 15 19:57:56 BRT 2011
Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
> Buenas Marcelo !!!
>
> Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
> quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
> mas até algum tempo atras não estava estavel (falo isso mas eu não sei
> como esta o estado dele hoje).
Opa Luiz,
É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem
12Gb de ram então é de boa.
Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos
para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela
dica do RaidZ.
>
> Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
> no ports, sinceramente nunca usei, mas pode-se testar:
>
> [root em desktop] /usr/ports/sysutils/graid5# cat pkg-descr
> FreeBSD GEOM class for RAID5.
>
> This is RAID5 geom class, originally written by Arne Worner
> <arne_woerner em yahoo.com>
>
> WWW: http://lev.serebryakov.spb.ru/download/graid5/
>
> Abraços
>
>
> Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim<gondim em bsdinfo.com.br>
> escreveu:
>
>> Olá Pesssoal,
>>
>> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
>> com eles. Usei o gvinum:
>>
>> drive r0 device /dev/ad12a
>> drive r1 device /dev/ad14a
>> drive r2 device /dev/ad16a
>> drive r3 device /dev/ad18a
>> volume raid5
>> plex org raid5 512k
>> sd drive r0
>> sd drive r1
>> sd drive r2
>> sd drive r3
>>
>> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
>> ou existe alguma outra forma melhor no FreeBSD?
>> Uma outra coisa que aparece no boot é essa mensagem:
>>
>> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
>> gvinum/raid5[READ(offset=1500321938944, length=512)]
>>
>> Mas parece que está tudo funcionando:
>>
>> gvinum -> printconfig
>> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
>> 14:48:59 2011
>> drive r0 device /dev/ad12a
>> drive r1 device /dev/ad14a
>> drive r2 device /dev/ad16a
>> drive r3 device /dev/ad18a
>> volume raid5
>> plex name raid5.p0 org raid5 1024s vol raid5
>> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
>> raid5.p0 plexoffset 0s
>> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
>> raid5.p0 plexoffset 1024s
>> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
>> raid5.p0 plexoffset 2048s
>> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
>> raid5.p0 plexoffset 3072s
>>
>> gvinum -> l
>> 4 drives:
>> D r0 State: up /dev/ad12a A: 0/476939 MB
>> (0%)
>> D r1 State: up /dev/ad14a A: 0/476939 MB
>> (0%)
>> D r2 State: up /dev/ad16a A: 0/476939 MB
>> (0%)
>> D r3 State: up /dev/ad18a A: 0/476939 MB
>> (0%)
>>
>> 1 volume:
>> V raid5 State: up Plexes: 1 Size: 1397
>> GB
>>
>> 1 plex:
>> P raid5.p0 R5 State: up Subdisks: 4 Size: 1397
>> GB
>>
>> 4 subdisks:
>> S raid5.p0.s0 State: up D: r0 Size: 465
>> GB
>> S raid5.p0.s1 State: up D: r1 Size: 465
>> GB
>> S raid5.p0.s2 State: up D: r2 Size: 465
>> GB
>> S raid5.p0.s3 State: up D: r3 Size: 465
>> GB
>>
>> Essa mensagem de erro no boot é normal?
>>
>> Grande abraço à todos
>>
>> -------------------------
>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>
Mais detalhes sobre a lista de discussão freebsd