[FUG-BR] Raid 5 no FreeBSD
Marcelo Gondim
gondim em bsdinfo.com.br
Segunda Outubro 17 11:55:11 BRST 2011
Em 17/10/2011 10:31, Luiz Gustavo Costa escreveu:
> Bom dia,
>
> João, o post do cara lá tá totalmente errado, não existe port do KVM (o
> mesmo usado em Linux) para o FreeBSD, ele cita uma instalação do Qemu com
> o modulo de kernel para aceleração Kqemu, que não tem nada haver com o KVM
>
> O VirtualBox é beeeem mais rapido que o qemu+kqemu
Luiz no virtualbox do FreeBSD não dá pra instalar esse aqui não né?
Oracle_VM_VirtualBox_Extension_Pack-4.1.4-74291.vbox-extpack
Tentei fazer o install dele mas deu esse erro:
(root em zeus)[/storage/data]# VBoxManage extpack install
Oracle_VM_VirtualBox_Extension_Pack-4.1.4-74291.vbox-extpack
0%...
Progress state: NS_ERROR_FAILURE
VBoxManage: error: Failed to install
"/storage/data/Oracle_VM_VirtualBox_Extension_Pack-4.1.4-74291.vbox-extpack":
Failed to locate the main module ('VBoxPuelMain')
>
> via /usr/ports/UPDATING:
>
> 20091206:
> AFFECTS: users of emulators/qemu
> AUTHOR: nox em FreeBSD.org
>
> The port has been updated to 0.11.1, which no longer enables kqemu by
> default (if built with KQEMU knob on), now you also have to explicitly
> pass -enable-kqemu (or -kernel-kqemu as with the previous versions)
> if you want to use it. Also note the 0.11 stable branch is the last
> qemu branch that still supports kqemu, so if you depend on reasonably
> fast emulation on FreeBSD you should start looking for alternatives
> some time soon. (VirtualBox?)
>
> KVM = http://wiki.qemu.org/KVM
> KQEMU = http://wiki.qemu.org/KQEMU
>
>
> Em Mon, 17 Oct 2011 09:17:41 -0200, João Mancy<joaocep em gmail.com>
> escreveu:
>
>> bom dia,
>>
>> Se não me engano tem um port do KVM
>>
>> http://www.linux-kvm.org/page/BSD
>>
>> http://www.sufixo.com/raw/2009/06/08/kvm-on-freebsd-72/
>>
>> Fica a dica, e um abraço.
>>
>>
>>
>> Em 16 de outubro de 2011 11:49, Marcelo Gondim
>> <gondim em bsdinfo.com.br>escreveu:
>>
>>> Em 16/10/2011 01:38, Josias L.G escreveu:
>>>> http://wiki.freebsd.org/BHyVe
>>>>
>>>> Em breve algo melhor do que Xen.
>>> Cool !!! Não sabia desse projeto. Vou ficar de olho nele, porque é uma
>>> área que o FreeBSD ainda não se destacou. O que mais vejo são servidores
>>> Debian usando Xen rodando como dom0 e aí sim outros sistemas como domU
>>> rodando com excelente performance.
>>>
>>> Se o BHyVe ficar melhor com certeza novos horizontes se abrirão. :)
>>>> Abraços.
>>>>
>>>> Em 15/10/2011, às 23:41, Marcelo Gondim escreveu:
>>>>
>>>>> Em 15/10/2011 23:03, Thiago Damas escreveu:
>>>>>> Que tipo de aplicacao usara estes discos? Ja pensou em fazer um
>>> RAID
>>>>>> 10 com zfs?
>>>>> Opa Thiago,
>>>>>
>>>>> No momento para hospedagem de algumas aplicações mas pensei em criar
>>> um
>>>>> servidor de VMs. No entanto parece que para isso o que temos de
>>> melhor
>>>>> seria o Virtualbox pelo jeito.
>>>>> Pena que ainda não temos grandes opções para essa tarefa ou estou
>>> enganado?
>>>>> Estive procurando por Xen no FreeBSD e pelo visto só trabalha como
>>> domU
>>>>> e não como dom0.
>>>>>
>>>>>> Thiago
>>>>>>
>>>>>> Em 15 de outubro de 2011 21:32, Marcelo
>>> Gondim<gondim em bsdinfo.com.br>
>>> escreveu:
>>>>>>> Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
>>>>>>>> Buenas Marcelo !!!
>>>>>>>>
>>>>>>>> Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito
>>> bom !
>>> mas
>>>>>>>> quando migra-mos para o 5.x ele não foi portado, até foi criado o
>>> gvinum,
>>>>>>>> mas até algum tempo atras não estava estavel (falo isso mas eu não
>>> sei
>>>>>>>> como esta o estado dele hoje).
>>>>>>>>
>>>>>>>> Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção
>>> chamada
>>> graid5
>>>>>>>> no ports, sinceramente nunca usei, mas pode-se testar:
>>>>>>> Pronto agora em raidz ;)
>>>>>>>
>>>>>>> (root em zeus)[~]# zpool status storage
>>>>>>> pool: storage
>>>>>>> state: ONLINE
>>>>>>> scan: none requested
>>>>>>> config:
>>>>>>>
>>>>>>> NAME STATE READ WRITE CKSUM
>>>>>>> storage ONLINE 0 0 0
>>>>>>> raidz1-0 ONLINE 0 0 0
>>>>>>> ad12 ONLINE 0 0 0
>>>>>>> ad14 ONLINE 0 0 0
>>>>>>> ad16 ONLINE 0 0 0
>>>>>>> ad18 ONLINE 0 0 0
>>>>>>>
>>>>>>> errors: No known data errors
>>>>>>>
>>>>>>> As vezes é tão fácil fazer as coisas no FreeBSD que a gente até
>>> duvida
>>>>>>> que realmente funcione. ahahahahaah
>>>>>>> Muito bom mesmo!!!
>>>>>>>
>>>>>>>
>>>>>>>> [root em desktop] /usr/ports/sysutils/graid5# cat pkg-descr
>>>>>>>> FreeBSD GEOM class for RAID5.
>>>>>>>>
>>>>>>>> This is RAID5 geom class, originally written by Arne Worner
>>>>>>>> <arne_woerner em yahoo.com>
>>>>>>>>
>>>>>>>> WWW: http://lev.serebryakov.spb.ru/download/graid5/
>>>>>>>>
>>>>>>>> Abraços
>>>>>>>>
>>>>>>>>
>>>>>>>> Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim<
>>> gondim em bsdinfo.com.br>
>>>>>>>> escreveu:
>>>>>>>>
>>>>>>>>> Olá Pesssoal,
>>>>>>>>>
>>>>>>>>> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um
>>> raid 5
>>>>>>>>> com eles. Usei o gvinum:
>>>>>>>>>
>>>>>>>>> drive r0 device /dev/ad12a
>>>>>>>>> drive r1 device /dev/ad14a
>>>>>>>>> drive r2 device /dev/ad16a
>>>>>>>>> drive r3 device /dev/ad18a
>>>>>>>>> volume raid5
>>>>>>>>> plex org raid5 512k
>>>>>>>>> sd drive r0
>>>>>>>>> sd drive r1
>>>>>>>>> sd drive r2
>>>>>>>>> sd drive r3
>>>>>>>>>
>>>>>>>>> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o
>>> raid 5
>>>>>>>>> ou existe alguma outra forma melhor no FreeBSD?
>>>>>>>>> Uma outra coisa que aparece no boot é essa mensagem:
>>>>>>>>>
>>>>>>>>> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request
>>> failed.
>>>>>>>>> gvinum/raid5[READ(offset=1500321938944, length=512)]
>>>>>>>>>
>>>>>>>>> Mas parece que está tudo funcionando:
>>>>>>>>>
>>>>>>>>> gvinum -> printconfig
>>>>>>>>> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct
>>> 15
>>>>>>>>> 14:48:59 2011
>>>>>>>>> drive r0 device /dev/ad12a
>>>>>>>>> drive r1 device /dev/ad14a
>>>>>>>>> drive r2 device /dev/ad16a
>>>>>>>>> drive r3 device /dev/ad18a
>>>>>>>>> volume raid5
>>>>>>>>> plex name raid5.p0 org raid5 1024s vol raid5
>>>>>>>>> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
>>>>>>>>> raid5.p0 plexoffset 0s
>>>>>>>>> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
>>>>>>>>> raid5.p0 plexoffset 1024s
>>>>>>>>> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
>>>>>>>>> raid5.p0 plexoffset 2048s
>>>>>>>>> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
>>>>>>>>> raid5.p0 plexoffset 3072s
>>>>>>>>>
>>>>>>>>> gvinum -> l
>>>>>>>>> 4 drives:
>>>>>>>>> D r0 State: up /dev/ad12a A:
>>> 0/476939
>>> MB
>>>>>>>>> (0%)
>>>>>>>>> D r1 State: up /dev/ad14a A:
>>> 0/476939
>>> MB
>>>>>>>>> (0%)
>>>>>>>>> D r2 State: up /dev/ad16a A:
>>> 0/476939
>>> MB
>>>>>>>>> (0%)
>>>>>>>>> D r3 State: up /dev/ad18a A:
>>> 0/476939
>>> MB
>>>>>>>>> (0%)
>>>>>>>>>
>>>>>>>>> 1 volume:
>>>>>>>>> V raid5 State: up Plexes: 1 Size:
>>> 1397
>>>>>>>>> GB
>>>>>>>>>
>>>>>>>>> 1 plex:
>>>>>>>>> P raid5.p0 R5 State: up Subdisks: 4 Size:
>>> 1397
>>>>>>>>> GB
>>>>>>>>>
>>>>>>>>> 4 subdisks:
>>>>>>>>> S raid5.p0.s0 State: up D: r0 Size:
>>> 465
>>>>>>>>> GB
>>>>>>>>> S raid5.p0.s1 State: up D: r1 Size:
>>> 465
>>>>>>>>> GB
>>>>>>>>> S raid5.p0.s2 State: up D: r2 Size:
>>> 465
>>>>>>>>> GB
>>>>>>>>> S raid5.p0.s3 State: up D: r3 Size:
>>> 465
>>>>>>>>> GB
>>>>>>>>>
>>>>>>>>> Essa mensagem de erro no boot é normal?
>>>>>>>>>
>>>>>>>>> Grande abraço à todos
>>>>>>>>>
>>>>>>>>> -------------------------
>>>>>>>>>
Mais detalhes sobre a lista de discussão freebsd