[FUG-BR] Raid 5 no FreeBSD
Marcelo Gondim
gondim em bsdinfo.com.br
Segunda Outubro 17 15:39:29 BRST 2011
Em 17/10/2011 11:55, Marcelo Gondim escreveu:
> Em 17/10/2011 10:31, Luiz Gustavo Costa escreveu:
>> Bom dia,
>>
>> João, o post do cara lá tá totalmente errado, não existe port do KVM (o
>> mesmo usado em Linux) para o FreeBSD, ele cita uma instalação do Qemu com
>> o modulo de kernel para aceleração Kqemu, que não tem nada haver com o KVM
>>
>> O VirtualBox é beeeem mais rapido que o qemu+kqemu
> Luiz no virtualbox do FreeBSD não dá pra instalar esse aqui não né?
> Oracle_VM_VirtualBox_Extension_Pack-4.1.4-74291.vbox-extpack
>
> Tentei fazer o install dele mas deu esse erro:
>
> (root em zeus)[/storage/data]# VBoxManage extpack install
> Oracle_VM_VirtualBox_Extension_Pack-4.1.4-74291.vbox-extpack
> 0%...
> Progress state: NS_ERROR_FAILURE
> VBoxManage: error: Failed to install
> "/storage/data/Oracle_VM_VirtualBox_Extension_Pack-4.1.4-74291.vbox-extpack":
> Failed to locate the main module ('VBoxPuelMain')
Acabei de ver que não é suportado no FreeBSD. :D Do resto está
funcionando aqui certinho. Estou até instalando uma VM aqui com Windows
XP para teste.
Valeu pela ajuda pessoal.
>
>> via /usr/ports/UPDATING:
>>
>> 20091206:
>> AFFECTS: users of emulators/qemu
>> AUTHOR: nox em FreeBSD.org
>>
>> The port has been updated to 0.11.1, which no longer enables kqemu by
>> default (if built with KQEMU knob on), now you also have to explicitly
>> pass -enable-kqemu (or -kernel-kqemu as with the previous versions)
>> if you want to use it. Also note the 0.11 stable branch is the last
>> qemu branch that still supports kqemu, so if you depend on reasonably
>> fast emulation on FreeBSD you should start looking for alternatives
>> some time soon. (VirtualBox?)
>>
>> KVM = http://wiki.qemu.org/KVM
>> KQEMU = http://wiki.qemu.org/KQEMU
>>
>>
>> Em Mon, 17 Oct 2011 09:17:41 -0200, João Mancy<joaocep em gmail.com>
>> escreveu:
>>
>>> bom dia,
>>>
>>> Se não me engano tem um port do KVM
>>>
>>> http://www.linux-kvm.org/page/BSD
>>>
>>> http://www.sufixo.com/raw/2009/06/08/kvm-on-freebsd-72/
>>>
>>> Fica a dica, e um abraço.
>>>
>>>
>>>
>>> Em 16 de outubro de 2011 11:49, Marcelo Gondim
>>> <gondim em bsdinfo.com.br>escreveu:
>>>
>>>> Em 16/10/2011 01:38, Josias L.G escreveu:
>>>>> http://wiki.freebsd.org/BHyVe
>>>>>
>>>>> Em breve algo melhor do que Xen.
>>>> Cool !!! Não sabia desse projeto. Vou ficar de olho nele, porque é uma
>>>> área que o FreeBSD ainda não se destacou. O que mais vejo são servidores
>>>> Debian usando Xen rodando como dom0 e aí sim outros sistemas como domU
>>>> rodando com excelente performance.
>>>>
>>>> Se o BHyVe ficar melhor com certeza novos horizontes se abrirão. :)
>>>>> Abraços.
>>>>>
>>>>> Em 15/10/2011, às 23:41, Marcelo Gondim escreveu:
>>>>>
>>>>>> Em 15/10/2011 23:03, Thiago Damas escreveu:
>>>>>>> Que tipo de aplicacao usara estes discos? Ja pensou em fazer um
>>>> RAID
>>>>>>> 10 com zfs?
>>>>>> Opa Thiago,
>>>>>>
>>>>>> No momento para hospedagem de algumas aplicações mas pensei em criar
>>>> um
>>>>>> servidor de VMs. No entanto parece que para isso o que temos de
>>>> melhor
>>>>>> seria o Virtualbox pelo jeito.
>>>>>> Pena que ainda não temos grandes opções para essa tarefa ou estou
>>>> enganado?
>>>>>> Estive procurando por Xen no FreeBSD e pelo visto só trabalha como
>>>> domU
>>>>>> e não como dom0.
>>>>>>
>>>>>>> Thiago
>>>>>>>
>>>>>>> Em 15 de outubro de 2011 21:32, Marcelo
>>>> Gondim<gondim em bsdinfo.com.br>
>>>> escreveu:
>>>>>>>> Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
>>>>>>>>> Buenas Marcelo !!!
>>>>>>>>>
>>>>>>>>> Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito
>>>> bom !
>>>> mas
>>>>>>>>> quando migra-mos para o 5.x ele não foi portado, até foi criado o
>>>> gvinum,
>>>>>>>>> mas até algum tempo atras não estava estavel (falo isso mas eu não
>>>> sei
>>>>>>>>> como esta o estado dele hoje).
>>>>>>>>>
>>>>>>>>> Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção
>>>> chamada
>>>> graid5
>>>>>>>>> no ports, sinceramente nunca usei, mas pode-se testar:
>>>>>>>> Pronto agora em raidz ;)
>>>>>>>>
>>>>>>>> (root em zeus)[~]# zpool status storage
>>>>>>>> pool: storage
>>>>>>>> state: ONLINE
>>>>>>>> scan: none requested
>>>>>>>> config:
>>>>>>>>
>>>>>>>> NAME STATE READ WRITE CKSUM
>>>>>>>> storage ONLINE 0 0 0
>>>>>>>> raidz1-0 ONLINE 0 0 0
>>>>>>>> ad12 ONLINE 0 0 0
>>>>>>>> ad14 ONLINE 0 0 0
>>>>>>>> ad16 ONLINE 0 0 0
>>>>>>>> ad18 ONLINE 0 0 0
>>>>>>>>
>>>>>>>> errors: No known data errors
>>>>>>>>
>>>>>>>> As vezes é tão fácil fazer as coisas no FreeBSD que a gente até
>>>> duvida
>>>>>>>> que realmente funcione. ahahahahaah
>>>>>>>> Muito bom mesmo!!!
>>>>>>>>
>>>>>>>>
>>>>>>>>> [root em desktop] /usr/ports/sysutils/graid5# cat pkg-descr
>>>>>>>>> FreeBSD GEOM class for RAID5.
>>>>>>>>>
>>>>>>>>> This is RAID5 geom class, originally written by Arne Worner
>>>>>>>>> <arne_woerner em yahoo.com>
>>>>>>>>>
>>>>>>>>> WWW: http://lev.serebryakov.spb.ru/download/graid5/
>>>>>>>>>
>>>>>>>>> Abraços
>>>>>>>>>
>>>>>>>>>
>>>>>>>>> Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim<
>>>> gondim em bsdinfo.com.br>
>>>>>>>>> escreveu:
>>>>>>>>>
>>>>>>>>>> Olá Pesssoal,
>>>>>>>>>>
>>>>>>>>>> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um
>>>> raid 5
>>>>>>>>>> com eles. Usei o gvinum:
>>>>>>>>>>
>>>>>>>>>> drive r0 device /dev/ad12a
>>>>>>>>>> drive r1 device /dev/ad14a
>>>>>>>>>> drive r2 device /dev/ad16a
>>>>>>>>>> drive r3 device /dev/ad18a
>>>>>>>>>> volume raid5
>>>>>>>>>> plex org raid5 512k
>>>>>>>>>> sd drive r0
>>>>>>>>>> sd drive r1
>>>>>>>>>> sd drive r2
>>>>>>>>>> sd drive r3
>>>>>>>>>>
>>>>>>>>>> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o
>>>> raid 5
>>>>>>>>>> ou existe alguma outra forma melhor no FreeBSD?
>>>>>>>>>> Uma outra coisa que aparece no boot é essa mensagem:
>>>>>>>>>>
>>>>>>>>>> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request
>>>> failed.
>>>>>>>>>> gvinum/raid5[READ(offset=1500321938944, length=512)]
>>>>>>>>>>
>>>>>>>>>> Mas parece que está tudo funcionando:
>>>>>>>>>>
>>>>>>>>>> gvinum -> printconfig
>>>>>>>>>> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct
>>>> 15
>>>>>>>>>> 14:48:59 2011
>>>>>>>>>> drive r0 device /dev/ad12a
>>>>>>>>>> drive r1 device /dev/ad14a
>>>>>>>>>> drive r2 device /dev/ad16a
>>>>>>>>>> drive r3 device /dev/ad18a
>>>>>>>>>> volume raid5
>>>>>>>>>> plex name raid5.p0 org raid5 1024s vol raid5
>>>>>>>>>> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
>>>>>>>>>> raid5.p0 plexoffset 0s
>>>>>>>>>> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
>>>>>>>>>> raid5.p0 plexoffset 1024s
>>>>>>>>>> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
>>>>>>>>>> raid5.p0 plexoffset 2048s
>>>>>>>>>> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
>>>>>>>>>> raid5.p0 plexoffset 3072s
>>>>>>>>>>
>>>>>>>>>> gvinum -> l
>>>>>>>>>> 4 drives:
>>>>>>>>>> D r0 State: up /dev/ad12a A:
>>>> 0/476939
>>>> MB
>>>>>>>>>> (0%)
>>>>>>>>>> D r1 State: up /dev/ad14a A:
>>>> 0/476939
>>>> MB
>>>>>>>>>> (0%)
>>>>>>>>>> D r2 State: up /dev/ad16a A:
>>>> 0/476939
>>>> MB
>>>>>>>>>> (0%)
>>>>>>>>>> D r3 State: up /dev/ad18a A:
>>>> 0/476939
>>>> MB
>>>>>>>>>> (0%)
>>>>>>>>>>
>>>>>>>>>> 1 volume:
>>>>>>>>>> V raid5 State: up Plexes: 1 Size:
>>>> 1397
>>>>>>>>>> GB
>>>>>>>>>>
>>>>>>>>>> 1 plex:
>>>>>>>>>> P raid5.p0 R5 State: up Subdisks: 4 Size:
>>>> 1397
>>>>>>>>>> GB
>>>>>>>>>>
>>>>>>>>>> 4 subdisks:
>>>>>>>>>> S raid5.p0.s0 State: up D: r0 Size:
>>>> 465
>>>>>>>>>> GB
>>>>>>>>>> S raid5.p0.s1 State: up D: r1 Size:
>>>> 465
>>>>>>>>>> GB
>>>>>>>>>> S raid5.p0.s2 State: up D: r2 Size:
>>>> 465
>>>>>>>>>> GB
>>>>>>>>>> S raid5.p0.s3 State: up D: r3 Size:
>>>> 465
>>>>
Mais detalhes sobre a lista de discussão freebsd