suse enterprise storage 3 e iscsi · restful semelhante ao openstack swift e ao amazon s3, e um...

20
Índice página Resumo executivo 2 Introdução 2 Sistema de armazenamento Ceph 2 Armazenamento em bloco iSCSI 3 lrbd 4 Considerações de implantação do SUSE Enterprise Storage 3/lrbd 5 Instalação e Configuração do SUSE Enterprise Storage 3 e lrbd 6 Criação de Imagens RBD 6 Conexão aos destinos gerenciados por lrbd 8 Conclusão 19 SUSE Enterprise Storage 3 e iSCSI White Paper Armazenamento

Upload: others

Post on 14-Jul-2020

6 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

Índice página

Resumoexecutivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2SistemadearmazenamentoCeph . . . . . . . . . . . . . . . . . . . 2ArmazenamentoemblocoiSCSI . . . . . . . . . . . . . . . . . . . . 3lrbd . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4ConsideraçõesdeimplantaçãodoSUSEEnterprise

Storage3/lrbd . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5InstalaçãoeConfiguraçãodoSUSEEnterprise

Storage3elrbd . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6CriaçãodeImagensRBD . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Conexãoaosdestinosgerenciadosporlrbd . . . . . . . . . . 8Conclusão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

SUSEEnterpriseStorage™3eiSCSI

WhitePaperArmazenamento

Page 2: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

2

White paper de armazenamentoSUSE Enterprise Storage 3 e iSCSI

Há incluído no SUSE Enterprise Storage 3 um recurso que abre a conectividade de armazenamento Ceph para clientes heterogê-neos, como o Microsoft Windows e o VMware vSphere, através do protocolo iSCSI. O acesso iSCSI de vários caminhos permite disponibilidade e escalabilidade para esses clientes, e o proto-colo iSCSI normalizado também fornece uma camada adicional de isolamento de segurança entre clientes e o cluster do SUSE Enterprise Storage 3. O recurso de configuração é chamado de “lrbd” e é fornecido como parte do SUSE Enterprise Storage 3. Assim como o Ceph, o lrbd é um projeto Open Source, que se baseia em tecnologias comprovadas como o kernel do Linux e o destino iSCSI do Linux. Com o lrbd, os administradores de ar-mazenamento Ceph podem definir volumes de provisionamento dinâmico, replicados e altamente disponíveis que suportam ins-tantâneos de apenas leitura, clones de leitura/gravação e redi-mensionamento automático com dispositivos de blocos Ceph RADOS (RBD). Em seguida, os administradores podem exportar volumes por meio de um único host de gateway lrbd ou por meio de vários hosts de gateway com suporte para failover de vários caminhos. Os hosts Linux, Windows e VMware podem se conectar a volumes usando o protocolo iSCSI, o que os tornam disponíveis como qualquer outro dispositivo de blocos SCSI. Isso significa que os clientes do SUSE Enterprise Storage 3 podem efetivamente executar um subsistema de infraestrutura de ar-mazenamento em bloco completo no Ceph que fornece todos os recursos e benefícios de uma SAN convencional, reduzindo a dependência de fornecedores, possibilitando um crescimento futuro e diminuindo os custos.

IntroduçãoEste white paper fornece uma visão geral das seguintes tecnologias:

OsistemadearmazenamentodistribuídoCeph

OprotocolodearmazenamentoemblocoderedeiSCSI,aimplementaçãodokernelparaLinuxeoutilitáriodelinhadecomandoassociadoaessaimplementação,targetcli

lrbd,umprogramaquecriaasconfiguraçõesdotargetclicombaseemimagensRBDdoCephemetadadosarmazenadosnalojadeobjetosdoCephRADOS

Todas essas tecnologias são fornecidas de forma unificada e simplificada no SUSE Enterprise Storage 3.

Sistema de armazenamento CephO Ceph é um sistema de armazenamento de código-fonte aberto, controlado por software, distribuído e altamente disponível. Foi concebido originalmente na Universidade da Califórnia, Santa Cruz (UCSC), e tem estado em contínuo desenvolvimento desde 2004. O Ceph é uma tecnologia de armazenamento definida por software (SDS). Em vez de estar vinculado a um hardware espe-cializado desenvolvido para uma finalidade específica como uma tecnologia convencional de armazenamento de computador, baseia-se em um hardware de commodities, uma implementação de código-fonte aberto, protocolos abertos e uma API (applica-tion programming interface) aberta para fornecer aos clientes uma capacidade de armazenamento altamente escalável.

O Ceph é extremamente versátil. Os aplicativos podem usar o armazenamento Ceph diretamente, mas também podem usar camadas de abstração intermediárias que fornecem um sistema de arquivos POSIX distribuído, um armazenamento de objetos RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são executados no sistema operacional Linux em um espaço do usuário. O mesmo se aplica à maioria dos componentes no lado do cliente; no entanto, um subconjunto limitado deles funciona no kernel do Linux.

ResumoexecutivoOSUSEEnterpriseStorage™éumprodutodegerenciamentodearmazenamentodistribuídodaSUSE®quesebaseianosistemadearmazenamentoCephdistribuído,altamentedisponíveledecódigo-fonteaberto .

Page 3: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

3www.suse.com

RADOS (Reliable Distributed Autonomic Storage)O RADOS (Reliable Distributed Autonomic Object Store) é um componente de design central do Ceph e se diferencia das demais soluções de armazenamento comparáveis. O RADOS é altamente distribuído, escalável, autorreparável, autobalan-ceável e altamente disponível. Todos os blocos de dados no RADOS são um objeto (de tamanho arbitrário), e os clientes podem localizar qualquer objeto computacionalmente, usando um algoritmo conhecido como CRUSH (Controlled Replication Under Scalable Hashing). O RADOS omite a noção de um ser-viço centralizado de procura de dados, que é um típico ponto único de falha e um ponto de estrangulamento de escalabilidade em sistemas de armazenamento convencionais. Os objetos do RADOS também suportam a noção de pares chave/valor arbi-trários conhecidos como “atributos estendidos” (xattrs), e todos os objetos podem ter zero ou mais atributos estendidos.

A distribuição física dos objetos no RADOS é baseada em um conjunto configurável de diretivas chamado de mapa CRUSH. Usando o mapa CRUSH, um administrador de armazenamento pode modelar os nós de armazenamento físico no cluster do Ceph de forma hierárquica, definindo assim uma topologia de armazenamento arbitrariamente complexa. Por exemplo, os lo-cais de armazenamento de dados individuais podem ser orga-nizados hierarquicamente ao longo das linhas de nós físicos, racks, corredores, salas e centros de dados.

A critério do administrador de armazenamento, o RADOS como um todo pode ser dividido em subdivisões lógicas conhecidas como “pools”. Dessa forma, é possível definir políticas de repli-cação e disponibilidade por pools. Um administrador pode de-finir que um pool específico contém três cópias de cada objeto do RADOS, com cada réplica em um rack diferente. Um admi-nistrador pode também definir que outro pool contém apenas duas cópias de cada objeto, mas com cada réplica em um data center diferente.

Dispositivos de blocos RADOS Os dispositivos de blocos são uma abstração de armazena-mento, simples e onipresente, e são, por si sós, de natureza muito simples. Os dispositivos de blocos têm um comprimento definido (a capacidade máxima que podem armazenar) e um tamanho de setor (o menor incremento no qual podem ler e gra-var dados). Como consequência, existem endereços definidos para cada local no dispositivo, conhecidos como “deslocamento de setor”. A interface de entrada/saída (E/S) em um dispositivo de blocos é muito simples. Um buffer de memória com um de-terminado comprimento (um múltiplo do tamanho do setor) está sendo gravado no dispositivo em um determinado local ou, em um determinado local, os dados estão sendo lidos em um buffer de memória.

Os dispositivos de blocos do RADOS (RBDs) são uma camada de abstração muito versátil no lado do cliente sobre o RADOS, o que permite aos usuários interagir com o cluster de armaze-namento como se fosse um armazenamento em bloco conven-cional. Com o RBD, o usuário define imagens (volumes) e, em seguida, pode usar as bibliotecas de cliente RBD disponíveis para interagir com esses dispositivos como se fossem disposi-tivos de blocos comuns. O que torna os RBDs especiais é que cada operação de leitura e gravação de bloco se converte au-tomaticamente em uma operação de objeto do RADOS. Isto é transparente para o usuário e significa que os RBDs “herdam” facilmente a distribuição, a replicação, a escalabilidade e a alta disponibilidade do RADOS.

Armazenamento em bloco iSCSIO iSCSI é uma implementação do conjunto de comandos SCSI (Small Computer System Interface) usando o Protocolo Internet (IP), especificado na RFC 3720. O iSCSI é implementado como um serviço no qual um cliente (o iniciador) se comunica com um servidor (o destino) através de uma sessão na porta TCP 3260. Um endereço IP e uma porta do destino iSCSI são chamados de um “portal iSCSI”, onde um destino pode ser exposto através de um ou mais portais. A combinação de um destino e um ou mais portais é chamada de “grupo de portais de destino” (TPG).

Normalmente, o protocolo da camada de enlace de dados subja-cente ao iSCSI é o Ethernet. Mais especificamente, as modernas infraestruturas de iSCSI utilizam o 10 Gigabit Ethernet ou redes mais rápidas para obter máximo throughput. A conectividade do Gigabit Ethernet entre o gateway iSCSI e o cluster Ceph de back end é altamente recomendada.

Destino iSCSI do kernel do LinuxO destino iSCSI do kernel do Linux foi originalmente chamado de “LIO” pela linux-iscsi.org, o domínio e site original do projeto. Durante algum tempo, não menos de quatro implementações concorrentes de destino iSCSI estavam disponíveis para a pla-taforma Linux, mas o LIO prevaleceu como o único destino de referência iSCSI. O principal código de kernel para o LIO usa o nome simples, mas um pouco ambíguo, “destino”, distinguindo entre “destino principal” e uma variedade de módulos de destino de front end e back end.

Sem dúvida, o módulo front end usado mais comumente é o iSCSI. No entanto, o LIO também suporta Fibre Channel (FC), Fibre Channel over Ethernet (FCoE) e vários outros protocolos front end. Até esse momento, apenas o protocolo iSCSI foi va-lidado com o SUSE Enterprise Storage 3.

Page 4: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

4

White paper de armazenamentoSUSE Enterprise Storage 3 e iSCSI

O módulo back end de destino mais utilizado é aquele capaz de simplesmente reexportar qualquer dispositivo de blocos dispo-nível no host de destino. Este módulo é chamado de “iblock”. No entanto, e o que é importante para o SUSE Enterprise Storage, o LIO também tem um módulo back end específico para RBD, que suporta acesso de E/S de múltiplos caminhos paralelizados para as imagens RBD.

Iniciadores iSCSI

EMPRESARIAL

O iniciador padrão para a plataforma Linux é o open-iscsi. Ele inicia um daemon, iscsid, que o usuário poderá então usar para descobrir os destinos iSCSI em um determinado portal, fazer login nos destinos e mapear os volumes iSCSI. O iscsid se comu-nica com a camada intermediária da SCSI para criar dispositivos de blocos no kernel que o kernel pode tratar como qualquer outro dispositivo de blocos SCSI no sistema. O iniciador open--iscsi pode ser implantado em conjunto com o recurso Device Mapper Multipath (dm-multipath) para fornecer um dispositivo de blocos iSCSI altamente disponível.

MICROSOFT WINDOWS E HYPER-V

O iniciador iSCSI padrão do sistema operacional Microsoft Windows é o iniciador iSCSI da Microsoft. O serviço iSCSI pode ser configurado através de uma interface gráfica do usuário (GUI) e suporta E/S com múltiplos caminhos para alta disponibilidade.

VMWARE

O iniciador iSCSI padrão para VMware vSphere e ESX é o inicia-dor iSCSI de software do VMware ESX, vmkiscsi. Uma vez ati-vado, ele pode ser configurado no cliente do vSphere ou usando o comando vmkiscsi-tool. Em seguida, você pode formatar vo-lumes de armazenamento conectados através do adaptador de armazenamento iSCSI do vSphere com o VMFS e usá-los como qualquer outro dispositivo de armazenamento VM. O iniciador do VMware também oferece suporte a E/S com múltiplos ca-minhos para alta disponibilidade.

lrbdO Irbd combina os benefícios dos dispositivos de blocos do RADOS com a versatilidade onipresente do iSCSI. Ao implantar o lrbd em um host de destino iSCSI (conhecido como o “gateway do lrbd”), todos os aplicativos que precisarem fazer uso do ar-mazenamento em bloco podem se beneficiar do Ceph, mesmo que não tenham implementado nenhum protocolo de cliente do Ceph. Em vez disso, os usuários podem usar o iSCSI ou qualquer outro protocolo front end de destino para se conectar a um des-tino LIO, o que converte, de forma automática e transparente, todas as E/S de destino para operações de armazenagem RBD.

Page 5: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

5www.suse.com

O Irbd é inerentemente altamente disponível e suporta ope-rações com múltiplos caminhos. Assim, os hosts iniciadores posteriores podem usar vários gateways iSCSI para alta dispo-nibilidade e escalabilidade. Ao se comunicar usando uma confi-guração iSCSI com mais de um gateway, os iniciadores podem

balancear a carga das solicitações iSCSI entre vários gateways. No caso de um gateway falhar, ficando temporariamente ina-cessível, ou ser desativado para manutenção, a E/S continuará funcionando de modo transparente através de outro gateway.

Considerações de implantação do SUSE Enterprise Storage 3/lrbdUma configuração mínima do SUSE Enterprise Storage 3 com lrbd consiste nos seguintes componentes:

UmclusterdearmazenamentoCeph.OclusterCephconsisteemummínimodequatroservidoresfísicosquehospedampelomenosoitodaemonsdearmazenamentodeobjetos(OSDs)cadaum.Emtalconfiguração,trêsnósOSDsãotambémduplicadoscomoumhostdemonitor(MON).

UmservidordedestinoiSCSIqueexecutaodestinoiSCSIdoLIO,configuradopormeiodolrbd.

UmhostiniciadoriSCSIqueexecutaoopen-iscsi(Linux),oIniciadorMicrosoftiSCSI(MicrosoftWindows)ouqualqueroutraimplementaçãodeiniciadoriSCSIcompatível.

Uma configuração recomendada de produção do SUSE En ter-prise Storage 3 com lrbd consiste em:

UmclusterdearmazenamentoCeph.UmclusterCephdeproduçãoconsisteemqualquernúmero(normalmentemaisdedez)denósOSD,“cadaumnormalmenteexecutandode10a12daemonsdearmazenamentodeobjetos(OSDs),comnadamenosdoquetrêshostsMONdedicados.

VáriosservidoresdedestinoiSCSIqueexecutamodestinoiSCSIdoLIO,configuradospormeiodolrbd.ParafailoverdaiSCSIebalanceamentodecarga,essesservidoresdevemexecutarumkernelquesuportaomódulotarget_core_rbd.Osservidoresdedestinodevemtambémexecutar,pelomenos,aversão3.12.48-52.27.1dopacotedokernelpadrão.OspacotesatualizadosestãodisponíveisemumcanaldemanutençãodoSUSELinuxEnterpriseServer.

QualquernúmerodehostsdeiniciadoriSCSIqueexecutemoopen-iscsi(Linux),oIniciadorMicrosoftiSCSI(MicrosoftWindows)ouqualqueroutraimplementaçãodeiniciadoriSCSIcompatível.

Page 6: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

6

White paper de armazenamentoSUSE Enterprise Storage 3 e iSCSI

Instalação e Configuração do SUSE Enterprise Storage 3 e lrbd

Inclusão da mídia de instalação do SUSE Enterprise StorageUse o YaST® para configurar o SUSE Enterprise Storage como um produto complementar utilizando um ISO local.

O método recomendado seria utilizar a SMT (Subscription Management Tool) da SUSE. Essa ferramenta pode ser obtida como um complemento do SUSE Linux Enterprise Server e está disponível no site: www.suse.com/documentation/smt11/

Após a SMT ser instalada, os servidores estarem conectados a ela e os repositórios adequados estarem espelhados (incluindo o SUSE Enterprise Storage 3), ir até YaST → Add-on Products → Add- → Extensions and Modules from Registration Server… → SUSE Enterprise Storage 3 x86_64 permitirá a instalação do SUSE Enterprise Storage 3 de uma maneira que garanta que os repositórios adequados sejam configurados para incluir as atualizações mais recentes e permitir que atualizações futuras sejam facilmente propagadas.

Implantação de um cluster CephApós a configuração do repositório do SUSE Enterprise Storage 3, prossiga com a implantação do cluster Ceph conforme des-crito em: www.suse.com/documentation/ses-2/book_storage _admin/data/cha_ceph_install.html

Instalação do padrão ceph_iscsiNos nós designados do servidor de destino iSCSI, instale o pa-drão ceph_iscsi. Fazer isso instalará automaticamente o lrbd, os binários e as bibliotecas Ceph necessários e a ferramenta de linha de comando targetcli:

# zypper in -t pattern ceph_iscsi

Repita esta etapa em todos os nós que devem atuar como um nó do servidor de destino de failover ou equilíbrio de carga.

Criação de Imagens RBDAs imagens RBD são criadas na loja do Ceph e, em seguida, exportadas para iSCSI. Recomendamos que você use um pool

RADOS dedicado para essa finalidade. Você pode criar um vo-lume a partir de qualquer host que consiga se conectar ao clus-ter de armazenamento usando o utilitário de linha de comando rbd do Ceph. Isso exige que o cliente tenha pelo menos um ar-quivo de configuração ceph.conf mínimo e credenciais adequa-das para a autenticação no CephX. Para criar um novo volume para posterior exportação através de iSCSI, use o comando rbd create, especificando o tamanho do volume em megabytes. Por exemplo, para criar um volume de 100 GB chamado “testvol” no pool chamado “iscsi”, execute:

# rbd --pool iscsi create --size=102400 testvol

O comando acima cria um volume RBD de “formato 1”. Para ha-bilitar instantâneos em camadas e clonagem, você pode querer criar um volume de “formato 2”:

# rbd --pool iscsi create --image-format 2 --size=102400 testvol

Para habilitar sempre o formato 2 em todas as imagens recém--criadas, adicione as seguintes opções de configuração no ar-quivo /etc/ceph/ceph.conf:

[client]rbd default image format = 2

Uma vez que esta opção está definida, cada invocação de rbd create se torna funcionalmente equivalente a rbd create --image-format 2 e sempre cria um volume no novo formato de imagem. Observe que é uma opção do lado do cliente que deve ser definida em qualquer host que você usa para criar um novo volume. Não é suficiente definir essa opção nos seus servidores Ceph.

Exportar imagens RBD via iSCSIPara exportar imagens RBD via iSCSI, use o utilitário lrbd. O Irbd permite criar, revisar e modificar a configuração de destino iSCSI, que usa um formato JSON.

Para editar a configuração, use lrbd -e ou lrbd --edit. Esse co-mando chama o editor padrão, conforme definido pela variável de ambiente do EDITOR. Você pode substituir esse comporta-mento definindo a opção -E em adição ao -e.

Page 7: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

7www.suse.com

Veja abaixo um exemplo de configuração para:

1 . Dois hosts de gateway iSCSI chamados “iscsi1.example.com” e “iscsi2.example.com”

2 . Definição de um único destino iSCSI com um nome qualificado iSCSI (IQN) “iqn.2003-01.org.linux-iscsi.iscsi.x86:testvol”

3 . Com uma única LU (Logical Unit) iSCSI 4 . Suportado por uma imagem RBD chamada “testvol” no

pool RADOS “rbd”,5 . E a exportação do destino através de dois portais chamados

“east” e “west”

{ "auth": [ { "target": "iqn.2003-01.org.linux-iscsi.iscsi.x86:testvol", "authentication": "none" } ], "targets": [ { "target": "iqn.2003-01.org.linux-iscsi.iscsi.x86:testvol", "hosts": [ { "host": "iscsi1.example.com", "portal": "east" }, { "host": "iscsi2.example.com", "portal": "west" } ] } ], "portals": [ { "name": "east", "addresses": [ "192.168.124.104" ] }, { "name": "west", "addresses": [ "192.168.124.105" ] } ],

Page 8: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

8

White paper de armazenamentoSUSE Enterprise Storage 3 e iSCSI

Observe que sempre que você se referir a um nome de host na configuração, este nome de host deve corresponder à saída de comando “uname -n” do gateway iSCSI.

O JSON editado é armazenado nos atributos estendidos (xat-trs) de um único objeto RADOS por pool. Esse objeto está dis-ponível para os hosts de gateway onde o JSON é editado e para todos os hosts de gateway conectados ao mesmo cluster Ceph. Nenhuma informação de configuração é armazenada lo-calmente no gateway do lrbd.

Para ativar a configuração, armazene-a em um cluster Ceph e execute um dos seguintes procedimentos (como raiz):

Executeocomando“lrbd”(semopçõesadicionais)nalinhadecomando

Reinicieoserviço“lrbd”comocomando“servicelrbdrestart”

O “serviço” lrbd não opera nenhum daemon em segundo plano. Em vez disso, ele simplesmente chama o comando lrbd. Este tipo de serviço é conhecido como um serviço “one-shot”.

É preciso também ativar o lrbd para configurar automatica-mente ao inicializar o sistema. Para fazer isso, execute o co-mando “systemctl enable lrbd”.

A configuração acima reflete uma configuração simples de um único gateway. A configuração lrbd pode ser muito mais com-plexa e poderosa. O pacote RPM do lrbd vem com um amplo conjunto de exemplos de configuração, que você pode consultar ao verificar o conteúdo do diretório /usr/share/doc/pacotes/lrbd/samples após a instalação. Os exemplos estão também disponíveis em: https://github.com/SUSE/lrbd/tree/master/samples

Conexão aos alvos gerenciados por lrbd

Linux (open-iscsi)Conectar-se aos destinos iSCSI com suporte ao lrbd com o open-iscsi é um processo de duas etapas. O iniciador deve pri-meiro descobrir os destinos iSCSI disponíveis no host do ga-teway; em seguida, deve fazer o login e mapear as LUs (Logical Units) disponíveis.

As duas etapas exigem que o daemon open-iscsi esteja em exe-cução. A maneira como você inicia o daemon open-iscsi de-pende da sua distribuição Linux:

NoshostsSUSELinuxEnterpriseServereRedHatEnterpriseLinux,executeocomando“serviceiscsidstart”

NoshostsDebianeUbuntu,executeocomando“serviceopen-iscsistart”

"pools": [ { "pool": "rbd", "gateways": [ { "target": "iqn.2003-01.org.linux-iscsi.iscsi.x86:testvol", "tpg": [ { "image": "testvol" } ] } ] } ]}

Page 9: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

9www.suse.com

Se o host do iniciador estiver executando o SUSE Linux Enterprise Server, consulte www.suse.com/documentation/sles-12/stor_admin/data/sec_iscsi_initiator.html ou www.suse.com/documentation/sles11/stor_admin/data/sec_inst_system_iscsi_initiator.html para obter detalhes sobre como conectá-lo a um destino iSCSI.

Para qualquer outra distribuição Linux que ofereça suporte a open-isco, prossiga para descobrir os destinos no gateway do lrbd (este exemplo usa iscsi1.example.com como o endereço do portal; para acesso de múltiplos caminhos, repita estas etapas com iscsi2.example.com):

# iscsiadm -m discovery -t sendtargets -p iscsi1.example.com192.168.124.104:3260,1 iqn.2003-01.org.linux-iscsi.iscsi.x86:testvol

Em seguida, efetue o login no portal. Se o login for bem-sucedido, todas as unidades lógicas com suporte ao RBD no portal ficarão imediatamente disponíveis no barramento SCSI do sistema:

# iscsiadm -m node -p iscsi1.example.com --loginEfetuar login no [iface: default, target: iqn.2003-01.org.linux-iscsi.iscsi.x86:testvol, portal: 192.168.124.104,3260] (vários)Login no [iface: default, target: iqn.2003-01.org.linux-iscsi.iscsi.x86:testvol, portal: 192.168.124.104,3260] bem-sucedido.

Repita esse processo para os demais hosts ou endereços IP do portal.

Se o sistema possui o utilitário lsscsi instalado, você pode utilizá-lo para enumerar os dispositivos SCSI disponíveis no sistema:

# lsscsi[8:0:0:0] disk SUSE RBD 4.0 /dev/sde [9:0:0:0] disk SUSE RBD 4.0 /dev/sdf

Em uma configuração de múltiplos caminhos (onde dois dispositivos iSCSI conectados representam a mesma LU), pode-se tam-bém examinar o estado do dispositivo de múltiplos caminhos com o utilitário de múltiplos caminhos:

# multipath -ll360014050cf9dcfcb2603933ac3298dca dm-9 SUSE,RBDsize=49G features=’0’ hwhandler=’0’ wp=rw|-+- policy=’service-time 0’ prio=1 status=active| `- 8:0:0:0 sde 8:64 active ready running`-+- policy=’service-time 0’ prio=1 status=enabled `- 9:0:0:0 sdf 8:80 active ready running

Page 10: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

10

White paper de armazenamentoSUSE Enterprise Storage 3 e iSCSI

Você pode agora utilizar este dispositivo de múltiplos caminhos da mesma maneira que qualquer dispositivo de blocos. Por exemplo, você pode usar o dispositivo como um volume físico para o gerenciamento de volumes lógicos (LVM - Logical Volume Management) do Linux, ou você pode simplesmente criar um sistema de arquivos nele. O exemplo a seguir demonstra como criar um sistema de arquivos XFS no recém-conectado volume iSCSI de múltiplos caminhos:

# mkfs -t xfs /dev/mapper/360014050cf9dcfcb2603933ac3298dca log stripe unit (4194304 bytes) is too large (maximum is 256KiB)log stripe unit adjusted to 32KiBmeta-data=/dev/mapper/360014050cf9dcfcb2603933ac3298dca isize=256 agcount=17, agsize=799744 blks = sectsz=512 attr=2, projid32bit=1 = crc=0 finobt=0data = bsize=4096 blocks=12800000, imaxpct=25 = sunit=1024 swidth=1024 blksnaming =version 2 bsize=4096 ascii-ci=0 ftype=0log =internal log bsize=4096 blocks=6256, version=2 = sectsz=512 sunit=8 blks, lazy-count=1realtime =none extsz=4096 blocks=0, rtextents=0

Observe que, como o XFS é um sistema de arquivos não agrupado em clusters, você só pode montá-lo em um único nó de ini-ciador iSCSI em um dado momento.

Se, em algum momento, você quiser interromper o uso das LUs iSCSI associadas a um destino específico, execute o seguinte comando:

# iscsiadm -m node -p iscsi1.example.com --logoutEfetuar o logout da sessão [sid: 18, iqn.2003-01.org.linux-iscsi.iscsi.x86:testvol, portal: 192.168.124.104,3260]Logout de [sid: 18, target: iqn.2003-01.org.linux-iscsi.iscsi.x86:testvol, portal: 192.168.124.104,3260] bem-sucedido.

Assim como na descoberta e no login, você deve repetir as etapas do logout para todos os nomes de host ou endereços IP do portal.

Page 11: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

11www.suse.com

Microsoft Windows (Iniciador Microsoft iSCSI)Para se conectar a um destino iSCSI do SUSE Enterprise Storage a partir de um Windows 2012 Server, abra o gerenciador do ser-vidor Windows. No painel de controle, selecione Ferramentas → Iniciador iSCSI. A caixa de diálogo Propriedades do Iniciador iSCSI é exibida. Selecione a guia Descoberta:

Na caixa de diálogo Descobrir Portal de Destino, digite o nome de host ou o endereço IP do destino no campo Destino e clique em OK:

Repita esse processo para todos os demais nomes de host ou endereços IP de gateway. Quando terminar, revise a lista de Portais de Destino:

Em seguida, mude para a guia Destinos e revise os destinos descobertos.

Page 12: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

12

White paper de armazenamentoSUSE Enterprise Storage 3 e iSCSI

Clique em “Conectar” na guia Destinos. A caixa de diálogo Conectar-se Ao Destino aparece. Marque a caixa de seleção “Habilitar múltiplos caminhos” para habilitar a E/S de vários ca-minhos (MPIO); em seguida, clique em OK:

Após fechar a caixa de diálogo Conectar-se Ao Destino, sele-cione Propriedades para analisar as propriedades do destino:

Selecione “Dispositivos”:

Agora, clique em “MPIO” para analisar a configuração de E/S de vários caminhos:

Page 13: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

13www.suse.com

A política Balancear Carga padrão é Rodízio com Subconjunto. Se você preferir uma configuração de failover pura, altere para Somente Failover:

Isso conclui a configuração do iniciador iSCSI. Agora, os volumes iSCSI estão disponíveis como qualquer outro dispositivo SCSI e podem ser inicializados para uso como volumes e unidades. Clique em OK para fechar a caixa de diálogo Propriedades do iniciador iSCSI e continue com a função Serviços de Arquivo e Armazenamento do painel do Gerenciador do Servidor.

Observe o volume recém-conectado. Ele se identifica como SUSE RBD SCSI Multi-Path Drive no barramento iSCSI e é inicial-mente marcado com um status de off-line e um tipo de tabela de partição de Desconhecido.

Se o novo volume não for exibido imediatamente, selecione Examinar Armazenamento Novamente na lista suspensa Tarefas para reexaminar o barramento iSCSI. Clique com o botão direito no volume iSCSI e selecione Novo Volume no menu de contexto:

O assistente de Novo Volume é exibido. Clique em Avançar para começar.

Page 14: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

14

White paper de armazenamentoSUSE Enterprise Storage 3 e iSCSI

Destaque o volume iSCSI recém-conectado e clique em Avançar:

Inicialmente, o dispositivo está vazio e não contém uma tabela de partição. Quando solicitado, confirme a caixa de diálogo indicando que o volume será inicializado com uma tabela de partição GPT:

Em seguida, selecione o tamanho do volume. Normalmente, usa--se a capacidade total do dispositivo:

Em seguida, atribua uma letra de unidade ou um nome de pasta na qual o volume recém-criado ficará disponível:

Page 15: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

15www.suse.com

Selecione um sistema de arquivos para criar no novo volume:

Finalmente, confirme suas seleções e clique no botão Criar para concluir a criação do volume:

Ao concluir o processo, revise os resultados e clique em Fechar para concluir a inicialização da unidade:

Quando a inicialização terminar, o volume (e seu sistema de arquivos NTFS) ficará disponível como uma unidade local recém-inicializada.

VMwarePara se conectar a volumes iSCSI gerenciados pelo lrbd é ne-cessário um adaptador de software iSCSI configurado. Se não houver nenhum adaptador disponível em sua configuração vS-phere, crie um selecionando Configuration → Storage Adapters → Add → iSCSI Software initiator. (Configuração → Adaptadores de armazenamento → Adicionar → Iniciador de software iSCSI).

Quando estiver disponível, selecione as propriedades do adap-tador, clicando com o botão direito do mouse no adaptador e selecionando Properties (Propriedades) no menu de contexto:

Page 16: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

16

White paper de armazenamentoSUSE Enterprise Storage 3 e iSCSI

Na caixa de diálogo do iniciador de software iSCSI, clique no botão Configure (Configurar):

Vá para a guia Dynamic Discovery (Descoberta dinâmica) e selecione Add (Adicionar).

Digite o endereço IP ou o nome de host do gateway iSCSI do lrbd. Se você executa vários gateways iSCSI em uma configu-ração de failover, repita essa etapa para todos os gateways que você opera.

Após inserir todos os gateways iSCSI, clique em Yes (Sim) na caixa de diálogo para iniciar uma nova busca do adaptador iSCSI:

Page 17: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

17www.suse.com

Ao concluir a nova busca, o novo dispositivo iSCSI é mostrado abaixo da lista Storage Adapters (Adaptadores de armazena-mento) no painel Details (Detalhes):

Para dispositivos de vários caminhos, você agora pode cli-car com o botão direito do mouse no adaptador e selecionar Manage Paths (Gerenciar caminhos) no menu de contexto:

Agora, você deve ver todos os caminhos com uma luz verde em Status. Um dos caminhos deve estar marcado como “Active (I/O)” (Ativo (E/S)) e todas os outros simplesmente “Active” (Ativo):

Agora, você pode mudar de Storage Adapters (Adaptadores de armazenamento) para o item rotulado simplesmente “Storage” (Armazenamento):

Page 18: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

18

White paper de armazenamentoSUSE Enterprise Storage 3 e iSCSI

Selecione Add Storage (Adicionar armazenamento) no canto superior direito do painel para abrir a caixa de diálogo Add Storage (Adicionar armazenamento). Em seguida, selecione Disk/LUN (Disco/LUN) e clique em Next (Avançar):

O dispositivo iSCSI recém-adicionado aparece na lista Select Disk/LUN (Selecionar Disco/LUN). Selecione-o e clique em Next (Avançar) para prosseguir:

Clique em Next (Avançar) para aceitar o layout de disco padrão:

No painel Properties (Propriedades), atribua um nome para o novo armazenamento de dados. Em seguida, clique em Next (Avançar).

Page 19: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

19www.suse.com

Aceite a configuração padrão para usar todo o volume para o armazenamento de dados, ou selecione Custom Space Setting (Configuração de espaço personalizado) para obter um arma-zenamento de dados menor:

Por fim, clique em Finish (Concluir) para concluir a criação do armazenamento de dados:

O novo armazenamento de dados aparece agora na lista de armazenamentos de dados e você pode selecioná-lo para recu-perar informações. Agora, é possível usar o volume iSCSI com suporte para lrbd como qualquer outro armazenamento de da-dos vSphere.

ConclusãoO lrbd é um componente importante do SUSE Enterprise Storage 3, que permite o acesso ao armazenamento em blocos distribuído e altamente disponível de qualquer servidor ou cliente capaz de falar o protocolo iSCSI. Ao usar o lrbd em um ou mais hosts de gateway iSCSI, as imagens RBD do Ceph se tornam disponíveis como unidades lógicas (Logical Units - LUs) associadas aos des-tinos iSCSI, os quais podem ser acessados, opcionalmente, em um formato altamente disponível com balanceamento de carga.

Como toda a configuração do lrbd é armazenada na loja de ob-jetos do Ceph RADOS, os hosts de gateway lrbd permanecem inerentemente sem estado persistente e, portanto, podem ser substituídos, aumentados ou diminuídos, à vontade. Como re-sultado, o SUSE Enterprise Storage 3 permite que os clientes SUSE executem uma tecnologia de armazenamento corporativo verdadeiramente distribuída, altamente disponível, resiliente e autorreparável, em um hardware de commodities e em uma pla-taforma de código-fonte totalmente aberto.

Isençãoderesponsabilidade:AsdescobertasdetalhadasnestewhitepapersãodesenvolvidasusandoconhecimentotécnicodelongoprazodaSUSEecomomelhorconhecimentoehabilidadesdaSUSE,masnaforma“comoestá”esemgarantiadequalquerespécie,naextensãopermitidapelasleisaplicáveis.

Page 20: SUSE Enterprise Storage 3 e iSCSI · RESTful semelhante ao OpenStack Swift e ao Amazon S3, e um dispositivo de blocos virtual. Todos os componentes do Ceph no lado do servidor são

262-PB2523-003 | 06/17 | © 2017 SUSE LLC. Todos os direitos reservados. A SUSE, o logotipo da SUSE e a YaST são marcas comerciais registradas

e a SUSE Enterprise Storage é uma marca registrada da SUSE LLC nos Estados Unidos e em outros países. Todas as marcas registradas de terceiros

pertencem a seus respectivos proprietários.

www .suse .com

ParaobtermaisinformaçõesEntre em contato com o Provedor de

Soluções da SUSE mais próximo ou

visite o site da SUSE em: www.suse.com

Ou entre em contato com o escritório

da SUSE mais próximo:

Argentina, Bolivia, Perú, Paraguay y Uruguay

SUSE Argentina

Tel: +5411 5258 8899

Brasil

SUSE do Brasil

Tel: +(55) 11 3627-0900

Fax: +(55) 11 2165-8030

Chile

SUSE Chile

Tel: +56 2 2864 5629

Colombia y Ecuador

SUSE Colombia

Tel: +(57 1) 622-2766

Fax: +(57 1) 622-2766 Ext. 114

México, Centro América y Caribe

SUSE México

Tel: +(52) 55 5284-2700

Fax: +(52) 55 5284-2799

Venezuela

SUSE Venezuela

Tel: +(58) 212 267-6568

Fax: +(58) 212 267-2877

SUSE

Maxfeldstrasse 5

90409 Nuremberg

Germany