O LVM cache é um novo recurso do LVM que permite criar um volume lógico com um dispositivo mais rápido e capacidade reduzida (por exemplo, um disco SSD) para ser usado como cache para um dispositivo com maior capacidade, porém, mais lento, aumentando significativamente o desempenho dos sistemas de arquivos em cargas de I/O específicas e mantendo a capacidade de armazenamento dos discos magnéticos tradicionais.
TI
Artigos sobre tecnologia da informação
Virtualização com KVM para a plataforma IBM POWER
Juntamente com o anúncio dos novos processadores POWER8, a IBM revelou sua nova aposta no campo da virtualização – uma solução alternativa para a plataforma POWER baseada no KVM, convenientemente chamada de PowerKVM.
Estratégias de virtualização de Ethernet no ambiente POWER
Um dos objetivos da maioria dos administradores de sistemas é fazer o possível para planejar e implementar seus servidores para prover redundância e tolerância a falha. Caso ocorra uma falha em um componente de hardware, a aplicação deverá continuar disponível e, se possível, sem nenhuma interrupção.
Particularmente no ambiente POWER, a virtualização de I/O necessita de um componente adicional chamado Virtual I/O Server (VIOS) – um software appliance, baseado em AIX, cuja função é compartilhar as interfaces físicas entre as outras partições no mesmo servidor POWER, fazendo a interface entre a infraestrutura física e virtual. Neste contexto, as partições que utilizam o VIOS para acesso aos dispositivos de I/O são chamadas de partições cliente.
Considerando então que este componente é fundamental para acesso aos dispositivos de I/O e que também está sujeito à falhas, tipicamente sua implementação é feita através do provisionamento de dois servidores VIOS, evitando assim o ponto único de falha.
Porém, apenas instalarmos dois servidores VIOS não é o suficiente para conseguirmos partições com tolerância a falha. Suas configurações devem ser feitas levando em conta esta arquitetura.
Cientes disto, veremos a seguir quais são as estratégias de implementação da infraestrutura de Virtual Ethernet quando estamos trabalhando com dois servidores VIOS.
Otimizando o desempenho do KVM em sistemas NUMA
Virtualização, atualmente, significa mais do que apenas consolidar servidores subutilizados. Ultrapassamos a época em que a virtualização em x86 era apenas utilizada para cargas de trabalho pequenas, dada as limitações de escalabilidade e o impacto no desempenho causado pelo hypervisor.
Parece que chegou a vez dos grandes servidores terem o seu lugar ao sol, ou melhor, na nuvem.
Escrevendo por debaixo dos panos
Para aumentar o desempenho de escrita, limitar o número de dirty pages na memória, reduzir o overhead e minimizar a fragmentação de disco, o AIX implementa em seus sistemas de arquivos um mecanismo conhecido como Write-Behind.
Existem dois tipos de Write-Behind: sequencial e randômico.
No Write-Behind sequencial, o sistema organiza os arquivos armazenados na memória cache em clusters – conjunto de páginas de memória cujo tamanho é 16 KB (4 páginas) para o sistema de arquivos JFS e 128 KB (32 páginas), por padrão, no JFS2.