O LVM cache é um novo recurso do LVM que permite criar um volume lógico com um dispositivo mais rápido e capacidade reduzida (por exemplo, um disco SSD) para ser usado como cache para um dispositivo com maior capacidade, porém, mais lento, aumentando significativamente o desempenho dos sistemas de arquivos em cargas de I/O específicas e mantendo a capacidade de armazenamento dos discos magnéticos tradicionais.
Sistemas Operacionais
Estratégias de virtualização de Ethernet no ambiente POWER
Um dos objetivos da maioria dos administradores de sistemas é fazer o possível para planejar e implementar seus servidores para prover redundância e tolerância a falha. Caso ocorra uma falha em um componente de hardware, a aplicação deverá continuar disponível e, se possível, sem nenhuma interrupção.
Particularmente no ambiente POWER, a virtualização de I/O necessita de um componente adicional chamado Virtual I/O Server (VIOS) – um software appliance, baseado em AIX, cuja função é compartilhar as interfaces físicas entre as outras partições no mesmo servidor POWER, fazendo a interface entre a infraestrutura física e virtual. Neste contexto, as partições que utilizam o VIOS para acesso aos dispositivos de I/O são chamadas de partições cliente.
Considerando então que este componente é fundamental para acesso aos dispositivos de I/O e que também está sujeito à falhas, tipicamente sua implementação é feita através do provisionamento de dois servidores VIOS, evitando assim o ponto único de falha.
Porém, apenas instalarmos dois servidores VIOS não é o suficiente para conseguirmos partições com tolerância a falha. Suas configurações devem ser feitas levando em conta esta arquitetura.
Cientes disto, veremos a seguir quais são as estratégias de implementação da infraestrutura de Virtual Ethernet quando estamos trabalhando com dois servidores VIOS.
Escrevendo por debaixo dos panos
Para aumentar o desempenho de escrita, limitar o número de dirty pages na memória, reduzir o overhead e minimizar a fragmentação de disco, o AIX implementa em seus sistemas de arquivos um mecanismo conhecido como Write-Behind.
Existem dois tipos de Write-Behind: sequencial e randômico.
No Write-Behind sequencial, o sistema organiza os arquivos armazenados na memória cache em clusters – conjunto de páginas de memória cujo tamanho é 16 KB (4 páginas) para o sistema de arquivos JFS e 128 KB (32 páginas), por padrão, no JFS2.
/proc/sys/vm/swappiness
Existe muito mito e informação errada sobre o parâmetro swappiness do Linux. Afinal, do que ele realmente se trata?
A resposta curta: swappiness é um valor, cujo padrão é 60, usado para calcular a tendência do sistema operacional de mover dados para a memória swap em vez de usar o filesystem cache nas situações de falta de memória RAM.
Agora, a resposta completa.
AIX Virtual Processor Folding
Dentre os recursos oferecidos pelo escalonador do AIX, algumas se destacam pela capacidade de alterar dinamicamente características do sistema operacional levando em consideração a sua interação com o Hypervisor. Essa cooperação, não tão sofisticada em outras plataformas, permite troca de informações e adaptações em situações específicas que melhoram o desempenho tanto do sistema operacional como da plataforma de virtualização em geral.
A partir do AIX 5.3 ML 3, o escalonador conta com o recurso Virtual Processor Folding, cuja ação principal é aumentar e diminuir a quantidade de processadores virtuais do sistema operacional de acordo com a sua carga de trabalho.