Usando discos SSD para cache no LVM

O LVM cache é um novo recurso do LVM que permite criar um volume lógico com um dispositivo mais rápido e capacidade reduzida (por exemplo, um disco SSD) para ser usado como cache para um dispositivo com maior capacidade, porém, mais lento, aumentando significativamente o desempenho dos sistemas de arquivos em cargas de I/O específicas e mantendo a capacidade de armazenamento dos discos magnéticos tradicionais.

Continuar lendo


Estratégias de virtualização de Ethernet no ambiente POWER

Um dos objetivos da maioria dos administradores de sistemas é fazer o possível para planejar e implementar seus servidores para prover redundância e tolerância a falha. Caso ocorra uma falha em um componente de hardware, a aplicação deverá continuar disponível e, se possível, sem nenhuma interrupção.

Particularmente no ambiente POWER, a virtualização de I/O necessita de um componente adicional chamado Virtual I/O Server (VIOS) – um software appliance, baseado em AIX, cuja função é compartilhar as interfaces físicas entre as outras partições no mesmo servidor POWER, fazendo a interface entre a infraestrutura física e virtual. Neste contexto, as partições que utilizam o VIOS para acesso aos dispositivos de I/O são chamadas de partições cliente.

Considerando então que este componente é fundamental para acesso aos dispositivos de I/O e que também está sujeito à falhas, tipicamente sua implementação é feita através do provisionamento de dois servidores VIOS, evitando assim o ponto único de falha.

Porém, apenas instalarmos dois servidores VIOS não é o suficiente para conseguirmos partições com tolerância a falha. Suas configurações devem ser feitas levando em conta esta arquitetura.

Cientes disto, veremos a seguir quais são as estratégias de implementação da infraestrutura de Virtual Ethernet quando estamos trabalhando com dois servidores VIOS.

Continuar lendo


Escrevendo por debaixo dos panos

Para aumentar o desempenho de escrita, limitar o número de dirty pages na memória, reduzir o overhead e minimizar a fragmentação de disco, o AIX implementa em seus sistemas de arquivos um mecanismo conhecido como Write-Behind.

Existem dois tipos de Write-Behind: sequencial e randômico.

No Write-Behind sequencial, o sistema organiza os arquivos armazenados na memória cache em clusters – conjunto de páginas de memória cujo tamanho é 16 KB (4 páginas) para o sistema de arquivos JFS e 128 KB (32 páginas), por padrão, no JFS2.

Continuar lendo


/proc/sys/vm/swappiness

Existe muito mito e informação errada sobre o parâmetro swappiness do Linux. Afinal, do que ele realmente se trata?

A resposta curta: swappiness é um valor, cujo padrão é 60, usado para calcular a tendência do sistema operacional de mover dados para a memória swap em vez de usar o filesystem cache nas situações de falta de memória RAM.

Agora, a resposta completa.

Continuar lendo


AIX Virtual Processor Folding

Dentre os recursos oferecidos pelo escalonador do AIX, algumas se destacam pela capacidade de alterar dinamicamente características do sistema operacional levando em consideração a sua interação com o Hypervisor. Essa cooperação, não tão sofisticada em outras plataformas, permite troca de informações e adaptações em situações específicas que melhoram o desempenho tanto do sistema operacional como da plataforma de virtualização em geral.

A partir do AIX 5.3 ML 3, o escalonador conta com o recurso Virtual Processor Folding, cuja ação principal é aumentar e diminuir a quantidade de processadores virtuais do sistema operacional de acordo com a sua carga de trabalho.

Continuar lendo