Cache distribuído

Cache distribuído é um método de configurar um cache de dados para abranger vários servidores, armazenando pedidos comuns e permitindo recuperação rápida.

Cache distribuído é usado em servidores web e servidores de aplicativos para fornecer armazenamento não-local para melhor redundância, servindo múltiplas regiões e fornecendo capacidade ampliável para armazenamento e rendimento de transações.

Dados armazenados em um cache distribuído são geralmente determinados pelo que é mais freqüentemente acessado de um determinado servidor web ou de aplicativos. Como os dados solicitados anteriormente não são solicitados, os dados solicitados mais recentemente têm precedência; dados antigos são eventualmente excluídos do cache.

Um dos usos mais comuns dos caches distribuídos é salvar os dados das sessões web dos usuários. Os caches de dados podem ser configurados de muitas maneiras diferentes. Por exemplo, pode haver muitos servidores espalhados geograficamente para melhor servir clientes globais. Os servidores podem conter dados duplicados para failover ou podem incluir apenas conteúdo não duplicado para melhor atender a diferentes grupos solicitantes. Caches distribuídos podem combinar essas abordagens.

Cache distribuído tornou-se cada vez mais viável devido ao custo decrescente da memória por GB e ao baixo custo e crescente prevalência de interfaces de rede de 10 gigabit.