Quando se usa o Postgresql como banco de dados para BI com a Plataforma Pentaho uma preocupação é otimizar o banco.
Uma estratégia se você tem memória é reduzir os valores dos parâmetros do arquivo postgresql.conf
Valores originais:
#seq_page_cost = 1.0 # measured on an arbitrary scale
#random_page_cost = 4.0 # same scale as above
Estes dois parâmetros definem o custo para leituras sequencias e aleatórias, sendo que valores altos priorizam o uso do disco e valores baixos priorizam o uso da memória.
Valores Ajustados para uso de memória, as tabelas são carregadas nas primeiras leituras:
seq_page_cost = 0.1 # measured on an arbitrary scale
random_page_cost = 0.1 # same scale as above
Outra dica: Se existe memória disponível e está sendo usado linux com SO não aloque totalmente a memória para o postgresql, deixe um percentual para uso de cache do SO, isto fará que o linux carregue no cache do SO em memórias as tabelas utilizadas no momento.
Uma estratégia se você tem memória é reduzir os valores dos parâmetros do arquivo postgresql.conf
Valores originais:
#seq_page_cost = 1.0 # measured on an arbitrary scale
#random_page_cost = 4.0 # same scale as above
Estes dois parâmetros definem o custo para leituras sequencias e aleatórias, sendo que valores altos priorizam o uso do disco e valores baixos priorizam o uso da memória.
Valores Ajustados para uso de memória, as tabelas são carregadas nas primeiras leituras:
seq_page_cost = 0.1 # measured on an arbitrary scale
random_page_cost = 0.1 # same scale as above
Comentários
Postar um comentário