Unlock a world of possibilities! Login now and discover the exclusive benefits awaiting you.
Caros, bom dia!
Tenho um dash de 32,5 GB, com varias abas onde utilizamos tabelas dinâmicas com expressões e dimensões dinâmicas. Algumas expressões de complexidade média, e praticamente todas são habilitadas e desabilitadas através de condicional. Possuo algumas ilhas de dados com informações que vão compor as dimensões de acordo com a seleção que o usuário faz no objeto lista.
Meu servidor é um windows server 2012 R2 com 105GB de RAM, utilizando um processador XEON E5-2630 2.2GHz (4 Processadores). Em média tenho 10 usuários simultâneos.
Vamos ao problema
Todo dia preciso reiniciar meu servidor pelo menos 4 vezes para descarregar a memoria que trabalha em média com 80% - 90% de consumo.
utilizei o RAM Calc disponivel no link https://community.qlik.com/t5/Qlik-Brasil/QVW-calcular-tamanho-RAM/gpm-p/1361037
O mesmo diz que precisaria de 230GB de memória, como podem ver na imagem abaixo
Faz sentido minha interpretação ou estou equivocado?
Preciso da ajuda dos senhores para uma analise mais assertiva.
Obrigado!
Atte.
Mercadante
Boa tarde, já passei por algo parecido logo quando entrei na empresa, A Solução encontrada foi adotar algumas boas praticas, exemplo não deixar que um .qvw fiquei maior que 1gb.
Outro ponto aplicações do qlikview quando criadas tendem a serem salvas no formato de compressão, isso faz com que o server trabalhe mais para descompactar e demonstrar os dados, eu costumo deixar em "Nenhuma" conforme a imagem abaixo.
Quando você diz ter uma aplicação de 32 gb, o esforço de seu server é enorme, criando um gargalo. Tente quebrar esses dados em aplicações menores.
Bom dia Danilo!
Obrigado pelas dicas, vou verificar sobre a compressão de dados.
Já pensei em segmentar as abas em dashs separados, mas terei problema com licença. Reduzir os dados foi a primeira solução que apresentei, e o resultado dos testes de performance foram satisfatórios, porem os usuários necessitam de pelo menos 3 anos de carga, isso significa uma carga de 826 milhões de linhas para tabela fato.
Já tentei varias outras soluções, sem sucesso.
Estou convencido sobre a necessidade do upgrade de memória. Porem não tenho certeza sobre minha interpretação sobre o recurso de hardware. Apliquei a memoria de calculo apresentada nos posts aqui da comunidade e o resultado foi de 236GB. É praticamente o dobro da memoria hoje alocada.
Minha preocupação é fazer toda essa movimentação e ainda continuar tento problemas...