Unlock a world of possibilities! Login now and discover the exclusive benefits awaiting you.
Bom dia, preciso de uma opinião para estruturar uma carga.
hoje eu tenho 4 tabelas com movimentação detalhada dos produtos, "FatoPerdaDetalhe", "FatoDevolucao",FatoDevolucoesVenda" e "VendaDetalhe". Nelas eu tenho algunas campos como unidade e codigo do produto. Agora eu preciso saber o nome do produtos e outras informações, portanto eu criei uma tabela DimProdutos, onde no final ta tabela tem o mes e ano que foi gravada, a ideia é ter um cadastro de produtos por mes para que se alguma informação seja alterada no cadastro, eu consiga ver como estava antes.
Para interligar a tabela "VendaDetalhe" com a "DinProdutos" eu usei AutoHash128 com os campos id_data e codigo do produto.
O Problema é quando eu faço isso para as outras tabelas, o sistema vai criar chave sintéticas e usa toda a memoria do servidor na caga, acredito que seja pela quantidade de dados que eu tenho dentro de cada tabela (+ 10 mi ). Quero uma ajuda para resolver isso, pensei até em criar uma tabela "DimProdutos" para cada tabela Fato.
Quando você concatena uma tabela com outra e a quantidade de campos e seus nomes são muito diferentes como é o seu caso, sempre irá demorar mais.
Qual a frequência de atualização dos dados que você está trabalhando nesse projeto?
De uma olhada nesse blog sobre como trabalhar com mais de uma tabela Fato.
dicasqlikview.blogspot.com.br/2011/02/trabalhando-com-mais-de-uma-tabela-fato.html
Qlikfique-se.
Tonial.
Bom dia Fernando, a frequência de atualização é alta pois trata-se de um projeto de orçamento e resultados, os usuários lançam no ERP as metas e carregam no QV o comparativo e verificam os resultados, recarregando o projeto a cada alteração, mas acredito que eu concatenando as tabelas de movimento detalhado de produtos ja seja o suficiente, hoje o projeto esta rápido, barrei apenas nas dimensões dos produtos.