Unlock a world of possibilities! Login now and discover the exclusive benefits awaiting you.
Buenos días,
El tema que hablo ahora no es una duda concreta de algo específico, sino más bien abrir un debate para recapitular infromación de este tema. Yo quiero saber que tal funcionaria qlikview manejando millones de registros y si necesita muchos recursos.
Se trataria por ejemplo de cargar un millon de registros al dia o un volumen de datos de ese estilo. No me preocupa en si que la recarga de los datos tarde más o menos, que supongo que con ese volumen de datos pues tardará bastante, sino como el programa puede manejarlos con soltura a la hora de hacer selecciones y demás.
Si alguien tiene experiencia manejando estos volumenes de datos, o conoce ejemplos, agradeceria información al respecto
Un saludo
Hola,
Ha quedado respondida la inquietud?
En caso afirmativo, te ruego que marques una respuesta como válida y cierres el hilo. Gracias
Saludos,
Enrique Colomer
KonoGes
Buenas, vuelvo a escribir en el tema, ya que ha llegado el momento de enfrentarme a muchos registros y quiero ver la forma de optimizar todo en la media de lo posible.
No puedo abrir el fichero de Enrique, porque tengo la persona edition y por tanto no puedo verlo
Cuando hablan de buenas prácticas en el modelado de las tablas, ¿podrian poner ejemplos concretos de que se considera una buena practica y cual no?
Hago una cuestión, cuando tienes que hacer join con varias tablas en mysql, para generar la tabla que es más eficiente. ¿Crear una tabla conjunta con toda la informacion que necesitas o hacer algo como lo siguiente?
select ID1,ID2,campo3, campo4,campo5
from
left join on
left join on
select ID2,campo7,campo8
from
Un saludo
Hola Jonay:
Respecto a las Data Modelling Best Practices, lee estos enlaces por favor.
Best Practices for Data Modelling
Best Practices in Data Modeling.pdf
Saludos
Joaquín
Hola Jonay:
Respecto al rendimiento de las diferentes JOINS la respuesta la tiene el servidor MYSQL (en tu caso), si las tablas que vas a unir tienen los índices adecuados el rendimiento será más eficiente que si no los tiene.
Por tanto, mi recomendación es que hagas las dos pruebas midiendo el tiempo, así sabrás que es más eficiente.
Saludos
Joaquín
Buenos días,
Otra duda que me surge, es si al manejar tal número de registros, los requisitos de hardware se disparan o si haciendo uso realmente de buenas prácticas el programa es capaz de manejar esos volúmenes de datos sin tener que aumentar mucho memoria y el resto de recursos
Un saludo
Hola Jonay:
El rendimiento no solo depende del número de registros, también del número de campos e incluso de diferente valores para cada campo; también la cantidad de gráficos u otros objetos en el documento así como la complejidad de cada set análisis.
Cuantos más hay de todo, más máquina hace falta, si es un entorno corporativo la velocidad de la red y la velocidad de cada origen de datos aporta su factor de corrección sobre el rendimiento. Como cada instalación es diferente a otras lo mejor es que hagas varias versiones de tu app para ver cual responde mejor.
En mi caso, es posible leer a varios orígenes de datos mediante OLEDB u ODBC realizando la mediciones pertinentes descubrí que es mucho más rápido OLEDB.
Saludos
Joaquín
Hola,
Coincido en todo lo que dice JoaquinLR, con la matización que la velocidad entre OLEDB y ODBC depende mucho de la base de datos, aunque en general también es cierto que mayoritariamente es mejor el rendimiento con OLEDB.
Saludos,
Enrique Colomer
Buenas, una duda que tengo referente a los conectores. He intentado buscar el conector de oledb para mysql y no hay nada en la página oficial. ¿Realmente no hay un conector original que de soporte a mysql?
Página oficial: MySQL :: MySQL Connectors
Un saludo
Si lo hay ... pero ODBC
Ya, pero lo que intentaba es descargar un conector oledb a ver si realmente la velocidad del conector se notaba, como se comentaba más arriba.
Ya el odbc es el que utilizo por defecto
Un saludo