<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:taxo="http://purl.org/rss/1.0/modules/taxonomy/" version="2.0">
  <channel>
    <title>topic Best Practice - QVD/QVW Loading data in QlikView</title>
    <link>https://community.qlik.com/t5/QlikView/Best-Practice-QVD-QVW-Loading-data/m-p/256669#M710443</link>
    <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;Hi, &lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;I was just wondering if someone could confirm to me the best practices for loading data into a Qlikview application. My understanding is that it is best to load each individual table into a separate QVD and the import those into the final Qlikview applications as required. For example if I have a query that returns a dataset for me in Oracle like this:&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;select&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.deal_id&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DTRANSACTIONID,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; fd.field_id&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DFIELDID,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.deal_legal_name&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DTRANSACTIONNAME,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; fd.label&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DFIELDNAME,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; mp.period_id&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DPERIODID,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; mp.period_date&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DFULLPERIODDATE,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; trim(da.value_)&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DFIELDVALUE,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.geo_segment&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DGEOSEGMENT,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.CNTRY_NM&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DCOUNTRYOFASSETS,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.business_group&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DBUSINESSGROUP,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.mrkt_sctr_lvl_2&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DMRKTSCTR&lt;/P&gt;&lt;P&gt;from&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.report_deal d,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.data da,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.deal ed,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.model_field mf,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.model_period mp,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.field_defn fd&lt;/P&gt;&lt;P&gt;where ed.deal_id = da.object_id&lt;/P&gt;&lt;P&gt;and d.deal_id = ed.deal_id&lt;/P&gt;&lt;P&gt;and ed.model_id = mf.model_id&lt;/P&gt;&lt;P&gt;and ed.model_id = mp.model_id&lt;/P&gt;&lt;P&gt;and da.field_id = mf.field_id&lt;/P&gt;&lt;P&gt;and da.period_id = mp.period_id&lt;/P&gt;&lt;P&gt;and fd.field_id = mf.field_id&lt;/P&gt;&lt;P&gt;and fd.label not like 'P-%'&lt;/P&gt;&lt;P&gt;order by d.deal_legal_name, mf.sort_order, mp.period_date;&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;The then best approach would be to import each of the individual tables into their own QVD files and then load those QVD files as required into my subsequent QVW applications e.g:&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;ReportDeal:&lt;/P&gt;&lt;P&gt;LOAD &lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; deal_id&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; PRIMARYID,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; deal_legal_name,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; geo_segment,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; CNTRY_NM,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; business_group,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; mrkt_sctr_lvl_2&lt;/P&gt;&lt;P&gt;FROM ReportDeal.qvd (qvd);&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;ReportData:&lt;/P&gt;&lt;P&gt;LOAD&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; object_id&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; PRIMARYID,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; field_id,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; period_id,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; value_&lt;/P&gt;&lt;P&gt;FROM ReportData.qvd (qvd);&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;etc etc.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;As long as the columns in the different tables are given the same names where joins should occur then these will be handled by Qlikview and the relationship between the two tables would be established via those same name columns (PRIMARYID above). &lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;I also understand that the advantage of having the QVD's split out this way is that the data is loaded quicker into the QVW and therefore makes the user experience quicker and more efficient. I have read that the server could then be configured to update individual QVD files at different frequencies according to the requirements of the data and that it is possible to perform incremental updates to individual QVD files, so that only data that has changed is actually uploaded to the QVD dramatically reducing the time taken to update those files. If anyone is able to explain those areas in more detail as well as confirming the best practice for loading data into QVW that would be great.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Many Thanks&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Graham&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
    <pubDate>Wed, 01 Jun 2011 11:19:03 GMT</pubDate>
    <dc:creator />
    <dc:date>2011-06-01T11:19:03Z</dc:date>
    <item>
      <title>Best Practice - QVD/QVW Loading data</title>
      <link>https://community.qlik.com/t5/QlikView/Best-Practice-QVD-QVW-Loading-data/m-p/256669#M710443</link>
      <description>&lt;HTML&gt;&lt;HEAD&gt;&lt;/HEAD&gt;&lt;BODY&gt;&lt;P&gt;Hi, &lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;I was just wondering if someone could confirm to me the best practices for loading data into a Qlikview application. My understanding is that it is best to load each individual table into a separate QVD and the import those into the final Qlikview applications as required. For example if I have a query that returns a dataset for me in Oracle like this:&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;select&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.deal_id&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DTRANSACTIONID,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; fd.field_id&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DFIELDID,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.deal_legal_name&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DTRANSACTIONNAME,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; fd.label&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DFIELDNAME,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; mp.period_id&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DPERIODID,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; mp.period_date&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DFULLPERIODDATE,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; trim(da.value_)&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DFIELDVALUE,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.geo_segment&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DGEOSEGMENT,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.CNTRY_NM&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DCOUNTRYOFASSETS,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.business_group&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DBUSINESSGROUP,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; d.mrkt_sctr_lvl_2&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; DMRKTSCTR&lt;/P&gt;&lt;P&gt;from&amp;nbsp;&amp;nbsp;&amp;nbsp; &lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.report_deal d,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.data da,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.deal ed,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.model_field mf,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.model_period mp,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp; esf.field_defn fd&lt;/P&gt;&lt;P&gt;where ed.deal_id = da.object_id&lt;/P&gt;&lt;P&gt;and d.deal_id = ed.deal_id&lt;/P&gt;&lt;P&gt;and ed.model_id = mf.model_id&lt;/P&gt;&lt;P&gt;and ed.model_id = mp.model_id&lt;/P&gt;&lt;P&gt;and da.field_id = mf.field_id&lt;/P&gt;&lt;P&gt;and da.period_id = mp.period_id&lt;/P&gt;&lt;P&gt;and fd.field_id = mf.field_id&lt;/P&gt;&lt;P&gt;and fd.label not like 'P-%'&lt;/P&gt;&lt;P&gt;order by d.deal_legal_name, mf.sort_order, mp.period_date;&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;The then best approach would be to import each of the individual tables into their own QVD files and then load those QVD files as required into my subsequent QVW applications e.g:&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;ReportDeal:&lt;/P&gt;&lt;P&gt;LOAD &lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; deal_id&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; PRIMARYID,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; deal_legal_name,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; geo_segment,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; CNTRY_NM,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; business_group,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; mrkt_sctr_lvl_2&lt;/P&gt;&lt;P&gt;FROM ReportDeal.qvd (qvd);&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;ReportData:&lt;/P&gt;&lt;P&gt;LOAD&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; object_id&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; PRIMARYID,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; field_id,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; period_id,&lt;/P&gt;&lt;P&gt;&amp;nbsp;&amp;nbsp;&amp;nbsp;&amp;nbsp; value_&lt;/P&gt;&lt;P&gt;FROM ReportData.qvd (qvd);&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;etc etc.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;As long as the columns in the different tables are given the same names where joins should occur then these will be handled by Qlikview and the relationship between the two tables would be established via those same name columns (PRIMARYID above). &lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;I also understand that the advantage of having the QVD's split out this way is that the data is loaded quicker into the QVW and therefore makes the user experience quicker and more efficient. I have read that the server could then be configured to update individual QVD files at different frequencies according to the requirements of the data and that it is possible to perform incremental updates to individual QVD files, so that only data that has changed is actually uploaded to the QVD dramatically reducing the time taken to update those files. If anyone is able to explain those areas in more detail as well as confirming the best practice for loading data into QVW that would be great.&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Many Thanks&lt;/P&gt;&lt;P&gt;&lt;/P&gt;&lt;P&gt;Graham&lt;/P&gt;&lt;/BODY&gt;&lt;/HTML&gt;</description>
      <pubDate>Wed, 01 Jun 2011 11:19:03 GMT</pubDate>
      <guid>https://community.qlik.com/t5/QlikView/Best-Practice-QVD-QVW-Loading-data/m-p/256669#M710443</guid>
      <dc:creator />
      <dc:date>2011-06-01T11:19:03Z</dc:date>
    </item>
  </channel>
</rss>

