2017-07-16 4 views
0

J'ai l'obligation de consommer des données de stocker le lac de données et afficher en puissance BI. la taille des données est grande, il peut être de 20 Go ou 50 Go, je ne sais pas quelle taille viendra dans feature.also je ne peux pas utiliser le service Azure DW et Azure Analysis.modèle de données tabulaire dans le magasin de données lac pour la puissance BI

maintenant je propose une solution que je devrais créer un fichier tabulaire (tableau croisé dynamique) en magasin du lac de données azur à jour agrégées avec toutes les jointures de tables dans les données comme magasin

Nom Géographie Produit Nom Salesyerar2015 Salesyerar2017 userId

J'ai besoin de montrer deux années de données dans le rapport de puissance BI.

pour le niveau du mois J'ai 24 colonnes pour les mesures. au pouvoir j'utilise les données d'importation du magasin de données de lac.

si la taille des données est plus je suggère la puissance BI Premium pour le plus fichier de données il doit tenir compte dans le cache (limitations 50 Go)

Maintenant, pour les petites ensemble de données, il est bien de travail, je ne peux pas en mesure de tester les gros fichiers .

maintenant je veux savoir quand j'ai un fichier tabulaire de niveau date est nécessaire comment je m'adapte dans le modèle tabulaire.

également je veux savoir que la conception proposée est correcte ou avons-nous une autre approche pour gérer ce cas d'utilisation.

Cordialement, Manish

+0

Salut, Tout le monde peut Microsoft Suggère moi, il est urgent de communiquer avec le client. – user3843858

+0

Salut à tous, c'est vraiment difficile de comprendre quelle est la meilleure façon de connecter Power BI et Data Lake Store. nous ne pouvons pas dire la taille de Data Lake Store = Taille de PowerBI – user3843858

Répondre

0

Je vous recommande de jeter un coup d'oeil dans la fonction d'échantillonnage U-SQL disponible hors de la boîte dans le service Data Azure lac Analytics pour réduire vos ensembles de données à une taille qui peut être consommé par Power BI. C'est une technique que nous utilisons beaucoup.

Exemple U-SQL:

@Output = 
    SELECT 
     * 
    FROM 
     @ParsedJSON 
    SAMPLE UNIFORM 
     (0.04); //4% 

Ensuite, sortie les fichiers à stocker du lac de données pour la consommation.

Espérons que cela aide

+0

merci beaucoup pour la relecture. mais nous n'utilisons pas l'analyse de données lacustre pour augmenter les coûts. quelles sont les autres options. – user3843858