2009-10-05 4 views
3

Nous avons un cube Analysis Services qui doit être aussi en temps réel que possible. C'est un cube relativement petit qui prend actuellement quelques secondes à traiter.Lignes directrices pour déterminer la fréquence maximale de traitement d'un cube SSAS?

Existe-t-il des directives pour cela? Je suis curieux de savoir ce que font les autres.

En outre, quel serait l'impact du traitement du cube trop fréquemment? La principale préoccupation serait-elle la charge sur le serveur SSAS et la base de données source? Dans notre cas, ce serait assez nominal. Comment les clients SSAS seraient-ils affectés? Les clients SSAS actuels sont Excel, PerformancePoint et Sharepoint/Excel Services.

Répondre

0

Je dirais que le premier problème à considérer est de savoir à quel point ce cube va grandir avec le temps. Si elle est constamment mise à jour et traitée quelques secondes peuvent rapidement se transformer en 20 minutes. Par exemple, nous avons actuellement un cube qui a 20 millions de lignes (probablement plus maintenant hehe) avec des données financières liées à la facturation et aux frais hospitaliers qui prend environ 20 minutes à traiter et nous le faisons une fois par jour. Selon la période de l'année, nous travaillons parfois pendant la journée mais il n'y a eu aucune plainte tant que nous informons les gens que nous faisons cela.

0

Il se peut que vous deviez «mettre dehors là» et dépister comment il fonctionne. Une fois que vous pouvez voir comment les gens utilisent le cube, vous pouvez déterminer si le retraitement constant est vraiment nécessaire et si c'est le cas, vous devrez peut-être optimiser comment cela se produit.

utilisant Spcifically "optimisation basée sur l'utilisation" comme décrit ici:

http://www.databasejournal.com/features/mssql/article.php/3575751/Usage-Based-Optimization-in-Analysis-Services-2005.htm

0

Avez-vous envisagé une partition en temps réel (ROLAP) pour stocker les données de la journée en cours? De cette façon, vous obtenez les performances de MOLAP pour toutes vos données avant le jour actuel, que vous pouvez traiter tous les soirs, mais avec une faible latence de ROLAP pour les données collectées depuis le dernier processus de cube.

Si votre cube est suffisamment petit, vous pouvez même l'étirer pour en faire les données de la semaine en cours, ou plus. En ce qui concerne les inconvénients du traitement fréquent, consultez l'article ci-dessous, qui dit: "Si le travail de traitement réussit, un verrou exclusif est placé sur l'objet lorsque des modifications sont commises, ce qui signifie que l'objet est temporairement indisponible Pendant la phase de validation de la transaction, les requêtes peuvent toujours être envoyées à l'objet, mais elles seront mises en file d'attente jusqu'à la fin de la validation. " http://technet.microsoft.com/en-us/library/ms174860.aspx

Ainsi, vos utilisateurs verront un impact sur les performances des requêtes.

Questions connexes