Je suis sur le point d'effectuer la population des données sur MS SQL Server (2012 Dev Edition). Les données sont basées sur les données de production. Le montant est d'environ 4 To (environ 250 millions d'articles).
Objet:
Pour tester les performances sur la recherche en texte intégral et régulier index ainsi. Le nombre cible devrait être d'environ 300 millions d'articles autour de 500K chacun.
Question:
Que dois-je faire avant d'accélérer le processus ou les conséquences que je vous inquiéter?
Ex.
- Désactiver les statistiques?
- Dois-je effectuer une insertion en bloc de 1k articles par transaction au lieu d'une seule transaction?
- Modèle de récupération simple?
- Troncature de log?
Important:
Je vais utiliser l'échantillon de 2k des éléments de production pour créer chaque élément aléatoire qui sera inséré dans la base de données. J'utiliserai des échantillons quasi uniques générés en C#. Ce sera une table:
table
(
long[id],
nvarchar(50)[index],
nvarchar(50)[index],
int[index],
float,
nvarchar(50)[index],
text[full text search index]
)
Copie possible http://stackoverflow.com/questions/410653/test-user-data-fake-data – Kermit
@njk Je n'ai aucun problème à créer des données. J'ai des soucis de performance concernant la base de données de remplissage avec une grande quantité de données. – Falcon