J'essaie de comprendre comment je détermine les IOPS que mon application pilote afin que je puisse dimensionner nos composants d'infrastructure de cloud. Je comprends ce que sont les IOPS entre une base de données et la couche de stockage, mais je voudrais comprendre comment je calcule ce que mon application pilote. Voici quelques-unes de mes caractéristiques d'applications: 1) 90% d'écriture et 10% de lecture 2) Nous avons une application basée sur Java qui insère finalement dans une base de données HBase 3) Traiter environ 50 msg/sec où chaque message donne probablement 2 Inscriptions HBaseComment calculer mes applications iops utilisation
Voici ce dont je ne suis pas sûr: 1) La seule façon de calculer l'IOPS est-elle d'exécuter iostat ou quelque chose sur le serveur en cours de chargement? 2) Existe-t-il un moyen général de calculer ce qui est nécessaire à partir du volume de données/taille entrant et non sur l'unité de stockage réelle? 3) Y a-t-il une relation avec le nombre de transactions et le nombre d'octets dans chaque transaction (j'ai lu quelque part qu'un IO est habituellement 3K, la plupart des inserts ne contiennent pas autant d'informations, donc peu importe).
Toute aide serait grandement appréciée.