Amazon DynamoDB autorise le client à provision the throughput of reads and writes independently. J'ai lu le Amazon Dynamo paper sur le système qui a précédé DynamoDB et j'ai lu comment Cassandra et Riak ont implémenté ces idées. Je comprends comment il est possible d'augmenter le débit de ces systèmes en ajoutant des nœuds au cluster qui divise ensuite l'espace de hachage des tables sur plusieurs nœuds, permettant ainsi un débit plus important tant que l'accès est relativement aléatoire entre les clés de hachage. Mais dans des systèmes comme Cassandra et Riak, cela ajoute du débit aux lectures et aux écritures en même temps.Comment DynamoDB gère le débit des lectures indépendamment des écritures
Comment DynamoDB est-il architecturé différemment pour pouvoir mettre à l'échelle les lectures et écrire indépendamment? Ou ne le sont-ils pas et Amazon les charge indépendamment pour eux, même s'ils doivent essentiellement allouer suffisamment de nœuds pour couvrir le plus grand des deux?
Je comprends comment le provisionnement fonctionne et ce n'est pas contraire à ce que j'ai dit. Je comprends que le débit provisionné est réparti entre les partitions. Avez-vous une source pour vous affirmer que «Payer pour plus de débit ne force pas Amazon à partitionner votre table sur plusieurs nœuds». Cela n'a pas de sens parce que je pourrais avoir une table de 1000 lignes mais fournir autant de lectures qu'aucune partition ne pourrait supporter cette charge. Je comprends également que dans DynamoDB, le cluster est une ressource partagée, ce qui n'a rien à voir avec le nombre de nœuds sur lesquels une table est partitionnée. –
Vous avez absolument raison. Vous pouvez avoir une table de 1000 lignes et avoir le débit maximal que vous pouvez provisionner pour cette table, mais être limité par le débit réseau et SSD pour le nœud physique qui stocke cette table. La source de mes informations est de travailler avec DynamoDB pour comprendre les problèmes de performance que nous avons pour une très grande table DynamoDB (plus de 80 milliards de lignes, plus de 10 To de données). –