Quelle est la surtension (Ethereum) ?
L’Ethereum Surge est une étape de développement du réseau Ethereum. Il comprend un ensemble de mises à niveau, notamment le partitionnement. La feuille de route Ethereum vise à diviser le réseau Ethereum en un ensemble de 64 chaînes de fragments. L'exécution sera répartie sur ces chaînes, ce qui augmentera le débit en permettant le calcul parallèle. Chaque chaîne de fragments aura son propre ensemble de validateurs.
De plus, le réseau évoluera en externalisant l’exécution des transactions vers des blockchains de couche 2. Étant donné que les coûts de transaction sont moins chers sur de nombreuses chaînes de couche 2, le réseau principal Ethereum se concentrera sur le consensus, le règlement et la disponibilité des données, tandis que les chaînes de couche 2 fourniront la couche d'exécution.
Les cumuls utilisent actuellement les données d'appel pour le stockage lors de la publication de leurs racines d'état sur le réseau principal. Bien que les données d'appel soient la forme de stockage la moins chère d'Ethereum, elles restent relativement coûteuses, étant donné que les données passent par l'EVM et sont enregistrées en permanence sur la blockchain. Cependant, les cumuls ne nécessitent pas de stockage permanent des données. Il suffit que les données soient temporairement disponibles et garanties qu’elles ne seront pas retenues ou censurées par un acteur malveillant. C'est pourquoi les données d'appel ne sont pas optimisées pour les cumuls et ne sont pas suffisamment évolutives pour répondre à leurs besoins en matière de disponibilité des données.
Éclat d'eau
D’un autre côté, le projet d’Ethereum visant à instituer le Danksharding peut générer des avantages de mise à l’échelle significatifs plus rapidement. Plus précisément, Surge introduira le Proto-Danksharding avec EIP-4844, qui introduit un nouveau type de transaction appelé transaction portant un Blob. Ces transactions ressemblent à des transactions régulières mais offrent des garanties de disponibilité des données dans un blob, tout en n'engageant pas un stockage permanent des données. Les rollups seront capables d’interpréter plus de données, car les blobs mesurent 125 kilo-octets, soit beaucoup plus gros que le bloc Ethereum moyen.
La machine virtuelle Ethereum ne peut pas accéder aux données blob, mais elle peut prouver son existence. Chaque blob est diffusé à côté d'un bloc. Les transactions Blob auront un marché du gaz distinct, dont les prix s’ajusteront de façon exponentielle en fonction de la demande de blobs. En conséquence, le coût de la disponibilité des données sera séparé du coût d’exécution. Cela conduira à un marché du gaz plus efficace et à des composants individuels tels que les menthes NFT dont le prix sera indépendant. De plus, les blobs devraient être supprimés des nœuds, ce qui facilitera encore davantage le stockage des données.
Cependant, le proto-danksharding ne sera qu’une étape vers le danksharding complet. Les deux seront compatibles les uns avec les autres, bien que le danksharding complet augmente le débit des rollups de plusieurs multiples. Même si les cumuls doivent s'adapter à ce nouveau type de transaction, une fois le danksharding mis en place, ils n'auront plus besoin d'être ajustés. Au moment de la rédaction de cet article, il est prévu d'inclure le proto-danksharding dans le hard fork de Shanghai environ six à douze mois après la fusion.
L’idée du danksharding est que la vérification de la disponibilité des données sera répartie entre les validateurs. Même si les détails de mise en œuvre ne sont pas encore clairs, les données des fragments seront codées avec un codage d'effacement pour garantir l'échantillonnage de la disponibilité des données. Cela étend l'ensemble de données de manière à garantir mathématiquement sa pleine disponibilité si un certain seuil d'échantillons est disponible. Les données sont divisées en blobs ou fragments. Chaque validateur doit prouver la disponibilité des fragments qui lui sont attribués une fois par époque. Ce processus répartit la charge entre les validateurs.
Les données originales sont disponibles pour la reconstruction, à condition qu'un nombre suffisant d'échantillons soit disponible et que la majorité des validateurs attestent honnêtement de leurs données. Le plan à long terme prévoit la mise en œuvre d'un échantillonnage aléatoire privé. Cela permet aux individus de garantir la disponibilité des données sans hypothèses de confiance du validateur, bien que sa mise en œuvre difficile empêche l'exécution immédiate de la mise à niveau.
Danksharding vise également l'augmentation du nombre de fragments cibles à 128. Un maximum de 256 fragments par bloc est la limite supérieure. Cela augmente considérablement le stockage blob cible de 1 Mo à 16 Mo. Cependant, cela introduit également une force centralisatrice pour les constructeurs de blocs, qui devront calculer le codage du blob et distribuer les données. Néanmoins, pour les nœuds de validation, l'augmentation de la taille du bloc ne sera pas un problème puisque les nœuds peuvent vérifier le bloc efficacement grâce à l'échantillonnage de la disponibilité des données. Pour éviter que cette augmentation des exigences des validateurs n’ait un impact négatif sur la diversité du réseau, une mise à niveau appelée séparation Proposant-Constructeur devra être réalisée.
Résumé
Ethereum Surge se concentre sur la mise à l'échelle et l'amélioration du débit de transactions du réseau. Il exploite également les atouts des cumuls pour l’évolutivité de couche 2. Le partage n’est plus une solution de mise à l’échelle pour la couche de base Ethereum, mais donne la priorité à la disponibilité des données à moindre coût. Idéalement, le danksharding pourrait même inverser le trilemme de la blockchain en permettant à un ensemble hautement décentralisé de validateurs de diviser les données en morceaux plus petits et de préserver leurs garanties de disponibilité. Cela augmenterait l’évolutivité sans renoncer à la sécurité.