Heim > Die heutigen Krypto-News
bitcoin
bitcoin

$83196.788088 USD

1.99%

ethereum
ethereum

$1837.092658 USD

1.87%

tether
tether

$0.999802 USD

-0.02%

xrp
xrp

$2.111160 USD

1.00%

bnb
bnb

$608.989877 USD

1.21%

solana
solana

$126.384147 USD

0.57%

usd-coin
usd-coin

$1.000043 USD

0.01%

dogecoin
dogecoin

$0.169286 USD

2.19%

cardano
cardano

$0.671659 USD

2.70%

tron
tron

$0.235720 USD

1.39%

toncoin
toncoin

$4.185996 USD

7.68%

chainlink
chainlink

$13.728458 USD

2.93%

unus-sed-leo
unus-sed-leo

$9.175711 USD

0.78%

stellar
stellar

$0.266850 USD

0.86%

avalanche
avalanche

$19.122530 USD

1.71%

Anstieg (Ethereum)

Was ist der Surge (Ethereum)?

Der Ethereum Surge ist eine Entwicklungsstufe des Ethereum-Netzwerks. Es umfasst eine Reihe von Upgrades, insbesondere Sharding. Die Ethereum-Roadmap zielt darauf ab, das Ethereum-Netzwerk in einen Satz von 64 Shard-Ketten zu unterteilen. Die Ausführung wird auf diese Ketten aufgeteilt, was den Durchsatz erhöht, indem parallele Berechnungen ermöglicht werden. Jede Shard-Kette verfügt über einen eigenen Satz Validatoren.

Darüber hinaus wird das Netzwerk skaliert, indem die Transaktionsausführung auf Layer-2-Blockchains ausgelagert wird. Da die Transaktionskosten auf vielen Layer-2-Ketten günstiger sind, wird sich das Ethereum-Mainnet auf Konsens, Abwicklung und Datenverfügbarkeit konzentrieren, während Layer-2-Ketten die Ausführungsschicht bereitstellen.

Rollups verwenden derzeit Anrufdaten zur Speicherung, wenn sie ihre Statuswurzeln zurück im Mainnet veröffentlichen. Obwohl Calldata die günstigste Speicherform von Ethereum ist, ist sie dennoch vergleichsweise teuer, wenn man bedenkt, dass die Daten das EVM passieren und dauerhaft in der Blockchain aufgezeichnet werden. Rollups benötigen jedoch keine dauerhafte Datenspeicherung. Es reicht aus, wenn die Daten vorübergehend verfügbar sind und gewährleistet ist, dass sie nicht von einem böswilligen Akteur zurückgehalten oder zensiert werden. Aus diesem Grund ist calldata nicht für Rollups optimiert und nicht skalierbar genug für ihre Datenverfügbarkeitsanforderungen.

Danksharding

Andererseits kann der Plan von Ethereum, Danksharding einzuführen, schneller bedeutende Skalierungsvorteile erzielen. Insbesondere wird Surge Proto-Danksharding mit EIP-4844 einführen, wodurch ein neuer Transaktionstyp namens Blob-Carrying-Transaktion eingeführt wird. Diese Transaktionen ähneln regulären Transaktionen, bieten jedoch Datenverfügbarkeitsgarantien in einem Blob, verpflichten sich aber gleichzeitig nicht zu einer dauerhaften Datenspeicherung. Rollups werden in der Lage sein, mehr Daten zu interpretieren, da Blobs 125 Kilobyte groß sind, viel größer als der durchschnittliche Ethereum-Block.

Die Ethereum Virtual Machine kann nicht auf Blob-Daten zugreifen, aber sie kann deren Existenz nachweisen. Jeder Blob wird zusammen mit einem Block gesendet. Bei Blob-Transaktionen wird es einen separaten Gasmarkt geben, dessen Preise sich exponentiell an die Nachfrage nach Blobs anpassen. Dadurch werden die Kosten für die Datenverfügbarkeit von den Ausführungskosten getrennt. Dies wird zu einem effizienteren Gasmarkt und einer unabhängigen Preisgestaltung für einzelne Komponenten wie NFT-Mints führen. Darüber hinaus wird erwartet, dass Blobs von Knoten entfernt werden, was die Datenspeicherung weiter vereinfacht.

Proto-Danksharding wird jedoch nur ein Schritt zum vollständigen Danksharding sein. Beide werden miteinander kompatibel sein, obwohl vollständiges Danksharding den Rollup-Durchsatz um ein Vielfaches erhöhen wird. Auch wenn Rollups an diesen neuen Transaktionstyp angepasst werden müssen, müssen sie nach Einführung von Danksharding nicht noch einmal angepasst werden. Zum Zeitpunkt des Schreibens ist geplant, Proto-Danksharding etwa sechs bis zwölf Monate nach der Fusion in den Shanghai Hard Fork aufzunehmen.

Die Idee von Danksharding besteht darin, die Überprüfung der Datenverfügbarkeit auf die Validatoren zu verteilen. Auch wenn die Implementierungsdetails noch unklar sind, werden die Shard-Daten mit Erasure Coding codiert, um die Datenverfügbarkeitsstichprobe sicherzustellen. Dadurch wird der Datensatz so erweitert, dass seine vollständige Verfügbarkeit mathematisch garantiert ist, wenn ein bestimmter Schwellenwert an Stichproben verfügbar ist. Daten werden in Blobs oder Shards aufgeteilt. Jeder Validator muss einmal pro Epoche die Verfügbarkeit seiner zugewiesenen Shards nachweisen. Dieser Prozess teilt die Last auf die Validatoren auf.

Die Originaldaten stehen für die Rekonstruktion zur Verfügung, sofern eine ausreichende Anzahl an Proben vorhanden ist und die Mehrheit der Validatoren ihre Daten ehrlich bestätigt. Der langfristige Plan sieht die Einführung privater Zufallsstichproben vor. Dies ermöglicht es Einzelpersonen, die Datenverfügbarkeit ohne Vertrauensannahmen des Validators zu gewährleisten, obwohl die schwierige Implementierung die sofortige Ausführung des Upgrades verhindert.

Danksharding strebt außerdem die Erhöhung der Anzahl der Ziel-Shards auf 128 an. Maximal 256 Shards pro Block sind die Obergrenze. Dadurch wird der Ziel-Blobspeicher deutlich von 1 MB auf 16 MB erhöht. Dies bringt jedoch auch eine zentralisierende Kraft für Blockersteller mit sich, die die Blob-Kodierung berechnen und die Daten verteilen müssen. Für Validierungsknoten stellt die erhöhte Blockgröße jedoch kein Problem dar, da Knoten den Block mithilfe von Datenverfügbarkeitsstichproben effizient überprüfen können. Um zu verhindern, dass sich dieser Anstieg der Validatoranforderungen negativ auf die Netzwerkvielfalt auswirkt, muss ein Upgrade namens Proposer-Builder Separation durchgeführt werden.

Zusammenfassung

Der Schwerpunkt von Ethereum Surge liegt auf der Skalierung und Verbesserung des Transaktionsdurchsatzes des Netzwerks. Es nutzt außerdem die Stärken von Rollups für die Layer-2-Skalierbarkeit. Sharding ist keine Skalierungslösung mehr für die Ethereum-Basisschicht, sondern legt den Schwerpunkt auf eine günstigere Datenverfügbarkeit. Im Idealfall könnte Danksharding sogar das Blockchain-Trilemma umkehren, indem es einem stark dezentralisierten Satz von Validatoren ermöglicht, Daten in kleinere Teile zu zerlegen und ihre Verfügbarkeitsgarantien zu wahren. Dies würde die Skalierbarkeit erhöhen, ohne auf Sicherheit zu verzichten.