Heim > Die heutigen Krypto-News
bitcoin
bitcoin

$97567.72 USD 

4.38%

ethereum
ethereum

$3127.72 USD 

0.27%

tether
tether

$1.00 USD 

-0.06%

solana
solana

$241.07 USD 

1.25%

bnb
bnb

$608.20 USD 

-1.17%

xrp
xrp

$1.12 USD 

1.29%

dogecoin
dogecoin

$0.380384 USD 

-3.00%

usd-coin
usd-coin

$0.999862 USD 

0.00%

cardano
cardano

$0.774166 USD 

-7.76%

tron
tron

$0.197925 USD 

-0.36%

shiba-inu
shiba-inu

$0.000024 USD 

-3.39%

toncoin
toncoin

$5.44 USD 

-0.25%

avalanche
avalanche

$33.52 USD 

-5.17%

bitcoin-cash
bitcoin-cash

$512.61 USD 

15.51%

sui
sui

$3.37 USD 

-10.76%

Datenvalidierung

Was ist Datenvalidierung?

Unter Datenvalidierung versteht man den Prozess der Klärung der Genauigkeit, Integrität und Qualität eines Datensatzes vor dessen Verwendung. Dies kann für alle Arten von Daten gelten, beispielsweise für bestimmte Texte, Adressen, Daten und mehr.

Daten bilden die Grundlage aller Lösungen, und es versteht sich von selbst, dass die Daten korrekt sein müssen, damit eine Lösung effektiv ist. In Web3 verlassen sich Entwickler, Analysten und Netzwerkteilnehmer alle auf Daten, um Blockchains am Laufen zu halten. Für diese Akteure ist die Verwendung gültiger Daten von entscheidender Bedeutung, um Fehler, Inkonsistenzen, Benutzerrisiken und Beeinträchtigungen der Projektintegrität zu verhindern.

Das Bedürfnis nach Gültigkeit in Web3

Viele Hindernisse im Web3-Bereich können durch einen optimierten öffentlichen Zugriff auf gültige Daten gelöst werden. Einer davon ist, dass mit der Skalierung von Blockchains die Menge an Daten, die sie letztendlich produzieren, so groß wird, dass nur wenige Knoten den gesamten Kettenstatus im Auge behalten können. Dies führt dazu, dass viele Knoten auf gemeinsame Snapshots angewiesen sind und darauf vertrauen, dass diese vollständig korrekt und aktuell sind, was Spielraum für Fehler lässt.

Ethereum sitzt in dieser Situation im selben Boot und bietet keinen Anreiz für vollständige Knoten, was bald zu einer Begrenzung der öffentlichen Ressourcen für die historischen Daten der Kette führen wird. Um Zugriff auf einen vollständigen Knoten zu erhalten, müsste ein Benutzer entweder einen eigenen Knoten betreiben oder einen Anbieter bezahlen, um Zugriff auf die Daten zu erhalten, die öffentlich zugänglich sein sollten.

Ein weiteres großes Problem, das die Datenvalidierung löst, ist das Oracle-Problem. Wenn Projekte Off-Chain-Daten beziehen, sind Oracles ihr bevorzugtes Werkzeug, da sie einen einfachen Zugriffspunkt auf deterministische Web2-Daten bieten. Das Einbringen großer Datenmengen in die Kette führt jedoch zu einem Rezept für einen Single Point of Failure.

Da Orakel normalerweise nicht über eine eingebaute, wirklich dezentrale Validierungsfunktion verfügen, lässt sich nicht sagen, dass die von ihnen bereitgestellten Daten wahr sind oder nicht bereits manipuliert wurden. Was passieren kann und bereits recht häufig passiert ist, ist, dass ein Angreifer nicht direkt auf ein Protokoll abzielt, sondern auf die Daten, die das Protokoll von einem Orakel bezieht. Dies ist für Angreifer insgesamt eine einfachere Möglichkeit, eine Situation zu ihren Gunsten zu manipulieren.

Da bösartige Ereignisse wie diese nicht mehr verschwinden, tauchen immer mehr Validierungslösungen auf. Eine ordnungsgemäße Datenvalidierung ist jedoch viel leichter gesagt als getan.

Herausforderungen und Ineffizienzen bei der Validierung

Angesichts der Tatsache, dass jedes Datenelement im Prozess der Ausführung von Funktionen innerhalb und zwischen Blockchains validiert und synchron gehalten werden muss, ist die ordnungsgemäße Validierung von Daten komplizierter, als es scheint.

Der einfachere und gebräuchlichste Weg, die Datenvalidierung zu implementieren, ist die Verwendung eines zentralen Servers, sodass nur eine Entität an der Spitze der Entscheidung steht, ob ein Datenelement korrekt ist oder nicht. Dies trägt zur Förderung der Hochgeschwindigkeitsleistung bei und macht eine weltweite Konsensfindung überflüssig. Allerdings hinterlässt die Zentralisierung auch erhebliche Lücken für Fehler und böswillige Akteure.

Wenn ein Validierungsprozess zentralisiert ist, bedeutet das, dass es für andere Akteure keinen Anreiz gibt, die Arbeit des Hauptakteurs zu überprüfen und sicherzustellen, dass sie korrekt ist. Dies bedeutet auch, dass es nur einen Akteur gibt, den ein Hacker übernehmen müsste, um die vollständige Kontrolle über die Entscheidungsfindung zu haben, während durch die Dezentralisierung das Hackerrisiko verringert wird, da Hacker mehr als 50 % eines Ganzen übernehmen müssen Netzwerk von Knoten, um die Kontrolle zu erlangen, und insgesamt werden etwaige Verzerrungen oder Validierungsfehler erheblich verringert.

Eine dezentrale Lösung

Der grundlegende Grundsatz von Web3 ist die Dezentralisierung, die Autorität, Vertrauen und andere Tugenden auf Netzwerkbenutzer und Stakeholder verteilt. Da Aktionen in jeden Winkel der Welt gelangen müssen, verursacht eine 100-prozentige Dezentralisierung zwar eine geringe Zeitverzögerung, aber wenn es um die Validierung von Daten geht, ist Dezentralisierung wichtiger als blitzschnelle Leistung.

Um festzustellen, ob ein Datenelement gültig ist, muss es im Allgemeinen immer eine generische Lösung geben, d. h. Entwickler müssen für jeden Datensatz benutzerdefinierte Validierungsmethoden erstellen. Was jedoch fehlt, ist die Verwaltung dieser unterschiedlichen Laufzeiten und die Sicherstellung, dass alle Datensätze ordnungsgemäß beschafft und schnell und effizient validiert werden.

Ein dezentraler Proof of Stake (PoS)-Datensee könnte dieses Problem lösen und Datenpools bereitstellen, die den Code ausführen, der für die Weiterleitung der Daten verantwortlich ist, also eine Laufzeit, die auch eine abstrakte Implementierung einer Validierungsfunktion umfasst. Die vorhandene Funktion gibt einfach „true“ oder „false“ zurück, wenn die Daten gültig sind oder nicht. Die Kette berechnet dann das Ergebnis der gebündelten Daten, entweder gültig, ungültig oder verworfen, und verfolgt nur die gültigen Datenbündel, sodass nur Zugriff auf korrekte Daten möglich ist.

In jedem Pool gibt es eine Gruppe von Knoten, von denen einer zufällig ausgewählt wird, der für das Hochladen der Daten verantwortlich ist, und der Rest dafür verantwortlich ist, darüber abzustimmen, ob diese Daten gültig sind oder nicht. Jede Stimme hat einen gewichteten Wert, der davon abhängt, wie viele Token der Knoten einsetzt. Sobald die Abstimmung endgültig ist, wird die Verantwortung für das Hochladen des nächsten Datenpakets auf einen anderen zufällig ausgewählten Knoten übertragen. Dadurch wird dem Risiko einer Zentralisierung entgegengewirkt, d. h. wenn immer nur ein Knoten Daten hochlädt, wäre das ein höherer Risikofaktor für einen Angriff.

Ein weiterer Schlüsselfaktor für die Gewährleistung einer wirklich dezentralen Validierung ist die Anreizsetzung über PoS. Da jeder Datenpool auf Knoten angewiesen ist, um die Daten abzurufen, hochzuladen und zu validieren, ist es wichtig, gutes Verhalten durch Token-Belohnungen zu fördern und schlechtes Verhalten oder Fehler durch Token-Slashing zu bestrafen.

Die Dateninfrastruktur und -integrität von Web3 hängt in hohem Maße von der Verwendung wirklich gültiger Daten ab, um eine skalierbare und vertrauenswürdige Zukunft sicherzustellen. Mit der Zeit und wenn immer mehr Projekte erkennen, wie wichtig die Datenvalidierung ist, insbesondere in Web3, werden bei der Datenvalidierung zweifellos mehr Aspekte berücksichtigt. Das Beste, was wir tun können, ist, das Thema weiter auszubauen und weiterzubilden.

Autor : Fabian Riewe, Mitbegründer und CEO von KYVE, einer Web3-Data-Lake-Lösung.

Fabian begann seine Karriere als technischer Leiter in einem lokalen Bildungstechnologie-Startup. Ein Hackathon im Jahr 2019 weckte seine Faszination für Web3 und sechs Monate später gründete er sein erstes erfolgreiches Projekt ArVerify, ein On-Chain-KYC-System, das im Arweave-Ökosystem große Akzeptanz fand. Kurz darauf, im Jahr 2021, gründete er zusammen mit John Letey KYVE, einen dezentralen Web3-Datensee.