![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Nachrichtenartikel zu Kryptowährungen
Können Sie vertrauen, dass Ihre KI unvoreingenommen ist? Von: Rob Viglione
Apr 03, 2025 at 11:24 pm
Eine kürzlich durchgeführte Forschungspapier legt nahe, dass es etwas komplizierter ist. Leider ist Vorurteile nicht nur ein Fehler - es ist eine anhaltende Funktion ohne ordnungsgemäße kryptografische Leitplanken.
Can you trust your AI to be unbiased? A recent research paper suggests it’s a little more complicated.
Können Sie vertrauen, dass Ihre KI unvoreingenommen ist? Eine kürzlich durchgeführte Forschungspapier legt nahe, dass es etwas komplizierter ist.
Unfortunately, bias isn’t just a bug — it’s a persistent feature without proper cryptographic guardrails. A September 2024 study from Imperial College London shows how zero-knowledge proofs (ZKPs) can help companies verify that their machine learning (ML) models treat all demographic groups equally while still keeping model details and user data private.
Leider ist Vorurteile nicht nur ein Fehler - es ist eine anhaltende Funktion ohne ordnungsgemäße kryptografische Leitplanken. Eine Studie vom September 2024 vom Imperial College London zeigt, wie Null-Knowledge-Proofs (ZKPS) Unternehmen helfen können, zu überprüfen, ob ihre Modelle für maschinelles Lernen (ML) alle demografischen Gruppen gleich behandeln und gleichzeitig Modelldetails und Benutzerdaten privat halten.
We recently covered how ZKPs are being used to detect fraud and anomalies in financial transactions. But in this case, ZKPs can be applied to verify the fairness property of ML models.
Wir haben kürzlich behandelt, wie ZKPs verwendet werden, um Betrug und Anomalien bei Finanztransaktionen zu erkennen. In diesem Fall kann jedoch ZKPS angewendet werden, um die Fairness -Eigenschaft von ML -Modellen zu überprüfen.
When discussing "fairness," we're entering a complicated area. There are several mathematical definitions of fairness, and the preferred definition shifts with the political landscape. For instance, consider the US government's approach to fairness over the past two administrations.
Wenn wir über "Fairness" diskutieren, betreten wir einen komplizierten Bereich. Es gibt mehrere mathematische Definitionen der Fairness, und die bevorzugte Definition verändert sich mit der politischen Landschaft. Betrachten Sie beispielsweise den Ansatz der US -Regierung zur Fairness in den letzten beiden Verwaltungen.
The previous administration was focused on diversity, equity and inclusion. They used demographic parity as a key measure of fairness, aiming to ensure the output probability of a specific prediction is the same across different groups.
Die vorherige Verwaltung konzentrierte sich auf Vielfalt, Gerechtigkeit und Inklusion. Sie verwendeten demografische Parität als Schlüsselmaß für die Fairness und zielten darauf ab, die Ausgangswahrscheinlichkeit einer spezifischen Vorhersage in verschiedenen Gruppen gleich zu gewährleisten.
But as we integrate more ML models into critical systems like college admissions, home loans and future job prospects, we could use a little more reassurance that AI is treating us fairly.
Wenn wir jedoch mehr ML -Modelle in kritische Systeme wie College -Zulassungen, Wohnungsbaudarlehen und zukünftige Berufsaussichten integrieren, könnten wir etwas mehr beruhigen, dass AI uns fair behandelt.
We need to be sure that any attestations of fairness keep the underlying ML models and training data confidential. They need to protect intellectual property and users’ privacy while providing enough access for users to know that their model is not discriminatory. Not an easy task.
Wir müssen sicher sein, dass alle Bescheinigungen der Fairness die zugrunde liegenden ML -Modelle und Schulungsdaten vertraulich machen. Sie müssen das geistige Eigentum und die Privatsphäre der Benutzer schützen und gleichzeitig genügend Zugriff bieten, um zu wissen, dass ihr Modell nicht diskriminierend ist. Keine leichte Aufgabe.
Enter, zero-knowledge proofs.
Geben Sie Null-Knowledge-Beweise ein.
ZKML (zero knowledge machine learning) is how we use zero-knowledge proofs to verify that an ML model is what it says on the box. ZKML combines zero-knowledge cryptography with machine learning to create systems that can verify AI properties without exposing the underlying models or data. We can also take that concept and use ZKPs to identify ML models that treat everyone equally and fairly.
In ZKML (Zero Knowledge Machine Learning) verwenden wir Null-Knowledge-Beweise, um zu überprüfen, ob ein ML-Modell das ist, was es auf der Box aussagt. ZKML kombiniert Zero-Knowledge-Kryptographie mit maschinellem Lernen, um Systeme zu erstellen, die AI-Eigenschaften überprüfen können, ohne die zugrunde liegenden Modelle oder Daten freizulegen. Wir können dieses Konzept auch übernehmen und ZKPS verwenden, um ML -Modelle zu identifizieren, die alle gleich und fair behandeln.
Recently, we covered how ZKPs were becoming more efficient to perform at scale. Previously, using ZKPs to prove AI fairness was extremely limited because it could only focus on one phase of the ML pipeline. This made it possible for dishonest model providers to construct data sets that would satisfy the fairness requirements, even if the model failed to do so. The ZKPs would also introduce unrealistic computational demands and long wait times to produce proofs of fairness.
Vor kurzem haben wir behandelt, wie ZKPs effizienter in Maßstäben werden. Zuvor war die Verwendung von ZKPS zur Beweisung von AI -Fairness äußerst begrenzt, da es sich nur auf eine Phase der ML -Pipeline konzentrieren konnte. Dies ermöglichte es für unehrliche Modellanbieter, Datensätze zu konstruieren, die die Fairnessanforderungen erfüllen würden, auch wenn das Modell dies nicht tun würde. Die ZKPs würden auch unrealistische Rechenanforderungen und lange Wartezeiten einführen, um Fairnessnachweise zu erstellen.
But in recent months, ZK frameworks have become more efficient to scale ZKPs to be able to perform synthesis tasks like quickly generating diverse pieces of content or merging large amounts of data. This makes it possible to integrate ZKPs to detect fraud or anomalies in financial transactions, which is a critical step toward large-scale adoption.
In den letzten Monaten sind ZK -Frameworks jedoch effizienter geworden, um ZKPs zu skalieren, um Syntheseaufgaben auszuführen, wie schnell verschiedene Inhalte zu generieren oder große Datenmengen zu verschmelzen. Dies ermöglicht es, ZKPs zu integrieren, um Betrug oder Anomalien in Finanztransaktionen zu erkennen, was ein kritischer Schritt in Richtung großer Annahme ist.
So how do we measure whether an AI is fair? Let's break down three of the most common group fairness definitions:
Wie messen wir also, ob eine KI fair ist? Lassen Sie uns drei der häufigsten Definitionen der Gruppengerechtigkeit aufschlüsseln:
* Demographic parity
* Demografische Parität
* Equality of opportunity
* Chancengleichheit
* Predictive equality
* Vorhersagegleichheit
As we mentioned, diversity, equity and inclusion departments often use demographic parity as a measurement to attempt to reflect the demographics of a population in a company's workforce. It's not the ideal fairness metric for ML models because it's used to measure the probability of a specific prediction. For example, we wouldn't necessarily expect that every group will have the same outcomes.
Wie wir bereits erwähnt haben, verwenden Abteilungen von Vielfalt, Gerechtigkeit und Inklusion die demografische Parität häufig als Maß, um zu versuchen, die demografische Merkmale einer Bevölkerung in der Belegschaft eines Unternehmens widerzuspiegeln. Es ist nicht die ideale Fairness -Metrik für ML -Modelle, da es verwendet wird, um die Wahrscheinlichkeit einer spezifischen Vorhersage zu messen. Zum Beispiel würden wir nicht unbedingt erwarten, dass jede Gruppe die gleichen Ergebnisse hat.
Equality of opportunity is easy for most people to understand. It gives every group the same chance to have a positive outcome, assuming they are equally qualified. For instance, it is not optimizing for outcomes — only that every demographic should have the same opportunity to get a job or a home loan.
Chancengleichheit ist für die meisten Menschen leicht zu verstehen. Es gibt jeder Gruppe die gleiche Chance, ein positives Ergebnis zu erzielen, vorausgesetzt, sie sind gleichermaßen qualifiziert. Zum Beispiel ist es nicht optimiert, dass die Ergebnisse vorhanden sind - nur dass jede Bevölkerungsgruppe die gleiche Gelegenheit haben sollte, einen Job oder ein Wohnungsbaudarlehen zu erhalten.
Likewise, predictive equality measures if an ML model makes predictions with the same accuracy across various demographics, so no one is penalized simply for being part of a group. So in both cases, the ML model is not putting its thumb on the scale for equity reasons but only to ensure that groups are not being systematically discriminated against in any way. And that is an eminently sensible fix.
Ebenso misst die Vorhersagegleichheit, wenn ein ML -Modell über verschiedene demografische Merkmale hinweg Vorhersagen mit der gleichen Genauigkeit macht, sodass niemand einfach als Teil einer Gruppe bestraft wird. In beiden Fällen setzt das ML -Modell seinen Daumen aus Aktiengründen nicht auf die Skala, sondern nur um sicherzustellen, dass Gruppen in keiner Weise systematisch diskriminiert werden. Und das ist eine äußerst vernünftige Lösung.
Over the past year, the US government and other countries have issued statements and mandates around AI fairness and protecting the public from ML bias. Now, with a new administration in the US, there will likely be a different approach to AI fairness, shifting the focus back to equality of opportunity and away from equity.
Im vergangenen Jahr haben die US -Regierung und andere Länder Erklärungen und Mandate in Bezug auf die Fairness und den Schutz der Öffentlichkeit vor ML -Voreingenommenheit veröffentlicht. Mit einer neuen Verwaltung in den USA wird es jetzt wahrscheinlich einen anderen Ansatz für die KI -Fairness geben und den Fokus wieder in die Chancengleichheit und nicht von der Eigenkapital verändern.
As political landscapes change, so do the definitions of fairness in AI, moving between those focused on equity and those focused on opportunity. We are proponents of ML models that treat everyone equally without needing to put a thumb on the scale. And ZKPs can serve as an airtight way to verify that ML models are doing this without revealing private data.
Wenn sich die politischen Landschaften ändern, wenden Sie sich auch die Definitionen der Fairness in der KI und bewegen sich zwischen denjenigen, die sich auf Gerechtigkeit konzentrieren, und denjenigen, die sich auf Chancen konzentrieren. Wir sind Befürworter von ML -Modellen, die alle gleich behandeln, ohne einen Daumen auf die Skala zu setzen. Und ZKPS kann als luftdicht dienen, um zu überprüfen, ob ML -Modelle dies tun, ohne private Daten zu enthüllen.
While ZKPs have faced plenty of scalability challenges over the years, the technology is finally becoming more affordable for mainstream use cases. We can use ZKPs to verify training data integrity, protect privacy, and ensure the models we’re using are what they say they are.
Während ZKPS im Laufe der Jahre mit vielen Skalierbarkeitsproblemen konfrontiert war, wird die Technologie für Mainstream -Anwendungsfälle endgültig erschwinglicher. Wir können ZKPS verwenden, um die Integrität der Schulungsdaten zu überprüfen, die Privatsphäre zu schützen und sicherzustellen, dass die von uns verwendeten Modelle das sind, was sie sagen.
Haftungsausschluss:info@kdj.com
Die bereitgestellten Informationen stellen keine Handelsberatung dar. kdj.com übernimmt keine Verantwortung für Investitionen, die auf der Grundlage der in diesem Artikel bereitgestellten Informationen getätigt werden. Kryptowährungen sind sehr volatil und es wird dringend empfohlen, nach gründlicher Recherche mit Vorsicht zu investieren!
Wenn Sie glauben, dass der auf dieser Website verwendete Inhalt Ihr Urheberrecht verletzt, kontaktieren Sie uns bitte umgehend (info@kdj.com) und wir werden ihn umgehend löschen.
-
- Kraken arbeitet mit MasterCard zusammen, damit Benutzer ihre Krypto -Vermögenswerte bei 150 Millionen Händlern ausgeben können
- Apr 11, 2025 at 01:25 am
- Diese Partnerschaft kann ein historischer Schritt in der Zahlungsbranche sein, da Benutzer mit ihren Krypto-Beteiligungen für echte Waren und Dienstleistungen bezahlen können
-
- Bitcoin (BTC) könnte in diesem Jahr auf 250.000 US -Dollar steigen, da Microsoft (MSFT) und Apple (AAPL) die Crypto Arena betreten
- Apr 11, 2025 at 01:25 am
- Bitcoin (BTC), derzeit rund 81.000 US -Dollar, könnte bereits in diesem Jahr bis zu 250.000 US -Dollar steigen, wobei Tech -Giganten wie Microsoft (MSFT) und Apple (AAPL) die Crypto Arena betreten.
-
-
- Dogecoin (DOGE) Open Interesse (OI) übertrifft 1,9 Milliarden US -Dollar, Preiskundgebungen 5%
- Apr 11, 2025 at 01:20 am
- Diese Erhöhung des offenen Zinsen zeigt eine erhöhte Handelsaktivität an, ein Trend, der typischerweise wachsende Spekulationen und Interesse an den zukünftigen Preisbewegungen des Vermögenswerts widerspiegelt.
-
-
- Der Preis für Dogecoin ist in den letzten sieben Tagen über 10% gestiegen
- Apr 11, 2025 at 01:15 am
- Dieser Preisschub begann speziell am Wochenende, nachdem berichtet wurde, dass Donald Trumps mit Spannung erwartete Zölle am 2. April auf nur Sektoren beschränkt sein könnte und nicht so breit wie zuvor befürchtete.
-
-
-
- Ein Top -Entwickler des Shiba Inu -Projekts, Kaal Dhairya, hat ein Update über die Richtung des Shib -Ökosystems geteilt
- Apr 11, 2025 at 01:05 am
- Rollups werden verwendet, um den Netzwerkverkehr und niedrigere Gebühren zu verwalten, indem Transaktionen außerhalb des Kettens abwickelt und dann die Daten an die Hauptblockchain zurückversetzt werden.