시가총액: $2.5012T 1.900%
거래량(24시간): $148.6232B 6.620%
  • 시가총액: $2.5012T 1.900%
  • 거래량(24시간): $148.6232B 6.620%
  • 공포와 탐욕 지수:
  • 시가총액: $2.5012T 1.900%
암호화
주제
암호화
소식
cryptostopics
비디오
최고의 뉴스
암호화
주제
암호화
소식
cryptostopics
비디오
bitcoin
bitcoin

$81582.964513 USD

7.87%

ethereum
ethereum

$1608.086988 USD

13.28%

tether
tether

$0.999726 USD

0.05%

xrp
xrp

$1.980469 USD

12.45%

bnb
bnb

$574.061663 USD

5.17%

usd-coin
usd-coin

$0.999912 USD

-0.02%

solana
solana

$115.417458 USD

11.49%

dogecoin
dogecoin

$0.154518 USD

10.41%

tron
tron

$0.238185 USD

4.49%

cardano
cardano

$0.611545 USD

10.46%

unus-sed-leo
unus-sed-leo

$9.390006 USD

2.82%

chainlink
chainlink

$12.255909 USD

14.28%

toncoin
toncoin

$3.030692 USD

1.96%

avalanche
avalanche

$17.937379 USD

11.65%

stellar
stellar

$0.234331 USD

7.41%

암호화폐 뉴스 기사

당신의 AI가 편견이 없다고 믿을 수 있습니까? 작성자 : Rob Viglione

2025/04/03 23:24

최근의 연구 논문에 따르면 조금 더 복잡하다는 것을 시사합니다. 불행히도, 바이어스는 버그가 아니라 적절한 암호화 가드 레일이없는 지속적인 기능입니다.

Can you trust your AI to be unbiased? A recent research paper suggests it’s a little more complicated.

당신의 AI가 편견이 없다고 믿을 수 있습니까? 최근의 연구 논문에 따르면 조금 더 복잡하다는 것을 시사합니다.

Unfortunately, bias isn’t just a bug — it’s a persistent feature without proper cryptographic guardrails. A September 2024 study from Imperial College London shows how zero-knowledge proofs (ZKPs) can help companies verify that their machine learning (ML) models treat all demographic groups equally while still keeping model details and user data private.

불행히도, 바이어스는 버그가 아니라 적절한 암호화 가드 레일이없는 지속적인 기능입니다. 2024 년 9 월 Imperial College London의 연구에 따르면 제로 지식 증명 (ZKP)이 기업이 기계 학습 (ML) 모델이 모든 인구 통계 그룹을 동일하게 처리하면서 모델 세부 정보와 사용자 데이터를 비공개로 유지하는지 확인하는 방법을 보여줍니다.

We recently covered how ZKPs are being used to detect fraud and anomalies in financial transactions. But in this case, ZKPs can be applied to verify the fairness property of ML models.

우리는 최근 금융 거래에서 사기와 이상을 감지하는 데 ZKP가 어떻게 사용되는지에 대해 다루었습니다. 그러나이 경우 ZKP를 적용하여 ML 모델의 공정성을 확인할 수 있습니다.

When discussing "fairness," we're entering a complicated area. There are several mathematical definitions of fairness, and the preferred definition shifts with the political landscape. For instance, consider the US government's approach to fairness over the past two administrations.

"공정성"을 논의 할 때, 우리는 복잡한 지역으로 들어갑니다. 공정성에 대한 몇 가지 수학적 정의가 있으며, 선호하는 정의는 정치적 환경으로 이동합니다. 예를 들어, 지난 두 정부에 대한 미국 정부의 공정성 접근법을 고려하십시오.

The previous administration was focused on diversity, equity and inclusion. They used demographic parity as a key measure of fairness, aiming to ensure the output probability of a specific prediction is the same across different groups.

이전 행정부는 다양성, 형평성 및 포용에 중점을 두었습니다. 그들은 특정 예측의 출력 확률이 다른 그룹에서 동일하도록하는 것을 목표로 인구 통계 학적 패리티를 공정성의 주요 척도로 사용했습니다.

But as we integrate more ML models into critical systems like college admissions, home loans and future job prospects, we could use a little more reassurance that AI is treating us fairly.

그러나 더 많은 ML 모델을 대학 입학, 주택 융자 및 미래의 직무 전망과 같은 중요한 시스템에 통합함에 따라 AI가 우리를 공정하게 대우하고 있다는 확신을 조금 더 사용할 수 있습니다.

We need to be sure that any attestations of fairness keep the underlying ML models and training data confidential. They need to protect intellectual property and users’ privacy while providing enough access for users to know that their model is not discriminatory. Not an easy task.

우리는 공정성에 대한 증명이 기본 ML 모델과 훈련 데이터를 기밀로 유지하는지 확인해야합니다. 사용자가 모델이 차별적이지 않다는 것을 알 수있는 충분한 액세스를 제공하면서 지적 재산과 사용자의 개인 정보를 보호해야합니다. 쉬운 일이 아닙니다.

Enter, zero-knowledge proofs.

제로 지식 증거를 입력하십시오.

ZKML (zero knowledge machine learning) is how we use zero-knowledge proofs to verify that an ML model is what it says on the box. ZKML combines zero-knowledge cryptography with machine learning to create systems that can verify AI properties without exposing the underlying models or data. We can also take that concept and use ZKPs to identify ML models that treat everyone equally and fairly.

ZKML (Zero Knowledge Machine Learning)은 ML 모델이 상자에 표시되는지 확인하기 위해 제로 지식 증명을 사용하는 방법입니다. ZKML은 제로 지식 암호화를 기계 학습과 결합하여 기본 모델이나 데이터를 노출시키지 않고 AI 속성을 검증 할 수있는 시스템을 생성합니다. 우리는 또한 그 개념을 취하고 ZKP를 사용하여 모든 사람을 동등하고 공정하게 처리하는 ML 모델을 식별 할 수 있습니다.

Recently, we covered how ZKPs were becoming more efficient to perform at scale. Previously, using ZKPs to prove AI fairness was extremely limited because it could only focus on one phase of the ML pipeline. This made it possible for dishonest model providers to construct data sets that would satisfy the fairness requirements, even if the model failed to do so. The ZKPs would also introduce unrealistic computational demands and long wait times to produce proofs of fairness.

최근에, 우리는 ZKP가 어떻게 규모에 따라 성능을 발휘하는 방법을 다루었습니다. 이전에는 ZKP를 사용하여 AI 공정성을 증명하는 것이 ML 파이프 라인의 한 단계에만 초점을 맞출 수 있기 때문에 매우 제한적이었습니다. 이로 인해 부정직 한 모델 제공 업체는 모델이 실패하더라도 공정성 요구 사항을 충족시키는 데이터 세트를 구성 할 수있었습니다. ZKPS는 또한 비현실적인 계산 요구와 오랜 대기 시간을 소개하여 공정성의 증거를 생성 할 것입니다.

But in recent months, ZK frameworks have become more efficient to scale ZKPs to be able to perform synthesis tasks like quickly generating diverse pieces of content or merging large amounts of data. This makes it possible to integrate ZKPs to detect fraud or anomalies in financial transactions, which is a critical step toward large-scale adoption.

그러나 최근 몇 달 동안 ZK 프레임 워크는 ZKP를 확장하여 다양한 컨텐츠를 신속하게 생성하거나 대량의 데이터를 병합하는 것과 같은 합성 작업을 수행 할 수 있도록 더욱 효율적이었습니다. 이를 통해 ZKP를 통합하여 금융 거래에서 사기 또는 이상을 감지 할 수 있습니다. 이는 대규모 채택을 향한 중요한 단계입니다.

So how do we measure whether an AI is fair? Let's break down three of the most common group fairness definitions:

그렇다면 AI가 공정한지 어떻게 측정합니까? 가장 일반적인 그룹 공정성 정의 중 세 가지를 세분화합시다.

* Demographic parity

* 인구 통계 학적 패리티

* Equality of opportunity

* 기회의 평등

* Predictive equality

* 예측 평등

As we mentioned, diversity, equity and inclusion departments often use demographic parity as a measurement to attempt to reflect the demographics of a population in a company's workforce. It's not the ideal fairness metric for ML models because it's used to measure the probability of a specific prediction. For example, we wouldn't necessarily expect that every group will have the same outcomes.

우리가 언급했듯이, 다양성, 형평성 및 포함 부서는 종종 인구 통계 학적 패리티를 회사의 인구 인구의 인구 통계를 반영하기위한 측정으로 사용합니다. 특정 예측 확률을 측정하는 데 사용되기 때문에 ML 모델의 이상적인 공정성 지표는 아닙니다. 예를 들어, 우리는 반드시 모든 그룹이 동일한 결과를 가질 것으로 기대하지는 않습니다.

Equality of opportunity is easy for most people to understand. It gives every group the same chance to have a positive outcome, assuming they are equally qualified. For instance, it is not optimizing for outcomes — only that every demographic should have the same opportunity to get a job or a home loan.

기회의 평등은 대부분의 사람들이 이해하기 쉽습니다. 그것은 모든 그룹이 똑같이 자격을 갖추고 있다고 가정 할 때 긍정적 인 결과를 얻을 수있는 동일한 기회를 제공합니다. 예를 들어, 결과에 대한 최적화는 아닙니다. 모든 인구 통계는 구직이나 주택 융자를받을 수있는 동일한 기회가 있어야합니다.

Likewise, predictive equality measures if an ML model makes predictions with the same accuracy across various demographics, so no one is penalized simply for being part of a group. So in both cases, the ML model is not putting its thumb on the scale for equity reasons but only to ensure that groups are not being systematically discriminated against in any way. And that is an eminently sensible fix.

마찬가지로, 예측 평등 측정 ML 모델이 다양한 인구 통계에서 동일한 정확도로 예측을하는 경우, 단순히 그룹의 일원으로서 단순히 처벌을받지 않습니다. 따라서 두 경우 모두 ML 모델은 지분의 이유로 척도에 엄지 손가락을 넣는 것이 아니라 그룹이 어떤 식 으로든 체계적으로 차별되지 않도록하기 위해서만 있습니다. 그리고 그것은 눈에 띄게 현명한 수정입니다.

Over the past year, the US government and other countries have issued statements and mandates around AI fairness and protecting the public from ML bias. Now, with a new administration in the US, there will likely be a different approach to AI fairness, shifting the focus back to equality of opportunity and away from equity.

지난 한 해 동안 미국 정부와 다른 국가들은 AI 공정성에 대한 진술과 명령을 발표하고 ML 편견으로부터 대중을 보호했습니다. 이제 미국의 새로운 행정부로 인해 AI 공정성에 대한 다른 접근이있을 것입니다.

As political landscapes change, so do the definitions of fairness in AI, moving between those focused on equity and those focused on opportunity. We are proponents of ML models that treat everyone equally without needing to put a thumb on the scale. And ZKPs can serve as an airtight way to verify that ML models are doing this without revealing private data.

정치적 풍경이 변함에 따라 AI의 공정성의 정의도 바뀌면서 공평에 중점을 둔 사람들과 기회에 중점을 둔 사람들 사이를 이동합니다. 우리는 스케일에 엄지 손가락을 넣지 않고도 모든 사람을 동등하게 대우하는 ML 모델의 지지자입니다. ZKP는 개인 데이터를 공개하지 않고 ML 모델이이를 수행하고 있는지 확인하는 밀폐적인 방법으로 사용될 수 있습니다.

While ZKPs have faced plenty of scalability challenges over the years, the technology is finally becoming more affordable for mainstream use cases. We can use ZKPs to verify training data integrity, protect privacy, and ensure the models we’re using are what they say they are.

ZKP는 수년 동안 많은 확장 성 문제에 직면했지만,이 기술은 마침내 주류 사용 사례에 더 저렴 해지고 있습니다. 우리는 ZKP를 사용하여 교육 데이터 무결성을 확인하고 개인 정보를 보호하며 우리가 사용하는 모델이 그들이 말하는 모델인지 확인할 수 있습니다.

부인 성명:info@kdj.com

제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!

본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.

2025年04月11日 에 게재된 다른 기사