bitcoin
bitcoin

$88024.37 USD 

-3.09%

ethereum
ethereum

$3107.88 USD 

-2.81%

tether
tether

$1.00 USD 

-0.11%

solana
solana

$214.13 USD 

-0.03%

bnb
bnb

$634.72 USD 

2.60%

dogecoin
dogecoin

$0.386609 USD 

-1.25%

xrp
xrp

$0.776918 USD 

12.35%

usd-coin
usd-coin

$0.999697 USD 

-0.04%

cardano
cardano

$0.560227 USD 

-3.31%

tron
tron

$0.177756 USD 

0.62%

shiba-inu
shiba-inu

$0.000025 USD 

-2.28%

toncoin
toncoin

$5.36 USD 

2.01%

avalanche
avalanche

$31.95 USD 

-3.02%

sui
sui

$3.36 USD 

2.67%

pepe
pepe

$0.000022 USD 

15.24%

암호화폐 뉴스 기사

잘못된 AI 생성 데이터로 인해 OpenAI가 개인정보 보호 침해를 당했습니다.

2024/04/29 16:04

오스트리아 데이터 보호 그룹 Noyb는 OpenAI의 ChatGPT 챗봇이 허위 정보를 제공하고 이를 수정하거나 삭제하는 것을 거부한다고 주장하면서 OpenAI를 상대로 개인 정보 보호 불만 사항을 제기했습니다. 고소장은 OpenAI의 행동이 EU 개인 정보 보호 규칙을 위반한다고 주장하며 AI 생성 데이터의 정확성과 투명성에 대한 우려를 강조합니다. Noyb는 오스트리아 데이터 보호 당국에 OpenAI의 데이터 처리 관행을 조사하고 EU 법률 준수를 보장할 것을 촉구했습니다.

잘못된 AI 생성 데이터로 인해 OpenAI가 개인정보 보호 침해를 당했습니다.

OpenAI Faces Privacy Complaint Over Alleged Inaccurate and Untraceable AI-Generated Data

OpenAI, 부정확하고 추적 불가능한 AI 생성 데이터로 인해 개인 정보 보호 불만 제기

In a groundbreaking move, the data rights protection advocacy group Noyb has filed a complaint against OpenAI, the renowned artificial intelligence (AI) developer, alleging violations of privacy rules within the European Union (EU). The complaint stems from concerns over incorrect information provided by OpenAI's generative AI chatbot, ChatGPT, and the company's alleged refusal to address or provide transparency into its data handling practices.

데이터 권리 보호 옹호 단체인 Noyb는 획기적인 인공 지능(AI) 개발사인 OpenAI를 유럽 연합(EU) 내 개인 정보 보호 규칙 위반 혐의로 고소장을 제출했습니다. 이 불만 사항은 OpenAI의 생성 AI 챗봇인 ChatGPT가 제공하는 잘못된 정보에 대한 우려와 회사가 데이터 처리 관행에 대한 투명성을 언급하거나 제공하는 것을 거부했다는 주장에서 비롯되었습니다.

According to Noyb, the complainant, an unnamed public figure, sought information about themselves from ChatGPT, only to receive repeated instances of inaccurate data. Upon requesting corrections or erasure of the erroneous information, OpenAI reportedly denied their request, claiming it was not feasible. Furthermore, OpenAI declined to disclose details about the training data used for ChatGPT and its sources.

Noyb에 따르면 익명의 공인인 신고자는 ChatGPT에서 자신에 대한 정보를 찾았지만 부정확한 데이터가 반복적으로 수신되었습니다. 잘못된 정보에 대한 정정이나 삭제를 요청하자 오픈AI는 불가능하다며 요청을 거부한 것으로 알려졌다. 또한 OpenAI는 ChatGPT 및 해당 소스에 사용되는 교육 데이터에 대한 세부 정보 공개를 거부했습니다.

Maartje de Graaf, a data protection lawyer at Noyb, expressed the group's concerns in a statement: "If a system cannot produce accurate and transparent results, it cannot be used to generate data about individuals. The technology has to follow the legal requirements, not the other way around."

Noyb의 데이터 보호 변호사인 Maartje de Graaf는 성명을 통해 다음과 같이 그룹의 우려를 표명했습니다. "시스템이 정확하고 투명한 결과를 생성할 수 없다면 개인에 대한 데이터를 생성하는 데 사용할 수 없습니다. 기술은 법적 요구 사항을 따라야 합니다. 그 반대야."

The complaint underscores the growing scrutiny faced by AI-driven language models, particularly regarding their potential implications for data privacy and accuracy. Noyb has taken its case to the Austrian data protection authority, requesting an investigation into OpenAI's data processing practices and the measures it employs to ensure the accuracy of personal data processed by its large language models.

이 불만 사항은 특히 데이터 개인 정보 보호 및 정확성에 대한 잠재적인 영향과 관련하여 AI 기반 언어 모델이 직면하고 있는 조사가 증가하고 있음을 강조합니다. Noyb는 오스트리아 데이터 보호 당국에 OpenAI의 데이터 처리 관행과 대규모 언어 모델에서 처리되는 개인 데이터의 정확성을 보장하기 위해 채택하는 조치에 대한 조사를 요청했습니다.

"It's clear that companies are currently unable to make chatbots like ChatGPT comply with EU law when processing data about individuals," de Graaf stated.

de Graaf는 "기업이 현재 ChatGPT와 같은 챗봇이 개인에 대한 데이터를 처리할 때 EU 법률을 준수하도록 할 수 없다는 것은 분명합니다."라고 말했습니다.

Noyb, also known as the European Center for Digital Rights, is based in Vienna, Austria, and has been instrumental in pursuing legal actions and media initiatives to uphold the EU's General Data Protection Regulation (GDPR) laws.

유럽 ​​디지털 권리 센터로도 알려진 Noyb는 오스트리아 비엔나에 본사를 두고 있으며 EU의 일반 데이터 보호 규정(GDPR) 법률을 준수하기 위한 법적 조치와 미디어 이니셔티브를 추구하는 데 중요한 역할을 해왔습니다.

The complaint against OpenAI is not an isolated incident. In December 2023, a study conducted by two European nonprofit organizations exposed inaccuracies and misleading information provided by Microsoft's Bing AI chatbot, rebranded as Copilot, during political elections in Germany and Switzerland. The chatbot furnished incorrect details about candidates, polls, scandals, and voting procedures, while misrepresenting its sources.

OpenAI에 대한 불만은 고립된 사건이 ​​아닙니다. 2023년 12월, 두 개의 유럽 비영리 단체가 실시한 연구에서는 독일과 스위스의 선거 기간 동안 Copilot으로 브랜드 변경된 Microsoft의 Bing AI 챗봇이 제공한 부정확하고 오해의 소지가 있는 정보를 노출했습니다. 챗봇은 후보자, 여론 조사, 스캔들, 투표 절차에 대한 잘못된 세부 정보를 제공하고 출처를 허위로 표시했습니다.

Furthermore, Google faced criticism for its Gemini AI chatbot's "woke" and inaccurate image generation capabilities. The company apologized for the incident and announced plans to refine its model.

또한 Google은 Gemini AI 챗봇의 '깨어나기'와 부정확한 이미지 생성 기능으로 인해 비판을 받았습니다. 회사는 이번 사건에 대해 사과하고 모델을 개선할 계획을 발표했습니다.

These incidents highlight the urgent need for greater transparency, accountability, and adherence to legal frameworks by companies developing and deploying AI-powered chatbots. The potential for misuse of personal data, dissemination of misinformation, and algorithmic bias calls for robust regulatory oversight and ethical considerations to safeguard individuals' privacy rights in the digital age.

이러한 사건은 AI 기반 챗봇을 개발하고 배포하는 기업의 투명성, 책임성 및 법적 프레임워크 준수에 대한 시급한 필요성을 강조합니다. 개인 데이터의 오용, 잘못된 정보 유포, 알고리즘 편견의 가능성은 디지털 시대에 개인의 개인 정보 보호 권리를 보호하기 위한 강력한 규제 감독과 윤리적 고려를 요구합니다.

부인 성명:info@kdj.com

제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!

본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.

2024年11月15日 에 게재된 다른 기사