|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
オーストリアのデータ保護団体Noybは、同社のChatGPTチャットボットが虚偽の情報を提供し、その修正や消去を拒否しているとして、OpenAIに対してプライバシー侵害の申し立てを行った。訴状では、OpenAIの行為がEUのプライバシー規則に違反していると主張し、AIが生成したデータの正確性と透明性に対する懸念を浮き彫りにしている。 Noyb氏はオーストリアのデータ保護当局に対し、OpenAIのデータ処理慣行を調査し、EU法の遵守を徹底するよう求めた。
OpenAI Faces Privacy Complaint Over Alleged Inaccurate and Untraceable AI-Generated Data
OpenAI、AIが生成した不正確で追跡不可能なデータの疑いでプライバシー侵害の申し立てに直面
In a groundbreaking move, the data rights protection advocacy group Noyb has filed a complaint against OpenAI, the renowned artificial intelligence (AI) developer, alleging violations of privacy rules within the European Union (EU). The complaint stems from concerns over incorrect information provided by OpenAI's generative AI chatbot, ChatGPT, and the company's alleged refusal to address or provide transparency into its data handling practices.
画期的な動きとして、データ権利保護擁護団体 Noyb は、欧州連合 (EU) 内のプライバシー規則に違反しているとして、有名な人工知能 (AI) 開発者である OpenAI に対して告訴状を提出しました。この苦情は、OpenAI の生成 AI チャットボットである ChatGPT によって提供される不正確な情報に対する懸念と、同社がデータ処理慣行への対応や透明性の提供を拒否しているとの懸念から生じています。
According to Noyb, the complainant, an unnamed public figure, sought information about themselves from ChatGPT, only to receive repeated instances of inaccurate data. Upon requesting corrections or erasure of the erroneous information, OpenAI reportedly denied their request, claiming it was not feasible. Furthermore, OpenAI declined to disclose details about the training data used for ChatGPT and its sources.
Noyb氏によると、告訴人は匿名の公人であり、ChatGPTから自分自身に関する情報を求めたが、不正確なデータを繰り返し受け取ったという。伝えられるところによると、OpenAIは誤った情報の修正または削除を要求したが、それは不可能であると主張して要求を拒否した。さらに、OpenAIはChatGPTに使用されたトレーニングデータとそのソースに関する詳細を開示することを拒否した。
Maartje de Graaf, a data protection lawyer at Noyb, expressed the group's concerns in a statement: "If a system cannot produce accurate and transparent results, it cannot be used to generate data about individuals. The technology has to follow the legal requirements, not the other way around."
Noyb社のデータ保護弁護士Maartje de Graaf氏は声明で同団体の懸念を表明し、「システムが正確かつ透明性のある結果を生成できない場合、そのシステムを個人に関するデータの生成に使用することはできない。テクノロジーは法的要件に従わなければならないが、法的要件に従わなければならない」と述べた。逆に。"
The complaint underscores the growing scrutiny faced by AI-driven language models, particularly regarding their potential implications for data privacy and accuracy. Noyb has taken its case to the Austrian data protection authority, requesting an investigation into OpenAI's data processing practices and the measures it employs to ensure the accuracy of personal data processed by its large language models.
この訴状は、特にデータのプライバシーと正確性に対する潜在的な影響に関して、AI 駆動型の言語モデルに直面する厳しい監視が高まっていることを強調しています。 Noybはオーストリアのデータ保護当局に訴訟を起こし、OpenAIのデータ処理慣行と、大規模な言語モデルによって処理される個人データの正確性を確保するために同社が採用している対策についての調査を要求した。
"It's clear that companies are currently unable to make chatbots like ChatGPT comply with EU law when processing data about individuals," de Graaf stated.
「現在、企業が個人に関するデータを処理する際に、ChatGPTのようなチャットボットをEU法に準拠させることができないのは明らかだ」とデグラーフ氏は述べた。
Noyb, also known as the European Center for Digital Rights, is based in Vienna, Austria, and has been instrumental in pursuing legal actions and media initiatives to uphold the EU's General Data Protection Regulation (GDPR) laws.
Noyb は欧州デジタル著作権センターとしても知られ、オーストリアのウィーンに拠点を置き、EU の一般データ保護規則 (GDPR) 法を遵守するための法的措置やメディアの取り組みの推進に貢献してきました。
The complaint against OpenAI is not an isolated incident. In December 2023, a study conducted by two European nonprofit organizations exposed inaccuracies and misleading information provided by Microsoft's Bing AI chatbot, rebranded as Copilot, during political elections in Germany and Switzerland. The chatbot furnished incorrect details about candidates, polls, scandals, and voting procedures, while misrepresenting its sources.
OpenAI に対する苦情は、単独の事件ではありません。 2023年12月、ヨーロッパの2つの非営利団体が実施した調査で、ドイツとスイスの政治選挙中にMicrosoftのBing AIチャットボット(Copilotに改名)が提供した不正確さと誤解を招く情報が明らかになった。このチャットボットは、候補者、世論調査、スキャンダル、投票手順に関する不正確な詳細を提供し、情報源を偽って伝えました。
Furthermore, Google faced criticism for its Gemini AI chatbot's "woke" and inaccurate image generation capabilities. The company apologized for the incident and announced plans to refine its model.
さらに、Google は、Gemini AI チャットボットの「目覚めた」不正確な画像生成機能に対して批判に直面しました。同社はこの事件について謝罪し、モデルを改良する計画を発表した。
These incidents highlight the urgent need for greater transparency, accountability, and adherence to legal frameworks by companies developing and deploying AI-powered chatbots. The potential for misuse of personal data, dissemination of misinformation, and algorithmic bias calls for robust regulatory oversight and ethical considerations to safeguard individuals' privacy rights in the digital age.
これらの事件は、AI を活用したチャットボットを開発および導入する企業による透明性、説明責任、および法的枠組みの遵守の向上が緊急に必要であることを浮き彫りにしています。個人データの悪用、誤った情報の流布、およびアルゴリズムによるバイアスの可能性があるため、デジタル時代における個人のプライバシーの権利を保護するためには、強力な規制監督と倫理的配慮が必要です。
免責事項:info@kdj.com
提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。
このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。