bitcoin
bitcoin

$75667.81 USD 

8.50%

ethereum
ethereum

$2717.95 USD 

11.64%

tether
tether

$1.00 USD 

0.07%

solana
solana

$187.14 USD 

12.03%

bnb
bnb

$591.53 USD 

4.49%

usd-coin
usd-coin

$0.999833 USD 

-0.02%

xrp
xrp

$0.543097 USD 

5.57%

dogecoin
dogecoin

$0.197041 USD 

14.44%

tron
tron

$0.162530 USD 

1.41%

cardano
cardano

$0.362662 USD 

8.31%

toncoin
toncoin

$4.79 USD 

1.55%

shiba-inu
shiba-inu

$0.000019 USD 

6.39%

avalanche
avalanche

$27.03 USD 

12.28%

chainlink
chainlink

$12.16 USD 

11.71%

bitcoin-cash
bitcoin-cash

$379.00 USD 

10.02%

暗号通貨のニュース記事

人工知能のすばらしい新世界: ワシントンは安全保障とプライバシーに関する緊急の警鐘を鳴らしています

2024/03/31 08:48

AI の新たな状況では、セキュリティ、プライバシー、生成 AI モデルの完全性に関して根本的な懸念が生じています。包括的なトレーニング データ検証の欠如、セキュリティ対策の欠如、無差別なデータ取り込みは、重大なリスクをもたらします。モデルが膨大なデータセットに依存しているため、プライバシーへの懸念が高まり、動的な会話プロンプトの保護、雇用主の機密保持、悪意のあるコンテンツがトレーニング データに侵入する可能性についての懸念が生じています。

人工知能のすばらしい新世界: ワシントンは安全保障とプライバシーに関する緊急の警鐘を鳴らしています

AI's Brave New World: Sounding the Alarm on Security and Privacy

AI のすばらしい新世界: セキュリティとプライバシーに警鐘を鳴らす

In the vibrant heart of Washington, D.C., a sobering conversation unfolded last week, a discussion that laid bare the profound implications of artificial intelligence (AI) on the pillars of security and privacy.

活気に満ちたワシントン D.C. の中心部で先週、身の引き締まるような会話が繰り広げられました。その議論では、セキュリティとプライバシーの柱に対する人工知能 (AI) の重大な影響が明らかになりました。

As the echoes of academic laboratories and venture capital chambers reverberate through the corridors of progress, the unbridled enthusiasm surrounding generative AI is reminiscent of the nascent days of the internet. However, this time, the speed with which we are hurtling towards AI's "Brave New World" is fueled by the relentless ambition of vendors, the sirens of minor-league venture capital, and the amplification of Twitter echo chambers.

学術研究室やベンチャー キャピタル会議室のこだまが進歩の回廊に響き渡り、生成 AI を取り巻く抑制のない熱意はインターネットの黎明期を思い出させます。しかし今回は、ベンダーの容赦ない野心、マイナーリーグのベンチャーキャピタルのサイレン、そしてTwitterのエコーチェンバーの増幅によって、私たちがAIの「すばらしい新世界」に向けて猛スピードで突き進んでいる。

Therein lies the genesis of our current predicament. The so-called "public" foundation models upon which generative AI rests are marred by blemishes that render them both unreliable and unsuitable for widespread consumer and commercial use. Privacy protections, when they exist at all, are riddled with holes, leaking sensitive data like a sieve. Security constructs are a work in progress, with the sprawling attack surface and the myriad threat vectors still largely unexplored. And as for the illusory guardrails, the less said, the better.

そこに私たちの現在の苦境の根源があります。生成 AI の基盤となるいわゆる「パブリック」基盤モデルは、信頼性が低く、広範な消費者や商用利用に適さない欠陥によって損なわれています。プライバシー保護は、たとえ存在したとしても穴だらけで、機密データがふるいのように漏洩します。セキュリティ構造は進行中の作業であり、無秩序に広がる攻撃対象領域と無数の脅威ベクトルはまだほとんど調査されていません。そして、幻のガードレールについては、あまり言われない方が良いのです。

How did we arrive at this precarious juncture? How did security and privacy become casualties on the path to AI's brave new world?

私たちはどのようにしてこの不安定な岐路に到達したのでしょうか? AI のすばらしい新世界への道において、セキュリティとプライバシーはどのようにして犠牲になったのでしょうか?

Tainted Foundation Models: A Pandora's Box of Data

汚染された財団モデル: データのパンドラの箱

The very foundation of generative AI is built upon a shaky ground, as these so-called "open" models are anything but. Vendors tout varying degrees of openness, granting access to model weights, documentation, or test data. Yet, none provide the critical training data sets, their manifests, or lineage, rendering it impossible to replicate or reproduce their models.

これらのいわゆる「オープン」モデルは決してそうではなく、生成 AI の基盤そのものが不安定な基盤の上に構築されています。ベンダーは、モデルの重み、ドキュメント、またはテスト データへのアクセスを許可するなど、さまざまな程度のオープン性を宣伝しています。しかし、重要なトレーニング データ セット、そのマニフェスト、またはリネージュを提供するものはなく、そのモデルを複製または再現することは不可能です。

This lack of transparency means that consumers and organizations using these models have no way of verifying or validating the data they ingest, exposing themselves to potential copyright infringements, illegal content, and malicious code. Moreover, without a manifest of the training data sets, there is no way to ascertain whether nefarious actors have planted trojan horse content, leading to unpredictable and potentially devastating consequences when the models are deployed.

この透明性の欠如は、これらのモデルを使用する消費者や組織が取り込んだデータを検証または検証する方法がないことを意味し、潜在的な著作権侵害、違法なコンテンツ、悪意のあるコードにさらされることになります。さらに、トレーニング データ セットのマニフェストがなければ、悪意のある攻撃者がトロイの木馬コンテンツを植え付けたかどうかを確認する方法がなく、モデルの展開時に予測不可能で潜在的に壊滅的な結果につながる可能性があります。

Once a model is compromised, there is no going back. The only recourse is to obliterate it, a costly and irreversible solution.

モデルが侵害されると、元に戻すことはできません。唯一の手段はそれを消去することですが、これは費用がかかり、取り返しのつかない解決策です。

Porous Security: A Hacker's Paradise

多孔質のセキュリティ: ハッカーの楽園

Generative AI models are veritable security honeypots, with all data amalgamated into a single, vulnerable container. This creates an unprecedented array of attack vectors, leaving the industry grappling with the daunting task of safeguarding these models from cyber threats and preventing their exploitation as tools of malicious actors.

生成 AI モデルは、すべてのデータが単一の脆弱なコンテナーに統合された、正真正銘のセキュリティ ハニーポットです。これにより、前例のない一連の攻撃ベクトルが生み出され、業界はこれらのモデルをサイバー脅威から守り、悪意のある攻撃者のツールとして悪用されるのを防ぐという困難な課題に取り組むことになります。

Attackers can poison the index, corrupt the weights, extract sensitive data, and even determine whether specific data was used in the training set. These are but a fraction of the security risks that lurk within the shadows of generative AI.

攻撃者はインデックスを汚染し、重みを破壊し、機密データを抽出し、さらには特定のデータがトレーニング セットで使用されたかどうかを判断する可能性があります。これらは、生成 AI の影に潜むセキュリティ リスクのほんの一部にすぎません。

State-sponsored cyber activities are a further source of concern, as malicious actors can embed trojan horses and other cyber threats within the vast data sets that AI models consume. This poses a serious threat to national security and the integrity of critical infrastructure.

AI モデルが消費する膨大なデータ セット内に悪意のある攻撃者がトロイの木馬やその他のサイバー脅威を埋め込む可能性があるため、国家主導のサイバー活動もさらなる懸念材料となっています。これは国家安全保障と重要なインフラの完全性に対して深刻な脅威をもたらします。

Leaky Privacy: A Constant Flow of Data

漏洩するプライバシー: 絶え間ないデータの流れ

The very strength of AI models, their ability to learn from vast data sets, is also their greatest vulnerability when it comes to privacy. The indiscriminate ingestion of data, often without regard for consent or confidentiality, creates unprecedented privacy risks for individuals and society as a whole.

AI モデルのまさに強みである膨大なデータセットから学習する能力は、プライバシーに関しては最大の脆弱性でもあります。多くの場合、同意や機密性を無視した無差別なデータの取り込みは、個人と社会全体に前例のないプライバシー リスクを引き起こします。

In an era defined by AI, privacy has become a societal imperative, and regulations focused solely on individual data rights are woefully inadequate. Beyond static data, it is crucial to safeguard dynamic conversational prompts as intellectual property. These prompts, which guide the creative output of AI models, should not be used to train the model or shared with other users.

AI によって定義された時代において、プライバシーは社会的義務となっており、個人のデータの権利のみに焦点を当てた規制はひどく不十分です。静的なデータを超えて、動的な会話プロンプトを知的財産として保護することが重要です。 AI モデルのクリエイティブな出力をガイドするこれらのプロンプトは、モデルのトレーニングに使用したり、他のユーザーと共有したりしないでください。

Similarly, employers have a vested interest in protecting the confidentiality of prompts and responses generated by employees using AI models. In the event of liability issues, a secure audit trail is essential to establish the provenance and intent behind these interactions.

同様に、雇用主は、AI モデルを使用して従業員が生成したプロンプトと応答の機密性を保護することに既得権益を持っています。責任問題が発生した場合、これらのやり取りの背後にある出所と意図を確立するには、安全な監査証跡が不可欠です。

A Call to Action: Regulators and Policymakers Must Step In

行動喚起: 規制当局と政策立案者は介入する必要がある

The technology we are grappling with is unlike anything we have encountered before in the history of computing. AI exhibits emergent, latent behavior at scale, rendering traditional approaches to security, privacy, and confidentiality obsolete.

私たちが取り組んでいるテクノロジーは、コンピューティングの歴史の中でこれまでに出会ったことのないものです。 AI は、創発的な潜在的な動作を大規模に示し、セキュリティ、プライバシー、機密性に対する従来のアプローチを時代遅れにします。

Industry leaders have acted with reckless abandon, leaving regulators and policymakers with no choice but to intervene. It is imperative that governments establish clear guidelines and regulations to govern the development and deployment of generative AI, with a particular focus on addressing the pressing concerns of security and privacy.

業界リーダーらは無謀な行動をとったため、規制当局や政策立案者には介入せざるを得なくなった。政府が生成 AI の開発と展開を管理するための明確なガイドラインと規制を確立し、特にセキュリティとプライバシーの差し迫った懸念に対処することが不可欠です。

Conclusion

結論

The Brave New World of AI holds immense promise, but it is imperative that we proceed with caution, ensuring that our pursuit of progress does not come at the expense of our security and privacy. The time for complacency has passed. It is time for regulators, policymakers, and the technology industry to work together to establish a robust framework that safeguards these fundamental rights in the age of AI.

AI のすばらしい新世界には大きな可能性が秘められていますが、進歩の追求が私たちのセキュリティとプライバシーを犠牲にしないように、慎重に進めることが不可欠です。自己満足の時代は終わりました。規制当局、政策立案者、テクノロジー業界が協力して、AI 時代におけるこれらの基本的権利を守る強固な枠組みを確立する時期が来ています。

免責事項:info@kdj.com

提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。

このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。

2024年11月07日 に掲載されたその他の記事