![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
イーサリアム共同創設者のヴィタリック・ブテリン氏は、AI超知能が台頭しつつある危険な形態を引き合いに出し、「人類のためにより多くの時間を稼ぐ」ためだけに、世界中でアクセス可能な計算リソースを一時的に停止することを提案した。
Highlighting the pressing danger posed by superintelligent AI, Ethereum co-founder Vitalik Buterin has proposed drastic measures to curb its development. In a recent blog post, Buterin argues that we have only five years before the arrival of super-intelligent AI, and there's no assurance that its impact will be beneficial.
イーサリアムの共同創設者ヴィタリック・ブテリン氏は、超知能AIがもたらす差し迫った危険性を強調し、その発展を抑制するための抜本的な対策を提案した。最近のブログ投稿で、ブテリン氏は、超インテリジェント AI の登場まであと 5 年しかなく、その影響が有益であるという保証はないと主張しています。
To address this critical juncture, Buterin proposes a "soft pause" on industrial-scale computer hardware, presenting it as an alternative to halting AI development entirely. He suggests reducing global computing power by 99% for one or two years to "buy more time for humanity to prepare."
この重大な岐路に対処するために、ブテリン氏は産業規模のコンピューターハードウェアの「ソフト一時停止」を提案し、AI開発を完全に停止する代替案として提示している。同氏は、「人類が準備するための時間を稼ぐ」ために、世界のコンピューティング能力を1~2年間99%削減することを提案している。
In his view, his initial post introducing "defensive accelerationism" (d/acc) included only "vague appeals to avoid building risky forms of superintelligence." Now, he aims to present more concrete thoughts on tackling scenarios "where AI risk is high."
同氏の見解では、「防衛的加速主義」(d/acc)を導入した最初の投稿には、「危険な形態の超知性の構築を避けるという漠然とした訴え」しか含まれていなかったという。同氏は現在、「AIのリスクが高い」シナリオへの取り組みについて、より具体的な考えを提示することを目指している。
Buterin also weighs in on regulating the AI industry, proposing a hardware "soft pause" only if convinced that liability rules alone are insufficient. Under such rules, individuals or organizations using, deploying, or developing AI could be held legally accountable for damages caused by their models.
ブテリン氏はAI業界の規制にも力を入れており、責任規定だけでは不十分だと確信した場合にのみハードウェアの「ソフト一時停止」を提案している。このような規則の下では、AI を使用、導入、開発している個人や組織は、そのモデルによって生じた損害に対して法的責任を問われる可能性があります。
He highlights proposals for monitoring AI development, such as identifying the physical locations of AI chips and mandating their registration. To control industrial-scale AI hardware, Buterin suggests integrating chips that require weekly authorization from three major international bodies.
同氏は、AIチップの物理的な位置を特定し、その登録を義務付けるなど、AI開発を監視するための提案を強調している。ブテリン氏は、産業規模の AI ハードウェアを制御するために、3 つの主要な国際機関からの毎週の承認を必要とするチップを統合することを提案しています。
"The signatures would be device-independent (if desired, we could even require a zero-knowledge proof that they were published on a blockchain), so it would be all-or-nothing. There would be no practical way to authorize one device to keep running without authorizing all other devices," Buterin explains.
「署名はデバイスに依存しないため(必要に応じて、署名がブロックチェーン上に公開されていることを示すゼロ知識証明を要求することもできます)、したがって、それは全か無になるでしょう。1 つのデバイスを認証する実用的な方法はありません。」他のすべてのデバイスを認証せずに実行を続けるためです」と Buterin 氏は説明します。
The d/acc concept, endorsed by Buterin, promotes a cautious and measured approach to technological development, contrasting with effective accelerationism (e/acc), which advocates for rapid and unrestricted technological advancements.
ブテリン氏が支持する d/acc コンセプトは、技術開発に対する慎重かつ慎重なアプローチを促進し、急速かつ無制限の技術進歩を主張する効果的加速主義 (e/acc) とは対照的です。
免責事項:info@kdj.com
提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。
このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。