|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Apple が人工知能に最適化されていると約束した iPhone 16 の最近のリリースにより、AI が公式に最優先事項であることは明らかです
With the recent release of the iPhone 16, which Apple has promised is optimized for artificial intelligence, it’s clear that AI is officially front of mind, once again, for the average consumer. Yet the technology still remains rather limited compared with the vast abilities the most forward-thinking AI technologists anticipate will be achievable in the near future.
Apple が人工知能に最適化されていると約束した iPhone 16 の最近のリリースにより、一般消費者にとって AI が再び公式に最優先事項となっているのは明らかです。しかし、最も先進的な AI 技術者が近い将来に達成可能だと予想している膨大な能力に比べれば、このテクノロジーは依然としてかなり限定的なものです。
As much excitement as there still is around the technology, many still fear the potentially negative consequences of integrating it so deeply into society. One common concern is that a sufficiently advanced AI could determine humanity to be a threat and turn against us all, a scenario imagined in many science fiction stories. However, according to a leading AI researcher, most people’s concerns can be alleviated by decentralizing and democratizing AI’s development.
このテクノロジーをめぐる興奮は依然として残っていますが、多くの人は依然として、テクノロジーを社会に深く統合することによる潜在的な悪影響を懸念しています。共通の懸念の 1 つは、十分に進歩した AI が人類を脅威と判断し、私たち全員に敵対する可能性があるということであり、これは多くの SF 物語で想像されるシナリオです。しかし、一流の AI 研究者によると、ほとんどの人々の懸念は、AI の開発を分散化および民主化することで軽減できるとのことです。
On Episode 46 of The Agenda podcast, hosts Jonathan DeYoung and Ray Salmond separate fact from fiction by speaking with Ben Goertzel, the computer scientist and researcher who first popularized the term “artificial general intelligence,” or AGI. Goertzel currently serves as the CEO of SingularityNET and the ASI Alliance, where he leads the projects’ efforts to develop the world’s first AGI.
ポッドキャスト「The Agenda」のエピソード 46 では、司会者のジョナサン・デヤングとレイ・サモンドが、「汎用人工知能 (AGI)」という用語を最初に広めたコンピューター科学者で研究者のベン・ゲルツェルと話し、事実とフィクションを区別します。 Goertzel は現在、SingularityNET および ASI Alliance の CEO を務めており、世界初の AGI を開発するプロジェクトの取り組みを指揮しています。
The true power of artificial general intelligence
汎用人工知能の真の力
Goertzel defines an AGI as “an AI that can do the whole scope of everything that people can do, including the human ability to leap beyond what we’ve been taught.” This differs from the more narrow AIs that have been around for a while, which “do some highly specific things but don’t try to have the whole broad scope of a human mind.”
Goertzel 氏は、AGI を「教えられたことを飛び越える人間の能力を含め、人間ができるあらゆることを実行できる AI」と定義しています。これは、「非常に特殊なことを行うが、人間の心の広範な範囲全体を理解しようとはしない」、しばらく前から存在するより狭い AI とは異なります。
While large language models like ChatGPT are capable of performing many general tasks, they don’t qualify as artificial general intelligence because they don’t venture far beyond their training, said Goertzel.
ChatGPT のような大規模な言語モデルは多くの一般的なタスクを実行できますが、トレーニングの範囲をはるかに超えて冒険することはないため、汎用人工知能としては適格ではないとゲルツェル氏は述べています。
There are many potentially world-changing benefits that would come from developing an AGI. “We can abolish material scarcity at the level of everyday human life, just like we can drum up all the steaks that our dog wants to eat,” Goertzel said. “We don’t have to work for a living anymore. Things like death and disease should be curable by nanotechnology, which an advanced AI presumably could create.”
AGI の開発によってもたらされる、世界を変える可能性のある利点が数多くあります。 「犬が食べたいステーキをすべて買い占められるのと同じように、人間の日常生活のレベルで物質不足をなくすことができるのです」とゲルツェル氏は語った。 「私たちはもう生活のために働く必要はありません。死や病気のようなものはナノテクノロジーによって治療できるはずであり、おそらく高度なAIがそれを作り出すことができるでしょう。」
Related: OriginTrail on AI, real-world adoption and the value of knowledge: The Agenda podcast
関連: AI、現実世界の導入、知識の価値に関する OriginTrail: アジェンダ ポッドキャスト
How to safely develop artificial general intelligence
汎用人工知能を安全に開発する方法
However, a powerful AGI is not without its risks. Goertzel told The Agenda that while a Terminator-style world-ending apocalypse is highly unlikely — though it can’t entirely be ruled out — there are other risks inherent in its development. “The idea that human beings could take moderately advanced AIs and use them to do nasty things to other human beings out of their own self-interest, this is a very, very, very clear and palpable risk,” he shared.
ただし、強力な AGI にはリスクがないわけではありません。ゲルツェル氏はアジェンダに対し、ターミネーター風の世界終末黙示録の可能性は非常に低いが、完全に排除することはできないが、その開発には別のリスクが内在していると語った。 「人間がある程度高度なAIを取得し、それを利用して自己の利益のために他の人間にひどいことをする可能性があるという考えは、非常に非常に明白で明白なリスクです」と彼は共有した。
The way to avoid these concerns and ensure that AGI is used for the benefit of all humanity is to decentralize and democratize it, according to Goertzel. That way, it cannot be controlled “by a small number of powerful parties with their own narrow interests at heart.”
Goertzel 氏によると、これらの懸念を回避し、AGI が全人類の利益のために確実に使用されるようにする方法は、AGI を分散化して民主化することです。そうすれば、「自分たちの狭い利益を中心とする少数の強力な政党によって」それを制御することはできません。
“What you need is some way to decentralize all these processes that the AI is running on, and then you need a way to decentralize the data ingestion into all these processors,” he argued. “This is what SingularityNET was designed to provide. […] Singularity lets you take a collection of AI agents and run them on machines which are owned and controlled by no central party.”
「必要なのは、AI が実行されているこれらすべてのプロセスを分散化する何らかの方法であり、さらに、これらすべてのプロセッサへのデータの取り込みを分散化する方法が必要である」と彼は主張しました。 「これが SingularityNET が提供するために設計されたものです。 […] Singularity を使用すると、AI エージェントのコレクションを取得し、中央の当事者が所有および制御しないマシン上でそれらを実行できます。」
To hear more from Goertzel’s conversation with The Agenda — including his thoughts on how AGI could extend the human lifespan, what Hollywood gets right and wrong about AI, and whether AGI will unlock the secrets of the universe — listen to the full episode on Cointelegraph’s Podcasts page, Apple Podcasts or Spotify. And don’t forget to check out Cointelegraph’s full lineup of other shows!
AGIが人間の寿命をどのように延ばすことができるか、ハリウッドがAIについて何を正しく間違っているか、そしてAGIが宇宙の秘密を解き明かすかどうかについての彼の考えを含む、アジェンダとのゲルツェルの会話の詳細を聞きたい場合は、コインテレグラフのポッドキャストでエピソード全体を聞いてください。ページ、Apple Podcasts、または Spotify。コインテレグラフの他の番組の全ラインナップをチェックすることを忘れないでください。
Magazine: Advanced AI system is already ‘self-aware’ — ASI Alliance founder
マガジン: 高度な AI システムはすでに「自己認識」している — ASI Alliance 創設者
This article is for general information purposes and is not intended to be and should not be taken as legal or investment advice. The views, thoughts, and opinions expressed here are the author’s alone and do not necessarily reflect or represent the views and opinions of Cointelegraph.
この記事は一般的な情報提供を目的としており、法的または投資に関するアドバイスを目的としたものではなく、また、そのようなアドバイスとして受け取られるべきではありません。ここで表明された見解、考え、意見は著者単独のものであり、必ずしもコインテレグラフの見解や意見を反映または代表するものではありません。
免責事項:info@kdj.com
提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。
このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。