|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
暗号通貨のニュース記事
人工知能チャットボットは、新しいモデルがリリースされるにつれて、時間の経過とともにミスが増えていることが、最近の調査研究で明らかになりました。
2024/10/05 06:04
研究著者の1人であるLexin Zhou氏は、AIモデルは常に信頼できる答えを提供するように最適化されているため、一見正しい答えが得られると理論づけた。
Artificially intelligent chatbots are making more mistakes over time, a recent research study titled "Larger and more instructable language models become less reliable" in the Nature Scientific Journal has found.
ネイチャー・サイエンティフィック・ジャーナルに掲載された「大規模で指示しやすい言語モデルの信頼性が低下する」と題された最近の調査研究では、人工知能を備えたチャットボットが時間の経過とともに間違いを犯すことが増えていることが判明した。
The study, which was conducted by a team of researchers from the University of California, Berkeley, the University of Washington, and DeepMind, evaluated the performance of several different chatbot models on a range of natural language processing tasks. They found that the newer, larger models performed worse on many of the tasks than the older, smaller models.
この研究は、カリフォルニア大学バークレー校、ワシントン大学、ディープマインドの研究者チームによって実施され、さまざまな自然言語処理タスクにおけるいくつかの異なるチャットボット モデルのパフォーマンスを評価しました。彼らは、より新しいより大きなモデルは、多くのタスクにおいて古いより小さなモデルよりもパフォーマンスが低いことを発見しました。
One of the study's authors, Lexin Zhou, theorized that this decline in performance is due to the way that AI models are optimized. He explained that because these models are designed to always provide believable answers, they tend to prioritize and push the seemingly correct responses to the end user, regardless of whether or not they are actually accurate.
研究著者の1人であるLexin Zhou氏は、このパフォーマンス低下はAIモデルの最適化方法が原因であると理論づけた。これらのモデルは常に信頼できる回答を提供するように設計されているため、実際に正確であるかどうかに関係なく、一見正しいと思われる回答を優先してエンド ユーザーにプッシュする傾向があると彼は説明しました。
"The models are getting better at generating hallucinated text that sounds plausible and consistent with the context, but they are not necessarily getting better at generating true and factual text," Zhou said in a statement.
「モデルは、もっともらしく聞こえ、文脈と一致する幻覚テキストを生成する点では向上しているが、真の事実に基づくテキストを生成する点では必ずしも向上しているわけではない」と周氏は声明で述べた。
These AI hallucinations are self-reinforcing and tend to compound over time, a phenomenon that is further exacerbated by the common practice of using older large language models to train newer large language models, a process known as "model collapse."
こうした AI の幻覚は自己強化的であり、時間の経過とともに悪化する傾向があり、この現象は、古い大規模言語モデルを使用して新しい大規模言語モデルをトレーニングするという一般的な慣行 (「モデル崩壊」として知られるプロセス) によってさらに悪化します。
"The worrying part is that these hallucinations are often difficult to detect, even for humans," Zhou added. "This could lead to people relying on and trusting the output of these models too much, which could have dangerous consequences."
「懸念すべき点は、こうした幻覚は人間であっても発見するのが難しいことが多いということです」と周氏は付け加えた。 「これは、人々がこれらのモデルの出力に過度に依存し、信頼することにつながる可能性があり、危険な結果をもたらす可能性があります。」
Mathieu Roy, an editor and writer who covers artificial intelligence for Interesting Engineering, cautioned users not to rely too heavily on these tools and to always check AI-generated search results for inconsistencies, especially if the information being presented seems surprising or too good to be true.
Interesting Engineeringで人工知能を担当する編集者兼ライターのマシュー・ロイ氏は、ユーザーに対し、これらのツールに頼りすぎないよう、特に提示されている情報が意外な場合や良すぎる場合には、AIが生成した検索結果に矛盾がないか常にチェックするよう警告した。真実。
"To make matters worse, there’s often no way to check the information except by asking the chatbot itself," Roy asserted in an article about the study's findings.
「さらに悪いことに、多くの場合、チャットボット自体に問い合わせる以外に情報を確認する方法がない」とロイ氏は研究結果に関する記事で主張した。
Related: OpenAI raises an additional $6.6B at a 157B valuation
関連: OpenAI、1,570億ドルの評価額でさらに66億ドルを調達
The stubborn problem of AI hallucinations
AI幻覚の頑固な問題
The issue of AI hallucinations has been a persistent problem in the development of large language models, despite efforts by researchers and industry leaders to mitigate this tendency.
AI 幻覚の問題は、研究者や業界リーダーによるこの傾向を緩和するための努力にもかかわらず、大規模な言語モデルの開発において根深い問題となっています。
In February 2024, Google's artificial intelligence platform drew ridicule after the AI started producing historically inaccurate images. Among other things, the AI was seen portraying people of color as Nazi officers and creating wildly inaccurate images of well-known historical figures.
2024 年 2 月、Google の人工知能プラットフォームが歴史的に不正確な画像を生成し始めたため、嘲笑の対象となりました。とりわけ、AI は有色人種をナチスの将校として描写したり、有名な歴史上の人物の非常に不正確な画像を作成したりすることが確認されました。
Unfortunately, incidents like this are far too common with the current iteration of artificial intelligence and large language models. Several industry executives, including Nvidia CEO Jensen Huang, have proposed possible solutions to this problem, such as forcing AI models to conduct research and provide sources for every single answer that is given to a user.
残念なことに、このような事件は、現在の人工知能と大規模な言語モデルの反復ではあまりにも一般的です。 Nvidia CEOのジェンセン・フアン氏を含む数人の業界幹部は、AIモデルに調査を強制し、ユーザーに与えられるすべての回答のソースを提供するなど、この問題に対する考えられる解決策を提案している。
However, these measures are already featured in the most popular AI and large language models, yet the problem of AI hallucinations still persists.
ただし、これらの対策は最も一般的な AI モデルや大規模言語モデルにすでに組み込まれていますが、AI の幻覚の問題は依然として残っています。
More recently, in September, HyperWrite AI CEO Matt Shumer announced that the company's new 70B model uses a method called “Reflection-Tuning” — which purportedly gives the AI bot a way of learning by analyzing its own mistakes and adjusting its responses over time.
最近では9月に、HyperWrite AIのCEOマット・シューマー氏が、同社の新しい70Bモデルが「リフレクション・チューニング」と呼ばれる手法を使用していると発表した。これは、AIボットが自身の間違いを分析し、時間の経過とともに応答を調整することで学習する方法を提供するとされている。
免責事項:info@kdj.com
提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。
このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。
-
- ビットコインオプションの有効期限について
- 2024-10-05 14:30:01
- オプション契約はトレーダーに、特定の日付の前にあらかじめ決められた価格で資産を売買する権利を与えますが、義務ではありません。