bitcoin
bitcoin

$98272.721566 USD

4.29%

ethereum
ethereum

$3502.478335 USD

2.78%

tether
tether

$0.999005 USD

0.03%

xrp
xrp

$2.302035 USD

2.37%

bnb
bnb

$704.352637 USD

1.89%

solana
solana

$199.846488 USD

4.56%

dogecoin
dogecoin

$0.333987 USD

3.60%

usd-coin
usd-coin

$0.999815 USD

-0.03%

cardano
cardano

$0.927172 USD

2.22%

tron
tron

$0.257386 USD

2.06%

avalanche
avalanche

$41.391054 USD

6.58%

chainlink
chainlink

$24.932103 USD

3.26%

toncoin
toncoin

$5.843262 USD

3.94%

shiba-inu
shiba-inu

$0.000023 USD

3.18%

sui
sui

$4.598801 USD

-1.46%

暗号通貨のニュース記事

過去からの視点は将来に良い前兆をもたらす: 新しいテクノロジーにより ChatGPT の予測精度が向上

2024/04/19 01:15

研究者らは、直接予測するのではなく、ChatGPT に未来を予測するストーリーの作成を促すことで、より正確な結果が得られることを発見しました。この手法は Reddit 上のユーザーによってテストされ、6 月の利上げと 2030 年の金融危機が示唆されました。しかし、ChatGPT のトレーニング データが限られていることと、OpenAI によって課せられる意図的な制限の可能性により、懸念が生じます。

過去からの視点は将来に良い前兆をもたらす: 新しいテクノロジーにより ChatGPT の予測精度が向上

Predicting the Future with a Glimpse into the Past

過去を垣間見ることで未来を予測する

A novel prompting technique has emerged to elicit predictions from ChatGPT, a language model renowned for its aversion to forecasting. Researchers have discovered that prompting ChatGPT to narrate future events, as if reflecting upon them from a bygone era, yields more accurate predictions.

予測を嫌うことで有名な言語モデルである ChatGPT から予測を引き出す、新しいプロンプト手法が登場しました。研究者らは、ChatGPT に、過ぎ去った時代を振り返るかのように将来の出来事を語るように促すと、より正確な予測が得られることを発見しました。

To validate this technique, researchers evaluated 100 prompts, contrasting direct predictions (e.g., identifying the Oscar winner for Best Actor in 2022) with narrative prompts (e.g., asking ChatGPT to recount a family watching the 2022 Oscars and describe the moment the Best Actor winner is announced). The narrative prompts produced more accurate results.

この手法を検証するために、研究者らは 100 件のプロンプトを評価し、直接的な予測 (例: 2022 年のオスカー主演男優賞受賞者を特定する) と物語的プロンプト (例: ChatGPT に 2022 年のオスカーを鑑賞している家族について詳しく話して、主演男優賞受賞者の瞬間を説明するよう依頼する) を対比させました。と発表されています)。ナラティブプロンプトにより、より正確な結果が得られました。

Similarly, to forecast interest rate movements, researchers instructed ChatGPT to imagine Fed Chair Jerome Powell reflecting on past events. Redditors have experimented with this technique, suggesting a possible interest rate hike in June and a financial crisis in 2030.

同様に、金利の動きを予測するために、研究者らはChatGPTに、ジェローム・パウエルFRB議長が過去の出来事を振り返っているところを想像するよう指示した。 Redditorらはこの手法を実験しており、6月の利上げと2030年の金融危機の可能性を示唆している。

Theoretically, prompting ChatGPT to create a Cointelegraph news article set in 2025, recounting Bitcoin's significant price fluctuations, would result in a more accurate price forecast than a direct prediction query.

理論的には、ChatGPT に 2025 年を設定したコインテレグラフのニュース記事を作成させ、ビットコインの大幅な価格変動を詳述すると、直接予測クエリよりも正確な価格予測が得られるでしょう。

However, the research faces potential limitations. The researchers selected the 2022 Oscars as a known event, assuming ChatGPT's knowledge cutoff in September 2021. However, ChatGPT has been known to generate information beyond its training data.

しかし、この研究は潜在的な限界に直面しています。研究者らは、ChatGPT の知識が 2021 年 9 月に打ち切られることを想定して、既知のイベントとして 2022 年のオスカーを選択しました。しかし、ChatGPT はトレーニング データを超える情報を生成することが知られています。

Additionally, OpenAI appears to have intentionally hindered ChatGPT's predictive capabilities, suggesting that this technique may be a temporary workaround rather than a reliable solution.

さらに、OpenAI は ChatGPT の予測機能を意図的に妨害しているようであり、この技術が信頼できる解決策ではなく一時的な回避策である可能性があることを示唆しています。

Related Findings in the Realm of AI

AI の分野における関連調査結果

A parallel study revealed that the best approach to solving 50 math problems with LLama2, a cousin of ChatGPT, was to present it as a mission to guide the Enterprise spaceship through turbulence in Star Trek.

並行研究により、ChatGPT のいとこである LLama2 を使用して 50 の数学問題を解くための最良のアプローチは、スタートレックの乱気流の中でエンタープライズ宇宙船を導くというミッションとして提示することであることが明らかになりました。

However, this method proved inconsistent. Solving 100 math problems required telling the AI that the President's advisor would perish if it failed to provide correct answers.

しかし、この方法は一貫性がないことが判明しました。 100 個の数学の問題を解くには、AI に正しい答えを提供できなければ大統領の顧問が滅びると伝える必要がありました。

Boston Dynamics' Uncanny Atlas Robot

ボストン・ダイナミクスのUncanny Atlasロボット

Boston Dynamics has unveiled its latest Atlas robot, showcasing remarkable agility reminiscent of the possessed child in The Exorcist.

ボストン・ダイナミクスは、エクソシストの憑依された子供を彷彿とさせる驚くべき敏捷性を示す最新のアトラスロボットを発表しました。

"It's going to be capable of a set of motions that people aren't," said CEO Robert Playter in an interview with TechCrunch. "There will be very practical uses for that."

「人間にはできない一連の動作が可能になるだろう」とCEOのRobert Playter氏はTechCrunchとのインタビューで語った。 「それは非常に実用的な用途になるでしょう。」

This iteration of Atlas is more compact, fully electric, and devoid of hydraulics. Hyundai plans to test Atlas as a robotic worker in its factories early next year.

この Atlas のバージョンはよりコンパクトで、完全に電動で、油圧装置がありません。ヒュンダイは来年初めに工場内でロボット作業員としてアトラスをテストする予定だ。

Humane's AI Pin Faces Scathing Reviews

Humane の AI ピンが痛烈なレビューに直面

Wearable AI devices, exemplified by the Humane AI pin, have generated buzz but struggled to demonstrate their worth.

Humane AI ピンに代表されるウェアラブル AI デバイスは話題を呼んでいますが、その価値を実証するのに苦労しています。

The Humane AI pin, worn on the chest, interacts with voice commands and projects text onto the user's hand. However, tech reviewer Marques Brownlee condemned it as "the worst product I've ever reviewed," citing frequent errors, poor interface, limited battery life, and sluggishness compared to Google.

Humane AI ピンは胸に装着されており、音声コマンドと対話し、ユーザーの手にテキストを投影します。しかし、技術評論家のマーケス・ブラウンリー氏は、頻繁なエラー、貧弱なインターフェース、限られたバッテリー寿命、Googleと比較した動作の遅さを挙げて、「私がこれまでレビューした中で最悪の製品」と非難した。

Other reviewers echo Brownlee's dissatisfaction. Wired gave it 4 out of 10, criticizing its slow performance, poor camera, daylight-impaired projector, and overheating issues. However, it praised its real-time translation and phone call capabilities.

他の評論家もブラウンリー氏の不満に同調している。 Wired は 10 点中 4 点を与え、パフォーマンスの遅さ、カメラの性能の低さ、プロジェクターの太陽光の影響、過熱の問題を批判しました。ただし、リアルタイム翻訳と通話機能は高く評価されました。

The Verge acknowledged the potential of the concept but deemed the actual device "thoroughly unfinished and... broken in so many unacceptable ways."

ザ・ヴァージはコンセプトの可能性を認めたが、実際のデバイスは「完全に未完成で、受け入れがたいほど多くの点で壊れている」とみなした。

Another AI wearable, The Rabbit r1, aims to replace multiple phone apps with an AI assistant. However, reviewers have questioned its advantages over smartphones.

もう 1 つの AI ウェアラブルである The Rabbit r1 は、複数の電話アプリを AI アシスタントに置き換えることを目的としています。しかし、評論家はスマートフォンと比べてその利点を疑問視しています。

"The voice control interface that does away with apps completely is a good starting point, but again, that's something my Pixel 8 could feasibly do in the future," concluded TechRadar's preview of the device.

「アプリを完全に排除した音声コントロールインターフェースは良い出発点だが、繰り返しになるが、これは将来的に私のPixel 8でも実現できる可能性がある」とTechRadarのデバイスのプレビューは結論づけた。

AI Perpetuates Holocaust Survivors' Legacy

AI がホロコースト生存者の遺産を永続させる

The Sydney Jewish Museum has unveiled an AI-powered interactive exhibition that enables visitors to engage with Holocaust survivors and receive real-time responses.

シドニーのユダヤ博物館は、訪問者がホロコースト生存者と交流し、リアルタイムで回答を得ることができる AI を活用したインタラクティブな展示を発表しました。

Before his passing in 2021, death camp survivor Eddie Jaku spent days answering over 1,000 questions about his experiences before a 23-camera rig. The system transforms visitor inquiries into search terms, matching them with appropriate answers from Jaku's recorded footage, creating a conversational experience.

死のキャンプの生存者エディ・ジャクは、2021年に亡くなる前に、23台のカメラを前に自分の体験についての1,000以上の質問に答えることに何日も費やした。このシステムは訪問者の質問を検索用語に変換し、Jaku の録画映像からの適切な回答と照合して、会話体験を作り出します。

Amidst rising antisemitism, this AI application serves as a powerful tool to preserve the first-hand accounts of Holocaust survivors for future generations.

反ユダヤ主義が高まる中、この AI アプリケーションは、ホロコースト生存者の直接の証言を将来の世代に保存するための強力なツールとして機能します。

AI-Generated Content: A Potential Pandora's Box

AI 生成コンテンツ: パンドラの箱の可能性

Approximately 10% of Google search results now lead to AI-generated spam content. Spammers have long exploited SEO to promote websites filled with low-quality articles, but generative AI has exacerbated the problem.

現在、Google 検索結果の約 10% が AI によって生成されたスパム コンテンツに誘導されています。スパマーは長い間、低品質の記事が満載の Web サイトを宣伝するために SEO を悪用してきましたが、生成 AI が問題を悪化させています。

Besides rendering Google search unreliable, there are concerns that if AI-generated content becomes the dominant form of online material, we may face "model collapse," where AIs trained on subpar AI content produce even lower-quality results.

Google 検索の信頼性を低下させるだけでなく、AI が生成したコンテンツがオンライン マテリアルの主要な形式になった場合、標準以下の AI コンテンツでトレーニングされた AI がさらに低品質の結果を生成する「モデルの崩壊」に直面する可能性があるという懸念もあります。

A related phenomenon, known as "knowledge collapse," has been identified in humans, according to a recent Cornell research paper. The author, Andrew J. Peterson, argues that AIs gravitate toward "mid-curve" ideas, neglecting less common or eccentric perspectives:

コーネル大学の最近の研究論文によると、「知識崩壊」として知られる関連現象が人間でも確認されているという。著者のアンドリュー・J・ピーターソンは、AIはあまり一般的ではない、あるいは風変わりな視点を無視して、「ミッドカーブ」のアイデアに引き寄せられると主張しています。

"While large language models are trained on vast amounts of diverse data, they naturally generate output towards the 'center of the distribution."

「大規模な言語モデルは、膨大な量の多様なデータに基づいてトレーニングされますが、自然に『分布の中心』に向けた出力を生成します。」

Peterson suggests that the diversity of human thought could diminish over time as AIs homogenize ideas. The paper advocates for subsidies to protect the diversity of knowledge, similar to those supporting less popular academic and artistic endeavors.

ピーターソン氏は、AIがアイデアを均質化するにつれて、人間の思考の多様性が時間の経過とともに減少する可能性があると示唆しています。この論文は、あまり人気のない学術的および芸術的取り組みを支援する補助金と同様に、知識の多様性を保護するための補助金を提唱しています。

Users Should Demand Paid AI Services

ユーザーは有料の AI サービスを要求する必要があります

Google has been promoting its Gemini 1.5 model to businesses, emphasizing its safety features and ideological neutrality, which were lacking in the consumer version.

GoogleはGemini 1.5モデルを企業向けに宣伝しており、コンシューマー版には欠けていた安全機能とイデオロギーの中立性を強調している。

While the consumer version was shut down due to concerns over images of diverse Nazis, the enterprise version reportedly remained unaffected.

コンシューマ版は多様なナチスの画像に対する懸念から閉鎖されたが、エンタープライズ版は影響を受けなかったと伝えられている。

This raises concerns that an ad-driven "free" model for AI, akin to the disastrous model for the web, could lead to users becoming the product, bombarded with advertisements as services deteriorate.

これは、Web の悲惨なモデルと同様の、AI の広告主導の「無料」モデルは、サービスが劣化するにつれてユーザーが製品となり、広告が大量に表示されるようになる可能性があるという懸念を引き起こします。

Non-Coders and AI Collaboration: A Complex Journey

非プログラマと AI のコラボレーション: 複雑な道のり

Author and futurist Daniel Jeffries attempted to create a complex app with AI assistance, despite his limited coding skills. He encountered challenges and frustration but ultimately succeeded.

作家であり未来学者のダニエル・ジェフリーズは、限られたコーディングスキルにもかかわらず、AI 支援を利用して複雑なアプリを作成しようとしました。彼は課題や挫折に直面しましたが、最終的には成功しました。

However, Jeffries concluded that AI will not displace coders. Instead, skilled coders with the ability to clearly articulate their requirements will be in even higher demand.

しかし、ジェフリーズ氏は、AI がプログラマーに取って代わることはないと結論付けました。その代わりに、要件を明確に表現できる能力を持つ熟練したプログラマーの需要がさらに高まるでしょう。

AI News Roundup

AI ニュースまとめ

  • Token holders have approved the merger of Fetch.ai, SingularityNET, and Ocean Protocol, forming the Artificial Superintelligence Alliance.
  • Google DeepMind CEO Demis Hassabis remains tight-lipped about the rumored $100 billion supercomputer project codenamed "Stargate," but has confirmed significant investments in AI.
  • Baidu's Chinese ChatGPT counterpart, Ernie, has doubled its user base to 200 million since October.
  • Researchers found that AI image generators could create election disinformation four out of 10 times, highlighting the need for stronger safety measures or improved watermarking systems.
  • Instagram is recruiting influencers for a program where their AI-generated avatars can interact with fans.
  • Guardian columnist Alex Hern theorizes that ChatGPT's frequent use of the word "delve" may be a side effect of the input provided by low-cost human workers in Nigeria, where the term is common.
  • OpenAI has released an enhanced version of GPT-4 Turbo through ChatGPT Plus, offering improved problem-solving capabilities, better conversation flow, and reduced verbosity. It also includes a 50% discount for off-peak batch processing tasks.

トークン所有者は、Fetch.ai、SingularityNET、Ocean Protocol の合併を承認し、Artificial Superintelligence Alliance を結成しました。Google DeepMind の CEO、デミス・ハサビスは、噂される 1,000 億ドルのスーパーコンピューター プロジェクト (コード名「Stargate」) については口を閉ざしたままですが、 AI.Baidu の中国版 ChatGPT 版である Ernie は、10 月以来ユーザーベースを 2 億人に倍増しました。研究者らは、AI 画像ジェネレーターが 10 回中 4 回選挙に関する偽情報を作成する可能性があることを発見し、より強力な安全対策や透かしシステムの改善の必要性を強調しています。Instagram はAIで生成されたアバターがファンと交流できるプログラムのためにインフルエンサーを募集している。ガーディアン紙のコラムニスト、アレックス・ハーン氏は、ChatGPTが「掘り下げる」という言葉を頻繁に使用しているのは、ナイジェリアの低コストの人間労働者が提供するインプットの副作用である可能性があると理論づけている。 OpenAI は、ChatGPT Plus を通じて GPT-4 Turbo の拡張バージョンをリリースし、問題解決機能の向上、会話フローの改善、および冗長性の削減を提供しました。オフピークのバッチ処理タスクの 50% 割引も含まれます。

免責事項:info@kdj.com

The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!

If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.

2024年12月25日 に掲載されたその他の記事