|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Sonnet リリースの際立った機能は、コンピュータと対話する機能であり、スクリーンショットの取得と読み取り、マウスの移動、Web ページ上のボタンのクリック、およびテキストの入力が可能になります。
Anthropic, the AI research and development company, has announced the latest update to its flagship AI model, Claude. This update introduces a highly anticipated new capability: the ability to interact with and control computers directly. Sonnet, a text-based interface to Claude, now allows users to perform a wide range of computer-based tasks, such as taking and reading screenshots, moving the mouse, clicking buttons on webpages, and typing text.
AI 研究開発会社 Anthropic は、主力 AI モデルである Claude の最新アップデートを発表しました。このアップデートでは、待望の新機能、つまりコンピュータと直接対話して制御する機能が導入されます。 Claude へのテキストベースのインターフェイスである Sonnet を使用すると、ユーザーはスクリーンショットの撮影と読み取り、マウスの移動、Web ページ上のボタンのクリック、テキストの入力など、幅広いコンピュータベースのタスクを実行できるようになります。
This capability is being rolled out in a “public beta” phase, which Anthropic admits is “experimental and at times cumbersome and error-prone,” according to the company's announcement. In a blog post detailing the rationale behind this new feature, Anthropic explained: “A vast amount of modern work happens via computers. Enabling AIs to interact directly with computer software in the same way people do will unlock a huge range of applications that simply aren’t possible for the current generation of AI assistants.”
同社の発表によると、この機能は「パブリックベータ」段階で展開されているが、Anthropicは「実験的であり、時には煩雑でエラーが発生しやすい」と認めている。この新機能の背後にある理論的根拠を詳しく説明したブログ投稿の中で、Anthropic 氏は次のように説明しました。 AI が人間と同じようにコンピューター ソフトウェアと直接対話できるようになれば、現世代の AI アシスタントでは不可能な幅広いアプリケーションが可能になります。」
While the concept of computers controlling themselves isn’t exactly new, the way Sonnet operates sets it apart. Unlike traditional automated computer control, which typically involves writing code, Sonnet requires no programming knowledge. Users can open apps or webpages and simply instruct the AI, which then analyzes the screen and figures out which elements to interact with.
コンピューターが自らを制御するという概念はまったく新しいものではありませんが、Sonnet の動作方法はそれを際立たせています。通常、コードを記述する必要がある従来の自動コンピュータ制御とは異なり、Sonnet ではプログラミングの知識は必要ありません。ユーザーはアプリやウェブページを開いて AI に指示するだけで、AI は画面を分析してどの要素と対話するかを判断します。
Anthropic acknowledges the risks inherent in this technology, admitting that “for safety reasons we did not allow the model to access the internet during training,” though the beta version now permits internet access. The company also recently updated its “Responsible Scaling Policy,” which defines the risks associated with each stage of development and release. According to this policy, Sonnet has been rated at “AI Safety Level 2,” which indicates “early signs of dangerous capabilities.” However, Anthropic believes it is safe enough to release to the public at this stage.
Anthropic は、このテクノロジーに内在するリスクを認めており、「安全上の理由から、トレーニング中にモデルがインターネットにアクセスすることを許可しなかった」と認めていますが、ベータ版ではインターネット アクセスが許可されています。同社は最近、開発とリリースの各段階に関連するリスクを定義する「責任あるスケーリング ポリシー」も更新しました。このポリシーによれば、ソネットは「危険な機能の初期の兆候」を示す「AI 安全性レベル 2」に評価されています。しかし、Anthropic は、現段階では一般公開しても十分安全であると信じています。
Defending its decision to release the tool before fully understanding all the potential misuse scenarios, Anthropic said, “We can begin grappling with any safety issues before the stakes are too high, rather than adding computer use capabilities for the first time into a model with much more serious risks.” Essentially, the company would prefer to test these waters now while the AI’s capabilities are still relatively limited.
Anthropic 社は、潜在的な悪用シナリオをすべて完全に理解する前にツールをリリースするという決定を擁護し、「リスクが高くなりすぎる前に、安全性の問題に取り組み始めることができます。多くの機能を備えたモデルに初めてコンピュータの使用機能を追加するのではなく、より深刻なリスクが発生します。」基本的に同社は、AIの能力がまだ比較的限定されているうちに、これらの水を今すぐテストしたいと考えている。
Of course, the risks associated with AI tools like Claude aren’t just theoretical. OpenAI recently disclosed 20 instances where state-backed actors had used ChatGPT for nefarious purposes, such as planning cyberattacks, probing vulnerable infrastructure, and designing influence campaigns. With the U.S. presidential election looming just two weeks away, Anthropic is keenly aware of the potential for misuse. “Given the upcoming US elections, we’re on high alert for attempted misuses that could be perceived as undermining public trust in electoral processes,” the company wrote.
もちろん、Claude のような AI ツールに伴うリスクは理論上のものだけではありません。 OpenAI は最近、国家の支援を受けた攻撃者がサイバー攻撃の計画、脆弱なインフラストラクチャの調査、影響力キャンペーンの設計などの不正な目的で ChatGPT を使用した 20 件の事例を明らかにしました。米国大統領選挙がわずか 2 週間後に迫っており、Anthropic は悪用の可能性を強く認識しています。同社は「今後の米国選挙を考慮し、選挙プロセスに対する国民の信頼を損なうとみなされる可能性のある悪用の試みに厳重に警戒している」と述べた。
Anthropic says “The updated Claude 3.5 Sonnet shows wide-ranging improvements on industry benchmarks, with particularly strong gains in agentic coding and tool use tasks. On coding, it improves performance on SWE-bench Verified from 33.4% to 49.0%, scoring higher than all publicly available models—including reasoning models like OpenAI o1-preview and specialized systems designed for agentic coding. It also improves performance on TAU-bench, an agentic tool use task, from 62.6% to 69.2% in the retail domain, and from 36.0% to 46.0% in the more challenging airline domain. The new Claude 3.5 Sonnet offers these advancements at the same price and speed as its predecessor.”
Anthropic 氏は次のように述べています。「更新された Claude 3.5 Sonnet では、業界のベンチマークで幅広い改善が見られ、特にエージェント コーディングとツール使用タスクで大幅な改善が見られます。コーディングに関しては、SWE ベンチ検証済みのパフォーマンスが 33.4% から 49.0% に向上し、OpenAI o1-preview のような推論モデルやエージェントティック コーディング用に設計された特殊なシステムを含む、すべての公開モデルよりも高いスコアを獲得しました。また、エージェント ツールの使用タスクである TAU ベンチのパフォーマンスも、小売ドメインでは 62.6% から 69.2% に、より困難な航空ドメインでは 36.0% から 46.0% に向上しました。新しいクロード 3.5 ソネットは、前モデルと同じ価格と速度でこれらの進歩を提供します。」
Anthropic has put safeguards in place to prevent Sonnet’s new capabilities from being exploited for election-related meddling. They’ve implemented systems to monitor when Claude is asked to engage in such activities, such as generating social media content or interacting with government websites. The company is also taking steps to ensure that screenshots captured during tool usage will not be used for future model training. However, even Anthropic’s engineers have been caught off guard by some of the tool’s behaviors. In one instance, Claude unexpectedly stopped a screen recording, losing all the footage. In a lighthearted moment, the AI even began browsing photos of Yellowstone National Park during a coding demo, which Anthropic shared on X with a mix of amusement and surprise.
Anthropic は、Sonnet の新機能が選挙関連の介入に悪用されるのを防ぐための安全措置を講じています。彼らは、クロードがソーシャル メディア コンテンツの生成や政府の Web サイトとのやり取りなどの活動に従事するよう求められたときを監視するシステムを導入しました。同社はまた、ツールの使用中にキャプチャされたスクリーンショットが将来のモデルのトレーニングに使用されないようにするための措置を講じています。ただし、Anthropic のエンジニアでさえ、ツールの動作の一部に不意を突かれたことがあります。ある例では、クロードが予期せず画面録画を停止し、すべての映像を失いました。ほんの気楽な瞬間に、AI はコーディング デモ中にイエローストーン国立公園の写真を閲覧し始めました。Anthropic はそれを面白さと驚きを交えて X で共有しました。
Anthropic emphasizes the importance of safety in rolling out this new capability. Claude has been rated at AI Safety Level 2, meaning it doesn’t require heightened security measures for current risks but still raises concerns about potential misuse, like prompt injection attacks. The company has implemented systems to monitor election-related activities and prevent abuses like content generation or social media manipulation.
Anthropic は、この新しい機能を展開する際の安全性の重要性を強調しています。 Claude は AI 安全性レベル 2 に評価されています。これは、現在のリスクに対する高度なセキュリティ対策は必要ありませんが、プロンプト インジェクション攻撃などの潜在的な悪用に対する懸念が依然として存在することを意味します。同社は選挙関連の活動を監視し、コンテンツ生成やソーシャルメディア操作などの不正行為を防止するシステムを導入している。
Although Claude’s computer use is still slow and prone to errors, Anthropic is optimistic about its future. The company plans to refine the model to make it faster, more reliable, and easier to implement. Throughout the beta phase, developers are encouraged to provide feedback to help improve both the model’s effectiveness and its safety protocols.
クロードのコンピュータの使用はまだ遅く、エラーが発生しがちですが、Anthropic はその将来について楽観的です。同社はモデルを改良して、より高速で信頼性が高く、実装が容易になるように計画しています。ベータ段階を通じて、開発者はモデルの有効性と安全性プロトコルの両方を改善するためにフィードバックを提供することが推奨されます。
免責事項:info@kdj.com
提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。
このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。