|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Sonnet 릴리스의 뛰어난 기능은 컴퓨터와 상호 작용하는 기능입니다. 즉, 스크린샷을 찍고 읽고, 마우스를 움직이고, 웹 페이지의 버튼을 클릭하고, 텍스트를 입력할 수 있습니다.
Anthropic, the AI research and development company, has announced the latest update to its flagship AI model, Claude. This update introduces a highly anticipated new capability: the ability to interact with and control computers directly. Sonnet, a text-based interface to Claude, now allows users to perform a wide range of computer-based tasks, such as taking and reading screenshots, moving the mouse, clicking buttons on webpages, and typing text.
AI 연구개발 기업 앤트로픽(Anthropic)이 자사의 대표 AI 모델 클로드(Claude)의 최신 업데이트를 발표했다. 이 업데이트에는 매우 기대되는 새로운 기능, 즉 컴퓨터와 직접 상호 작용하고 제어하는 기능이 도입되었습니다. Claude의 텍스트 기반 인터페이스인 Sonnet을 사용하면 이제 사용자는 스크린샷 찍고 읽기, 마우스 이동, 웹 페이지의 버튼 클릭, 텍스트 입력과 같은 광범위한 컴퓨터 기반 작업을 수행할 수 있습니다.
This capability is being rolled out in a “public beta” phase, which Anthropic admits is “experimental and at times cumbersome and error-prone,” according to the company's announcement. In a blog post detailing the rationale behind this new feature, Anthropic explained: “A vast amount of modern work happens via computers. Enabling AIs to interact directly with computer software in the same way people do will unlock a huge range of applications that simply aren’t possible for the current generation of AI assistants.”
이 기능은 "공개 베타" 단계에서 출시되고 있으며 회사 발표에 따르면 Anthropic은 "실험적이며 때로는 번거롭고 오류가 발생하기 쉽다"고 인정했습니다. 이 새로운 기능의 근거를 자세히 설명하는 블로그 게시물에서 Anthropic은 다음과 같이 설명했습니다. “대량의 현대 작업은 컴퓨터를 통해 이루어집니다. AI가 사람과 같은 방식으로 컴퓨터 소프트웨어와 직접 상호 작용할 수 있게 되면 현재 세대의 AI 보조자에게는 불가능했던 엄청난 범위의 애플리케이션이 잠금 해제될 것입니다.”
While the concept of computers controlling themselves isn’t exactly new, the way Sonnet operates sets it apart. Unlike traditional automated computer control, which typically involves writing code, Sonnet requires no programming knowledge. Users can open apps or webpages and simply instruct the AI, which then analyzes the screen and figures out which elements to interact with.
컴퓨터가 스스로 제어한다는 개념은 완전히 새로운 것은 아니지만 Sonnet의 작동 방식은 이를 차별화합니다. 일반적으로 코드 작성을 포함하는 기존의 자동화된 컴퓨터 제어와 달리 Sonnet에는 프로그래밍 지식이 필요하지 않습니다. 사용자는 앱이나 웹페이지를 열고 AI에게 지시하면 AI는 화면을 분석하고 상호 작용할 요소를 파악합니다.
Anthropic acknowledges the risks inherent in this technology, admitting that “for safety reasons we did not allow the model to access the internet during training,” though the beta version now permits internet access. The company also recently updated its “Responsible Scaling Policy,” which defines the risks associated with each stage of development and release. According to this policy, Sonnet has been rated at “AI Safety Level 2,” which indicates “early signs of dangerous capabilities.” However, Anthropic believes it is safe enough to release to the public at this stage.
Anthropic은 이 기술에 내재된 위험을 인정하며 "안전상의 이유로 모델이 훈련 중에 인터넷에 액세스하는 것을 허용하지 않았습니다"라고 인정했습니다. 그러나 베타 버전에서는 이제 인터넷 액세스가 허용됩니다. 또한 회사는 최근 개발 및 출시의 각 단계와 관련된 위험을 정의하는 "책임 있는 확장 정책"을 업데이트했습니다. 이 정책에 따르면 Sonnet은 "위험한 기능의 초기 징후"를 나타내는 "AI 안전 수준 2" 등급을 받았습니다. 그러나 Anthropic은 이 단계에서 대중에게 공개해도 충분히 안전하다고 믿습니다.
Defending its decision to release the tool before fully understanding all the potential misuse scenarios, Anthropic said, “We can begin grappling with any safety issues before the stakes are too high, rather than adding computer use capabilities for the first time into a model with much more serious risks.” Essentially, the company would prefer to test these waters now while the AI’s capabilities are still relatively limited.
잠재적인 모든 오용 시나리오를 완전히 이해하기 전에 도구를 출시하기로 한 결정을 옹호하면서 Anthropic은 다음과 같이 말했습니다. 더 심각한 위험” 본질적으로 회사는 AI의 기능이 여전히 상대적으로 제한되어 있는 지금 이러한 물을 테스트하는 것을 선호합니다.
Of course, the risks associated with AI tools like Claude aren’t just theoretical. OpenAI recently disclosed 20 instances where state-backed actors had used ChatGPT for nefarious purposes, such as planning cyberattacks, probing vulnerable infrastructure, and designing influence campaigns. With the U.S. presidential election looming just two weeks away, Anthropic is keenly aware of the potential for misuse. “Given the upcoming US elections, we’re on high alert for attempted misuses that could be perceived as undermining public trust in electoral processes,” the company wrote.
물론 Claude와 같은 AI 도구와 관련된 위험은 단지 이론적인 것이 아닙니다. OpenAI는 최근 국가 지원 행위자가 사이버 공격 계획, 취약한 인프라 조사, 영향력 캠페인 설계 등 사악한 목적으로 ChatGPT를 사용한 20가지 사례를 공개했습니다. 미국 대통령 선거가 2주 앞으로 다가온 가운데, Anthropic은 오용 가능성을 예리하게 인식하고 있습니다. “다가오는 미국 선거를 고려하여 우리는 선거 과정에 대한 대중의 신뢰를 훼손하는 것으로 인식될 수 있는 오용 시도에 대해 매우 경계하고 있습니다.”라고 회사는 썼습니다.
Anthropic says “The updated Claude 3.5 Sonnet shows wide-ranging improvements on industry benchmarks, with particularly strong gains in agentic coding and tool use tasks. On coding, it improves performance on SWE-bench Verified from 33.4% to 49.0%, scoring higher than all publicly available models—including reasoning models like OpenAI o1-preview and specialized systems designed for agentic coding. It also improves performance on TAU-bench, an agentic tool use task, from 62.6% to 69.2% in the retail domain, and from 36.0% to 46.0% in the more challenging airline domain. The new Claude 3.5 Sonnet offers these advancements at the same price and speed as its predecessor.”
Anthropic은 “업데이트된 Claude 3.5 Sonnet은 업계 벤치마크에서 광범위한 개선 사항을 보여 주며 특히 에이전트 코딩 및 도구 사용 작업에서 강력한 이점을 제공합니다. 코딩에서는 SWE-bench Verified의 성능이 33.4%에서 49.0%로 향상되어 OpenAI o1-preview와 같은 추론 모델 및 에이전트 코딩용으로 설계된 특수 시스템을 포함하여 공개적으로 사용 가능한 모든 모델보다 높은 점수를 받았습니다. 또한 에이전트 도구 사용 작업인 TAU-bench의 성능이 소매 도메인에서 62.6%에서 69.2%로, 보다 까다로운 항공 도메인에서는 36.0%에서 46.0%로 향상되었습니다. 새로운 Claude 3.5 Sonnet은 이전 제품과 동일한 가격과 속도로 이러한 발전을 제공합니다.”
Anthropic has put safeguards in place to prevent Sonnet’s new capabilities from being exploited for election-related meddling. They’ve implemented systems to monitor when Claude is asked to engage in such activities, such as generating social media content or interacting with government websites. The company is also taking steps to ensure that screenshots captured during tool usage will not be used for future model training. However, even Anthropic’s engineers have been caught off guard by some of the tool’s behaviors. In one instance, Claude unexpectedly stopped a screen recording, losing all the footage. In a lighthearted moment, the AI even began browsing photos of Yellowstone National Park during a coding demo, which Anthropic shared on X with a mix of amusement and surprise.
Anthropic은 Sonnet의 새로운 기능이 선거 관련 개입에 악용되는 것을 방지하기 위해 안전 장치를 마련했습니다. 그들은 Claude가 소셜 미디어 콘텐츠 생성이나 정부 웹사이트와의 상호 작용과 같은 활동에 참여하도록 요청받는 시기를 모니터링하는 시스템을 구현했습니다. 또한 회사는 도구 사용 중에 캡처된 스크린샷이 향후 모델 교육에 사용되지 않도록 조치를 취하고 있습니다. 그러나 Anthropic의 엔지니어조차도 도구의 일부 동작에 당황했습니다. 한 번은 Claude가 예기치 않게 화면 녹화를 중단하여 모든 영상이 손실되었습니다. 마음이 편해진 순간, AI는 코딩 데모 중에 Yellowstone 국립공원의 사진을 검색하기 시작했습니다. Anthropic은 재미와 놀라움이 혼합된 X를 통해 공유했습니다.
Anthropic emphasizes the importance of safety in rolling out this new capability. Claude has been rated at AI Safety Level 2, meaning it doesn’t require heightened security measures for current risks but still raises concerns about potential misuse, like prompt injection attacks. The company has implemented systems to monitor election-related activities and prevent abuses like content generation or social media manipulation.
Anthropic은 이 새로운 기능을 출시할 때 안전의 중요성을 강조합니다. Claude는 AI 안전 레벨 2로 평가되었습니다. 즉, 현재 위험에 대해 강화된 보안 조치가 필요하지 않지만 즉각적인 주입 공격과 같은 잠재적인 오용에 대한 우려는 여전히 제기됩니다. 회사는 선거 관련 활동을 모니터링하고 콘텐츠 생성이나 소셜 미디어 조작과 같은 남용을 방지하는 시스템을 구현했습니다.
Although Claude’s computer use is still slow and prone to errors, Anthropic is optimistic about its future. The company plans to refine the model to make it faster, more reliable, and easier to implement. Throughout the beta phase, developers are encouraged to provide feedback to help improve both the model’s effectiveness and its safety protocols.
Claude의 컴퓨터 사용은 여전히 느리고 오류가 발생하기 쉽지만 Anthropic은 미래에 대해 낙관적입니다. 회사는 모델을 더욱 빠르고 안정적이며 쉽게 구현할 수 있도록 개선할 계획입니다. 베타 단계 전반에 걸쳐 개발자는 모델의 효율성과 안전 프로토콜을 모두 개선하는 데 도움이 되는 피드백을 제공하도록 권장됩니다.
부인 성명:info@kdj.com
제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!
본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.