|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Articles d’actualité sur les crypto-monnaies
Anthropic lance Sonnet, un outil d'IA capable d'interagir avec les ordinateurs, avec des risques
Oct 23, 2024 at 10:49 pm
La fonctionnalité remarquable de la version Sonnet est sa capacité à interagir avec votre ordinateur, lui permettant de prendre et de lire des captures d'écran, de déplacer la souris, de cliquer sur les boutons des pages Web et de saisir du texte.
Anthropic, the AI research and development company, has announced the latest update to its flagship AI model, Claude. This update introduces a highly anticipated new capability: the ability to interact with and control computers directly. Sonnet, a text-based interface to Claude, now allows users to perform a wide range of computer-based tasks, such as taking and reading screenshots, moving the mouse, clicking buttons on webpages, and typing text.
Anthropic, la société de recherche et développement en IA, a annoncé la dernière mise à jour de son modèle phare d'IA, Claude. Cette mise à jour introduit une nouvelle fonctionnalité très attendue : la possibilité d'interagir avec et de contrôler directement les ordinateurs. Sonnet, une interface textuelle de Claude, permet désormais aux utilisateurs d'effectuer un large éventail de tâches informatiques, telles que prendre et lire des captures d'écran, déplacer la souris, cliquer sur des boutons sur des pages Web et saisir du texte.
This capability is being rolled out in a “public beta” phase, which Anthropic admits is “experimental and at times cumbersome and error-prone,” according to the company's announcement. In a blog post detailing the rationale behind this new feature, Anthropic explained: “A vast amount of modern work happens via computers. Enabling AIs to interact directly with computer software in the same way people do will unlock a huge range of applications that simply aren’t possible for the current generation of AI assistants.”
Cette fonctionnalité est déployée dans une phase « bêta publique », qui, admet Anthropic, est « expérimentale et parfois lourde et sujette aux erreurs », selon l'annonce de la société. Dans un article de blog détaillant la raison d'être de cette nouvelle fonctionnalité, Anthropic a expliqué : « Une grande partie du travail moderne s'effectue via des ordinateurs. Permettre aux IA d’interagir directement avec les logiciels informatiques de la même manière que les humains débloquera une vaste gamme d’applications qui ne sont tout simplement pas possibles pour la génération actuelle d’assistants IA.
While the concept of computers controlling themselves isn’t exactly new, the way Sonnet operates sets it apart. Unlike traditional automated computer control, which typically involves writing code, Sonnet requires no programming knowledge. Users can open apps or webpages and simply instruct the AI, which then analyzes the screen and figures out which elements to interact with.
Bien que le concept selon lequel les ordinateurs se contrôlent eux-mêmes ne soit pas tout à fait nouveau, la façon dont Sonnet fonctionne le distingue. Contrairement au contrôle informatique automatisé traditionnel, qui implique généralement l'écriture de code, Sonnet ne nécessite aucune connaissance en programmation. Les utilisateurs peuvent ouvrir des applications ou des pages Web et simplement instruire l'IA, qui analyse ensuite l'écran et détermine avec quels éléments interagir.
Anthropic acknowledges the risks inherent in this technology, admitting that “for safety reasons we did not allow the model to access the internet during training,” though the beta version now permits internet access. The company also recently updated its “Responsible Scaling Policy,” which defines the risks associated with each stage of development and release. According to this policy, Sonnet has been rated at “AI Safety Level 2,” which indicates “early signs of dangerous capabilities.” However, Anthropic believes it is safe enough to release to the public at this stage.
Anthropic reconnaît les risques inhérents à cette technologie, admettant que « pour des raisons de sécurité, nous n'avons pas autorisé le modèle à accéder à Internet pendant l'entraînement », bien que la version bêta permet désormais l'accès à Internet. La société a également récemment mis à jour sa « Politique de mise à l'échelle responsable », qui définit les risques associés à chaque étape de développement et de sortie. Selon cette politique, Sonnet a été classé au « niveau de sécurité IA 2 », ce qui indique « les premiers signes de capacités dangereuses ». Cependant, Anthropic estime qu'il est suffisamment sûr pour être rendu public à ce stade.
Defending its decision to release the tool before fully understanding all the potential misuse scenarios, Anthropic said, “We can begin grappling with any safety issues before the stakes are too high, rather than adding computer use capabilities for the first time into a model with much more serious risks.” Essentially, the company would prefer to test these waters now while the AI’s capabilities are still relatively limited.
Défendant sa décision de publier l'outil avant de comprendre pleinement tous les scénarios d'utilisation abusive potentiels, Anthropic a déclaré : « Nous pouvons commencer à nous attaquer à tout problème de sécurité avant que les enjeux ne soient trop élevés, plutôt que d'ajouter pour la première fois des capacités d'utilisation informatique dans un modèle avec beaucoup de fonctionnalités. des risques plus graves. Essentiellement, l’entreprise préférerait tester ces eaux maintenant alors que les capacités de l’IA sont encore relativement limitées.
Of course, the risks associated with AI tools like Claude aren’t just theoretical. OpenAI recently disclosed 20 instances where state-backed actors had used ChatGPT for nefarious purposes, such as planning cyberattacks, probing vulnerable infrastructure, and designing influence campaigns. With the U.S. presidential election looming just two weeks away, Anthropic is keenly aware of the potential for misuse. “Given the upcoming US elections, we’re on high alert for attempted misuses that could be perceived as undermining public trust in electoral processes,” the company wrote.
Bien entendu, les risques associés aux outils d’IA comme Claude ne sont pas que théoriques. OpenAI a récemment révélé 20 cas dans lesquels des acteurs soutenus par l'État avaient utilisé ChatGPT à des fins néfastes, telles que planifier des cyberattaques, enquêter sur des infrastructures vulnérables et concevoir des campagnes d'influence. À l’approche de l’élection présidentielle américaine dans deux semaines seulement, Anthropic est parfaitement conscient du risque d’abus. « Compte tenu des prochaines élections américaines, nous sommes en état d'alerte maximale contre les tentatives d'abus qui pourraient être perçues comme sapant la confiance du public dans les processus électoraux », a écrit la société.
Anthropic says “The updated Claude 3.5 Sonnet shows wide-ranging improvements on industry benchmarks, with particularly strong gains in agentic coding and tool use tasks. On coding, it improves performance on SWE-bench Verified from 33.4% to 49.0%, scoring higher than all publicly available models—including reasoning models like OpenAI o1-preview and specialized systems designed for agentic coding. It also improves performance on TAU-bench, an agentic tool use task, from 62.6% to 69.2% in the retail domain, and from 36.0% to 46.0% in the more challenging airline domain. The new Claude 3.5 Sonnet offers these advancements at the same price and speed as its predecessor.”
Anthropic déclare : « La mise à jour Claude 3.5 Sonnet montre des améliorations considérables par rapport aux références de l'industrie, avec des gains particulièrement importants dans les tâches de codage agent et d'utilisation d'outils. En matière de codage, il améliore les performances sur SWE-bench Verified de 33,4 % à 49,0 %, soit un score supérieur à tous les modèles accessibles au public, y compris les modèles de raisonnement comme OpenAI o1-preview et les systèmes spécialisés conçus pour le codage agent. Il améliore également les performances sur TAU-bench, une tâche d'utilisation d'un outil agent, de 62,6 % à 69,2 % dans le domaine de la vente au détail, et de 36,0 % à 46,0 % dans le domaine plus complexe des compagnies aériennes. Le nouveau Claude 3.5 Sonnet offre ces avancées au même prix et à la même vitesse que son prédécesseur.
Anthropic has put safeguards in place to prevent Sonnet’s new capabilities from being exploited for election-related meddling. They’ve implemented systems to monitor when Claude is asked to engage in such activities, such as generating social media content or interacting with government websites. The company is also taking steps to ensure that screenshots captured during tool usage will not be used for future model training. However, even Anthropic’s engineers have been caught off guard by some of the tool’s behaviors. In one instance, Claude unexpectedly stopped a screen recording, losing all the footage. In a lighthearted moment, the AI even began browsing photos of Yellowstone National Park during a coding demo, which Anthropic shared on X with a mix of amusement and surprise.
Anthropic a mis en place des garde-fous pour empêcher que les nouvelles capacités de Sonnet soient exploitées à des fins d'ingérence électorale. Ils ont mis en place des systèmes pour surveiller quand Claude est invité à se livrer à de telles activités, comme générer du contenu sur les réseaux sociaux ou interagir avec des sites Web gouvernementaux. L'entreprise prend également des mesures pour garantir que les captures d'écran capturées lors de l'utilisation de l'outil ne seront pas utilisées pour la formation future du modèle. Cependant, même les ingénieurs d'Anthropic ont été pris au dépourvu par certains comportements de l'outil. Dans un cas, Claude a arrêté de manière inattendue un enregistrement d’écran, perdant ainsi toutes les images. Dans un moment de légèreté, l'IA a même commencé à parcourir des photos du parc national de Yellowstone lors d'une démo de codage, qu'Anthropic a partagée sur X avec un mélange d'amusement et de surprise.
Anthropic emphasizes the importance of safety in rolling out this new capability. Claude has been rated at AI Safety Level 2, meaning it doesn’t require heightened security measures for current risks but still raises concerns about potential misuse, like prompt injection attacks. The company has implemented systems to monitor election-related activities and prevent abuses like content generation or social media manipulation.
Anthropic souligne l'importance de la sécurité dans le déploiement de cette nouvelle capacité. Claude a été classé au niveau de sécurité IA 2, ce qui signifie qu'il ne nécessite pas de mesures de sécurité renforcées pour les risques actuels, mais soulève néanmoins des inquiétudes quant à une utilisation abusive potentielle, comme les attaques par injection rapide. L'entreprise a mis en place des systèmes pour surveiller les activités liées aux élections et prévenir les abus tels que la génération de contenu ou la manipulation des réseaux sociaux.
Although Claude’s computer use is still slow and prone to errors, Anthropic is optimistic about its future. The company plans to refine the model to make it faster, more reliable, and easier to implement. Throughout the beta phase, developers are encouraged to provide feedback to help improve both the model’s effectiveness and its safety protocols.
Même si l'utilisation de l'ordinateur par Claude est encore lente et sujette aux erreurs, Anthropic est optimiste quant à son avenir. L'entreprise prévoit d'affiner le modèle pour le rendre plus rapide, plus fiable et plus facile à mettre en œuvre. Tout au long de la phase bêta, les développeurs sont encouragés à fournir des commentaires pour contribuer à améliorer à la fois l'efficacité du modèle et ses protocoles de sécurité.
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- Prévision du prix du Bitcoin (BTC) : BTC entre dans une région de support clé à l'approche des élections américaines
- Oct 24, 2024 at 02:25 am
- Le prix du Bitcoin a baissé mercredi, baissant de 2,3% au moment de la rédaction pour s'échanger à 65 812 $. Le baromètre de la cryptographie a suivi une trajectoire descendante au cours des deux dernières séances après son rejet près de la barre psychologique des 70 000 $ lundi.
-
- Portefeuille Qubetics : fonctionnalité de carte virtuelle pour une sécurité et une commodité améliorées
- Oct 24, 2024 at 02:25 am
- L'un des plus grands défis dans l'espace cryptographique réside dans les risques de sécurité associés aux portefeuilles de garde, dans lesquels des fournisseurs tiers contrôlent les clés privées des utilisateurs.
-
- De 0,015 $ à 15 $ projeté : le retour sur investissement de 93 800 % de Qubetics vous attend pendant que Litecoin et Quant Rally prennent de l'ampleur
- Oct 24, 2024 at 02:25 am
- Dans l'écosystème financier actuel, des défis tels que la lenteur des transactions, le manque d'interopérabilité et la volatilité des marchés continuent d'entraver l'efficacité et l'adoption.
-
- Chainlink et Swift présenteront une nouvelle intégration de la blockchain, simplifiant le règlement des actifs numériques pour les institutions financières utilisant l'infrastructure existante
- Oct 24, 2024 at 02:20 am
- Le fournisseur Oracle décentralisé Chainlink présentera une nouvelle solution de paiement blockchain pour les institutions financières.