|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Articles d’actualité sur les crypto-monnaies
OpenAI Exodus : le chien de garde de la sécurité s'en va et tire la sonnette d'alarme
May 18, 2024 at 07:03 pm
Suite au départ du scientifique en chef Ilya Sutskever, Jan Leike, co-responsable de l'équipe Superalignment d'OpenAI, a démissionné en raison d'inquiétudes concernant la priorité donnée par l'entreprise au développement de produits plutôt qu'à la sécurité de l'IA. OpenAI a ensuite dissous l'équipe Superalignment, intégrant ses fonctions dans d'autres projets de recherche dans le cadre d'une restructuration interne en cours.
OpenAI Exodus: Departing Researchers Sound Alarm on Safety Concerns
OpenAI Exodus : les chercheurs en partance sonnent l'alarme concernant des problèmes de sécurité
A seismic shift has occurred within the hallowed halls of OpenAI, the pioneering artificial intelligence (AI) research laboratory. In a chorus of resignations, key figures tasked with safeguarding the existential dangers posed by advanced AI have bid farewell, leaving an ominous void in the organization's ethical foundation.
Un changement sismique s’est produit dans les salles sacrées d’OpenAI, le laboratoire de recherche pionnier en matière d’intelligence artificielle (IA). Dans un chœur de démissions, les personnalités clés chargées de protéger les dangers existentiels posés par l'IA avancée ont fait leurs adieux, laissant un vide inquiétant dans les fondements éthiques de l'organisation.
Following the departure of Ilya Sutskever, OpenAI's esteemed chief scientist and co-founder, the company has been rocked by the resignation of Jan Leike, another prominent researcher who co-led the "superalignment" team. Leike's departure stems from deep-rooted concerns about OpenAI's priorities, which he believes have shifted away from AI safety and towards a relentless pursuit of product development.
Suite au départ d'Ilya Sutskever, scientifique en chef estimé et co-fondateur d'OpenAI, la société a été secouée par la démission de Jan Leike, un autre chercheur éminent qui a codirigé l'équipe de « superalignement ». Le départ de Leike découle de préoccupations profondément enracinées concernant les priorités d'OpenAI, qui, selon lui, se sont éloignées de la sécurité de l'IA pour se tourner vers une poursuite incessante du développement de produits.
In a series of thought-provoking public posts, Leike lambasted OpenAI's leadership for prioritizing short-term deliverables over the urgent need to establish a robust safety culture and mitigate the potential risks associated with the development of artificial general intelligence (AGI). AGI, a hypothetical realm of AI, holds the promise of surpassing human capabilities across a broad spectrum of tasks, but also raises profound ethical and existential questions.
Dans une série de messages publics stimulants, Leike a fustigé le leadership d'OpenAI pour avoir donné la priorité aux livrables à court terme plutôt qu'au besoin urgent d'établir une culture de sécurité solide et d'atténuer les risques potentiels associés au développement de l'intelligence artificielle générale (AGI). L’AGI, un domaine hypothétique de l’IA, promet de surpasser les capacités humaines dans un large éventail de tâches, mais soulève également de profondes questions éthiques et existentielles.
Leike's critique centers around the glaring absence of adequate resources allocated to his team's safety research, particularly in terms of computing power. He maintains that OpenAI's management has consistently overlooked the critical importance of investing in safety initiatives, despite the looming threat posed by AGI.
La critique de Leike porte sur l'absence flagrante de ressources adéquates allouées à la recherche sur la sécurité de son équipe, notamment en termes de puissance de calcul. Il maintient que la direction d'OpenAI a systématiquement négligé l'importance cruciale d'investir dans des initiatives de sécurité, malgré la menace imminente posée par AGI.
"I have been disagreeing with OpenAI leadership about the company's core priorities for quite some time until we finally reached a breaking point. Over the past few months, my team has been sailing against the wind," Leike lamented.
"Je suis en désaccord avec la direction d'OpenAI sur les priorités fondamentales de l'entreprise depuis un certain temps jusqu'à ce que nous atteignions finalement un point de rupture. Au cours des derniers mois, mon équipe a navigué contre le vent", a déploré Leike.
In a desperate attempt to address the mounting concerns surrounding AI safety, OpenAI established a dedicated research team in July 2023, tasking them with preparing for the advent of advanced AI systems that could potentially outmaneuver and even overpower their creators. Sutskever was appointed as the co-lead of this newly formed team, which was granted a generous allocation of 20% of OpenAI's computational resources.
Dans une tentative désespérée de répondre aux préoccupations croissantes concernant la sécurité de l’IA, OpenAI a créé une équipe de recherche dédiée en juillet 2023, chargée de se préparer à l’avènement de systèmes d’IA avancés qui pourraient potentiellement déjouer et même maîtriser leurs créateurs. Sutskever a été nommé co-responsable de cette équipe nouvellement formée, qui a reçu une allocation généreuse de 20 % des ressources informatiques d'OpenAI.
However, the recent departures of Sutskever and Leike have cast a long shadow over the future of OpenAI's AI safety research program. In a move that has sent shockwaves throughout the AI community, OpenAI has reportedly disbanded the "superalignment" team, effectively integrating its functions into other research projects within the organization. This decision is widely seen as a consequence of the ongoing internal restructuring, which was initiated in response to a governance crisis that shook OpenAI to its core in November 2023.
Cependant, les récents départs de Sutskever et Leike ont jeté une ombre sur l'avenir du programme de recherche sur la sécurité de l'IA d'OpenAI. Dans une démarche qui a provoqué une onde de choc dans toute la communauté de l'IA, OpenAI aurait dissous l'équipe de « superalignement », intégrant ainsi ses fonctions dans d'autres projets de recherche au sein de l'organisation. Cette décision est largement considérée comme une conséquence de la restructuration interne en cours, initiée en réponse à une crise de gouvernance qui a ébranlé OpenAI en novembre 2023.
Sutskever, who played a pivotal role in the effort that briefly ousted Sam Altman as CEO before he was reinstated amidst employee backlash, has consistently emphasized the paramount importance of ensuring that OpenAI's AGI developments align with the interests of humanity. As a member of OpenAI's six-member board, Sutskever has repeatedly stressed the need to align the organization's goals with the greater good.
Sutskever, qui a joué un rôle central dans les efforts visant à évincer brièvement Sam Altman de son poste de PDG avant sa réintégration au milieu des réactions négatives des employés, a toujours souligné l'importance primordiale de garantir que les développements AGI d'OpenAI s'alignent sur les intérêts de l'humanité. En tant que membre du conseil d'administration d'OpenAI, composé de six membres, Sutskever a souligné à plusieurs reprises la nécessité d'aligner les objectifs de l'organisation sur le bien commun.
Leike's resignation serves as a stark reminder of the profound challenges facing OpenAI and the broader AI community as they grapple with the immense power and ethical implications of AGI. His departure signals a growing concern that OpenAI's priorities have become misaligned, potentially jeopardizing the safety and well-being of humanity in the face of rapidly advancing AI technologies.
La démission de Leike nous rappelle brutalement les profonds défis auxquels sont confrontés OpenAI et la communauté plus large de l'IA alors qu'ils sont aux prises avec l'immense pouvoir et les implications éthiques de l'AGI. Son départ témoigne d'une inquiétude croissante quant au désalignement des priorités d'OpenAI, mettant potentiellement en danger la sécurité et le bien-être de l'humanité face à l'évolution rapide des technologies de l'IA.
The exodus of key researchers from OpenAI's AI safety team should serve as a wake-up call to all stakeholders, including policymakers, industry leaders, and the general public. It is imperative that we heed the warnings of these experts and prioritize the implementation of robust safety measures as we venture into the uncharted territory of AGI. The future of humanity may depend on it.
L'exode de chercheurs clés de l'équipe de sécurité de l'IA d'OpenAI devrait servir de signal d'alarme à toutes les parties prenantes, y compris les décideurs politiques, les leaders de l'industrie et le grand public. Il est impératif que nous tenions compte des avertissements de ces experts et accordions la priorité à la mise en œuvre de mesures de sécurité robustes alors que nous nous aventurons dans le territoire inexploré d’AGI. L’avenir de l’humanité en dépend peut-être.
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- Le nouveau plan d'Elon Musk : le public peut désormais dénoncer les dépenses inutiles et les coupes budgétaires injustifiées
- Nov 14, 2024 at 08:40 pm
- Le PDG de Tesla, Elon Musk, a partagé mardi sa vision d'une transparence totale au sein du nouveau ministère de l'Efficacité gouvernementale (DOGE) sur sa plateforme de médias sociaux X.
-
- Le créateur de Dogecoin, Billy Markus, indique à la communauté le code spécifique à modifier pour se débarrasser de l'inflation, avant de demander poliment à la communauté d'arrêter de l'ennuyer à ce sujet.
- Nov 14, 2024 at 08:25 pm
- La communauté Dogecoin est depuis longtemps consternée par les tokenomics inflationnistes de la pièce – des milliards de DOGE sont ajoutés à l'offre en circulation chaque année.
-
- Ce sont trois des meilleures crypto-monnaies à acheter dès maintenant avant qu’elles ne montent en flèche
- Nov 14, 2024 at 08:25 pm
- Bitcoin (CRYPTO : BTC) ouvre la voie en établissant un nouveau sommet historique de plus de 88 000 $. Ce rallye a suscité un enthousiasme généralisé, faisant grimper les prix et suscitant un nouvel intérêt pour la cryptographie.
-
- Le prix de la pièce PEPE défie la résistance de 0,00002387 $ après la cotation de Coinbase, mais FOMO achètera-t-il son L2 Challenger PEPU lui volera-t-il la vedette ?
- Nov 14, 2024 at 08:25 pm
- Le prix de la pièce Pepe est devenu balistique, bondissant de plus de 73 % au cours des dernières 24 heures pour s'échanger à 0,00002261 $ à 4 h 38 HNE alors qu'une frénésie d'acheteur éclate autour de la pièce mème.
-
- XRP et JetBolt de Ripple volent la vedette dans un marché en pleine effervescence
- Nov 14, 2024 at 08:25 pm
- Dans un marché en pleine effervescence, le XRP et JetBolt de Ripple attirent l'attention pour différentes raisons : le XRP avec sa hausse audacieuse des prix et sa quête continue pour atteindre 1 $, et JetBolt avec sa technologie innovante sans gaz et son impressionnant succès en prévente.
-
- FXGuys ($FXG) Prop Firm Coin combine DeFi, PropFi et TradFi, offrant un mélange unique de solutions financières
- Nov 14, 2024 at 08:15 pm
- Alors que Sui (SUI) et Ondo Finance (ONDO) continuent de réaliser des gains impressionnants sur le marché de la cryptographie, une nouvelle pièce de monnaie d'une société d'accessoires émerge tranquillement avec des valeurs similaires.