bitcoin
bitcoin

$75806.30 USD 

8.66%

ethereum
ethereum

$2724.94 USD 

11.83%

tether
tether

$1.00 USD 

0.05%

solana
solana

$188.00 USD 

12.44%

bnb
bnb

$592.77 USD 

4.66%

usd-coin
usd-coin

$0.999493 USD 

-0.05%

xrp
xrp

$0.544248 USD 

5.68%

dogecoin
dogecoin

$0.197821 USD 

15.11%

tron
tron

$0.162604 USD 

1.41%

cardano
cardano

$0.363259 USD 

8.45%

toncoin
toncoin

$4.80 USD 

1.87%

shiba-inu
shiba-inu

$0.000019 USD 

6.99%

avalanche
avalanche

$27.18 USD 

12.82%

chainlink
chainlink

$12.23 USD 

12.36%

bitcoin-cash
bitcoin-cash

$378.89 USD 

10.11%

Articles d’actualité sur les crypto-monnaies

Le meilleur des mondes de l’intelligence artificielle : Washington sonne une alarme urgente en matière de sécurité et de confidentialité

Mar 31, 2024 at 08:48 am

Dans le paysage émergent de l’IA, des préoccupations fondamentales se posent concernant la sécurité, la confidentialité et l’intégrité des modèles d’IA générative. L’absence de vérification complète des données de formation, les mesures de sécurité poreuses et l’ingestion aveugle de données présentent des risques importants. Les problèmes de confidentialité sont accrus en raison de la dépendance des modèles sur de vastes ensembles de données, ce qui soulève des inquiétudes concernant la protection des invites conversationnelles dynamiques, la confidentialité des employeurs et le potentiel d'infiltration de contenu malveillant dans les données de formation.

Le meilleur des mondes de l’intelligence artificielle : Washington sonne une alarme urgente en matière de sécurité et de confidentialité

AI's Brave New World: Sounding the Alarm on Security and Privacy

Le meilleur des mondes de l'IA : tirer la sonnette d'alarme sur la sécurité et la confidentialité

In the vibrant heart of Washington, D.C., a sobering conversation unfolded last week, a discussion that laid bare the profound implications of artificial intelligence (AI) on the pillars of security and privacy.

Au cœur vibrant de Washington, D.C., une conversation qui donne à réfléchir s’est déroulée la semaine dernière, une discussion qui a mis à nu les profondes implications de l’intelligence artificielle (IA) sur les piliers de la sécurité et de la vie privée.

As the echoes of academic laboratories and venture capital chambers reverberate through the corridors of progress, the unbridled enthusiasm surrounding generative AI is reminiscent of the nascent days of the internet. However, this time, the speed with which we are hurtling towards AI's "Brave New World" is fueled by the relentless ambition of vendors, the sirens of minor-league venture capital, and the amplification of Twitter echo chambers.

Alors que les échos des laboratoires universitaires et des chambres de capital-risque se répercutent dans les couloirs du progrès, l’enthousiasme débridé autour de l’IA générative rappelle les débuts d’Internet. Cependant, cette fois, la rapidité avec laquelle nous nous dirigeons vers le « Meilleur des Mondes » de l’IA est alimentée par l’ambition implacable des fournisseurs, les sirènes du capital-risque des ligues mineures et l’amplification des chambres d’écho de Twitter.

Therein lies the genesis of our current predicament. The so-called "public" foundation models upon which generative AI rests are marred by blemishes that render them both unreliable and unsuitable for widespread consumer and commercial use. Privacy protections, when they exist at all, are riddled with holes, leaking sensitive data like a sieve. Security constructs are a work in progress, with the sprawling attack surface and the myriad threat vectors still largely unexplored. And as for the illusory guardrails, the less said, the better.

C’est là que réside la genèse de notre situation difficile actuelle. Les modèles de fondation dits « publics » sur lesquels repose l’IA générative sont entachés de défauts qui les rendent à la fois peu fiables et impropres à une utilisation grand public et commerciale. Les protections de la vie privée, lorsqu’elles existent, sont truffées de failles, laissant échapper des données sensibles comme un tamis. Les constructions de sécurité sont un travail en cours, avec une surface d’attaque tentaculaire et une myriade de vecteurs de menace encore largement inexplorés. Et quant aux garde-fous illusoires, moins on en dit, mieux c'est.

How did we arrive at this precarious juncture? How did security and privacy become casualties on the path to AI's brave new world?

Comment en sommes-nous arrivés à cette situation précaire ? Comment la sécurité et la confidentialité sont-elles devenues des victimes sur le chemin vers le meilleur des mondes de l’IA ?

Tainted Foundation Models: A Pandora's Box of Data

Modèles de fondations contaminés : une boîte de données de Pandore

The very foundation of generative AI is built upon a shaky ground, as these so-called "open" models are anything but. Vendors tout varying degrees of openness, granting access to model weights, documentation, or test data. Yet, none provide the critical training data sets, their manifests, or lineage, rendering it impossible to replicate or reproduce their models.

Les fondements mêmes de l’IA générative reposent sur un terrain fragile, car ces modèles dits « ouverts » sont tout sauf le cas. Les fournisseurs vantent différents degrés d'ouverture, accordant l'accès aux poids des modèles, à la documentation ou aux données de test. Pourtant, aucun ne fournit les ensembles de données de formation critiques, leurs manifestes ou leur lignée, ce qui rend impossible la réplication ou la reproduction de leurs modèles.

This lack of transparency means that consumers and organizations using these models have no way of verifying or validating the data they ingest, exposing themselves to potential copyright infringements, illegal content, and malicious code. Moreover, without a manifest of the training data sets, there is no way to ascertain whether nefarious actors have planted trojan horse content, leading to unpredictable and potentially devastating consequences when the models are deployed.

Ce manque de transparence signifie que les consommateurs et les organisations utilisant ces modèles n'ont aucun moyen de vérifier ou de valider les données qu'ils ingèrent, s'exposant ainsi à de potentielles violations du droit d'auteur, à des contenus illégaux et à des codes malveillants. De plus, sans manifeste des ensembles de données de formation, il n’existe aucun moyen de déterminer si des acteurs malveillants ont implanté du contenu de type cheval de Troie, ce qui entraîne des conséquences imprévisibles et potentiellement dévastatrices lors du déploiement des modèles.

Once a model is compromised, there is no going back. The only recourse is to obliterate it, a costly and irreversible solution.

Une fois qu’un modèle est compromis, il n’est plus possible de revenir en arrière. Le seul recours est de l’effacer, une solution coûteuse et irréversible.

Porous Security: A Hacker's Paradise

Sécurité poreuse : le paradis des hackers

Generative AI models are veritable security honeypots, with all data amalgamated into a single, vulnerable container. This creates an unprecedented array of attack vectors, leaving the industry grappling with the daunting task of safeguarding these models from cyber threats and preventing their exploitation as tools of malicious actors.

Les modèles d’IA générative sont de véritables pots de miel de sécurité, où toutes les données sont regroupées dans un conteneur unique et vulnérable. Cela crée une gamme sans précédent de vecteurs d’attaque, laissant l’industrie aux prises avec la tâche ardue de protéger ces modèles contre les cybermenaces et d’empêcher leur exploitation comme outils par des acteurs malveillants.

Attackers can poison the index, corrupt the weights, extract sensitive data, and even determine whether specific data was used in the training set. These are but a fraction of the security risks that lurk within the shadows of generative AI.

Les attaquants peuvent empoisonner l'index, corrompre les pondérations, extraire des données sensibles et même déterminer si des données spécifiques ont été utilisées dans l'ensemble d'apprentissage. Ce ne sont là qu’une fraction des risques de sécurité qui se cachent dans l’ombre de l’IA générative.

State-sponsored cyber activities are a further source of concern, as malicious actors can embed trojan horses and other cyber threats within the vast data sets that AI models consume. This poses a serious threat to national security and the integrity of critical infrastructure.

Les cyberactivités parrainées par les États constituent une autre source de préoccupation, car des acteurs malveillants peuvent intégrer des chevaux de Troie et d’autres cybermenaces dans les vastes ensembles de données consommés par les modèles d’IA. Cela constitue une menace sérieuse pour la sécurité nationale et l’intégrité des infrastructures critiques.

Leaky Privacy: A Constant Flow of Data

Fuite de confidentialité : un flux constant de données

The very strength of AI models, their ability to learn from vast data sets, is also their greatest vulnerability when it comes to privacy. The indiscriminate ingestion of data, often without regard for consent or confidentiality, creates unprecedented privacy risks for individuals and society as a whole.

La force même des modèles d’IA, leur capacité à apprendre à partir de vastes ensembles de données, constitue également leur plus grande vulnérabilité en matière de confidentialité. L’ingestion aveugle de données, souvent sans égard au consentement ou à la confidentialité, crée des risques sans précédent en matière de vie privée pour les individus et la société dans son ensemble.

In an era defined by AI, privacy has become a societal imperative, and regulations focused solely on individual data rights are woefully inadequate. Beyond static data, it is crucial to safeguard dynamic conversational prompts as intellectual property. These prompts, which guide the creative output of AI models, should not be used to train the model or shared with other users.

À l’ère de l’IA, la vie privée est devenue un impératif sociétal et les réglementations axées uniquement sur les droits individuels en matière de données sont malheureusement inadéquates. Au-delà des données statiques, il est crucial de protéger les invites conversationnelles dynamiques en tant que propriété intellectuelle. Ces invites, qui guident la sortie créative des modèles d’IA, ne doivent pas être utilisées pour entraîner le modèle ni partagées avec d’autres utilisateurs.

Similarly, employers have a vested interest in protecting the confidentiality of prompts and responses generated by employees using AI models. In the event of liability issues, a secure audit trail is essential to establish the provenance and intent behind these interactions.

De même, les employeurs ont tout intérêt à protéger la confidentialité des invites et des réponses générées par les employés à l’aide de modèles d’IA. En cas de problèmes de responsabilité, une piste d’audit sécurisée est essentielle pour établir la provenance et l’intention derrière ces interactions.

A Call to Action: Regulators and Policymakers Must Step In

Un appel à l’action : les régulateurs et les décideurs politiques doivent intervenir

The technology we are grappling with is unlike anything we have encountered before in the history of computing. AI exhibits emergent, latent behavior at scale, rendering traditional approaches to security, privacy, and confidentiality obsolete.

La technologie avec laquelle nous sommes aux prises ne ressemble à rien de ce que nous avons rencontré auparavant dans l’histoire de l’informatique. L’IA présente un comportement émergent et latent à grande échelle, rendant obsolètes les approches traditionnelles en matière de sécurité, de confidentialité et de confidentialité.

Industry leaders have acted with reckless abandon, leaving regulators and policymakers with no choice but to intervene. It is imperative that governments establish clear guidelines and regulations to govern the development and deployment of generative AI, with a particular focus on addressing the pressing concerns of security and privacy.

Les dirigeants de l’industrie ont agi de manière imprudente, ne laissant aux régulateurs et aux décideurs politiques d’autre choix que d’intervenir. Il est impératif que les gouvernements établissent des lignes directrices et des réglementations claires pour régir le développement et le déploiement de l’IA générative, en mettant particulièrement l’accent sur les préoccupations urgentes en matière de sécurité et de confidentialité.

Conclusion

Conclusion

The Brave New World of AI holds immense promise, but it is imperative that we proceed with caution, ensuring that our pursuit of progress does not come at the expense of our security and privacy. The time for complacency has passed. It is time for regulators, policymakers, and the technology industry to work together to establish a robust framework that safeguards these fundamental rights in the age of AI.

Le meilleur des mondes de l’IA est extrêmement prometteur, mais il est impératif que nous procédions avec prudence, en veillant à ce que notre quête de progrès ne se fasse pas au détriment de notre sécurité et de notre vie privée. Le temps de la complaisance est révolu. Il est temps que les régulateurs, les décideurs politiques et l’industrie technologique travaillent ensemble pour établir un cadre solide qui protège ces droits fondamentaux à l’ère de l’IA.

Clause de non-responsabilité:info@kdj.com

Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!

Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.

Autres articles publiés sur Nov 07, 2024