bitcoin
bitcoin

$94421.708279 USD

-0.81%

ethereum
ethereum

$3374.101363 USD

1.10%

tether
tether

$0.998365 USD

-0.08%

xrp
xrp

$2.173834 USD

0.76%

bnb
bnb

$719.725098 USD

3.67%

solana
solana

$190.398627 USD

2.04%

dogecoin
dogecoin

$0.319124 USD

1.82%

usd-coin
usd-coin

$0.999952 USD

-0.01%

cardano
cardano

$0.882452 USD

0.36%

tron
tron

$0.256814 USD

-1.88%

avalanche
avalanche

$37.174140 USD

0.16%

toncoin
toncoin

$5.812645 USD

0.96%

chainlink
chainlink

$21.581440 USD

-4.54%

shiba-inu
shiba-inu

$0.000022 USD

1.67%

sui
sui

$4.112530 USD

-1.23%

Articles d’actualité sur les crypto-monnaies

La Chambre des représentants américaine interdit Microsoft Co-Pilot pour violation de données

Apr 02, 2024 at 01:27 am

Au milieu d'inquiétudes concernant la sécurité des données et une éventuelle utilisation abusive, la Chambre des représentants a interdit l'utilisation du chatbot Copilot for Security de Microsoft par le personnel de la Chambre, à la suite d'une interdiction similaire de ChatGPT. Cette décision met en évidence les discussions réglementaires en cours autour de l’IA au sein du gouvernement fédéral, conduisant à une surveillance accrue et à la recherche de solutions d’IA plus sûres et plus éthiques.

La Chambre des représentants américaine interdit Microsoft Co-Pilot pour violation de données

Microsoft's Copilot for Security Faces Scrutiny and Ban by House of Representatives

Le copilote de sécurité de Microsoft fait face à un examen minutieux et à une interdiction par la Chambre des représentants

In a significant development, the United States House of Representatives has prohibited the use of Microsoft Copilot for Security, an AI-powered chatbot, by its staffers. This action, taken on March 29, follows a similar ban on the use of OpenAI's ChatGPT last summer.

Dans un développement important, la Chambre des représentants des États-Unis a interdit l'utilisation de Microsoft Copilot for Security, un chatbot alimenté par l'IA, par son personnel. Cette mesure, prise le 29 mars, fait suite à une interdiction similaire de l'utilisation de ChatGPT d'OpenAI l'été dernier.

The House Office of Cybersecurity has identified Microsoft Copilot as a potential security risk due to concerns that it could potentially leak House data to unauthorized cloud services. Consequently, the guidance issued demands the removal and blocking of Copilot on all House Windows devices.

Le House Office of Cybersecurity a identifié Microsoft Copilot comme un risque potentiel pour la sécurité en raison des craintes qu'il puisse potentiellement divulguer des données House vers des services cloud non autorisés. Par conséquent, les directives publiées exigent la suppression et le blocage de Copilot sur tous les appareils Windows de la maison.

This move by the House is part of a broader effort by the federal government to regulate and control the use of artificial intelligence (AI) technology. In response, Microsoft has announced plans to release a more secure version of Copilot specifically designed for government use this summer.

Cette décision de la Chambre fait partie d’un effort plus large du gouvernement fédéral visant à réglementer et à contrôler l’utilisation de la technologie de l’intelligence artificielle (IA). En réponse, Microsoft a annoncé son intention de publier cet été une version plus sécurisée de Copilot spécialement conçue pour une utilisation gouvernementale.

"The ban on congressional staffers' use of Microsoft Copilot highlights the government's cautious approach to AI while trying to regulate it," observed Callie Guenther, a senior manager of cyber threat research at Critical Start. "The risks include data security, potential bias, dependence on external platforms, and opaque AI processes."

"L'interdiction faite aux membres du Congrès d'utiliser Microsoft Copilot met en évidence l'approche prudente du gouvernement à l'égard de l'IA tout en essayant de la réglementer", a observé Callie Guenther, responsable principale de la recherche sur les cybermenaces chez Critical Start. "Les risques incluent la sécurité des données, les biais potentiels, la dépendance à l'égard de plateformes externes et les processus d'IA opaques."

According to Guenther, it is essential for the AI industry to prioritize security, enhance transparency, develop government-specific solutions, and support continuous evaluation to effectively address these concerns. She believes that Congress may reconsider its stance if these issues are adequately resolved, particularly if government-tailored AI versions demonstrate superior security and ethical standards.

Selon Guenther, il est essentiel que l’industrie de l’IA donne la priorité à la sécurité, améliore la transparence, développe des solutions spécifiques au gouvernement et soutienne une évaluation continue pour répondre efficacement à ces préoccupations. Elle estime que le Congrès pourrait reconsidérer sa position si ces problèmes sont résolus de manière adéquate, en particulier si les versions d'IA adaptées au gouvernement démontrent des normes de sécurité et d'éthique supérieures.

Narayana Pappu, chief executive officer of Zendata, emphasizes the need for companies to offer users the ability to opt out of training, provide transparency on sources used to generate output, and develop methods to assess output for bias. "Without these measures in place, it would be challenging for any government agency to sanction or provide guidance on these tools," Pappu stated. "Indeed, as the year progresses, concerns and bans related to AI are only anticipated to escalate."

Narayana Pappu, PDG de Zendata, souligne la nécessité pour les entreprises d'offrir aux utilisateurs la possibilité de se désinscrire de la formation, d'assurer la transparence sur les sources utilisées pour générer des résultats et de développer des méthodes pour évaluer les biais des résultats. "Sans ces mesures en place, il serait difficile pour toute agence gouvernementale de sanctionner ou de fournir des conseils sur ces outils", a déclaré Pappu. "En effet, à mesure que l'année avance, les inquiétudes et les interdictions liées à l'IA ne feront que s'intensifier."

Kevin Surace, Chair at Token, notes that Microsoft possesses a separate version of GPT4 specifically for Copilot use and asserts that no corporate data will be shared externally. However, Surace acknowledges a potential risk that the model may learn from prompts and share prompt information under certain circumstances. This is the rationale behind Microsoft's planned release of a government-specific version this summer.

Kevin Surace, président de Token, note que Microsoft possède une version distincte de GPT4 spécifiquement destinée à l'utilisation de Copilot et affirme qu'aucune donnée d'entreprise ne sera partagée en externe. Cependant, Surace reconnaît le risque potentiel que le modèle puisse apprendre des invites et partager des informations d'invite dans certaines circonstances. C'est la raison pour laquelle Microsoft prévoit de publier cet été une version spécifique au gouvernement.

"An updated government version would undoubtedly isolate every request from any other, even in the event of a system breach," Surace explained. "While the current risk may be minimal, Microsoft understands the importance of addressing government officials' concerns and will likely do so later this year, rendering this congressional action obsolete."

"Une version gouvernementale mise à jour isolerait sans aucun doute chaque demande des autres, même en cas de faille du système", a expliqué Surace. "Bien que le risque actuel puisse être minime, Microsoft comprend l'importance de répondre aux préoccupations des responsables gouvernementaux et le fera probablement plus tard cette année, rendant cette action du Congrès obsolète."

As the federal government continues to grapple with the regulatory complexities of AI, the future of AI in government will hinge on the industry's ability to address concerns and demonstrate adherence to rigorous security and ethical standards.

Alors que le gouvernement fédéral continue de se débattre avec les complexités réglementaires de l'IA, l'avenir de l'IA au sein du gouvernement dépendra de la capacité de l'industrie à répondre aux préoccupations et à démontrer son adhésion à des normes rigoureuses de sécurité et d'éthique.

Clause de non-responsabilité:info@kdj.com

The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!

If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.

Autres articles publiés sur Dec 28, 2024