|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
새롭게 떠오르는 AI 환경에서는 보안, 개인정보 보호, 생성 AI 모델의 무결성에 대한 근본적인 우려가 제기됩니다. 포괄적인 훈련 데이터 검증의 부재, 다공성 보안 조치, 무분별한 데이터 수집은 심각한 위험을 초래합니다. 모델이 방대한 데이터 세트에 의존하기 때문에 개인 정보 보호에 대한 우려가 높아지고, 동적 대화 프롬프트 보호, 고용주 기밀 유지 및 악성 콘텐츠가 교육 데이터에 침투할 가능성에 대한 우려가 높아집니다.
AI's Brave New World: Sounding the Alarm on Security and Privacy
AI의 멋진 신세계: 보안 및 개인정보 보호에 대한 경종을 울리다
In the vibrant heart of Washington, D.C., a sobering conversation unfolded last week, a discussion that laid bare the profound implications of artificial intelligence (AI) on the pillars of security and privacy.
워싱턴 D.C.의 활기 넘치는 중심부에서 지난 주 보안과 개인 정보 보호의 기둥에 대한 인공 지능(AI)의 심오한 영향을 폭로한 진지한 대화가 펼쳐졌습니다.
As the echoes of academic laboratories and venture capital chambers reverberate through the corridors of progress, the unbridled enthusiasm surrounding generative AI is reminiscent of the nascent days of the internet. However, this time, the speed with which we are hurtling towards AI's "Brave New World" is fueled by the relentless ambition of vendors, the sirens of minor-league venture capital, and the amplification of Twitter echo chambers.
학술 실험실과 벤처 캐피탈 회의소의 메아리가 진보의 통로를 통해 울려 퍼지면서 생성 AI를 둘러싼 억제되지 않은 열정은 인터넷 초기 시절을 연상시킵니다. 그러나 이번에 우리가 AI의 "멋진 신세계"를 향해 돌진하는 속도는 벤더들의 끊임없는 야망, 마이너리그 벤처 캐피털의 사이렌, 트위터 에코 챔버의 증폭에 힘입어 이루어졌습니다.
Therein lies the genesis of our current predicament. The so-called "public" foundation models upon which generative AI rests are marred by blemishes that render them both unreliable and unsuitable for widespread consumer and commercial use. Privacy protections, when they exist at all, are riddled with holes, leaking sensitive data like a sieve. Security constructs are a work in progress, with the sprawling attack surface and the myriad threat vectors still largely unexplored. And as for the illusory guardrails, the less said, the better.
여기에 현재 우리가 처한 곤경의 기원이 있습니다. 생성 AI의 기초가 되는 소위 "공용" 기반 모델은 광범위한 소비자 및 상업적 사용에 적합하지 않고 신뢰할 수 없게 만드는 결점으로 인해 손상되었습니다. 개인 정보 보호 기능이 존재하더라도 구멍이 뚫려 있어 민감한 데이터가 체처럼 유출됩니다. 보안 구성은 진행 중인 작업으로, 공격 표면이 광범위하고 무수히 많은 위협 벡터가 아직 대부분 탐색되지 않은 상황입니다. 그리고 환상의 가드레일은 말을 적게 할수록 좋습니다.
How did we arrive at this precarious juncture? How did security and privacy become casualties on the path to AI's brave new world?
우리는 어떻게 이 위태로운 시점에 이르렀습니까? AI의 멋진 신세계로 가는 길에서 어떻게 보안과 개인 정보 보호가 희생양이 되었습니까?
Tainted Foundation Models: A Pandora's Box of Data
오염된 기초 모델: 판도라의 데이터 상자
The very foundation of generative AI is built upon a shaky ground, as these so-called "open" models are anything but. Vendors tout varying degrees of openness, granting access to model weights, documentation, or test data. Yet, none provide the critical training data sets, their manifests, or lineage, rendering it impossible to replicate or reproduce their models.
소위 "개방형" 모델이라고 불리는 것과는 전혀 다른 생성적 AI의 기반은 불안정한 기반 위에 구축되었습니다. 공급업체는 모델 가중치, 문서 또는 테스트 데이터에 대한 액세스 권한을 부여하여 다양한 수준의 개방성을 자랑합니다. 그러나 중요한 훈련 데이터 세트, 해당 매니페스트 또는 계보를 제공하는 곳이 없어 모델을 복제하거나 재현하는 것이 불가능합니다.
This lack of transparency means that consumers and organizations using these models have no way of verifying or validating the data they ingest, exposing themselves to potential copyright infringements, illegal content, and malicious code. Moreover, without a manifest of the training data sets, there is no way to ascertain whether nefarious actors have planted trojan horse content, leading to unpredictable and potentially devastating consequences when the models are deployed.
이러한 투명성 부족은 이러한 모델을 사용하는 소비자와 조직이 수집하는 데이터를 확인하거나 검증할 방법이 없어 잠재적인 저작권 침해, 불법 콘텐츠 및 악성 코드에 노출된다는 것을 의미합니다. 더욱이 훈련 데이터 세트가 명시되지 않으면 악의적인 행위자가 트로이 목마 콘텐츠를 심어 모델이 배포될 때 예측할 수 없고 잠재적으로 파괴적인 결과를 초래하는지 여부를 확인할 수 있는 방법이 없습니다.
Once a model is compromised, there is no going back. The only recourse is to obliterate it, a costly and irreversible solution.
모델이 손상되면 되돌릴 수 없습니다. 유일한 수단은 그것을 없애는 것인데, 이는 비용이 많이 들고 되돌릴 수 없는 해결책입니다.
Porous Security: A Hacker's Paradise
다공성 보안: 해커의 천국
Generative AI models are veritable security honeypots, with all data amalgamated into a single, vulnerable container. This creates an unprecedented array of attack vectors, leaving the industry grappling with the daunting task of safeguarding these models from cyber threats and preventing their exploitation as tools of malicious actors.
생성적 AI 모델은 모든 데이터가 취약한 단일 컨테이너에 통합된 진정한 보안 허니팟입니다. 이로 인해 전례 없는 일련의 공격 벡터가 생성되어 업계는 이러한 모델을 사이버 위협으로부터 보호하고 악의적인 행위자의 도구로 악용되는 것을 방지해야 하는 어려운 작업에 고군분투하게 됩니다.
Attackers can poison the index, corrupt the weights, extract sensitive data, and even determine whether specific data was used in the training set. These are but a fraction of the security risks that lurk within the shadows of generative AI.
공격자는 인덱스를 오염시키고, 가중치를 손상시키고, 민감한 데이터를 추출하고, 훈련 세트에 특정 데이터가 사용되었는지 여부를 확인할 수도 있습니다. 이는 생성 AI의 그림자 속에 숨어 있는 보안 위험의 일부에 불과합니다.
State-sponsored cyber activities are a further source of concern, as malicious actors can embed trojan horses and other cyber threats within the vast data sets that AI models consume. This poses a serious threat to national security and the integrity of critical infrastructure.
국가가 후원하는 사이버 활동은 악의적인 행위자가 AI 모델이 사용하는 방대한 데이터 세트 내에 트로이 목마 및 기타 사이버 위협을 삽입할 수 있기 때문에 더욱 우려되는 요소입니다. 이는 국가 안보와 중요 인프라의 무결성에 심각한 위협이 됩니다.
Leaky Privacy: A Constant Flow of Data
누출된 개인 정보 보호: 지속적인 데이터 흐름
The very strength of AI models, their ability to learn from vast data sets, is also their greatest vulnerability when it comes to privacy. The indiscriminate ingestion of data, often without regard for consent or confidentiality, creates unprecedented privacy risks for individuals and society as a whole.
AI 모델의 강점, 방대한 데이터 세트로부터 학습할 수 있는 능력은 개인 정보 보호와 관련하여 가장 큰 취약성이기도 합니다. 동의나 기밀 유지를 고려하지 않은 무분별한 데이터 수집은 개인과 사회 전체에 전례 없는 개인 정보 보호 위험을 초래합니다.
In an era defined by AI, privacy has become a societal imperative, and regulations focused solely on individual data rights are woefully inadequate. Beyond static data, it is crucial to safeguard dynamic conversational prompts as intellectual property. These prompts, which guide the creative output of AI models, should not be used to train the model or shared with other users.
AI로 정의된 시대에 개인 정보 보호는 사회적 필수 사항이 되었으며, 개인 데이터 권리에만 초점을 맞춘 규정은 부적절할 정도로 부적절합니다. 정적 데이터 외에도 동적 대화 프롬프트를 지적 재산으로 보호하는 것이 중요합니다. AI 모델의 창의적인 결과를 안내하는 이러한 프롬프트는 모델을 교육하는 데 사용하거나 다른 사용자와 공유해서는 안 됩니다.
Similarly, employers have a vested interest in protecting the confidentiality of prompts and responses generated by employees using AI models. In the event of liability issues, a secure audit trail is essential to establish the provenance and intent behind these interactions.
마찬가지로 고용주는 AI 모델을 사용하여 직원이 생성한 프롬프트와 응답의 기밀성을 보호하는 데 기득권을 가지고 있습니다. 책임 문제가 발생한 경우 이러한 상호 작용의 출처와 의도를 확립하려면 보안 감사 추적이 필수적입니다.
A Call to Action: Regulators and Policymakers Must Step In
행동 촉구: 규제 기관과 정책 입안자들이 개입해야 합니다
The technology we are grappling with is unlike anything we have encountered before in the history of computing. AI exhibits emergent, latent behavior at scale, rendering traditional approaches to security, privacy, and confidentiality obsolete.
우리가 씨름하고 있는 기술은 컴퓨팅 역사상 이전에 접했던 그 어떤 기술과도 다릅니다. AI는 대규모로 출현하고 잠재된 행동을 보여 보안, 개인 정보 보호 및 기밀 유지에 대한 기존 접근 방식을 쓸모없게 만듭니다.
Industry leaders have acted with reckless abandon, leaving regulators and policymakers with no choice but to intervene. It is imperative that governments establish clear guidelines and regulations to govern the development and deployment of generative AI, with a particular focus on addressing the pressing concerns of security and privacy.
업계 리더들은 무모하게 행동해 규제 당국과 정책 입안자들이 개입할 수밖에 없게 되었습니다. 정부는 보안 및 개인 정보 보호에 대한 시급한 문제를 해결하는 데 특히 중점을 두고 생성 AI의 개발 및 배포를 관리하기 위한 명확한 지침과 규정을 수립하는 것이 필수적입니다.
Conclusion
결론
The Brave New World of AI holds immense promise, but it is imperative that we proceed with caution, ensuring that our pursuit of progress does not come at the expense of our security and privacy. The time for complacency has passed. It is time for regulators, policymakers, and the technology industry to work together to establish a robust framework that safeguards these fundamental rights in the age of AI.
AI의 멋진 신세계는 엄청난 가능성을 갖고 있지만, 우리의 발전 추구가 보안과 개인 정보 보호를 희생하지 않도록 주의하면서 진행하는 것이 필수적입니다. 안주할 시간은 지났습니다. 이제는 규제 기관, 정책 입안자, 기술 업계가 협력하여 AI 시대에 이러한 기본권을 보호하는 강력한 프레임워크를 구축해야 할 때입니다.
부인 성명:info@kdj.com
제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!
본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.