|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
연구 저자 중 한 명인 Lexin Zhou는 AI 모델이 항상 믿을 수 있는 답변을 제공하도록 최적화되어 있기 때문에 겉보기에 정확해 보이는 답변도 가능하다는 이론을 세웠습니다.
Artificially intelligent chatbots are making more mistakes over time, a recent research study titled "Larger and more instructable language models become less reliable" in the Nature Scientific Journal has found.
인공지능 챗봇은 시간이 지남에 따라 더 많은 실수를 저지르고 있다고 Nature Scientific Journal에 게재된 "더 크고 더 지시 가능한 언어 모델의 신뢰성이 낮아진다"라는 제목의 최근 연구 결과가 밝혀졌습니다.
The study, which was conducted by a team of researchers from the University of California, Berkeley, the University of Washington, and DeepMind, evaluated the performance of several different chatbot models on a range of natural language processing tasks. They found that the newer, larger models performed worse on many of the tasks than the older, smaller models.
캘리포니아대학교, 버클리캠퍼스, 워싱턴대학교, DeepMind의 연구팀이 수행한 이 연구는 다양한 자연어 처리 작업에 대한 여러 가지 챗봇 모델의 성능을 평가했습니다. 그들은 더 새롭고 더 큰 모델이 더 오래되고 더 작은 모델보다 많은 작업에서 더 나쁜 성능을 발휘한다는 것을 발견했습니다.
One of the study's authors, Lexin Zhou, theorized that this decline in performance is due to the way that AI models are optimized. He explained that because these models are designed to always provide believable answers, they tend to prioritize and push the seemingly correct responses to the end user, regardless of whether or not they are actually accurate.
연구 저자 중 한 명인 Lexin Zhou는 이러한 성능 저하가 AI 모델이 최적화되는 방식 때문이라는 이론을 세웠습니다. 그는 이러한 모델이 항상 믿을 수 있는 답변을 제공하도록 설계되었기 때문에 실제로 정확한지 여부에 관계없이 겉보기에 정확해 보이는 응답의 우선순위를 정하고 최종 사용자에게 전달하는 경향이 있다고 설명했습니다.
"The models are getting better at generating hallucinated text that sounds plausible and consistent with the context, but they are not necessarily getting better at generating true and factual text," Zhou said in a statement.
Zhou는 성명에서 "모델은 그럴듯하고 맥락과 일치하는 환각 텍스트를 생성하는 데 점점 더 능숙해지고 있지만, 반드시 진실되고 사실에 근거한 텍스트를 생성하는 데는 더 나아지지는 않습니다."라고 말했습니다.
These AI hallucinations are self-reinforcing and tend to compound over time, a phenomenon that is further exacerbated by the common practice of using older large language models to train newer large language models, a process known as "model collapse."
이러한 AI 환각은 자체적으로 강화되며 시간이 지남에 따라 복합화되는 경향이 있습니다. 이러한 현상은 "모델 붕괴"라고 알려진 프로세스인 오래된 대형 언어 모델을 사용하여 새로운 대형 언어 모델을 훈련하는 일반적인 관행에 의해 더욱 악화됩니다.
"The worrying part is that these hallucinations are often difficult to detect, even for humans," Zhou added. "This could lead to people relying on and trusting the output of these models too much, which could have dangerous consequences."
"걱정스러운 부분은 이러한 환각이 인간에게도 감지하기 어려운 경우가 많다는 것입니다."라고 Zhou는 덧붙였습니다. "이로 인해 사람들이 이러한 모델의 결과에 너무 많이 의존하고 신뢰하게 되어 위험한 결과를 초래할 수 있습니다."
Mathieu Roy, an editor and writer who covers artificial intelligence for Interesting Engineering, cautioned users not to rely too heavily on these tools and to always check AI-generated search results for inconsistencies, especially if the information being presented seems surprising or too good to be true.
Interesting Engineering에서 인공 지능을 다루는 편집자이자 작가인 Mathieu Roy는 사용자에게 이러한 도구에 너무 많이 의존하지 말라고 주의하고, 특히 제시된 정보가 놀랍거나 너무 좋아 보일 경우 AI가 생성한 검색 결과에 불일치가 있는지 항상 확인하라고 경고했습니다. 진실.
"To make matters worse, there’s often no way to check the information except by asking the chatbot itself," Roy asserted in an article about the study's findings.
Roy는 연구 결과에 대한 기사에서 "설상가상으로 챗봇 자체에 요청하는 것 외에는 정보를 확인할 방법이 없는 경우가 많습니다"라고 주장했습니다.
Related: OpenAI raises an additional $6.6B at a 157B valuation
관련 항목: OpenAI는 1,570억 가치 평가에서 추가로 66억 달러를 조달합니다.
The stubborn problem of AI hallucinations
AI 환각의 고질적인 문제
The issue of AI hallucinations has been a persistent problem in the development of large language models, despite efforts by researchers and industry leaders to mitigate this tendency.
AI 환각 문제는 이러한 경향을 완화하려는 연구원과 업계 리더의 노력에도 불구하고 대규모 언어 모델 개발에서 지속적인 문제였습니다.
In February 2024, Google's artificial intelligence platform drew ridicule after the AI started producing historically inaccurate images. Among other things, the AI was seen portraying people of color as Nazi officers and creating wildly inaccurate images of well-known historical figures.
2024년 2월, Google의 인공지능 플랫폼은 AI가 역사적으로 부정확한 이미지를 생성하기 시작한 후 조롱을 받았습니다. 무엇보다도 AI는 유색 인종을 나치 장교로 묘사하고 잘 알려진 역사적 인물에 대해 매우 부정확한 이미지를 생성하는 것으로 나타났습니다.
Unfortunately, incidents like this are far too common with the current iteration of artificial intelligence and large language models. Several industry executives, including Nvidia CEO Jensen Huang, have proposed possible solutions to this problem, such as forcing AI models to conduct research and provide sources for every single answer that is given to a user.
불행하게도 이와 같은 사건은 현재의 인공 지능 및 대규모 언어 모델 반복에서는 너무 흔합니다. Nvidia CEO Jensen Huang을 포함한 여러 업계 임원들은 AI 모델이 연구를 수행하고 사용자에게 제공되는 모든 답변에 대한 소스를 제공하도록 강제하는 등 이 문제에 대한 가능한 솔루션을 제안했습니다.
However, these measures are already featured in the most popular AI and large language models, yet the problem of AI hallucinations still persists.
그러나 이러한 조치는 이미 가장 널리 사용되는 AI 및 대규모 언어 모델에 포함되어 있지만 AI 환각 문제는 여전히 지속됩니다.
More recently, in September, HyperWrite AI CEO Matt Shumer announced that the company's new 70B model uses a method called “Reflection-Tuning” — which purportedly gives the AI bot a way of learning by analyzing its own mistakes and adjusting its responses over time.
보다 최근인 9월, HyperWrite AI CEO인 Matt Shumer는 회사의 새로운 70B 모델이 "반사 조정"이라는 방법을 사용한다고 발표했습니다. 이 방법은 AI 봇이 자신의 실수를 분석하고 시간이 지남에 따라 응답을 조정함으로써 학습하는 방법을 제공한다고 합니다.
부인 성명:info@kdj.com
제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!
본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.