|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
연구원들은 ChatGPT가 직접적인 예측이 아닌 미래를 예측하는 스토리를 만들도록 유도하면 더 정확한 결과를 얻을 수 있다는 사실을 발견했습니다. 이 기술은 Reddit 사용자에 의해 테스트되었으며 6월 금리 인상과 2030년 금융 위기를 암시했습니다. 그러나 ChatGPT의 제한된 훈련 데이터와 OpenAI가 부과한 잠재적인 의도적 제한으로 인해 우려가 제기됩니다.
Predicting the Future with a Glimpse into the Past
과거를 통해 미래를 예측하다
A novel prompting technique has emerged to elicit predictions from ChatGPT, a language model renowned for its aversion to forecasting. Researchers have discovered that prompting ChatGPT to narrate future events, as if reflecting upon them from a bygone era, yields more accurate predictions.
예측을 싫어하는 것으로 유명한 언어 모델인 ChatGPT에서 예측을 이끌어내는 새로운 프롬프트 기술이 등장했습니다. 연구원들은 ChatGPT가 미래의 사건을 마치 지나간 시대의 사건을 회상하는 것처럼 설명하도록 유도하면 더 정확한 예측이 가능하다는 사실을 발견했습니다.
To validate this technique, researchers evaluated 100 prompts, contrasting direct predictions (e.g., identifying the Oscar winner for Best Actor in 2022) with narrative prompts (e.g., asking ChatGPT to recount a family watching the 2022 Oscars and describe the moment the Best Actor winner is announced). The narrative prompts produced more accurate results.
이 기술을 검증하기 위해 연구자들은 100개의 프롬프트를 평가하여 직접 예측(예: 2022년 오스카 남우주연상 수상자를 식별)과 내러티브 프롬프트(예: ChatGPT에 2022년 오스카상을 시청하는 가족에 대해 이야기하고 남우주연상 수상 순간을 설명하도록 요청)를 대조했습니다. 발표됩니다). 내러티브 프롬프트가 더 정확한 결과를 가져왔습니다.
Similarly, to forecast interest rate movements, researchers instructed ChatGPT to imagine Fed Chair Jerome Powell reflecting on past events. Redditors have experimented with this technique, suggesting a possible interest rate hike in June and a financial crisis in 2030.
마찬가지로, 금리 변동을 예측하기 위해 연구원들은 ChatGPT에 Jerome Powell 연준 의장이 과거 사건을 반영하는 모습을 상상하도록 지시했습니다. Reddit 사용자들은 이 기법을 실험하여 6월에 금리 인상이 가능하고 2030년에 금융 위기가 발생할 가능성을 시사했습니다.
Theoretically, prompting ChatGPT to create a Cointelegraph news article set in 2025, recounting Bitcoin's significant price fluctuations, would result in a more accurate price forecast than a direct prediction query.
이론적으로 ChatGPT가 2025년을 배경으로 한 코인텔레그래프 뉴스 기사를 작성하여 비트코인의 상당한 가격 변동을 설명하도록 유도하면 직접 예측 쿼리보다 더 정확한 가격 예측이 가능합니다.
However, the research faces potential limitations. The researchers selected the 2022 Oscars as a known event, assuming ChatGPT's knowledge cutoff in September 2021. However, ChatGPT has been known to generate information beyond its training data.
그러나 연구는 잠재적인 한계에 직면해 있습니다. 연구원들은 ChatGPT의 지식 중단이 2021년 9월이라고 가정하여 2022년 오스카상을 알려진 이벤트로 선택했습니다. 그러나 ChatGPT는 훈련 데이터 이상의 정보를 생성하는 것으로 알려져 있습니다.
Additionally, OpenAI appears to have intentionally hindered ChatGPT's predictive capabilities, suggesting that this technique may be a temporary workaround rather than a reliable solution.
또한 OpenAI는 ChatGPT의 예측 기능을 의도적으로 방해한 것으로 보이며, 이는 이 기술이 안정적인 솔루션이 아니라 일시적인 해결 방법일 수 있음을 시사합니다.
Related Findings in the Realm of AI
AI 영역 관련 연구 결과
A parallel study revealed that the best approach to solving 50 math problems with LLama2, a cousin of ChatGPT, was to present it as a mission to guide the Enterprise spaceship through turbulence in Star Trek.
병행 연구에 따르면 ChatGPT의 사촌인 LLama2로 50가지 수학 문제를 해결하는 가장 좋은 접근 방식은 Star Trek의 난기류 속에서 엔터프라이즈 우주선을 안내하는 임무로 제시하는 것이었습니다.
However, this method proved inconsistent. Solving 100 math problems required telling the AI that the President's advisor would perish if it failed to provide correct answers.
그러나 이 방법은 일관성이 없는 것으로 판명되었습니다. 100개의 수학 문제를 풀려면 AI에게 정답을 제공하지 못하면 대통령의 보좌관이 멸망할 것이라고 말해야 했습니다.
Boston Dynamics' Uncanny Atlas Robot
보스턴 다이내믹스의 언캐니 아틀라스 로봇
Boston Dynamics has unveiled its latest Atlas robot, showcasing remarkable agility reminiscent of the possessed child in The Exorcist.
보스턴 다이내믹스(Boston Dynamics)가 엑소시스트(The Exorcist)에 홀린 아이를 연상시키는 놀라운 민첩성을 선보이는 최신 아틀라스(Atlas) 로봇을 공개했습니다.
"It's going to be capable of a set of motions that people aren't," said CEO Robert Playter in an interview with TechCrunch. "There will be very practical uses for that."
CEO Robert Playter는 TechCrunch와의 인터뷰에서 "사람이 할 수 없는 일련의 동작을 수행할 수 있을 것"이라고 말했습니다. "매우 실용적인 용도가 있을 것입니다."
This iteration of Atlas is more compact, fully electric, and devoid of hydraulics. Hyundai plans to test Atlas as a robotic worker in its factories early next year.
Atlas의 이번 반복은 더 작고 완전 전기식이며 유압 장치가 없습니다. 현대차는 내년 초 아틀라스를 공장에서 로봇 노동자로 시험할 계획이다.
Humane's AI Pin Faces Scathing Reviews
휴메인(Humane)의 AI 핀이 비판에 직면하다
Wearable AI devices, exemplified by the Humane AI pin, have generated buzz but struggled to demonstrate their worth.
Humane AI 핀으로 대표되는 웨어러블 AI 장치는 화제를 불러일으켰지만 그 가치를 입증하는 데 어려움을 겪었습니다.
The Humane AI pin, worn on the chest, interacts with voice commands and projects text onto the user's hand. However, tech reviewer Marques Brownlee condemned it as "the worst product I've ever reviewed," citing frequent errors, poor interface, limited battery life, and sluggishness compared to Google.
가슴에 착용된 Humane AI 핀은 음성 명령과 상호 작용하고 사용자의 손에 텍스트를 투사합니다. 그러나 기술 평론가인 마르케스 브라운리(Marques Brownlee)는 잦은 오류, 열악한 인터페이스, 제한된 배터리 수명, 구글에 비해 느린 속도 등을 이유로 "내가 검토한 제품 중 최악의 제품"이라고 비난했습니다.
Other reviewers echo Brownlee's dissatisfaction. Wired gave it 4 out of 10, criticizing its slow performance, poor camera, daylight-impaired projector, and overheating issues. However, it praised its real-time translation and phone call capabilities.
다른 평론가들은 Brownlee의 불만을 반영합니다. Wired는 느린 성능, 열악한 카메라, 일광 장애가 있는 프로젝터 및 과열 문제를 비판하면서 10점 만점에 4점을 주었습니다. 하지만 실시간 번역과 전화통화 기능은 칭찬했다.
The Verge acknowledged the potential of the concept but deemed the actual device "thoroughly unfinished and... broken in so many unacceptable ways."
The Verge는 이 개념의 잠재력을 인정했지만 실제 장치는 "완전히 미완성이며... 용납할 수 없는 방식으로 너무 많이 파손되었습니다"라고 간주했습니다.
Another AI wearable, The Rabbit r1, aims to replace multiple phone apps with an AI assistant. However, reviewers have questioned its advantages over smartphones.
또 다른 AI 웨어러블인 The Rabbit r1은 여러 전화 앱을 AI 비서로 대체하는 것을 목표로 합니다. 그러나 리뷰어들은 스마트폰에 비해 이점에 의문을 제기했습니다.
"The voice control interface that does away with apps completely is a good starting point, but again, that's something my Pixel 8 could feasibly do in the future," concluded TechRadar's preview of the device.
"앱을 완전히 제거하는 음성 제어 인터페이스는 좋은 출발점이지만, 이는 내 Pixel 8이 미래에 실현 가능하게 할 수 있는 일입니다."라고 TechRadar의 장치 미리보기는 결론지었습니다.
AI Perpetuates Holocaust Survivors' Legacy
AI가 홀로코스트 생존자의 유산을 영속시키다
The Sydney Jewish Museum has unveiled an AI-powered interactive exhibition that enables visitors to engage with Holocaust survivors and receive real-time responses.
시드니 유대인 박물관(Sydney Jewish Museum)은 방문객들이 홀로코스트 생존자들과 소통하고 실시간 응답을 받을 수 있는 AI 기반 대화형 전시회를 공개했습니다.
Before his passing in 2021, death camp survivor Eddie Jaku spent days answering over 1,000 questions about his experiences before a 23-camera rig. The system transforms visitor inquiries into search terms, matching them with appropriate answers from Jaku's recorded footage, creating a conversational experience.
2021년 세상을 떠나기 전, 죽음의 수용소 생존자 Eddie Jaku는 23개의 카메라 장비 앞에서 자신의 경험에 대한 1,000개 이상의 질문에 답하는 데 며칠을 보냈습니다. 이 시스템은 방문자의 문의를 검색어로 변환하고 이를 Jaku가 녹음한 영상의 적절한 답변과 연결하여 대화 경험을 만들어냅니다.
Amidst rising antisemitism, this AI application serves as a powerful tool to preserve the first-hand accounts of Holocaust survivors for future generations.
반유대주의가 고조되는 가운데, 이 AI 애플리케이션은 미래 세대를 위해 홀로코스트 생존자들의 직접적인 기록을 보존하는 강력한 도구 역할을 합니다.
AI-Generated Content: A Potential Pandora's Box
AI 생성 콘텐츠: 잠재적인 판도라의 상자
Approximately 10% of Google search results now lead to AI-generated spam content. Spammers have long exploited SEO to promote websites filled with low-quality articles, but generative AI has exacerbated the problem.
현재 Google 검색 결과의 약 10%가 AI에서 생성된 스팸 콘텐츠로 이어집니다. 스패머들은 품질이 낮은 기사로 가득 찬 웹사이트를 홍보하기 위해 오랫동안 SEO를 활용해 왔지만 생성 AI는 문제를 더욱 악화시켰습니다.
Besides rendering Google search unreliable, there are concerns that if AI-generated content becomes the dominant form of online material, we may face "model collapse," where AIs trained on subpar AI content produce even lower-quality results.
Google 검색을 신뢰할 수 없게 만드는 것 외에도 AI 생성 콘텐츠가 온라인 자료의 지배적인 형태가 되면 AI 수준 이하의 콘텐츠에 대해 훈련된 AI가 훨씬 더 낮은 품질의 결과를 생성하는 "모델 붕괴"에 직면할 수 있다는 우려가 있습니다.
A related phenomenon, known as "knowledge collapse," has been identified in humans, according to a recent Cornell research paper. The author, Andrew J. Peterson, argues that AIs gravitate toward "mid-curve" ideas, neglecting less common or eccentric perspectives:
최근 코넬 대학의 연구 논문에 따르면 '지식 붕괴'로 알려진 관련 현상이 인간에게서 확인되었습니다. 저자 Andrew J. Peterson은 AI가 덜 일반적이거나 특이한 관점을 무시하고 "중간 곡선" 아이디어에 끌린다고 주장합니다.
"While large language models are trained on vast amounts of diverse data, they naturally generate output towards the 'center of the distribution."
"대규모 언어 모델은 방대한 양의 다양한 데이터에 대해 학습되는 동안 자연스럽게 '분포의 중심'을 향한 출력을 생성합니다.
Peterson suggests that the diversity of human thought could diminish over time as AIs homogenize ideas. The paper advocates for subsidies to protect the diversity of knowledge, similar to those supporting less popular academic and artistic endeavors.
피터슨은 AI가 아이디어를 균질화함에 따라 시간이 지남에 따라 인간 사고의 다양성이 줄어들 수 있다고 제안합니다. 이 논문은 덜 인기 있는 학문적, 예술적 노력을 지원하는 것과 유사하게 지식의 다양성을 보호하기 위해 보조금을 옹호합니다.
Users Should Demand Paid AI Services
사용자는 유료 AI 서비스를 요구해야 합니다
Google has been promoting its Gemini 1.5 model to businesses, emphasizing its safety features and ideological neutrality, which were lacking in the consumer version.
구글은 그동안 소비자용 버전에서는 부족했던 안전 기능과 이념적 중립성을 강조하며 제미니 1.5 모델을 기업에 홍보해 왔다.
While the consumer version was shut down due to concerns over images of diverse Nazis, the enterprise version reportedly remained unaffected.
다양한 나치의 이미지에 대한 우려로 인해 소비자 버전이 종료되었지만 기업 버전은 영향을 받지 않은 것으로 알려졌습니다.
This raises concerns that an ad-driven "free" model for AI, akin to the disastrous model for the web, could lead to users becoming the product, bombarded with advertisements as services deteriorate.
이는 웹의 재앙적인 모델과 유사한 광고 중심의 AI용 "무료" 모델이 서비스가 악화됨에 따라 사용자가 제품이 되어 광고의 폭격을 받을 수 있다는 우려를 불러일으킵니다.
Non-Coders and AI Collaboration: A Complex Journey
비코더와 AI 협업: 복잡한 여정
Author and futurist Daniel Jeffries attempted to create a complex app with AI assistance, despite his limited coding skills. He encountered challenges and frustration but ultimately succeeded.
작가이자 미래학자인 Daniel Jeffries는 제한된 코딩 기술에도 불구하고 AI 지원을 통해 복잡한 앱을 만들려고 시도했습니다. 그는 어려움과 좌절에 직면했지만 결국 성공했습니다.
However, Jeffries concluded that AI will not displace coders. Instead, skilled coders with the ability to clearly articulate their requirements will be in even higher demand.
그러나 Jeffries는 AI가 코더를 대체하지 않을 것이라고 결론지었습니다. 대신, 자신의 요구 사항을 명확하게 표현할 수 있는 능력을 갖춘 숙련된 코더에 대한 수요가 훨씬 더 높아질 것입니다.
AI News Roundup
AI 뉴스 정리
- Token holders have approved the merger of Fetch.ai, SingularityNET, and Ocean Protocol, forming the Artificial Superintelligence Alliance.
- Google DeepMind CEO Demis Hassabis remains tight-lipped about the rumored $100 billion supercomputer project codenamed "Stargate," but has confirmed significant investments in AI.
- Baidu's Chinese ChatGPT counterpart, Ernie, has doubled its user base to 200 million since October.
- Researchers found that AI image generators could create election disinformation four out of 10 times, highlighting the need for stronger safety measures or improved watermarking systems.
- Instagram is recruiting influencers for a program where their AI-generated avatars can interact with fans.
- Guardian columnist Alex Hern theorizes that ChatGPT's frequent use of the word "delve" may be a side effect of the input provided by low-cost human workers in Nigeria, where the term is common.
- OpenAI has released an enhanced version of GPT-4 Turbo through ChatGPT Plus, offering improved problem-solving capabilities, better conversation flow, and reduced verbosity. It also includes a 50% discount for off-peak batch processing tasks.
토큰 보유자들은 Fetch.ai, SingularityNET 및 Ocean Protocol의 합병을 승인하여 인공 초지능 연합(Artificial Superintelligence Alliance)을 형성했습니다. Google DeepMind CEO Demis Hassabis는 코드명 "Stargate"라는 소문난 1,000억 달러 규모의 슈퍼컴퓨터 프로젝트에 대해 입을 다물고 있지만 상당한 투자를 확인했습니다. AI.Baidu의 중국 ChatGPT 상대인 Ernie는 10월 이후 사용자 기반을 두 배로 늘려 2억 명으로 늘렸습니다. 연구원들은 AI 이미지 생성기가 10번 중 4번 선거 허위 정보를 생성할 수 있다는 사실을 발견했습니다. 이는 더 강력한 안전 조치나 개선된 워터마킹 시스템의 필요성을 강조합니다.Instagram은 AI로 생성된 아바타가 팬과 상호 작용할 수 있는 프로그램에 대한 영향력 있는 사람을 모집합니다. Guardian 칼럼니스트 Alex Hern은 ChatGPT에서 "delve"라는 단어를 자주 사용하는 것이 나이지리아의 저임금 인력이 제공하는 입력의 부작용일 수 있다는 이론을 세웠습니다. OpenAI는 향상된 문제 해결 기능, 더 나은 대화 흐름 및 감소된 장황함을 제공하는 ChatGPT Plus를 통해 GPT-4 Turbo의 향상된 버전을 출시했습니다. 또한 비수기 일괄 처리 작업에 대한 50% 할인도 포함됩니다.
부인 성명:info@kdj.com
The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!
If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.
-
- 지난 하루 동안의 상위 3개 뉴스 기사를 확인하세요.
- 2024-12-26 01:15:02
- XRP 가격은 크리스마스 이브에 황소 녹색으로 변합니다.