|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Mistral과 Meta는 최근 GPT-4, Gemini Pro 및 Claude 3과 경쟁하는 새로운 모델인 Mixtral 8x22B 및 LLama 3를 발표하고 오픈 소스화했습니다. 이러한 릴리스는 오픈 소스 AI의 위험과 정의에 대한 논쟁을 다시 불러일으켰습니다. 이러한 모델은 데이터에 대한 더 큰 통제력과 특정 요구 사항에 대한 적응성을 제공하지만 잠재적으로 악의적인 목적에 대한 접근성과 개발 및 배포에 대한 투명성과 책임의 필요성에 대한 우려가 있습니다. 연구가 계속해서 LLM 기능의 경계를 확장함에 따라 오픈 소스 AI의 장점과 위험에 대한 논의도 계속될 것입니다.
Nouveaux modèles de langage ouverts remettant en question les limites de l'IA
AI의 한계에 도전하는 새로운 개방형 언어 모델
Dans le paysage de l'intelligence artificielle (IA) générative, les récentes annonces de Mistral et de Meta ont suscité une onde de choc. Les deux entreprises ont présenté leurs nouveaux modèles révolutionnaires à grande échelle - Mixtral 8x22B et Llama 3 - accessibles en open source, marquant ainsi un tournant potentiel dans l'accessibilité et les débats sur l'IA ouverte.
생성적 인공지능(AI) 환경에서 미스트랄(Mistral)과 메타(Meta)의 최근 발표는 충격파를 일으켰습니다. 두 회사 모두 오픈 소스인 혁신적인 새로운 대규모 모델인 Mixtral 8x22B 및 Llama 3을 시연하여 접근성 및 공개 AI 논쟁에 잠재적인 전환점이 되었습니다.
Mistral défie les modèles propriétaires avec Mixtral 8x22B
Mistral은 Mixtral 8x22B를 통해 독점 모델에 도전합니다.
Mistral AI, une pionnière française de l'IA, a dévoilé Mixtral 8x22B, un LLM (Language Large Model) massif de 291 Go, accessible via un torrent en raison de sa taille imposante. Ce modèle se distingue par son approche innovante "Sparse Mixture of Experts" (SMoE), qui combine de petits modèles spécialisés avec un mécanisme dynamique de sélection de modèles. Cela permet à Mixtral 8x22B d'activer uniquement une fraction (39 milliards) de ses 141 milliards de paramètres, offrant ainsi la puissance d'un grand modèle avec une efficacité accrue.
프랑스 AI 선구자인 Mistral AI는 엄청난 크기로 인해 토렌트를 통해 액세스할 수 있는 대용량 291GB LLM(Language Large Model)인 Mixtral 8x22B를 공개했습니다. 이 모델은 소규모 전문 모델과 동적 모델 선택 메커니즘을 결합하는 혁신적인 "SMoE(Sparse Mixture of Experts)" 접근 방식이 돋보입니다. 이를 통해 Mixtral 8x22B는 1,410억 개의 매개변수 중 일부(390억)만 활성화하여 향상된 효율성으로 대형 모델의 성능을 제공할 수 있습니다.
Mixtral 8x22B maîtrise plusieurs langues, notamment l'anglais, le français, l'italien, l'allemand et l'espagnol, et offre des capacités avancées de programmation (génération de code) et de raisonnement mathématique. Il dispose d'une fenêtre contextuelle de 64 000 jetons, permettant des conversations plus longues et plus cohérentes.
Mixtral 8x22B는 영어, 프랑스어, 이탈리아어, 독일어, 스페인어를 포함한 여러 언어에 능숙하며 고급 프로그래밍(코드 생성) 및 수학적 추론 기능을 제공합니다. 64,000개의 토큰 팝업이 있어 더 길고 일관된 대화가 가능합니다.
Meta fait progresser les LLM avec Llama 3
Meta는 Llama 3를 통해 LLM을 발전시킵니다.
Meta, le géant des réseaux sociaux, est entré en lice avec Llama 3, la dernière version de son populaire LLM open source. Llama 3 se démarque par sa conception multimodale, lui permettant d'analyser et de comprendre des images. Meta a également retravaillé les phases de pré-entraînement, post-entraînement et de tokenisation, avec des techniques telles que le filtrage des données, l'attention groupée aux requêtes et le réentraînement sur 15 000 milliards de jetons.
거대 소셜 미디어 기업인 Meta는 자사의 인기 오픈 소스 LLM의 최신 버전인 Llama 3을 통해 경쟁에 뛰어들었습니다. Llama 3는 이미지를 분석하고 이해할 수 있는 다중 모드 디자인이 특징입니다. 또한 Meta는 데이터 필터링, 쿼리 클러스터링 및 15조 토큰에 대한 재교육과 같은 기술을 사용하여 사전 교육, 사후 교육 및 토큰화 단계를 재작업했습니다.
Le résultat est un modèle plus fiable, moins sujet aux hallucinations et surpassant les performances de Claude 3 et de Gemini Pro 1.5 d'OpenAI, du moins en anglais, selon les benchmarks de Meta. Llama 3 est disponible en versions "8B" et "70B", et une version "400B" plus ambitieuse est en cours de développement. Meta a également annoncé des partenariats avec des fournisseurs de cloud majeurs, notamment Google, Amazon et Microsoft, pour rendre Llama 3 largement accessible.
결과적으로 Meta의 벤치마크에 따르면 더 신뢰할 수 있는 모델이 되고 환각에 덜 취약하며 최소한 영어에서는 OpenAI의 Claude 3 및 Gemini Pro 1.5보다 성능이 뛰어납니다. Llama 3는 "8B" 및 "70B" 버전으로 제공되며, 보다 야심 찬 "400B" 버전이 개발 중입니다. Meta는 또한 Llama 3를 널리 액세스할 수 있도록 Google, Amazon 및 Microsoft를 포함한 주요 클라우드 제공업체와의 파트너십을 발표했습니다.
Le dilemme de l'IA open source
오픈 소스 AI 딜레마
Les modèles open source comme Mixtral 8x22B et Llama 3 ont ravivé le débat sur l'IA open source. Bien que certains affirment que la publication des poids du modèle et du code d'inférence suffit à garantir l'ouverture, d'autres soutiennent qu'un accès à la base de données d'entraînement et au pipeline d'apprentissage est essentiel pour une véritable transparence.
Mixtral 8x22B 및 Llama 3와 같은 오픈 소스 모델은 오픈 소스 AI 논쟁을 다시 불러일으켰습니다. 공개 모델 가중치와 추론 코드가 개방성을 보장하기에 충분하다고 주장하는 사람도 있지만, 진정한 투명성을 위해서는 훈련 데이터베이스와 학습 파이프라인에 대한 액세스가 필수적이라고 주장하는 사람도 있습니다.
Les partisans de l'IA open source soutiennent qu'elle favorise la transparence, permet aux entreprises d'adapter les IA à leurs besoins spécifiques et réduit les risques associés aux modèles propriétaires. Les détracteurs, quant à eux, expriment des inquiétudes quant à l'utilisation potentiellement malveillante de ces LLM puissants et à la diffusion de fausses informations et de propagande.
오픈 소스 AI 지지자들은 이것이 투명성을 촉진하고 기업이 AI를 특정 요구 사항에 맞게 조정할 수 있도록 하며 독점 모델과 관련된 위험을 줄일 수 있다고 주장합니다. 한편 비평가들은 이러한 강력한 LLM의 잠재적인 악의적 사용과 잘못된 정보 및 선전의 확산에 대해 우려를 표명합니다.
L'avenir de l'IA reste incertain
AI의 미래는 여전히 불확실하다
Alors que les modèles de langage continuent de gagner en sophistication, la R&D se poursuit à un rythme effréné. Les LLM ont encore beaucoup à offrir, mais des questions éthiques et sociétales complexes restent à résoudre. Les débats sur les risques et les avantages de l'IA open source vont probablement se poursuivre, influençant l'avenir du développement et du déploiement de l'IA.
언어 모델이 계속해서 정교해짐에 따라 R&D도 무서운 속도로 계속되고 있습니다. LLM은 여전히 제공할 것이 많지만 복잡한 윤리적, 사회적 문제는 해결해야 할 과제로 남아 있습니다. 오픈 소스 AI의 위험과 이점에 대한 논쟁은 계속될 것이며 AI 개발 및 배포의 미래에 영향을 미칠 가능성이 높습니다.
부인 성명:info@kdj.com
제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!
본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.