|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Articles d’actualité sur les crypto-monnaies
Qwen2.5-Turbo : le nouveau modèle de langage d'IA d'Alibaba peut traiter dix romans complets
Nov 21, 2024 at 11:47 pm
Le laboratoire d'IA d'Alibaba a introduit une nouvelle version de son modèle de langage Qwen capable de traiter jusqu'à un million de jetons de texte, soit l'équivalent d'une dizaine de romans.
Alibaba's AI lab has unveiled a new iteration of its Qwen language model, capable of processing an astonishing one million tokens of text—roughly ten novels' worth. Moreover, the team managed to quadruple the processing speed.
Le laboratoire d'IA d'Alibaba a dévoilé une nouvelle itération de son modèle de langage Qwen, capable de traiter un nombre étonnant d'un million de jetons de texte, soit l'équivalent d'environ dix romans. De plus, l’équipe a réussi à quadrupler la vitesse de traitement.
Qwen has now expanded the context length of its Qwen2.5 language model, introduced in September, from 128,000 to 1 million tokens. This enables Qwen2.5-Turbo to handle ten complete novels, 150 hours of transcripts, or 30,000 lines of code.
Qwen a désormais étendu la longueur du contexte de son modèle de langage Qwen2.5, introduit en septembre, de 128 000 à 1 million de jetons. Cela permet à Qwen2.5-Turbo de gérer dix romans complets, 150 heures de transcriptions ou 30 000 lignes de code.
Perfect accuracy in retrieving numbers
Précision parfaite dans la récupération des chiffres
The model erzielt 100 percent accuracy in the passkey retrieval task, which involves finding hidden numbers within 1 million tokens of irrelevant text, irrespective of the information's position in the document. This seems to partially overcome the "lost in the middle" phenomenon, where language models mainly focus on the beginning and end of a prompt.
Le modèle offre une précision de 100 % dans la tâche de récupération du mot de passe, qui consiste à trouver des numéros cachés dans 1 million de jetons de texte non pertinent, quelle que soit la position des informations dans le document. Cela semble surmonter en partie le phénomène de « perte au milieu », où les modèles de langage se concentrent principalement sur le début et la fin d'une invite.
In several benchmarks for long text comprehension, Qwen2.5-Turbo outperforms competing models like GPT-4 and GLM4-9B-1M, while maintaining performance comparable to GPT-4o-mini with short sequences.
Dans plusieurs tests de compréhension de textes longs, Qwen2.5-Turbo surpasse les modèles concurrents comme GPT-4 et GLM4-9B-1M, tout en conservant des performances comparables à celles de GPT-4o-mini avec des séquences courtes.
A screen recording from Qwen demonstrates the new language model's ability to quickly summarize Cixin Liu's complete "Trisolaris" trilogy, which spans a total of 690,000 tokens. | Video: Qwen
Un enregistrement d'écran de Qwen démontre la capacité du nouveau modèle de langage à résumer rapidement la trilogie complète « Trisolaris » de Cixin Liu, qui s'étend sur un total de 690 000 jetons. | Vidéo : Qwen
Sparse attention speeds up inference by 4.3x
Une attention éparse accélère l’inférence de 4,3x
By employing sparse attention mechanisms, Qwen reduced the time to first token when processing 1 million tokens from 4.9 minutes to 68 seconds, marking a 4.3x speed increase.
En employant des mécanismes d'attention clairsemés, Qwen a réduit le temps nécessaire pour obtenir le premier jeton lors du traitement d'un million de jetons de 4,9 minutes à 68 secondes, ce qui représente une augmentation de vitesse de 4,3 fois.
The cost remains at 0.3 yuan (4 cents) per 1 million tokens. At the same price point, Qwen2.5-Turbo can now process 3.6x as many tokens as GPT-4o-mini.
Le coût reste à 0,3 yuan (4 cents) pour 1 million de jetons. Au même prix, Qwen2.5-Turbo peut désormais traiter 3,6 fois plus de jetons que GPT-4o-mini.
Qwen2.5-Turbo is now accessible via Alibaba Cloud Model Studio's API, as well as through demos on HuggingFace and ModelScope.
Qwen2.5-Turbo est désormais accessible via l'API d'Alibaba Cloud Model Studio, ainsi que via des démos sur HuggingFace et ModelScope.
How DeepMind's Genie AI could reshape robotics by generating interactive worlds from images
Comment Genie AI de DeepMind pourrait remodeler la robotique en générant des mondes interactifs à partir d'images
Qwen notes that the current model may not always perform optimally on tasks involving long sequences in real-world applications.
Qwen note que le modèle actuel ne fonctionne pas toujours de manière optimale sur des tâches impliquant de longues séquences dans des applications du monde réel.
There are still many unsolved challenges, including the model's weaker performance with long sequences and the high inference costs that hinder the deployment of larger models.
De nombreux défis restent encore à résoudre, notamment les performances plus faibles du modèle avec de longues séquences et les coûts d'inférence élevés qui entravent le déploiement de modèles plus grands.
In the future, Qwen aims to further explore human preference alignment for long sequences, optimize inference efficiency to reduce computation time, and bring larger, more capable models with long context to market.
À l’avenir, Qwen vise à explorer davantage l’alignement des préférences humaines pour les longues séquences, à optimiser l’efficacité de l’inférence pour réduire le temps de calcul et à commercialiser des modèles plus grands et plus performants avec un contexte long.
Why bother with large context windows?
Pourquoi s'embêter avec de grandes fenêtres contextuelles ?
The context windows of large language models have been steadily increasing in recent months. A practical standard has now settled between 128,000 (GPT-4o) and 200,000 (Claude 3.5 Sonnet) tokens, although there are outliers like Gemini 1.5 Pro with up to 10 million or Magic AI's LTM-2-mini with 100 million tokens.
Les fenêtres contextuelles des grands modèles de langage n’ont cessé d’augmenter ces derniers mois. Une norme pratique s'est désormais établie entre 128 000 (GPT-4o) et 200 000 (Claude 3.5 Sonnet), bien qu'il existe des valeurs aberrantes comme Gemini 1.5 Pro avec jusqu'à 10 millions ou le LTM-2-mini de Magic AI avec 100 millions de jetons.
While these advancements generally contribute to the usefulness of large language models, studies have consistently questioned the benefit of large context windows in comparison to RAG systems, where additional information is retrieved dynamically from vector databases.
Bien que ces avancées contribuent généralement à l’utilité des grands modèles de langage, les études ont constamment remis en question l’avantage des grandes fenêtres contextuelles par rapport aux systèmes RAG, dans lesquels des informations supplémentaires sont récupérées dynamiquement à partir de bases de données vectorielles.
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- Trophée Border-Gavaskar 2024-25 : l'Inde frappe en premier lors du premier match test de la série Border-Gavaskar Trophy 2024-25 au stade Optus de Perth après que Jasprit Bumrah ait remporté le tirage au sort, et il y a quelques visages fesh à voir da
- Nov 22, 2024 at 02:30 pm
- Les champions en titre du BGT ont fait leurs débuts au polyvalent Nitish Kumar Reddy et au meneur Harshit Rana, et Devdutt Paddikal remplace Shubman Gill, blessé.
-
- Ravi Shastri vole la vedette avec une théâtralité exagérée lors du tirage au sort qui divise les fans de cricket
- Nov 22, 2024 at 02:30 pm
- La série de tests très attendue entre l'Inde et l'Australie a connu un début incroyable avant même qu'une balle ne soit lancée vendredi grâce à une performance remarquable du légendaire Ravi Shastri.
-
- La montée en puissance du Bitcoin élève Satoshi Nakamoto au 18e rang des personnes les plus riches
- Nov 22, 2024 at 02:25 pm
- Satoshi Nakamoto, le créateur anonyme de Bitcoin, s'est hissé au 18e rang parmi les personnes les plus riches du monde alors que la valeur marchande de la première et plus grande crypto-monnaie, Bitcoin, a dépassé 98 000 $.
-
- La prévente Rollblock (RBLK) monte en flèche de 260 % au milieu d'anticipations croissantes sur le marché de la cryptographie
- Nov 22, 2024 at 02:25 pm
- Le mécanisme unique de partage des revenus de Rollblock offre un revenu passif constant aux investisseurs, une fonctionnalité qui manque à Ethereum et Avalanche. La tokenomics déflationniste de Rollblock crée de la rareté, augmentant la valeur au fil du temps. Avec une intégration transparente de plus de 20 crypto-monnaies et de 7 000 jeux, Rollblock offre une utilité inégalée. La croissance rapide de Rollblock le positionne comme un acteur incontournable sur le marché de la cryptographie et dans le secteur GambleFi.
-
- Rollblock (RBLK) : le jeton GambleFi prospère dans le rallye crypto
- Nov 22, 2024 at 02:25 pm
- Les préventes sont souvent les joyaux cachés d'un rallye crypto, offrant aux premiers investisseurs la possibilité d'obtenir des jetons à leurs prix les plus abordables avant qu'ils n'atteignent le marché libre.
-
- Récapitulatif de l'événement : Celo PH DAO présente $PUSO Stablecoin aux Philippines
- Nov 22, 2024 at 02:25 pm
- Celo Philippines DAO, Celo Foundation et Mento Labs ont organisé un événement pour discuter de l'intégration des pièces stables, en se concentrant sur la pièce stable décentralisée $PUSO, qui est liée au peso philippin.