![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Nachrichtenartikel zu Kryptowährungen
Qwen2.5-Turbo: Alibabas neues KI-Sprachmodell kann zehn vollständige Romane verarbeiten
Nov 21, 2024 at 11:47 pm
Alibabas KI-Labor hat eine neue Version seines Qwen-Sprachmodells vorgestellt, die bis zu eine Million Text-Tokens verarbeiten kann – das entspricht etwa zehn Romanen.
Alibaba's AI lab has unveiled a new iteration of its Qwen language model, capable of processing an astonishing one million tokens of text—roughly ten novels' worth. Moreover, the team managed to quadruple the processing speed.
Alibabas KI-Labor hat eine neue Iteration seines Qwen-Sprachmodells vorgestellt, die in der Lage ist, erstaunliche eine Million Text-Tokens zu verarbeiten – etwa den Wert von zehn Romanen. Darüber hinaus gelang es dem Team, die Verarbeitungsgeschwindigkeit zu vervierfachen.
Qwen has now expanded the context length of its Qwen2.5 language model, introduced in September, from 128,000 to 1 million tokens. This enables Qwen2.5-Turbo to handle ten complete novels, 150 hours of transcripts, or 30,000 lines of code.
Qwen hat nun die Kontextlänge seines im September eingeführten Sprachmodells Qwen2.5 von 128.000 auf 1 Million Token erweitert. Damit kann Qwen2.5-Turbo zehn komplette Romane, 150 Stunden Transkripte oder 30.000 Zeilen Code verarbeiten.
Perfect accuracy in retrieving numbers
Perfekte Genauigkeit beim Abrufen von Zahlen
The model erzielt 100 percent accuracy in the passkey retrieval task, which involves finding hidden numbers within 1 million tokens of irrelevant text, irrespective of the information's position in the document. This seems to partially overcome the "lost in the middle" phenomenon, where language models mainly focus on the beginning and end of a prompt.
Das Modell erreicht eine 100-prozentige Genauigkeit bei der Aufgabe zum Abrufen von Passschlüsseln, bei der es darum geht, versteckte Zahlen innerhalb von 1 Million Token irrelevanten Textes zu finden, unabhängig von der Position der Informationen im Dokument. Dies scheint das „Lost in the Middle“-Phänomen, bei dem sich Sprachmodelle hauptsächlich auf den Anfang und das Ende einer Eingabeaufforderung konzentrieren, teilweise zu überwinden.
In several benchmarks for long text comprehension, Qwen2.5-Turbo outperforms competing models like GPT-4 and GLM4-9B-1M, while maintaining performance comparable to GPT-4o-mini with short sequences.
In mehreren Benchmarks für das Verständnis langer Texte übertrifft Qwen2.5-Turbo Konkurrenzmodelle wie GPT-4 und GLM4-9B-1M, während die Leistung bei kurzen Sequenzen mit der von GPT-4o-mini vergleichbar ist.
A screen recording from Qwen demonstrates the new language model's ability to quickly summarize Cixin Liu's complete "Trisolaris" trilogy, which spans a total of 690,000 tokens. | Video: Qwen
Eine Bildschirmaufnahme von Qwen demonstriert die Fähigkeit des neuen Sprachmodells, Cixin Lius komplette „Trisolaris“-Trilogie, die insgesamt 690.000 Token umfasst, schnell zusammenzufassen. | Video: Qwen
Sparse attention speeds up inference by 4.3x
Geringe Aufmerksamkeit beschleunigt die Schlussfolgerung um das 4,3-fache
By employing sparse attention mechanisms, Qwen reduced the time to first token when processing 1 million tokens from 4.9 minutes to 68 seconds, marking a 4.3x speed increase.
Durch den Einsatz von Sparse-Attention-Mechanismen konnte Qwen die Zeit bis zum ersten Token bei der Verarbeitung von 1 Million Token von 4,9 Minuten auf 68 Sekunden reduzieren, was einer 4,3-fachen Geschwindigkeitssteigerung entspricht.
The cost remains at 0.3 yuan (4 cents) per 1 million tokens. At the same price point, Qwen2.5-Turbo can now process 3.6x as many tokens as GPT-4o-mini.
Die Kosten liegen weiterhin bei 0,3 Yuan (4 Cent) pro 1 Million Token. Zum gleichen Preis kann Qwen2.5-Turbo jetzt 3,6x so viele Token verarbeiten wie GPT-4o-mini.
Qwen2.5-Turbo is now accessible via Alibaba Cloud Model Studio's API, as well as through demos on HuggingFace and ModelScope.
Auf Qwen2.5-Turbo kann jetzt über die API von Alibaba Cloud Model Studio sowie über Demos auf HuggingFace und ModelScope zugegriffen werden.
How DeepMind's Genie AI could reshape robotics by generating interactive worlds from images
Wie die Genie-KI von DeepMind die Robotik neu gestalten könnte, indem sie interaktive Welten aus Bildern generiert
Qwen notes that the current model may not always perform optimally on tasks involving long sequences in real-world applications.
Qwen weist darauf hin, dass das aktuelle Modell bei Aufgaben mit langen Sequenzen in realen Anwendungen möglicherweise nicht immer optimal funktioniert.
There are still many unsolved challenges, including the model's weaker performance with long sequences and the high inference costs that hinder the deployment of larger models.
Es gibt noch viele ungelöste Herausforderungen, darunter die schwächere Leistung des Modells bei langen Sequenzen und die hohen Inferenzkosten, die den Einsatz größerer Modelle behindern.
In the future, Qwen aims to further explore human preference alignment for long sequences, optimize inference efficiency to reduce computation time, and bring larger, more capable models with long context to market.
In Zukunft möchte Qwen die Ausrichtung menschlicher Präferenzen für lange Sequenzen weiter erforschen, die Inferenzeffizienz optimieren, um die Rechenzeit zu reduzieren, und größere, leistungsfähigere Modelle mit langem Kontext auf den Markt bringen.
Why bother with large context windows?
Warum sich mit großen Kontextfenstern herumschlagen?
The context windows of large language models have been steadily increasing in recent months. A practical standard has now settled between 128,000 (GPT-4o) and 200,000 (Claude 3.5 Sonnet) tokens, although there are outliers like Gemini 1.5 Pro with up to 10 million or Magic AI's LTM-2-mini with 100 million tokens.
Die Kontextfenster großer Sprachmodelle sind in den letzten Monaten stetig gewachsen. Ein praktischer Standard hat sich inzwischen zwischen 128.000 (GPT-4o) und 200.000 (Claude 3.5 Sonnet) Token eingependelt, wobei es Ausreißer wie Gemini 1.5 Pro mit bis zu 10 Millionen oder Magic AIs LTM-2-mini mit 100 Millionen Token gibt.
While these advancements generally contribute to the usefulness of large language models, studies have consistently questioned the benefit of large context windows in comparison to RAG systems, where additional information is retrieved dynamically from vector databases.
Während diese Fortschritte im Allgemeinen zur Nützlichkeit großer Sprachmodelle beitragen, wurde in Studien immer wieder der Nutzen großer Kontextfenster im Vergleich zu RAG-Systemen in Frage gestellt, bei denen zusätzliche Informationen dynamisch aus Vektordatenbanken abgerufen werden.
Haftungsausschluss:info@kdj.com
Die bereitgestellten Informationen stellen keine Handelsberatung dar. kdj.com übernimmt keine Verantwortung für Investitionen, die auf der Grundlage der in diesem Artikel bereitgestellten Informationen getätigt werden. Kryptowährungen sind sehr volatil und es wird dringend empfohlen, nach gründlicher Recherche mit Vorsicht zu investieren!
Wenn Sie glauben, dass der auf dieser Website verwendete Inhalt Ihr Urheberrecht verletzt, kontaktieren Sie uns bitte umgehend (info@kdj.com) und wir werden ihn umgehend löschen.
-
- Die Anleger verlagern den Fokus auf den Vorverkauf von Ozak Ai nach ihren Verlusten auf Solana basierend
- Feb 24, 2025 at 11:40 pm
- Die Ozak AI ist nach ihren Verlusten auf Solana-basierte Investoren zum neuen Fokus von Investoren geworden, da dieses Projekt künstliche Intelligenz und Blockchain-Technologie kombiniert
-
- Rexas Finance (RXS) - Der nächste 100 -fache Altcoin mit echtem Nutzen, der Sie zum Millionär machen könnte
- Feb 24, 2025 at 11:40 pm
- Zu Beginn der Geschichte der Kryptowährungen definierten große Kundgebungen, bei denen kleine Investitionen in das Vermögen verwandelt wurden, Merkmale. Mit ihren explosiven Anstiegen und lebendigen Gemeinschaften wurden Shiba Inu (Shib) und Dogecoin (DOGE) zu bekannten Namen und faszinierten die Öffentlichkeit.
-
-
-
-
- Ox.fun, eine Krypto-Derivate, die mit den Mitbegründern von Su Zhu und Kyle Davies mit den Mitbegründern der Mitbegründer von Arrows in Verbindung steht, ist nach Vorwürfen des finanziellen Fehlverhaltens unter Beschuss.
- Feb 24, 2025 at 11:40 pm
- Die Kontroverse brach aus, nachdem die Plattform angeblich 1 Million US -Dollar von einem Benutzer, Jefedao, zurückgehalten hatte, was Bedenken hinsichtlich seiner finanziellen Stabilität und der operativen Transparenz auslöste.
-
- Solanas neues Upgrade von Layer 2 ist ein Game Changer
- Feb 24, 2025 at 11:40 pm
- Solaxy ($ solx) verspricht, Solanas Mängel zu korrigieren und die Funktionsweise des Ökosystems als Ganzes zu ändern. Das bevorstehende Update zielt darauf ab, die Skalierbarkeit zu verbessern, die Transaktionszeiten zu beschleunigen, Transaktionen und Abstürze fehlgeschlagen und die Netzwerküberlastung zu beseitigen.
-
- Panshibi (Shibi): Die Meme -Münze, die so explodieren soll
- Feb 24, 2025 at 11:30 pm
- Investoren suchen immer nach der nächsten großartigen Sache und der Meme -Münzmarkt explodiert. Die derzeitige Shiba Inu -Preisbewegung (SHIB), die derzeit mit einem entscheidenden Widerstandsniveau konfrontiert ist, hat das Potenzial, erhebliche Veränderungen auf dem gesamten Altcoin -Markt zu verursachen.
-
- PI Network (PI) -Preispumpen 157% inmitten von FOMO, kann es 5 $ erreichen, bevor Q1 2023 endet?
- Feb 24, 2025 at 11:30 pm
- PI Network Price hat nach dem mit Spannung erwarteten Mainnet -Start in der vergangenen Woche ein Comeback von 157% erzielt. Der Rückprall ereignete sich zu einer Zeit, als Bitcoin und die meisten Altcoins unter Druck bleiben. In diesem Artikel wird untersucht, ob der PI -Münzpreis vor dem 31. März nach Ende des ersten Quartals von den aktuellen 1,52 USD auf 5 USD steigen wird.