|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Articles d’actualité sur les crypto-monnaies
Déverrouillage de modèles de langage améliorés : génération améliorée de récupération révélée
Apr 01, 2024 at 03:04 am
La génération augmentée par récupération (RAG) améliore les modèles linguistiques étendus (LLM) en intégrant des connaissances spécifiques provenant d'une base de connaissances. Cette approche exploite les intégrations vectorielles pour récupérer efficacement les informations pertinentes et augmenter le contexte du LLM. RAG répond aux limites des LLM, telles que les connaissances obsolètes et les hallucinations, en donnant accès à des informations spécifiques lors de la réponse aux questions.
Introduction: Enhancing Large Language Models with Retrieval-Augmented Generation (RAG)
Introduction : Amélioration des modèles de langage volumineux avec la génération augmentée par récupération (RAG)
Large Language Models (LLMs) have demonstrated remarkable capabilities in comprehending and synthesizing vast amounts of knowledge encoded within their numerous parameters. However, they possess two significant limitations: limited knowledge beyond their training dataset and a propensity to generate fictitious information when faced with specific inquiries.
Les grands modèles linguistiques (LLM) ont démontré des capacités remarquables à comprendre et à synthétiser de grandes quantités de connaissances codées dans leurs nombreux paramètres. Cependant, ils présentent deux limites importantes : des connaissances limitées au-delà de leur ensemble de données de formation et une propension à générer des informations fictives face à des demandes spécifiques.
Retrieval-Augmented Generation (RAG)
Génération augmentée par récupération (RAG)
Researchers at Facebook AI Research, University College London, and New York University introduced the concept of Retrieval-Augmented Generation (RAG) in 2020. RAG leverages pre-trained LLMs with additional context in the form of specific relevant information, enabling them to generate informed responses to user queries.
Des chercheurs de Facebook AI Research, de l'University College de Londres et de l'Université de New York ont introduit le concept de génération augmentée par récupération (RAG) en 2020. RAG exploite des LLM pré-entraînés avec un contexte supplémentaire sous la forme d'informations pertinentes spécifiques, leur permettant de générer des informations éclairées. réponses aux requêtes des utilisateurs.
Implementation with Hugging Face Transformers, LangChain, and Faiss
Implémentation avec Hugging Face Transformers, LangChain et Faiss
This article provides a comprehensive guide to implementing Google's LLM Gemma with RAG capabilities using Hugging Face transformers, LangChain, and the Faiss vector database. We will delve into the theoretical underpinnings and practical aspects of the RAG pipeline.
Cet article fournit un guide complet pour implémenter le LLM Gemma de Google avec les capacités RAG à l'aide des transformateurs Hugging Face, LangChain et la base de données vectorielles Faiss. Nous approfondirons les fondements théoriques et les aspects pratiques du pipeline RAG.
Overview of the RAG Pipeline
Présentation du pipeline RAG
The RAG pipeline comprises the following steps:
Le pipeline RAG comprend les étapes suivantes :
- Knowledge Base Vectorization: Encode a knowledge base (e.g., Wikipedia documents) into dense vector representations (embeddings).
- Query Vectorization: Convert user queries into vector embeddings using the same encoder model.
- Retrieval: Identify embeddings in the knowledge base that are similar to the query embedding based on a similarity metric.
- Generation: Generate a response using the LLM, augmented with the retrieved context from the knowledge base.
Knowledge Base and Vectorization
Vectorisation de la base de connaissances : codez une base de connaissances (par exemple, des documents Wikipédia) en représentations vectorielles denses (intégrations). Vectorisation des requêtes : convertissez les requêtes des utilisateurs en intégrations vectorielles en utilisant le même modèle d'encodeur. Récupération : identifiez les intégrations dans la base de connaissances qui sont similaires à la base de connaissances. intégration de requêtes basée sur une métrique de similarité.Génération : générer une réponse à l'aide du LLM, augmentée du contexte récupéré de la base de connaissances.Base de connaissances et vectorisation
We begin by selecting an appropriate knowledge base, such as Wikipedia or a domain-specific corpus. Each document z_i in the knowledge base is converted into an embedding vector d(z) using an encoder model.
Nous commençons par sélectionner une base de connaissances appropriée, telle que Wikipédia ou un corpus spécifique à un domaine. Chaque document z_i de la base de connaissances est converti en un vecteur de plongement d(z) à l'aide d'un modèle d'encodeur.
Query Vectorization
Vectorisation des requêtes
When a user poses a question x, it is also transformed into an embedding vector q(x) using the same encoder model.
Lorsqu'un utilisateur pose une question x, elle est également transformée en un vecteur d'intégration q(x) en utilisant le même modèle d'encodeur.
Retrieval
Récupération
To identify relevant documents from the knowledge base, we utilize a similarity metric to measure the distance between q(x) and all available d(z). Documents with similar embeddings are considered relevant to the query.
Pour identifier les documents pertinents de la base de connaissances, nous utilisons une métrique de similarité pour mesurer la distance entre q(x) et tous les d(z) disponibles. Les documents avec des intégrations similaires sont considérés comme pertinents pour la requête.
Generation
Génération
The LLM is employed to generate a response to the user query. However, unlike traditional LLMs, Gemma is augmented with the retrieved context. This enables it to incorporate relevant information from the knowledge base into its response, improving accuracy and reducing hallucinations.
Le LLM est utilisé pour générer une réponse à la requête de l'utilisateur. Cependant, contrairement aux LLM traditionnels, Gemma est enrichi du contexte récupéré. Cela lui permet d’incorporer des informations pertinentes de la base de connaissances dans sa réponse, améliorant ainsi la précision et réduisant les hallucinations.
Conclusion
Conclusion
By leveraging the Retrieval-Augmented Generation (RAG) technique, we can significantly enhance the capabilities of Large Language Models. By providing LLMs with access to specific relevant information, we can improve the accuracy and consistency of their responses, making them more suitable for real-world applications that require accurate and informative knowledge retrieval.
En tirant parti de la technique de génération augmentée par récupération (RAG), nous pouvons améliorer considérablement les capacités des grands modèles linguistiques. En fournissant aux LLM un accès à des informations pertinentes spécifiques, nous pouvons améliorer l'exactitude et la cohérence de leurs réponses, les rendant ainsi plus adaptés aux applications du monde réel qui nécessitent une récupération de connaissances précise et informative.
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- La France réprime la plateforme de paris sur les crypto-monnaies Polymarket
- Nov 07, 2024 at 08:35 pm
- L'Autorité nationale des jeux de hasard (ANJ), l'autorité française de régulation des jeux de hasard, envisage de bloquer prochainement l'accès au site. Cette décision fait suite à des mois de discussions
-
- Le deuxième mandat de Donald Trump en tant que président américain promet d'avoir un impact sur le secteur des « cryptomonnaies »
- Nov 07, 2024 at 08:35 pm
- Le deuxième mandat de Donald Trump à la présidence des États-Unis promet d'avoir un impact sur le secteur des « cryptomonnaies », grâce à la suppression attendue des garde-fous réglementaires.
-
- HashKey répertorie le jeton de plate-forme HSK, Arkham Research va lancer un échange à terme perpétuel, Binance ajoute de nouvelles options de trading SOL
- Nov 07, 2024 at 08:30 pm
- Au cours de la dernière journée, Binance et plusieurs projets altcoin ont fait des annonces critiques. La décision de HashKey Global de lister son jeton de plateforme HSK a attiré l'attention.
-
- La face cachée de la technologie sans connaissance : changer des vies et améliorer la sécurité
- Nov 07, 2024 at 08:25 pm
- Ces dernières années, les progrès technologiques ont constamment repoussé les limites du possible, et la technologie Zero-Knowledge (ZK) ne fait pas exception. Bien que l’on ait beaucoup vanté son potentiel à renforcer la sécurité de l’IA, il existe des facettes moins connues de ZK qui sont sur le point d’avoir de profonds impacts sur les personnes, les communautés et même les pays.