|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Articles d’actualité sur les crypto-monnaies
Travailler avec l'IA : conversion de code
Nov 06, 2024 at 08:00 pm
Il n’y a pas si longtemps, il n’était pas possible pour les LLM (Large Language Models) de réécrire du code. Chaque LLM a une limite de jetons, qui établit le nombre de mots qu'il peut absorber et appliquer. Avec des limites de jetons inférieures, les modèles sont incapables d'absorber la quantité d'informations nécessaire pour effectuer des tâches complexes telles que les conversions de code.
Software development company Mantle recently faced a common challenge: they had built a next-generation equity management platform prototype in a specific coding language that was perfect for speedy interaction in response to feedback from customers.
La société de développement de logiciels Mantle a récemment été confrontée à un défi commun : elle a construit un prototype de plateforme de gestion d'actions de nouvelle génération dans un langage de codage spécifique, parfait pour une interaction rapide en réponse aux commentaires des clients.
However, the code used in their production tech stack was different, and to ship the product, Mantle would need to convert the codebase from one language to another. This is a notoriously onerous task that is regularly faced by software teams and enterprises.
Cependant, le code utilisé dans leur pile technologique de production était différent et pour expédier le produit, Mantle devrait convertir la base de code d'une langue à une autre. Il s’agit d’une tâche notoirement onéreuse à laquelle sont régulièrement confrontées les équipes logicielles et les entreprises.
“The effort is justified, but the process is painful,” said Dwayne Forde, Mantle co-founder and CTO. “Instead of moving a customer-facing roadmap forward, you are now going to spend a significant portion of valuable engineering time recreating existing functionality.”
« L'effort est justifié, mais le processus est douloureux », a déclaré Dwayne Forde, co-fondateur et directeur technique de Mantle. « Au lieu de faire avancer une feuille de route orientée client, vous allez désormais consacrer une partie importante d'un temps d'ingénierie précieux à recréer des fonctionnalités existantes.
Wondering if AI could help, Forde—a trusted industry leader with more than 20 years of engineering experience in roles with companies including VMware and Xtreme Labs—chronicled the process recently in a blog post on Mantle called “Working with AI: Code Conversion.”
Se demandant si l'IA pourrait aider, Forde, un leader de confiance du secteur avec plus de 20 ans d'expérience en ingénierie dans des rôles dans des sociétés telles que VMware et Xtreme Labs, a récemment décrit le processus dans un article de blog sur Mantle intitulé « Travailler avec l'IA : conversion de code ».
He hopes the case study will serve as a useful resource to other tech teams, helping them save time and effort.
Il espère que l'étude de cas servira de ressource utile aux autres équipes techniques, les aidant à économiser du temps et des efforts.
It is the second in a series of instructional guides Forde has written for technical teams, as part of an effort to advance the collective interests of the sector by showing how AI can accelerate and enhance their work.
Il s'agit du deuxième d'une série de guides pédagogiques que Forde a rédigés à l'intention des équipes techniques, dans le cadre d'un effort visant à faire progresser les intérêts collectifs du secteur en montrant comment l'IA peut accélérer et améliorer leur travail.
“Our goal wasn’t to achieve 100% perfectly crafted code,” Forde noted. “The goal was to get 80% of the boilerplate and repeated patterns out of the way so that engineers could focus on high-value validation and verification and we could ship the product.”
« Notre objectif n'était pas d'obtenir un code parfaitement conçu à 100 % », a noté Forde. "L'objectif était d'éliminer 80 % des modèles passe-partout et répétitifs afin que les ingénieurs puissent se concentrer sur la validation et la vérification de grande valeur et que nous puissions expédier le produit."
Not too long ago, it wasn’t possible for LLMs (Large Language Models) to rewrite code. Each LLM has a token limit, which establishes how many words it can absorb and apply. With lower token limits, the models are unable to absorb the amount of information required to perform complex tasks like code conversions.
Il n’y a pas si longtemps, il n’était pas possible pour les LLM (Large Language Models) de réécrire du code. Chaque LLM a une limite de jetons, qui établit le nombre de mots qu'il peut absorber et appliquer. Avec des limites de jetons inférieures, les modèles sont incapables d'absorber la quantité d'informations requise pour effectuer des tâches complexes telles que les conversions de code.
But with rapid advancements in LLM software came higher token limits, and Forde realized his team had exciting new options in front of them. Higher limits meant that models could increase their reasoning, perform more complex math and inference, and input and output context in dramatically larger sizes.
Mais les progrès rapides du logiciel LLM ont entraîné des limites de jetons plus élevées, et Forde a réalisé que son équipe avait devant elle de nouvelles options passionnantes. Des limites plus élevées signifiaient que les modèles pouvaient augmenter leur raisonnement, effectuer des calculs et des inférences plus complexes, ainsi que des contextes d'entrée et de sortie dans des tailles considérablement plus grandes.
One million tokens means, according to Medium, that a model can do the equivalent of reading 20 novels or 1000 legal case briefs.
Un million de jetons signifie, selon Medium, qu'un modèle peut faire l'équivalent de lire 20 romans ou 1 000 mémoires juridiques.
Forde and his team understood that this dramatically larger token limit would allow them to feed entire coding languages into an LLM, essentially teaching it to be bilingual.
Forde et son équipe ont compris que cette limite de jetons considérablement plus grande leur permettrait d'introduire des langages de codage entiers dans un LLM, lui apprenant essentiellement à être bilingue.
Because converting code is extremely labour-intensive, Mantle knew that having an LLM convert even small amounts of code from one language to another would be hugely beneficial to the delivery time of the engineering project.
La conversion de code étant extrêmement exigeante en main-d'œuvre, Mantle savait que demander à un LLM de convertir même de petites quantités de code d'une langue à une autre serait extrêmement bénéfique pour le délai de livraison du projet d'ingénierie.
“We developed an approach that reduced the scope of work by two-thirds and saved months of developer time,” Forde wrote in his post.
"Nous avons développé une approche qui a réduit la portée du travail des deux tiers et a fait gagner des mois de temps aux développeurs", a écrit Forde dans son article.
Converting the Mantle prototype project into a new code language would have normally taken months of manual labour.
La conversion du projet prototype Mantle dans un nouveau langage de code aurait normalement nécessité des mois de travail manuel.
Instead, Forde said his engineers focused their time experimenting with how to best prompt an LLM to do much of the work for them.
Au lieu de cela, Forde a déclaré que ses ingénieurs consacraient leur temps à expérimenter la meilleure façon d'inciter un LLM à faire une grande partie du travail à leur place.
It wasn’t just as simple as feeding the code languages into the LLM and asking it to translate.
Ce n'était pas aussi simple que d'introduire les langages de code dans le LLM et de lui demander de traduire.
Under Forde’s watch, the Mantle team went through a process of innovation and discovery to figure out the best instructions, context and guidance to provide the LLM in its work.
Sous la direction de Forde, l'équipe Mantle a suivi un processus d'innovation et de découverte pour trouver les meilleures instructions, contextes et conseils pour fournir le LLM dans son travail.
They fed the model code snippets from their prototype source language, as well as existing production code patterns, descriptions of their target architecture, and provided the LLM with context about specific libraries and utilities used in Mantle’s own tech stack.
Ils ont alimenté les extraits de code du modèle à partir de leur langage source prototype, ainsi que les modèles de code de production existants, les descriptions de leur architecture cible, et ont fourni au LLM un contexte sur les bibliothèques et utilitaires spécifiques utilisés dans la propre pile technologique de Mantle.
“We have certain libraries that we prefer, so adding a section of context was very helpful to make sure the LLM output code was compatible with what we use,” said Forde.
"Nous préférons certaines bibliothèques, donc l'ajout d'une section de contexte a été très utile pour garantir que le code de sortie LLM était compatible avec ce que nous utilisons", a déclaré Forde.
The team even fed the LLM screenshots to demonstrate how they wanted the information to be presented, something that would not be obvious to AI from the code language alone.
L’équipe a même fourni des captures d’écran du LLM pour démontrer comment elle souhaitait que les informations soient présentées, ce qui ne serait pas évident pour l’IA à partir du seul langage de code.
“Screenshots of the existing application give the LLM a visual layout of the application,” said Forde. “The context and direction you provide don’t have to be all verbal. You can use visual reference points as well to get the output you’re after.”
"Les captures d'écran de l'application existante donnent au LLM une présentation visuelle de l'application", a déclaré Forde. « Le contexte et l'orientation que vous fournissez ne doivent pas nécessairement être entièrement verbaux. Vous pouvez également utiliser des points de référence visuels pour obtenir le résultat que vous recherchez.
In his blog post, Forde breaks down the step-by-step process Mantle used to convert their code. The process is innovative, iterative and – at times – playful.
Dans son article de blog, Forde détaille le processus étape par étape utilisé par Mantle pour convertir son code. Le processus est innovant, itératif et – parfois – ludique.
At one point, the Mantle team instructed the LLM to “act like a software engineer who could only answer in source code.”
À un moment donné, l’équipe Mantle a demandé au LLM « d’agir comme un ingénieur logiciel qui ne pouvait répondre qu’en code source ».
The Mantle team asked the LLM to convert only small sections of code at a time, checked its work, corrected any misinterpretations, and then moved on.
L'équipe Mantle a demandé au LLM de convertir uniquement de petites sections de code à la fois, a vérifié son travail, corrigé toute interprétation erronée, puis est passée à autre chose.
The step-by-step experimentation allowed the Mantle team to refine and improve its work over time, and create an effective process that can now be replicated in future projects.
L'expérimentation étape par étape a permis à l'équipe Mantle d'affiner et d'améliorer son travail au fil du temps, et de créer un processus efficace qui peut désormais être reproduit dans de futurs projets.
“Once the file was generated, our team either reviewed and adjusted the output manually or adjusted the
« Une fois le fichier généré, notre équipe a soit examiné et ajusté la sortie manuellement, soit ajusté la
Clause de non-responsabilité:info@kdj.com
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.
-
- Le jeton HIPPO de Sudeng a grimpé de 66 % après que Binance a dévoilé un contrat perpétuel sur marge en USD avec un effet de levier de 75x
- Nov 14, 2024 at 04:25 am
- Cette cotation haussière a suscité un intérêt important des investisseurs, propulsant les volumes de transactions vers de nouveaux sommets.
-
- Les premières émissions électriques d'Off The Grid mettant l'accent sur un bon gameplay, avec des éléments de blockchain comme fonctionnalité supplémentaire, peuvent être une décision gagnante
- Nov 14, 2024 at 04:25 am
- Off The Grid, un jeu de tir Battle Royale arrosé d'un soupçon de blockchain, a fait des débuts électriques, avec des joueurs tournant 9,12 millions de portefeuilles et plus de 100 millions de transactions au cours de son premier mois.
-
- L'acteur Song Jae-rim est décédé ; Le harcèlement de Sasaeng est soupçonné d'avoir contribué à sa mort
- Nov 14, 2024 at 04:25 am
- Selon la police, le 13 novembre, Song Jae-rim a été retrouvé mort à son domicile le 12 novembre, sans aucun signe d'acte criminel. Une note de suicide aurait été découverte sur les lieux.
-
- L'ondulation inattendue sur le chemin de Cardano : comment un partenariat potentiel pourrait changer le jeu de la cryptographie
- Nov 14, 2024 at 04:25 am
- Dans le monde concurrentiel des cryptomonnaies, où la rivalité éclipse souvent la coopération, le buzz autour d’un potentiel partenariat entre Cardano (ADA) et Ripple (XRP) fait sensation. Cette possibilité inattendue pourrait signaler une transformation dans la manière dont les technologies blockchain et les réseaux de paiement interagissent.
-
- Robinhood a réinscrit XRP Coin, SOL, ADA sur la plateforme américaine. Le célèbre échange a également ajouté la populaire pièce de monnaie PEPE à sa liste. Au milieu de cette nouvelle, le principal échange de crypto-monnaie Coinbase a également annoncé à
- Nov 14, 2024 at 04:15 am
- XRP Coin, ADA, SOL et PEPE sont désormais sur la liste de Robinhood !
-
- BlockDAG (BDAG) lève 120,5 millions de dollars avant le lancement, captant discrètement l'attention au milieu de la frénésie Meme Coin de Dogecoin et Shiba Inu
- Nov 14, 2024 at 04:15 am
- Alors que DOGE a récemment enregistré un retrait de 150 millions de dollars et que Shiba Inu bénéficie d'une poussée de fans pour 1 $, le succès de la prévente de BlockDAG et la forte demande génèrent un élan sans précédent.