|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Vor nicht allzu langer Zeit war es LLMs (Large Language Models) nicht möglich, Code neu zu schreiben. Jedes LLM verfügt über ein Token-Limit, das festlegt, wie viele Wörter es aufnehmen und anwenden kann. Bei niedrigeren Token-Grenzwerten sind die Modelle nicht in der Lage, die Menge an Informationen aufzunehmen, die für die Durchführung komplexer Aufgaben wie Codekonvertierungen erforderlich ist.
Software development company Mantle recently faced a common challenge: they had built a next-generation equity management platform prototype in a specific coding language that was perfect for speedy interaction in response to feedback from customers.
Das Softwareentwicklungsunternehmen Mantle stand kürzlich vor einer gemeinsamen Herausforderung: Es hatte einen Prototyp einer Aktienverwaltungsplattform der nächsten Generation in einer bestimmten Programmiersprache erstellt, die sich perfekt für eine schnelle Interaktion als Reaktion auf das Feedback von Kunden eignete.
However, the code used in their production tech stack was different, and to ship the product, Mantle would need to convert the codebase from one language to another. This is a notoriously onerous task that is regularly faced by software teams and enterprises.
Der in ihrem Produktionstechnologie-Stack verwendete Code war jedoch anders, und um das Produkt auszuliefern, musste Mantle die Codebasis von einer Sprache in eine andere konvertieren. Dies ist eine bekanntermaßen mühsame Aufgabe, mit der sich Softwareteams und Unternehmen regelmäßig konfrontiert sehen.
“The effort is justified, but the process is painful,” said Dwayne Forde, Mantle co-founder and CTO. “Instead of moving a customer-facing roadmap forward, you are now going to spend a significant portion of valuable engineering time recreating existing functionality.”
„Der Aufwand ist gerechtfertigt, aber der Prozess ist schmerzhaft“, sagte Dwayne Forde, Mitbegründer und CTO von Mantle. „Anstatt eine kundenorientierte Roadmap voranzutreiben, werden Sie jetzt einen erheblichen Teil Ihrer wertvollen Entwicklungszeit damit verbringen, vorhandene Funktionen neu zu erstellen.“
Wondering if AI could help, Forde—a trusted industry leader with more than 20 years of engineering experience in roles with companies including VMware and Xtreme Labs—chronicled the process recently in a blog post on Mantle called “Working with AI: Code Conversion.”
Forde – ein vertrauenswürdiger Branchenführer mit mehr als 20 Jahren technischer Erfahrung in Positionen bei Unternehmen wie VMware und Xtreme Labs – fragte sich, ob KI helfen könnte und schilderte den Prozess kürzlich in einem Blogbeitrag auf Mantle mit dem Titel „Arbeiten mit KI: Codekonvertierung“.
He hopes the case study will serve as a useful resource to other tech teams, helping them save time and effort.
Er hofft, dass die Fallstudie anderen Technologieteams als nützliche Ressource dienen und ihnen helfen wird, Zeit und Mühe zu sparen.
It is the second in a series of instructional guides Forde has written for technical teams, as part of an effort to advance the collective interests of the sector by showing how AI can accelerate and enhance their work.
Es ist der zweite Teil einer Reihe von Lehrbüchern, die Forde für technische Teams verfasst hat, um die kollektiven Interessen des Sektors zu fördern, indem er zeigt, wie KI ihre Arbeit beschleunigen und verbessern kann.
“Our goal wasn’t to achieve 100% perfectly crafted code,” Forde noted. “The goal was to get 80% of the boilerplate and repeated patterns out of the way so that engineers could focus on high-value validation and verification and we could ship the product.”
„Unser Ziel war es nicht, 100 % perfekt gestalteten Code zu erhalten“, bemerkte Forde. „Das Ziel bestand darin, 80 % des Grundmusters und der sich wiederholenden Muster aus dem Weg zu räumen, damit sich die Ingenieure auf die hochwertige Validierung und Verifizierung konzentrieren und wir das Produkt ausliefern konnten.“
Not too long ago, it wasn’t possible for LLMs (Large Language Models) to rewrite code. Each LLM has a token limit, which establishes how many words it can absorb and apply. With lower token limits, the models are unable to absorb the amount of information required to perform complex tasks like code conversions.
Vor nicht allzu langer Zeit war es LLMs (Large Language Models) nicht möglich, Code neu zu schreiben. Jedes LLM verfügt über ein Token-Limit, das festlegt, wie viele Wörter es aufnehmen und anwenden kann. Bei niedrigeren Token-Grenzwerten sind die Modelle nicht in der Lage, die Menge an Informationen aufzunehmen, die für die Durchführung komplexer Aufgaben wie Codekonvertierungen erforderlich ist.
But with rapid advancements in LLM software came higher token limits, and Forde realized his team had exciting new options in front of them. Higher limits meant that models could increase their reasoning, perform more complex math and inference, and input and output context in dramatically larger sizes.
Doch mit der schnellen Weiterentwicklung der LLM-Software kamen auch höhere Token-Limits, und Forde erkannte, dass sein Team spannende neue Optionen vor sich hatte. Höhere Grenzwerte bedeuteten, dass Modelle ihre Argumentation verbessern, komplexere Berechnungen und Schlussfolgerungen durchführen sowie Eingabe- und Ausgabekontexte in deutlich größeren Größen durchführen konnten.
One million tokens means, according to Medium, that a model can do the equivalent of reading 20 novels or 1000 legal case briefs.
Eine Million Token bedeutet laut Medium, dass ein Model das Äquivalent von 20 Romanen oder 1000 Rechtsfallbeschreibungen lesen kann.
Forde and his team understood that this dramatically larger token limit would allow them to feed entire coding languages into an LLM, essentially teaching it to be bilingual.
Forde und sein Team erkannten, dass dieses deutlich höhere Token-Limit es ihnen ermöglichen würde, ganze Programmiersprachen in ein LLM einzuspeisen und ihm so im Grunde die Zweisprachigkeit beizubringen.
Because converting code is extremely labour-intensive, Mantle knew that having an LLM convert even small amounts of code from one language to another would be hugely beneficial to the delivery time of the engineering project.
Da das Konvertieren von Code äußerst arbeitsintensiv ist, wusste Mantle, dass die Konvertierung selbst kleiner Codemengen von einer Sprache in eine andere durch ein LLM die Lieferzeit des Engineering-Projekts enorm verbessern würde.
“We developed an approach that reduced the scope of work by two-thirds and saved months of developer time,” Forde wrote in his post.
„Wir haben einen Ansatz entwickelt, der den Arbeitsumfang um zwei Drittel reduziert und Monate an Entwicklerzeit gespart hat“, schrieb Forde in seinem Beitrag.
Converting the Mantle prototype project into a new code language would have normally taken months of manual labour.
Die Konvertierung des Mantle-Prototypprojekts in eine neue Codesprache hätte normalerweise Monate manueller Arbeit in Anspruch genommen.
Instead, Forde said his engineers focused their time experimenting with how to best prompt an LLM to do much of the work for them.
Stattdessen, so Forde, hätten seine Ingenieure ihre Zeit darauf konzentriert, zu experimentieren, wie sie einen LLM am besten veranlassen könnten, einen Großteil der Arbeit für sie zu erledigen.
It wasn’t just as simple as feeding the code languages into the LLM and asking it to translate.
Es war nicht so einfach, die Codesprachen in das LLM einzuspeisen und es um eine Übersetzung zu bitten.
Under Forde’s watch, the Mantle team went through a process of innovation and discovery to figure out the best instructions, context and guidance to provide the LLM in its work.
Unter der Aufsicht von Forde durchlief das Mantle-Team einen Innovations- und Entdeckungsprozess, um die besten Anweisungen, den besten Kontext und die beste Anleitung für die LLM-Arbeit zu finden.
They fed the model code snippets from their prototype source language, as well as existing production code patterns, descriptions of their target architecture, and provided the LLM with context about specific libraries and utilities used in Mantle’s own tech stack.
Sie fütterten die Modellcodeausschnitte aus ihrer Prototyp-Quellsprache sowie vorhandene Produktionscodemuster und Beschreibungen ihrer Zielarchitektur und stellten dem LLM Kontext zu bestimmten Bibliotheken und Dienstprogrammen zur Verfügung, die in Mantles eigenem Tech-Stack verwendet werden.
“We have certain libraries that we prefer, so adding a section of context was very helpful to make sure the LLM output code was compatible with what we use,” said Forde.
„Wir haben bestimmte Bibliotheken, die wir bevorzugen, daher war das Hinzufügen eines Kontextabschnitts sehr hilfreich, um sicherzustellen, dass der LLM-Ausgabecode mit dem, was wir verwenden, kompatibel ist“, sagte Forde.
The team even fed the LLM screenshots to demonstrate how they wanted the information to be presented, something that would not be obvious to AI from the code language alone.
Das Team hat den LLM-Screenshots sogar zugeführt, um zu zeigen, wie die Informationen präsentiert werden sollten, was für die KI allein aufgrund der Codesprache nicht offensichtlich wäre.
“Screenshots of the existing application give the LLM a visual layout of the application,” said Forde. “The context and direction you provide don’t have to be all verbal. You can use visual reference points as well to get the output you’re after.”
„Screenshots der vorhandenen Anwendung geben dem LLM ein visuelles Layout der Anwendung“, sagte Forde. „Der Kontext und die Richtung, die Sie geben, müssen nicht nur verbal sein. Sie können auch visuelle Referenzpunkte verwenden, um die gewünschte Ausgabe zu erhalten.“
In his blog post, Forde breaks down the step-by-step process Mantle used to convert their code. The process is innovative, iterative and – at times – playful.
In seinem Blogbeitrag erläutert Forde Schritt für Schritt den Prozess, den Mantle zur Konvertierung seines Codes verwendet hat. Der Prozess ist innovativ, iterativ und manchmal auch spielerisch.
At one point, the Mantle team instructed the LLM to “act like a software engineer who could only answer in source code.”
Irgendwann wies das Mantle-Team den LLM an, sich „wie ein Softwareentwickler zu verhalten, der nur im Quellcode antworten konnte“.
The Mantle team asked the LLM to convert only small sections of code at a time, checked its work, corrected any misinterpretations, and then moved on.
Das Mantle-Team bat den LLM, jeweils nur kleine Codeabschnitte zu konvertieren, überprüfte seine Arbeit, korrigierte etwaige Fehlinterpretationen und machte dann mit der Arbeit weiter.
The step-by-step experimentation allowed the Mantle team to refine and improve its work over time, and create an effective process that can now be replicated in future projects.
Das schrittweise Experimentieren ermöglichte es dem Mantle-Team, seine Arbeit im Laufe der Zeit zu verfeinern und zu verbessern und einen effektiven Prozess zu schaffen, der nun in zukünftigen Projekten repliziert werden kann.
“Once the file was generated, our team either reviewed and adjusted the output manually or adjusted the
„Nachdem die Datei generiert wurde, überprüfte und passte unser Team entweder die Ausgabe manuell an oder passte die Datei an
Haftungsausschluss:info@kdj.com
Die bereitgestellten Informationen stellen keine Handelsberatung dar. kdj.com übernimmt keine Verantwortung für Investitionen, die auf der Grundlage der in diesem Artikel bereitgestellten Informationen getätigt werden. Kryptowährungen sind sehr volatil und es wird dringend empfohlen, nach gründlicher Recherche mit Vorsicht zu investieren!
Wenn Sie glauben, dass der auf dieser Website verwendete Inhalt Ihr Urheberrecht verletzt, kontaktieren Sie uns bitte umgehend (info@kdj.com) und wir werden ihn umgehend löschen.
-
- Elon Musks neuer Plan: Die Öffentlichkeit kann jetzt verschwenderische Ausgaben und fehlgeleitete Kürzungen aufdecken
- Nov 14, 2024 at 08:40 pm
- Elon Musk, CEO von Tesla, teilte am Dienstag auf seiner Social-Media-Plattform X seine Vision für vollständige Transparenz innerhalb des neu geschaffenen Department of Government Efficiency (DOGE) mit
-
- Dogecoin-Erfinder Billy Markus teilt der Community den spezifischen Code mit, den sie ändern muss, um die Inflation loszuwerden, bevor er die Community höflich bittet, ihn nicht mehr damit zu belästigen
- Nov 14, 2024 at 08:25 pm
- In der Dogecoin-Community herrscht seit langem Bestürzung über die inflationären Tokenomics der Münze – jedes Jahr kommen Milliarden von DOGE zum zirkulierenden Angebot hinzu
-
- Dies sind drei der besten Kryptowährungen, die man jetzt kaufen kann, bevor sie in die Höhe schnellen
- Nov 14, 2024 at 08:25 pm
- Bitcoin (CRYPTO: BTC) ist mit einem neuen Allzeithoch von über 88.000 US-Dollar führend. Diese Rallye hat auf breiter Front für Aufregung gesorgt, die Preise in die Höhe getrieben und neues Interesse an Kryptowährungen geweckt.
-
- PEPE-Münzpreis fordert den Widerstand von 0,00002387 $ nach der Notierung bei Coinbase heraus, aber wird FOMO durch den Kauf seines L2 Challenger PEPU ihm das Rampenlicht stehlen?
- Nov 14, 2024 at 08:25 pm
- Der Preis der Pepe-Münze schoss in die Höhe und stieg in den letzten 24 Stunden um über 73 % und wurde um 4:38 Uhr EST bei 0,00002261 $ gehandelt, als ein Käuferrausch rund um die Meme-Münze ausbricht.
-
- Ripples XRP und JetBolt stehlen das Rampenlicht in einem Markt voller Bewegung
- Nov 14, 2024 at 08:25 pm
- In einem Markt voller Bewegung rücken XRP und JetBolt von Ripple aus unterschiedlichen Gründen ins Rampenlicht: XRP mit seiner mutigen Preisrallye und dem anhaltenden Streben nach 1 US-Dollar und JetBolt mit seiner innovativen Zero-Gas-Technologie und seinem beeindruckenden Vorverkaufserfolg.