bitcoin
bitcoin

$91323.93 USD 

3.95%

ethereum
ethereum

$3196.41 USD 

0.77%

tether
tether

$1.00 USD 

-0.11%

solana
solana

$217.33 USD 

4.68%

bnb
bnb

$636.64 USD 

4.10%

dogecoin
dogecoin

$0.395633 USD 

1.69%

xrp
xrp

$0.718675 USD 

6.69%

usd-coin
usd-coin

$0.999946 USD 

-0.01%

cardano
cardano

$0.568949 USD 

5.92%

tron
tron

$0.181701 USD 

3.27%

shiba-inu
shiba-inu

$0.000026 USD 

4.78%

toncoin
toncoin

$5.35 USD 

0.85%

avalanche
avalanche

$32.73 USD 

1.01%

sui
sui

$3.35 USD 

5.50%

pepe
pepe

$0.000022 USD 

60.39%

暗号通貨のニュース記事

AI の使用: コード変換

2024/11/06 20:00

少し前までは、LLM (Large Language Model) でコードを書き直すことはできませんでした。各 LLM にはトークン制限があり、それによって吸収および適用できる単語の数が決まります。トークン制限が低いと、モデルはコード変換などの複雑なタスクを実行するために必要な情報量を吸収できなくなります。

AI の使用: コード変換

Software development company Mantle recently faced a common challenge: they had built a next-generation equity management platform prototype in a specific coding language that was perfect for speedy interaction in response to feedback from customers.

ソフトウェア開発会社 Mantle は最近、共通の課題に直面しました。顧客からのフィードバックに応じて迅速にやり取りするのに最適な、特定のコーディング言語で次世代の株式管理プラットフォームのプロトタイプを構築していました。

However, the code used in their production tech stack was different, and to ship the product, Mantle would need to convert the codebase from one language to another. This is a notoriously onerous task that is regularly faced by software teams and enterprises.

ただし、製品の技術スタックで使用されているコードは異なっており、製品を出荷するには、Mantle はコードベースをある言語から別の言語に変換する必要がありました。これは、ソフトウェア チームや企業が定期的に直面する、悪名高い厄介なタスクです。

“The effort is justified, but the process is painful,” said Dwayne Forde, Mantle co-founder and CTO. “Instead of moving a customer-facing roadmap forward, you are now going to spend a significant portion of valuable engineering time recreating existing functionality.”

Mantle の共同創設者兼最高技術責任者 (CTO) のドウェイン・フォード氏は、「取り組みは正当だが、そのプロセスは苦痛を伴うものである」と述べた。 「顧客向けのロードマップを前進させる代わりに、貴重なエンジニアリング時間のかなりの部分を既存の機能の再作成に費やすことになります。」

Wondering if AI could help, Forde—a trusted industry leader with more than 20 years of engineering experience in roles with companies including VMware and Xtreme Labs—chronicled the process recently in a blog post on Mantle called “Working with AI: Code Conversion.”

AI が役立つのではないかと考え、VMware や Xtreme Labs などの企業で 20 年以上のエンジニアリング経験を持つ信頼できる業界リーダーである Forde 氏は、最近 Mantle のブログ投稿「AI の使用: コード変換」でそのプロセスを記録しました。

He hopes the case study will serve as a useful resource to other tech teams, helping them save time and effort.

同氏は、このケーススタディが他の技術チームにとって有益なリソースとなり、時間と労力の節約に役立つことを望んでいます。

It is the second in a series of instructional guides Forde has written for technical teams, as part of an effort to advance the collective interests of the sector by showing how AI can accelerate and enhance their work.

これは、AI がどのように作業を加速および強化できるかを示すことで、この分野の共同利益を促進する取り組みの一環として、Forde が技術チーム向けに執筆した一連の指導ガイドの 2 番目です。

“Our goal wasn’t to achieve 100% perfectly crafted code,” Forde noted. “The goal was to get 80% of the boilerplate and repeated patterns out of the way so that engineers could focus on high-value validation and verification and we could ship the product.”

「私たちの目標は、100% 完璧に作成されたコードを達成することではありませんでした」と Forde 氏は述べています。 「目標は、定型文と反復パターンの 80% を排除して、エンジニアが価値の高い検証と検証に集中できるようにして、製品を出荷できるようにすることでした。」

Not too long ago, it wasn’t possible for LLMs (Large Language Models) to rewrite code. Each LLM has a token limit, which establishes how many words it can absorb and apply. With lower token limits, the models are unable to absorb the amount of information required to perform complex tasks like code conversions.

少し前までは、LLM (Large Language Model) でコードを書き直すことはできませんでした。各 LLM にはトークン制限があり、それによって吸収および適用できる単語の数が決まります。トークン制限が低いと、モデルはコード変換などの複雑なタスクを実行するために必要な情報量を吸収できなくなります。

But with rapid advancements in LLM software came higher token limits, and Forde realized his team had exciting new options in front of them. Higher limits meant that models could increase their reasoning, perform more complex math and inference, and input and output context in dramatically larger sizes.

しかし、LLM ソフトウェアの急速な進歩により、トークンの制限がより高くなり、Forde 氏は、チームの目の前にエキサイティングな新しいオプションがあることに気づきました。制限が高いということは、モデルが推論を強化し、より複雑な計算と推論を実行し、劇的に大きなサイズでコンテキストを入出力できることを意味します。

One million tokens means, according to Medium, that a model can do the equivalent of reading 20 novels or 1000 legal case briefs.

Medium によると、100 万トークンということは、モデルが 20 冊の小説または 1000 件の訴訟準備書を読むのと同等のことを実行できることを意味します。

Forde and his team understood that this dramatically larger token limit would allow them to feed entire coding languages into an LLM, essentially teaching it to be bilingual.

Forde 氏と彼のチームは、この劇的に大きなトークン制限により、コーディング言語全体を LLM に入力し、本質的に LLM をバイリンガルにすることが可能になることを理解していました。

Because converting code is extremely labour-intensive, Mantle knew that having an LLM convert even small amounts of code from one language to another would be hugely beneficial to the delivery time of the engineering project.

コードの変換は非常に労働集約的であるため、マントル氏は、LLM に少量のコードでもある言語から別の言語に変換してもらうことが、エンジニアリング プロジェクトの納期に非常に有益であることを認識していました。

“We developed an approach that reduced the scope of work by two-thirds and saved months of developer time,” Forde wrote in his post.

「私たちは作業範囲を 3 分の 2 に削減し、開発時間を数か月節約するアプローチを開発しました」と Forde 氏は投稿の中で書いています。

Converting the Mantle prototype project into a new code language would have normally taken months of manual labour.

Mantle プロトタイプ プロジェクトを新しいコード言語に変換するには、通常は数か月かかる手作業が必要でした。

Instead, Forde said his engineers focused their time experimenting with how to best prompt an LLM to do much of the work for them.

その代わりに、Forde 氏は、エンジニアたちが、LLM に多くの作業を実行させる最善の方法を実験することに時間を集中したと述べました。

It wasn’t just as simple as feeding the code languages into the LLM and asking it to translate.

コード言語を LLM に入力して翻訳を依頼するだけでは済みませんでした。

Under Forde’s watch, the Mantle team went through a process of innovation and discovery to figure out the best instructions, context and guidance to provide the LLM in its work.

Forde 氏の監視の下、Mantle チームは革新と発見のプロセスを経て、作業において LLM を提供するための最適な指示、コンテキスト、ガイダンスを見つけ出しました。

They fed the model code snippets from their prototype source language, as well as existing production code patterns, descriptions of their target architecture, and provided the LLM with context about specific libraries and utilities used in Mantle’s own tech stack.

彼らは、プロトタイプのソース言語からのモデル コード スニペット、既存の実稼働コード パターン、ターゲット アーキテクチャの説明を入力し、Mantle 自身の技術スタックで使用される特定のライブラリとユーティリティに関するコンテキストを LLM に提供しました。

“We have certain libraries that we prefer, so adding a section of context was very helpful to make sure the LLM output code was compatible with what we use,” said Forde.

「私たちは好みのライブラリをいくつか持っているので、コンテキストのセクションを追加することは、LLM 出力コードが私たちが使用しているものと互換性があることを確認するのに非常に役立ちました」と Forde 氏は言いました。

The team even fed the LLM screenshots to demonstrate how they wanted the information to be presented, something that would not be obvious to AI from the code language alone.

チームは、コード言語だけでは AI にとって明らかではない情報の表示方法を示すために、LLM のスクリーンショットも提供しました。

“Screenshots of the existing application give the LLM a visual layout of the application,” said Forde. “The context and direction you provide don’t have to be all verbal. You can use visual reference points as well to get the output you’re after.”

「既存のアプリケーションのスクリーンショットは、LLM にアプリケーションの視覚的なレイアウトを提供します」と Forde 氏は言います。 「提供するコンテキストや方向性は、すべて口頭で伝える必要はありません。視覚的な参照ポイントを使用して、目的の出力を取得することもできます。」

In his blog post, Forde breaks down the step-by-step process Mantle used to convert their code. The process is innovative, iterative and – at times – playful.

Forde 氏はブログ投稿の中で、Mantle 氏がコードを変換するために使用した段階的なプロセスを詳しく説明しています。このプロセスは革新的で反復的であり、時には遊び心もあります。

At one point, the Mantle team instructed the LLM to “act like a software engineer who could only answer in source code.”

ある時点で、マントルチームはLLMに対し、「ソースコードでしか答えられないソフトウェアエンジニアのように行動する」よう指示した。

The Mantle team asked the LLM to convert only small sections of code at a time, checked its work, corrected any misinterpretations, and then moved on.

Mantle チームは、一度にコードの小さなセクションだけを変換するよう LLM に依頼し、その動作を確認し、誤解があれば修正してから次に進みました。

The step-by-step experimentation allowed the Mantle team to refine and improve its work over time, and create an effective process that can now be replicated in future projects.

段階的な実験により、Mantle チームは時間をかけて作業を改良、改善し、将来のプロジェクトで再現できる効果的なプロセスを作成することができました。

“Once the file was generated, our team either reviewed and adjusted the output manually or adjusted the

「ファイルが生成されると、私たちのチームは出力を手動で確認して調整するか、

ニュースソース:betakit.com

免責事項:info@kdj.com

提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。

このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。

2024年11月14日 に掲載されたその他の記事