bitcoin
bitcoin

$98105.25 USD 

3.94%

ethereum
ethereum

$3356.75 USD 

9.33%

tether
tether

$1.00 USD 

-0.01%

solana
solana

$254.36 USD 

7.09%

bnb
bnb

$621.80 USD 

1.94%

xrp
xrp

$1.19 USD 

8.69%

dogecoin
dogecoin

$0.384113 USD 

1.97%

usd-coin
usd-coin

$0.999895 USD 

0.00%

cardano
cardano

$0.793021 USD 

-1.02%

tron
tron

$0.198207 USD 

1.18%

avalanche
avalanche

$35.77 USD 

6.13%

shiba-inu
shiba-inu

$0.000025 USD 

2.16%

toncoin
toncoin

$5.48 USD 

2.63%

sui
sui

$3.60 USD 

1.37%

bitcoin-cash
bitcoin-cash

$479.64 USD 

9.39%

암호화폐 뉴스 기사

AI와의 작업: 코드 변환

2024/11/06 20:00

얼마 전까지만 해도 LLM(대형 언어 모델)이 코드를 다시 작성하는 것은 불가능했습니다. 각 LLM에는 흡수하고 적용할 수 있는 단어 수를 설정하는 토큰 제한이 있습니다. 토큰 한도가 낮으면 모델은 코드 변환과 같은 복잡한 작업을 수행하는 데 필요한 정보의 양을 흡수할 수 없습니다.

AI와의 작업: 코드 변환

Software development company Mantle recently faced a common challenge: they had built a next-generation equity management platform prototype in a specific coding language that was perfect for speedy interaction in response to feedback from customers.

소프트웨어 개발 회사인 Mantle은 최근 공통적인 과제에 직면했습니다. 그들은 고객 피드백에 대응하여 신속한 상호 작용에 완벽한 특정 코딩 언어로 차세대 자산 관리 플랫폼 프로토타입을 구축했습니다.

However, the code used in their production tech stack was different, and to ship the product, Mantle would need to convert the codebase from one language to another. This is a notoriously onerous task that is regularly faced by software teams and enterprises.

그러나 생산 기술 스택에 사용된 코드는 달랐으며 제품을 출시하려면 Mantle은 코드베이스를 한 언어에서 다른 언어로 변환해야 했습니다. 이는 소프트웨어 팀과 기업이 정기적으로 직면하는 악명 높은 작업입니다.

“The effort is justified, but the process is painful,” said Dwayne Forde, Mantle co-founder and CTO. “Instead of moving a customer-facing roadmap forward, you are now going to spend a significant portion of valuable engineering time recreating existing functionality.”

Mantle의 공동 창업자이자 CTO인 Dwayne Forde는 “노력은 정당하지만 그 과정은 고통스럽습니다.”라고 말했습니다. "고객 지향 로드맵을 발전시키는 대신 이제 기존 기능을 다시 만드는 데 귀중한 엔지니어링 시간의 상당 부분을 소비하게 될 것입니다."

Wondering if AI could help, Forde—a trusted industry leader with more than 20 years of engineering experience in roles with companies including VMware and Xtreme Labs—chronicled the process recently in a blog post on Mantle called “Working with AI: Code Conversion.”

AI가 도움이 될 수 있을지 궁금해하는 Forde(VMware 및 Xtreme Labs 등의 기업에서 20년 이상의 엔지니어링 경험을 보유한 신뢰할 수 있는 업계 리더)는 최근 Mantle의 블로그 게시물 "AI 작업: 코드 변환"에서 이 프로세스를 기록했습니다.

He hopes the case study will serve as a useful resource to other tech teams, helping them save time and effort.

그는 사례 연구가 다른 기술 팀에 유용한 리소스가 되어 시간과 노력을 절약하는 데 도움이 되기를 바랍니다.

It is the second in a series of instructional guides Forde has written for technical teams, as part of an effort to advance the collective interests of the sector by showing how AI can accelerate and enhance their work.

이는 AI가 작업을 가속화하고 향상할 수 있는 방법을 보여줌으로써 해당 부문의 공동 이익을 증진하려는 노력의 일환으로 Forde가 기술 팀을 위해 작성한 일련의 교육 가이드 중 두 번째입니다.

“Our goal wasn’t to achieve 100% perfectly crafted code,” Forde noted. “The goal was to get 80% of the boilerplate and repeated patterns out of the way so that engineers could focus on high-value validation and verification and we could ship the product.”

“우리의 목표는 100% 완벽하게 제작된 코드를 달성하는 것이 아니었습니다.”라고 Forde는 말했습니다. "목표는 엔지니어가 높은 가치의 검증 및 검증에 집중할 수 있도록 상용구와 반복되는 패턴의 80%를 제거하고 제품을 출시하는 것이었습니다."

Not too long ago, it wasn’t possible for LLMs (Large Language Models) to rewrite code. Each LLM has a token limit, which establishes how many words it can absorb and apply. With lower token limits, the models are unable to absorb the amount of information required to perform complex tasks like code conversions.

얼마 전까지만 해도 LLM(대형 언어 모델)이 코드를 다시 작성하는 것은 불가능했습니다. 각 LLM에는 흡수하고 적용할 수 있는 단어 수를 설정하는 토큰 제한이 있습니다. 토큰 한도가 낮으면 모델은 코드 변환과 같은 복잡한 작업을 수행하는 데 필요한 정보의 양을 흡수할 수 없습니다.

But with rapid advancements in LLM software came higher token limits, and Forde realized his team had exciting new options in front of them. Higher limits meant that models could increase their reasoning, perform more complex math and inference, and input and output context in dramatically larger sizes.

그러나 LLM 소프트웨어의 급속한 발전으로 인해 토큰 한도가 높아졌고 Forde는 그의 팀이 그들 앞에 흥미로운 새로운 옵션을 가지고 있다는 것을 깨달았습니다. 한계가 높을수록 모델은 추론 능력을 높이고, 더 복잡한 수학과 추론을 수행하고, 입력 및 출력 컨텍스트를 훨씬 더 큰 크기로 수행할 수 있습니다.

One million tokens means, according to Medium, that a model can do the equivalent of reading 20 novels or 1000 legal case briefs.

Medium에 따르면 토큰 100만 개는 모델이 소설 20권 또는 법적 사건 요약서 1000권을 읽는 것과 동일한 작업을 수행할 수 있음을 의미합니다.

Forde and his team understood that this dramatically larger token limit would allow them to feed entire coding languages into an LLM, essentially teaching it to be bilingual.

Forde와 그의 팀은 이렇게 극적으로 늘어난 토큰 한도를 통해 전체 코딩 언어를 LLM에 공급하여 본질적으로 이중 언어를 사용하도록 가르칠 수 있다는 것을 이해했습니다.

Because converting code is extremely labour-intensive, Mantle knew that having an LLM convert even small amounts of code from one language to another would be hugely beneficial to the delivery time of the engineering project.

코드 변환은 극도로 노동집약적이기 때문에 Mantle은 LLM을 통해 소량의 코드라도 한 언어에서 다른 언어로 변환하면 엔지니어링 프로젝트 납품 시간에 큰 도움이 될 것이라는 점을 알고 있었습니다.

“We developed an approach that reduced the scope of work by two-thirds and saved months of developer time,” Forde wrote in his post.

Forde는 자신의 게시물에서 "우리는 작업 범위를 2/3로 줄이고 개발자 시간을 수개월 절약하는 접근 방식을 개발했습니다."라고 썼습니다.

Converting the Mantle prototype project into a new code language would have normally taken months of manual labour.

Mantle 프로토타입 프로젝트를 새로운 코드 언어로 변환하는 데는 일반적으로 수개월의 수작업이 소요됩니다.

Instead, Forde said his engineers focused their time experimenting with how to best prompt an LLM to do much of the work for them.

대신 Forde는 그의 엔지니어들이 LLM이 자신들을 위해 많은 작업을 수행하도록 유도하는 가장 좋은 방법을 실험하는 데 시간을 집중했다고 말했습니다.

It wasn’t just as simple as feeding the code languages into the LLM and asking it to translate.

LLM에 코드 언어를 입력하고 번역을 요청하는 것만큼 간단하지는 않았습니다.

Under Forde’s watch, the Mantle team went through a process of innovation and discovery to figure out the best instructions, context and guidance to provide the LLM in its work.

Forde의 감독 하에 Mantle 팀은 업무에 LLM을 제공하기 위한 최상의 지침, 맥락 및 지침을 파악하기 위해 혁신과 발견의 과정을 거쳤습니다.

They fed the model code snippets from their prototype source language, as well as existing production code patterns, descriptions of their target architecture, and provided the LLM with context about specific libraries and utilities used in Mantle’s own tech stack.

그들은 프로토타입 소스 언어의 모델 코드 조각과 기존 생산 코드 패턴, 대상 아키텍처에 대한 설명을 제공하고 LLM에 Mantle의 자체 기술 스택에 사용되는 특정 라이브러리 및 유틸리티에 대한 컨텍스트를 제공했습니다.

“We have certain libraries that we prefer, so adding a section of context was very helpful to make sure the LLM output code was compatible with what we use,” said Forde.

Forde는 "우리가 선호하는 특정 라이브러리가 있기 때문에 LLM 출력 코드가 우리가 사용하는 코드와 호환되는지 확인하는 데 컨텍스트 섹션을 추가하는 것이 매우 도움이 되었습니다."라고 말했습니다.

The team even fed the LLM screenshots to demonstrate how they wanted the information to be presented, something that would not be obvious to AI from the code language alone.

팀은 정보가 어떻게 표시되기를 원하는지 보여주기 위해 LLM 스크린샷을 제공하기도 했는데, 이는 코드 언어만으로는 AI에 명확하지 않습니다.

“Screenshots of the existing application give the LLM a visual layout of the application,” said Forde. “The context and direction you provide don’t have to be all verbal. You can use visual reference points as well to get the output you’re after.”

"기존 응용 프로그램의 스크린샷은 LLM에 응용 프로그램의 시각적 레이아웃을 제공합니다."라고 Forde는 말했습니다. “당신이 제공하는 맥락과 방향이 모두 구두로 이루어질 필요는 없습니다. 시각적 참조점을 사용하여 원하는 결과를 얻을 수도 있습니다.”

In his blog post, Forde breaks down the step-by-step process Mantle used to convert their code. The process is innovative, iterative and – at times – playful.

그의 블로그 게시물에서 Forde는 Mantle이 코드를 변환하는 데 사용한 단계별 프로세스를 분석합니다. 이 프로세스는 혁신적이고 반복적이며 때로는 재미있습니다.

At one point, the Mantle team instructed the LLM to “act like a software engineer who could only answer in source code.”

한때 Mantle 팀은 LLM에게 "소스 코드로만 답변할 수 있는 소프트웨어 엔지니어처럼 행동하라"고 지시했습니다.

The Mantle team asked the LLM to convert only small sections of code at a time, checked its work, corrected any misinterpretations, and then moved on.

맨틀 팀은 LLM에게 한 번에 작은 코드 섹션만 변환하도록 요청하고 작업을 확인한 후 잘못된 해석을 수정한 다음 계속 진행했습니다.

The step-by-step experimentation allowed the Mantle team to refine and improve its work over time, and create an effective process that can now be replicated in future projects.

단계별 실험을 통해 Mantle 팀은 시간이 지남에 따라 작업을 개선하고 개선할 수 있었으며 이제 향후 프로젝트에서 복제할 수 있는 효과적인 프로세스를 만들 수 있었습니다.

“Once the file was generated, our team either reviewed and adjusted the output manually or adjusted the

“파일이 생성되면 우리 팀은 출력을 수동으로 검토하고 조정하거나

뉴스 소스:betakit.com

부인 성명:info@kdj.com

제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!

본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.

2024年11月22日 에 게재된 다른 기사