bitcoin
bitcoin

$98870.54 USD 

1.60%

ethereum
ethereum

$3475.75 USD 

5.70%

tether
tether

$1.00 USD 

0.08%

solana
solana

$262.51 USD 

3.71%

bnb
bnb

$675.60 USD 

9.20%

xrp
xrp

$1.56 USD 

9.11%

dogecoin
dogecoin

$0.465943 USD 

18.16%

usd-coin
usd-coin

$1.00 USD 

0.00%

cardano
cardano

$1.11 USD 

23.65%

tron
tron

$0.220195 USD 

11.13%

avalanche
avalanche

$42.98 USD 

12.66%

shiba-inu
shiba-inu

$0.000028 USD 

12.81%

toncoin
toncoin

$6.28 USD 

15.68%

stellar
stellar

$0.456175 USD 

53.09%

polkadot-new
polkadot-new

$8.28 USD 

35.25%

암호화폐 뉴스 기사

OpenAI Exodus: 안전 감시 장치가 떠나고 경보 벨이 울립니다.

2024/05/18 19:03

수석 과학자 Ilya Sutskever가 떠난 후 OpenAI의 Superalignment 팀 공동 책임자인 Jan Leike는 회사가 AI 안전보다 제품 개발을 우선시하는 것에 대한 우려로 사임했습니다. 이후 OpenAI는 Superalignment 팀을 해산하고 내부 구조 조정이 진행되는 동안 해당 기능을 다른 연구 프로젝트에 통합했습니다.

OpenAI Exodus: 안전 감시 장치가 떠나고 경보 벨이 울립니다.

OpenAI Exodus: Departing Researchers Sound Alarm on Safety Concerns

OpenAI Exodus: 안전 문제에 대한 연구원의 소리 경보

A seismic shift has occurred within the hallowed halls of OpenAI, the pioneering artificial intelligence (AI) research laboratory. In a chorus of resignations, key figures tasked with safeguarding the existential dangers posed by advanced AI have bid farewell, leaving an ominous void in the organization's ethical foundation.

선구적인 인공지능(AI) 연구실인 OpenAI의 신성한 홀에서 지각변동이 일어났습니다. 사임의 합창 속에서 첨단 AI로 인한 실존적 위험을 보호하는 임무를 맡은 핵심 인물들이 작별을 고하고 조직의 윤리적 기반에 불길한 공백을 남겼습니다.

Following the departure of Ilya Sutskever, OpenAI's esteemed chief scientist and co-founder, the company has been rocked by the resignation of Jan Leike, another prominent researcher who co-led the "superalignment" team. Leike's departure stems from deep-rooted concerns about OpenAI's priorities, which he believes have shifted away from AI safety and towards a relentless pursuit of product development.

OpenAI의 존경받는 수석 과학자이자 공동 창업자인 Ilya Sutskever가 떠난 후, "superalignment" 팀을 공동 이끌었던 또 다른 저명한 연구원인 Jan Leike의 사임으로 회사는 흔들렸습니다. Leike의 사임은 OpenAI의 우선순위에 대한 뿌리 깊은 우려에서 비롯되었으며, 그는 OpenAI가 AI 안전에서 벗어나 끊임없는 제품 개발 추구로 옮겨갔다고 믿습니다.

In a series of thought-provoking public posts, Leike lambasted OpenAI's leadership for prioritizing short-term deliverables over the urgent need to establish a robust safety culture and mitigate the potential risks associated with the development of artificial general intelligence (AGI). AGI, a hypothetical realm of AI, holds the promise of surpassing human capabilities across a broad spectrum of tasks, but also raises profound ethical and existential questions.

시사점을 주는 일련의 공개 게시물에서 Leike는 강력한 안전 문화를 확립하고 인공 일반 지능(AGI) 개발과 관련된 잠재적 위험을 완화해야 하는 긴급한 필요성보다 단기 결과물을 우선시하는 OpenAI의 리더십을 맹렬히 비난했습니다. AI의 가상 영역인 AGI는 광범위한 작업에서 인간의 능력을 능가할 것이라는 약속을 내포하고 있지만 심오한 윤리적, 실존적 질문도 제기합니다.

Leike's critique centers around the glaring absence of adequate resources allocated to his team's safety research, particularly in terms of computing power. He maintains that OpenAI's management has consistently overlooked the critical importance of investing in safety initiatives, despite the looming threat posed by AGI.

Leike의 비판은 특히 컴퓨팅 성능 측면에서 그의 팀의 안전 연구에 할당된 적절한 리소스가 눈에 띄게 부족하다는 점에 집중되어 있습니다. 그는 AGI가 제기하는 위협에도 불구하고 OpenAI 경영진이 안전 계획에 대한 투자의 중요성을 지속적으로 간과했다고 주장합니다.

"I have been disagreeing with OpenAI leadership about the company's core priorities for quite some time until we finally reached a breaking point. Over the past few months, my team has been sailing against the wind," Leike lamented.

"나는 우리가 마침내 한계점에 도달할 때까지 꽤 오랫동안 회사의 핵심 우선순위에 대해 OpenAI 리더십에 동의하지 않았습니다. 지난 몇 달 동안 우리 팀은 바람을 거슬러 항해해 왔습니다."라고 Leike는 한탄했습니다.

In a desperate attempt to address the mounting concerns surrounding AI safety, OpenAI established a dedicated research team in July 2023, tasking them with preparing for the advent of advanced AI systems that could potentially outmaneuver and even overpower their creators. Sutskever was appointed as the co-lead of this newly formed team, which was granted a generous allocation of 20% of OpenAI's computational resources.

AI 안전을 둘러싼 증가하는 우려를 해결하기 위한 필사적인 시도의 일환으로 OpenAI는 2023년 7월 전담 연구팀을 구성하여 잠재적으로 제작자를 능가하고 심지어 압도할 수 있는 고급 AI 시스템의 출현에 대비하는 임무를 맡았습니다. Sutskever는 새로 구성된 팀의 공동 리더로 임명되었으며, OpenAI 컴퓨팅 리소스의 20%를 넉넉하게 할당 받았습니다.

However, the recent departures of Sutskever and Leike have cast a long shadow over the future of OpenAI's AI safety research program. In a move that has sent shockwaves throughout the AI community, OpenAI has reportedly disbanded the "superalignment" team, effectively integrating its functions into other research projects within the organization. This decision is widely seen as a consequence of the ongoing internal restructuring, which was initiated in response to a governance crisis that shook OpenAI to its core in November 2023.

그러나 최근 Sutskever와 Leike의 이탈은 OpenAI의 AI 안전 연구 프로그램의 미래에 긴 그림자를 드리웠습니다. AI 커뮤니티 전체에 충격을 준 움직임으로 OpenAI는 "슈퍼얼라인먼트" 팀을 해체하여 조직 내 다른 연구 프로젝트에 해당 기능을 효과적으로 통합한 것으로 알려졌습니다. 이 결정은 2023년 11월 OpenAI를 핵심으로 뒤흔든 거버넌스 위기에 대응하여 시작된 지속적인 내부 구조 조정의 결과로 널리 알려져 있습니다.

Sutskever, who played a pivotal role in the effort that briefly ousted Sam Altman as CEO before he was reinstated amidst employee backlash, has consistently emphasized the paramount importance of ensuring that OpenAI's AGI developments align with the interests of humanity. As a member of OpenAI's six-member board, Sutskever has repeatedly stressed the need to align the organization's goals with the greater good.

직원들의 반발 속에 Sam Altman을 CEO로 잠시 축출한 노력에서 중추적인 역할을 한 Sutskever는 OpenAI의 AGI 개발이 인류의 이익에 부합하는지 확인하는 것이 가장 중요하다고 지속적으로 강조해 왔습니다. OpenAI의 6명으로 구성된 이사회의 일원으로서 Sutskever는 조직의 목표를 더 큰 이익과 일치시켜야 할 필요성을 반복적으로 강조해 왔습니다.

Leike's resignation serves as a stark reminder of the profound challenges facing OpenAI and the broader AI community as they grapple with the immense power and ethical implications of AGI. His departure signals a growing concern that OpenAI's priorities have become misaligned, potentially jeopardizing the safety and well-being of humanity in the face of rapidly advancing AI technologies.

Leike의 사임은 OpenAI와 더 넓은 AI 커뮤니티가 AGI의 엄청난 힘과 윤리적 영향을 놓고 씨름하면서 직면하고 있는 심오한 도전을 극명하게 일깨워주는 역할을 합니다. 그의 사임은 OpenAI의 우선 순위가 잘못 조정되어 빠르게 발전하는 AI 기술에 직면하여 인류의 안전과 복지를 잠재적으로 위험에 빠뜨릴 수 있다는 우려가 커지고 있음을 나타냅니다.

The exodus of key researchers from OpenAI's AI safety team should serve as a wake-up call to all stakeholders, including policymakers, industry leaders, and the general public. It is imperative that we heed the warnings of these experts and prioritize the implementation of robust safety measures as we venture into the uncharted territory of AGI. The future of humanity may depend on it.

OpenAI AI 안전팀의 핵심 연구원들의 이탈은 정책 입안자, 업계 리더, 일반 대중을 포함한 모든 이해관계자들에게 경종을 울리는 역할을 해야 합니다. 우리가 AGI의 미지의 영역에 도전할 때 이러한 전문가들의 경고에 귀를 기울이고 강력한 안전 조치의 구현을 우선시하는 것이 필수적입니다. 인류의 미래가 달려 있을지도 모릅니다.

부인 성명:info@kdj.com

제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!

본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.

2024年11月23日 에 게재된 다른 기사