![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
Nvidia Blackwell platform was intended to integrate its advanced future into the Google Computer System Platform, which Google has promised. Initially anticipated for the beginning of 2025, the platform comes with the ultrafast Nvidia HGX B200, which is developed for AI and high-performance computing (HPC) domains as well as the NBL72 GB200 created for the training of large language models (LLMs). Of all the improvements Google will be introducing the first one is liquid cooling to increase the performance and efficiency. This is the first time liquid cooling will be implemented in Google’s cloud infrastructure.
Nvidia Blackwell 플랫폼은 Google이 약속한 Google 컴퓨터 시스템 플랫폼에 첨단 미래를 통합하기 위한 것이었습니다. 당초 2025년 초로 예상되었던 이 플랫폼에는 AI 및 고성능 컴퓨팅(HPC) 도메인용으로 개발된 초고속 Nvidia HGX B200과 대규모 언어 모델(LLM) 교육용으로 제작된 NBL72 GB200이 함께 제공됩니다. Google이 도입할 모든 개선 사항 중 첫 번째는 성능과 효율성을 높이기 위한 액체 냉각입니다. Google의 클라우드 인프라에 액체 냉각이 구현되는 것은 이번이 처음입니다.
Expansion of AI accelerators and computing services
Google introduced new instance types and various accelerators to fulfill every customer’s needs. One of the innovations that Google Cloud has introduced is the custom-made AI processor chip, called the Arm-based Axion, in addition to a wide range of AI accelerators and even from Nvidia that will ultimately create an array in terms of Google’s offerings. Along with the new A3 Mega instance, which is set to be jointly developed with Nvidia, there were other new announcements.
AI 가속기 및 컴퓨팅 서비스 확장Google은 모든 고객의 요구 사항을 충족하기 위해 새로운 인스턴스 유형과 다양한 가속기를 도입했습니다. Google Cloud가 도입한 혁신 중 하나는 Arm 기반 Axion이라고 하는 맞춤형 AI 프로세서 칩과 더불어 광범위한 AI 가속기, 심지어 Google 제품 측면에서 궁극적으로 어레이를 생성할 Nvidia의 제품입니다. Nvidia와 공동 개발 예정인 새로운 A3 Mega 인스턴스와 함께 다른 새로운 발표도 있었습니다.
This particular solution is designed with the H100 GPUs which are used in industry-standard nets and a new networking system that can double the bandwidth per each GPU. This is an excellent feature for the developers since it now has the necessary power for training deep LLMs at a high-efficiency rate.
이 특정 솔루션은 업계 표준 네트워크에 사용되는 H100 GPU와 각 GPU당 대역폭을 두 배로 늘릴 수 있는 새로운 네트워킹 시스템으로 설계되었습니다. 이는 이제 높은 효율성으로 심층적인 LLM을 교육하는 데 필요한 기능을 갖췄기 때문에 개발자에게 탁월한 기능입니다.
Google also launched its A3 confidential instance, which is designed to be resilient to data breaches and maintain the confidentiality and integrity of sensitive data and AI workloads by encrypting data end-to-end during its transfer and movement between Intel’s CPU and the Nvidia H100 GPU without any need for code changes.
Google은 또한 Intel CPU와 Nvidia H100 GPU 간의 전송 및 이동 중에 데이터를 엔드투엔드 암호화하여 데이터 유출에 대한 복원력을 높이고 민감한 데이터와 AI 워크로드의 기밀성과 무결성을 유지하도록 설계된 A3 기밀 인스턴스를 출시했습니다. 코드를 변경할 필요 없이.
Advancements in Google’s own AI accelerators
Google Humanizes: Google is still not afraid to push technical boundaries with its onsite AI supercomputers, Cloud TPU v5 processors are now pasteurized for long-time use by everyone. The processors, which Google claimed are the most advanced AI accelerator they ever had, will be 2x faster in FLOPS than the previously observed and amazing 3x memory bandwidth speed increase.
Google 자체 AI 가속기의 발전Google Humanizes: Google은 여전히 현장 AI 슈퍼컴퓨터를 통해 기술적 한계를 뛰어넘는 것을 두려워하지 않으며 Cloud TPU v5 프로세서는 이제 모든 사람이 장기간 사용할 수 있도록 저온살균 처리되었습니다. Google이 지금까지 보유한 가장 발전된 AI 가속기라고 주장하는 프로세서는 이전에 관찰된 것보다 FLOPS가 2배 더 빠르고 메모리 대역폭 속도가 3배나 향상됩니다.
Google came up with AI-optimized storage options like Hyper disk (In preview). This next-generation block storage service offers a way to drastically reduce model loading time (up to 3.7 times according to Google), Google Artisan declares. While the widespread utilization of AI and machine learning remains its core asset, Google Cloud is also increasingly venturing into general infrastructure categories.
Google은 Hyper disk(미리보기)와 같은 AI 최적화 스토리지 옵션을 내놓았습니다. 이 차세대 블록 스토리지 서비스는 모델 로딩 시간을 획기적으로(Google 기준 최대 3.7배) 줄일 수 있는 방법을 제공한다고 Google Artisan은 밝혔습니다. AI와 머신러닝의 광범위한 활용은 핵심 자산으로 남아 있지만, Google Cloud는 점점 더 일반 인프라 범주에도 진출하고 있습니다.
The vendor deployed new themes referencing Intel’s fourth- and fifth-generation Xeon CPUs. There is a new general-purpose Z4, Z5, N4, and C4 instances, which will have the fifth-generation Emerald Rapids Xeons. The Z4 is performance-oriented, while N4 offers the best cost-effective solution. Today demonstration version of the C4 instances is in private mode, but N4 will be available for use to all at the current moment.
공급업체는 Intel의 4세대 및 5세대 Xeon CPU를 참조하는 새로운 테마를 배포했습니다. 5세대 Emerald Rapids Xeon을 탑재할 새로운 범용 Z4, Z5, N4 및 C4 인스턴스가 있습니다. Z4는 성능 지향적인 반면 N4는 최고의 비용 효율적인 솔루션을 제공합니다. 현재 C4 인스턴스의 데모 버전은 프라이빗 모드이지만 N4는 현재 모든 사람이 사용할 수 있습니다.
Expanding Google cloud services
Google demoed new C3 physical instances, running on the older Intel Xeon processors of the 4th generation, and X4 memory-optimized physical instances, broadening the service options of Google’s infrastructure. The Z-series introduces the Z3 to Google Cloud’s market, being all storage-optimized virtual machines, which lead their class regarding IOPS with no other major cloud service provider.
Google 클라우드 서비스 확장Google은 4세대 Intel Xeon 프로세서와 X4 메모리 최적화 물리적 인스턴스에서 실행되는 새로운 C3 물리적 인스턴스를 시연하여 Google 인프라의 서비스 옵션을 확장했습니다. Z 시리즈는 스토리지에 최적화된 가상 머신인 Z3를 Google Cloud 시장에 소개하며, 다른 주요 클라우드 서비스 제공업체와는 달리 IOPS 측면에서 동급 최고입니다.
The announcements made by Google Cloud at the Las Vegas event consolidate the company’s position in the industry. These announcements prove that the industry leader in cloud computing is still going strong and will stay there for good. In 2025, Nvidia will incorporate its Blackwell platform, with processing units, storage solutions and AI accelerators being already active. This puts Google Cloud at the forefront of cloud computing space.
라스베이거스 이벤트에서 Google Cloud가 발표한 내용은 업계에서 Google Cloud의 입지를 더욱 공고히 했습니다. 이러한 발표는 클라우드 컴퓨팅 분야의 업계 리더가 여전히 강세를 보이고 있으며 영원히 그 자리에 머물 것임을 증명합니다. 2025년에 Nvidia는 처리 장치, 스토리지 솔루션 및 AI 가속기가 이미 활성화된 Blackwell 플랫폼을 통합할 예정입니다. 이로 인해 Google Cloud는 클라우드 컴퓨팅 분야의 선두에 서게 되었습니다.
The transformations not only ideally improve and enlarge Google’s cloud computing sphere, but also serve developers and businesses, as sources for infinite AI/ML, as well as general processing computations. However, with Google Cloud chasing this dynamic cloud computing ecosystem and maintaining its ingenuity, the company’s strategies and inventions represent its strong intention to a more effective, powerful, and diverse computing system in the future.
이러한 변화는 Google의 클라우드 컴퓨팅 영역을 이상적으로 개선하고 확대할 뿐만 아니라 일반 처리 계산뿐만 아니라 무한한 AI/ML의 소스로서 개발자와 기업에도 서비스를 제공합니다. 그러나 Google Cloud가 이러한 역동적인 클라우드 컴퓨팅 생태계를 추구하고 독창성을 유지하면서 회사의 전략과 발명은 미래에 더욱 효과적이고 강력하며 다양한 컴퓨팅 시스템을 향한 강력한 의도를 나타냅니다.
Original Story From techcrunch
techcrunch의 오리지널 스토리
부인 성명:info@kdj.com
제공된 정보는 거래 조언이 아닙니다. kdj.com은 이 기사에 제공된 정보를 기반으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다. 암호화폐는 변동성이 매우 높으므로 철저한 조사 후 신중하게 투자하는 것이 좋습니다!
본 웹사이트에 사용된 내용이 귀하의 저작권을 침해한다고 판단되는 경우, 즉시 당사(info@kdj.com)로 연락주시면 즉시 삭제하도록 하겠습니다.