時価総額: $2.7009T 1.160%
ボリューム(24時間): $72.6436B 1.870%
  • 時価総額: $2.7009T 1.160%
  • ボリューム(24時間): $72.6436B 1.870%
  • 恐怖と貪欲の指数:
  • 時価総額: $2.7009T 1.160%
暗号
トピック
暗号化
ニュース
暗号造園
動画
トップニュース
暗号
トピック
暗号化
ニュース
暗号造園
動画
bitcoin
bitcoin

$83196.788088 USD

1.99%

ethereum
ethereum

$1837.092658 USD

1.87%

tether
tether

$0.999802 USD

-0.02%

xrp
xrp

$2.111160 USD

1.00%

bnb
bnb

$608.989877 USD

1.21%

solana
solana

$126.384147 USD

0.57%

usd-coin
usd-coin

$1.000043 USD

0.01%

dogecoin
dogecoin

$0.169286 USD

2.19%

cardano
cardano

$0.671659 USD

2.70%

tron
tron

$0.235720 USD

1.39%

toncoin
toncoin

$4.185996 USD

7.68%

chainlink
chainlink

$13.728458 USD

2.93%

unus-sed-leo
unus-sed-leo

$9.175711 USD

0.78%

stellar
stellar

$0.266850 USD

0.86%

avalanche
avalanche

$19.122530 USD

1.71%

暗号通貨のニュース記事

Openaiの「AIアクションプラン」は、人工知能におけるアメリカの支配を確保することを目指しています

2025/03/30 20:00

人工知能がグローバルな力のダイナミクスを決定する時代に、Openaiはこのセクターでのアメリカの支配を確保するために大胆な動きをしています。

In an era where artificial intelligence dictates global power dynamics, OpenAI is making bold moves to try and keep America’s technological superiority amidst a rapidly changing landscape.

人工知能がグローバルな力のダイナミクスを決定する時代に、Openaiは急速に変化する景観の中でアメリカの技術的優位性を維持しようとする大胆な動きをしています。

Its new plan, the “AI Action Plan,” tries to ease the regulatory framework, implement export controls, and increase federal investment to stay ahead of China’s AI expansion.

その新しい計画である「AIアクションプラン」は、規制の枠組みを緩和し、輸出管理を実施し、連邦投資を増やして中国のAIの拡大を先取りしようとします。

The plan, part of a broader partnership agreement signed by OpenAI and the Trump administration on March 13, also focuses on limiting regulatory oversight and allowing for rapid development of AI in the US.

3月13日にOpenaiとトランプ政権によって署名されたより広範なパートナーシップ契約の一部であるこの計画は、規制監視の制限と米国のAIの迅速な発展を可能にすることにも焦点を当てています。

“Too much state-level regulation could sap the vitality of U.S. companies and hinder the pace of innovation, setting the stage for China’s state-supported AI players to forge ahead,” the plan states.

「あまりにも多くの州レベルの規制は、米国企業の活力を奪い、イノベーションのペースを妨げ、中国が支援するAIプレーヤーが前進するための舞台を設定する可能性があります」と計画は述べています。

A proposal by OpenAI to adjust copyright law to allow AIs to use copyrighted material in their training programs. If the copyright policies are too restrictive, it could put the U.S. at a disadvantage to their foreign competitors — especially the Chinese ones, which operate among weaker copyright enforcement.

AISがトレーニングプログラムで著作権で保護された資料を使用できるようにするために、著作権法を調整するOpenAIによる提案。著作権ポリシーが制限が強すぎる場合、米国は外国の競合他社、特に著作権の執行の中で動作する中国の競合他社に不利な立場に置かれる可能性があります。

OpenAI’s approach marks a pivotal point in American AI policy, combining regulatory advocacy with industrial ambition to ensure the U.S. stays on top of the game when it comes to AI.

Openaiのアプローチは、アメリカのAI政策における極めて重要なポイントを示しており、規制上の擁護と、AIに関して米国がゲームの上に留まることを保証する産業の野望を組み合わせています。

At the heart of OpenAI’s plan is an export-control strategy that aims to limit the country’s expanding influence in China. This will prevent the misuse of AI platforms and technologies by opposing nations. Consequently, the export controls will protect the U.S. national security.

Openaiの計画の中心にあるのは、中国での国の拡大する影響を制限することを目的とする輸出制御戦略です。これにより、反対国家によるAIプラットフォームとテクノロジーの誤用が妨げられます。その結果、輸出規制は米国の国家安全保障を保護します。

OpenAI’s plan also calls for using federal dollars to explain to the world that American-made AI is safer and that U.S.-based companies should stay ahead of the international AI stream.

また、Openaiの計画は、連邦ドルを使用して、アメリカ製のAIがより安全であり、米国に拠点を置く企業が国際的なAIの流れよりも先を行くべきだと世界に説明することを求めています。

DeepSeek is not only a Chinese AI initiative and a commercial competitor but also a fundamental ally of the Chinese Communist Party (CCP). In late January, DeepSeek grew infamous for blocking information on the 1989 Tiananmen Square massacre, a moment that sparked a wave of screenshots on social media demonstrating China’s censorship.

Deepseekは、中国のAIイニシアチブであり、商業競争相手であるだけでなく、中国共産党(CCP)の基本的な同盟国でもあります。 1月下旬、Deepseekは1989年の天安門広場虐殺に関する情報をブロックすることで悪名高いものになりました。

The $500 billion plan

5,000億ドルの計画

A central part of OpenAI’s pitch is locking in greater federal funding for AI infrastructure. This means ensuring that the high-water mark for American progress in the field of AI does not merely concern protecting what comes next from foreign threats but also reinforces the necessary computational and data infrastructure to sustain long-term growth.

Openaiのピッチの中心部は、AIインフラストラクチャのためのより大きな連邦資金でロックされています。これは、AIの分野でのアメリカの進歩のための高水マークが、外国の脅威から次に来るものを保護するだけでなく、長期的な成長を維持するために必要な計算とデータのインフラストラクチャを強化することを保証することを意味します。

The Stargate Project, for instance, is a joint effort by OpenAI, SoftBank, Oracle, and MGX that will provide up to $500 billion for the development of AI infrastructure in the United States.

たとえば、Stargateプロジェクトは、Openai、Softbank、Oracle、およびMGXによる共同の努力であり、米国のAIインフラストラクチャの開発に最大5,000億ドルを提供します。

This ambitious initiative is intended to cement American AI superiority while producing thousands of domestic jobs — an ironic twist considering the common narrative of AI rendering jobs obsolete.

この野心的なイニシアチブは、アメリカのAIの優位性を固めながら、何千もの国内の雇用を生み出すことを目的としています。これは、AIのヨブを廃止するという共通の物語を考慮した皮肉なひねりです。

It is a major tactical shift in the approach to AI policy, recognizing that private sector investments are not sufficient to maintain competitiveness against state-sponsored efforts like China’s DeepSeep.

これは、AIポリシーへのアプローチにおける大きな戦術的な変化であり、中国のディープシープのような国家主催の努力に対する競争力を維持するのに十分ではないことを認識しています。

The Stargate Project aims to expand semiconductor manufacturing and ensure the construction of advanced data centers within the United States to keep AI development domestic.

Stargateプロジェクトは、半導体の製造を拡大し、AI開発を国内に維持するために米国内の高度なデータセンターの建設を確保することを目的としています。

In its early stages, Federal support for AI infrastructure is critical — both for growing economic competitiveness and for national security. AI-powered features are often used in national defense and intelligence. For instance, Shield AI’s Nova is an autonomous quadcopter drone that uses AI to fly itself through complex environments without GPS to gather life-saving information in combat environments.

初期段階では、AIインフラストラクチャに対する連邦政府の支援が重要です。経済競争力の高まりと国家安全保障の両方のためです。 AIを搭載した機能は、国防と情報でよく使用されます。たとえば、Shield AIのNOVAは、AIを使用してGPSなしで複雑な環境を飛行して戦闘環境で命を救う情報を収集する自律的なクアッドコプタードローンです。

Moreover, AI is also crucial in cyber defense against hacking, phishing, ransomware, and other cybersecurity threats because it can identify deviations or abnormalities in systems in real time. Its role in detecting patterns and spotting irregularities helps the U.S. safeguard critical defense infrastructure from cyberattacks, highlighting the importance of quickly advancing AI for defense purposes.

さらに、AIは、ハッキング、フィッシング、ランサムウェア、およびその他のサイバーセキュリティの脅威に対するサイバー防衛においても重要です。これは、システムの偏差または異常をリアルタイムで特定できるためです。パターンの検出と不規則性の発見におけるその役割は、米国がサイバー攻撃からの重要な防衛インフラストラクチャを保護するのに役立ち、防衛目的でAIを迅速に進めることの重要性を強調します。

Battle for AI training models

AIトレーニングモデルのための戦い

A key element of OpenAI’s proposal is the call for a new copyright approach that would ensure that American AI models can access copyrighted material for use in their training. The ability to train on a wide range of datasets is critical to keeping AI models sophisticated.

Openaiの提案の重要な要素は、アメリカのAIモデルがトレーニングで使用するために著作権で保護された資料にアクセスできるようにする新しい著作権アプローチの呼びかけです。幅広いデータセットでトレーニングする機能は、AIモデルを洗練された状態に保つために重要です。

If the copyright policies are too restrictive, it could put the U.S. at a disadvantage to their foreign competitors — especially the Chinese ones, which operate among weaker copyright enforcement.

著作権ポリシーが制限が強すぎる場合、米国は外国の競合他社、特に著作権の執行の中で動作する中国の競合他社に不利な立場に置かれる可能性があります。

After the models are trained, they undergo a multi-stage approval process. This includes assessing the AI tools for risk, subjecting them to the governance board's scrutiny, and verifying their compliance with frameworks such as the House AI Policy and DHS conditional approvals.

モデルが訓練された後、彼らはマルチステージの承認プロセスを受けます。これには、AIツールのリスクの評価、ガバナンス委員会の精査にさらされ、House AIポリシーやDHS条件付き承認などのフレームワークへのコンプライアンスの検証が含まれます。

Although FedRAMP’s “fast pass” may expedite deployment, antennae from the FTC and regulations will keep AI’s purposes on the same shelf as national security policy and consumer protection.

Fedrampの「Fast Pass」は展開を促進する可能性がありますが、FTCおよび規制からのアンテナは、AIの目的を国家安全保障政策や消費者保護と同じ棚に維持します。

These safeguards, while undoubtedly very important, often slow the pace of AI adoption in crucial government use cases.

これらの保護は間違いなく非常に重要ですが、政府の重要なユースケースでのAI採用のペースを遅くすることがよくあります。

Now, OpenAI, in particular, is lobbying for a partnership between the government and the industry, where AI companies voluntarily contribute their models’ data, and in exchange, they would not be subject to

現在、Openaiは特に、政府と業界の間のパートナーシップを求めてロビー活動を行っています。AI企業は自発的にモデルのデータに貢献しています。

免責事項:info@kdj.com

提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。

このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。

2025年04月01日 に掲載されたその他の記事