![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
![]() |
|
テクノロジーは、今日、これまで以上に光の速度で前進しています。私たちはムーアの法律を上回っています - 計算力は6か月ごとに倍増しています
The EU Artificial Intelligence Act, which finally came into force in August 2024, is already lagging behind. It does not yet consider AI agents and is still grappling with generative AI (GenAI) and foundation models. Article 28b was added to the act in June 2023 after the launch of ChatGPT at the end of 2022 and the flourishing of chatbot deployments. It was not on their radar when lawmakers initially drafted the act in April 2021.
2024年8月に最終的に施行されたEU人工知能法は、すでに遅れをとっています。まだAIエージェントを考慮しておらず、生成AI(Genai)およびFoundationモデルにまだ取り組んでいます。 28B条は、2022年の終わりにCHATGPTが発売された後、2023年6月にACTに追加され、チャットボットの展開が盛んになりました。議員が2021年4月に最初に法律を起草したとき、それは彼らのレーダーにありませんでした。
As we delve more into robotics and the utilization of virtual reality devices, a "new paradigm of AI architectures" will emerge, addressing the limitations of GenAI to create robots and virtual devices capable of comprehending the world, in contrast to GenAI models. Perhaps we should be focusing on drafting a new article about GenAI.
ロボット工学と仮想現実デバイスの利用をさらに掘り下げるにつれて、「AIアーキテクチャの新しいパラダイム」が現れ、Genaiモデルとは対照的に、世界を理解できるロボットと仮想デバイスを作成するためのGenaiの制限に対処します。おそらく、genaiに関する新しい記事の起草に焦点を当てるべきです。
Furthermore, technology regulations are currently arranged in a dichotomous manner. We have regulations for AI, like the EU AI Act; Web3, like Markets in Crypto-Assets; and the security of digital information, like the EU Cybersecurity Act and The Digital Operational Resilience Act.
さらに、技術規制は現在、二分的な方法で配置されています。 EU AI法のように、AIの規制があります。 web3、暗号資産の市場と同様。 EUサイバーセキュリティ法やデジタル運用レジリエンス法のようなデジタル情報のセキュリティ。
This dichotomy poses difficulties for users and businesses in keeping track of. Moreover, it does not align with the manner in which solutions and products are developed. Each solution integrates multiple technologies, while each technology component is subject to separate regulations.
この二分法は、ユーザーと企業が追跡するのに困難をもたらします。さらに、ソリューションと製品が開発される方法とは一致しません。各ソリューションは複数のテクノロジーを統合し、各テクノロジーコンポーネントは個別の規制の対象となります。
It might be pertinent to reconsider our approach to regulating technology.
技術を規制するためのアプローチを再考することは適切かもしれません。
A Comprehensive Approach
包括的なアプローチ
Tech companies have been pushing the boundaries with cutting-edge technologies, including Web3, AI, quantum computing, and others yet to emerge. Other industries are following suit in the experimentation and implementation of these technologies.
ハイテク企業は、Web3、AI、Quantum Computingなどの最先端のテクノロジーで境界を押し広げてきました。他の産業は、これらの技術の実験と実装において訴訟を続けています。
Everything is becoming digital, and each product combines several technologies. Consider the Apple Vision Pro or Meta Quest. They incorporate hardware, goggle technology, AI, biometric technology, cloud computing, cryptography, digital wallets, and more, and soon they will be integrated with Web3 technology.
すべてがデジタルになりつつあり、各製品はいくつかのテクノロジーを組み合わせています。 Apple Vision ProまたはMeta Questを検討してください。ハードウェア、ゴーグルテクノロジー、AI、生体認証テクノロジー、クラウドコンピューティング、暗号化、デジタルウォレットなどが組み込まれており、すぐにWeb3テクノロジーに統合されます。
A comprehensive approach to regulation would be the most suitable in the following principal cases:
規制に対する包括的なアプローチは、次の主要なケースで最も適切です。
A Full-System Solution
フルシステムソリューション
Most, if not all, solutions require the integration of several emerging technologies. If we have separate guidelines and regulations for each technology, how could we ensure that the product/service is compliant? At what point does one rule start and the other end?
すべてではないにしても、ほとんどのソリューションでは、いくつかの新興技術の統合が必要です。各テクノロジーのガイドラインと規制が個別にある場合、製品/サービスが準拠していることをどのように保証できますか?一方のルールはどの時点で始まり、もう一方のルールはありますか?
Recent: Animoca Brands Revenue Soars as AI Contributes to 12% Cost Reduction
最近:AIIが12%のコスト削減に貢献しているため、Animocaブランドの収益が急上昇します
Having separate guidelines would likely introduce more complexity, errors, and misinterpretations, which might ultimately result in more harm than good. If the implementation of technologies is all-encompassing and comprehensive, then the approach to regulating it should also be.
個別のガイドラインを持つことで、より複雑さ、エラー、誤解が導入される可能性があり、最終的には善よりも害をもたらす可能性があります。テクノロジーの実装がすべて包括的で包括的である場合、それを規制するためのアプローチもそうであるはずです。
Different Technologies Support Each Other’s Weaknesses
さまざまなテクノロジーが互いの弱点をサポートしています
All technologies have their strengths and weaknesses, and often, the strengths of one technology can help to mitigate the shortcomings of another.
すべてのテクノロジーには長所と短所があり、多くの場合、あるテクノロジーの長所は別のテクノロジーの欠点を軽減するのに役立ちます。
For instance, AI can be used to improve the accuracy and efficiency of smart contract execution and blockchain security and monitoring. In contrast, blockchain technology can be instrumental in realizing "responsible AI," as blockchain embodies the essence of what AI is not—transparency, traceability, trustworthiness, and resistance to tampering.
たとえば、AIを使用して、スマートコントラクトの実行とブロックチェーンのセキュリティと監視の精度と効率を改善できます。対照的に、ブロックチェーンは「責任あるAI」を実現するのに役立つ可能性があります。ブロックチェーンは、AIが何ではないかという本質を具体化するためです。
When AI supports Web3 and vice versa, we are effectively deploying a collective solution that is both safe and secure and ensures trustworthiness. Would these solutions be deemed AI-compliant or Web3-compliant? In the case of this solution, it would be a time-consuming endeavor to segregate and categorize compliance. The solution itself should be compliant and adhere to all relevant guidelines/policies. Ideally, these guidelines/policies would comprehensively cover all technologies, including their integration.
AIがWeb3をサポートし、その逆をサポートする場合、安全かつ安全であり、信頼性を保証する集合ソリューションを効果的に展開しています。これらのソリューションは、AI準拠またはWeb3準拠と見なされますか?このソリューションの場合、コンプライアンスを分離して分類することは時間のかかる努力になります。ソリューション自体は準拠しており、関連するすべてのガイドライン/ポリシーに準拠する必要があります。理想的には、これらのガイドライン/ポリシーは、統合を含むすべてのテクノロジーを包括的にカバーします。
A Proactive Approach
積極的なアプローチ
We require a more proactive stance on regulation. Many of the proposed regulation acts, across all regions, appear to be reactions to changes that are already known today and do not go far enough in devising frameworks for what might come five or 10 years down the line.
規制に関するより積極的な姿勢が必要です。提案された規制法の多くは、すべての地域で、今日既に知られている変化に対する反応であり、5年または10年後に来る可能性のあるフレームワークを考案するのに十分なほど進んでいないようです。
If, for example, we are already aware that a "new paradigm of AI architectures" will be emerging, probably within the next five years, then why are we not starting to think about how to regulate it now, rather than in five years? Or, better yet, we should be searching for a regulatory framework that would apply no matter how technology evolves.
たとえば、「AIアーキテクチャの新しいパラダイム」がおそらく今後5年以内に出現することをすでに認識している場合、なぜ5年ではなく、今それを調整する方法について考え始めていないのですか?または、さらに良いことに、テクノロジーがどのように進化しても適用される規制の枠組みを検索する必要があります。
Let's consider the concept of responsible innovation. In its simplest form, responsible innovation principles are designed to cut across all technologies. These principles recognize that all technologies can have unintended consequences on users, bystanders, and society, and it is the responsibility of the companies and developers creating those technologies to identify and mitigate those risks.
責任ある革新の概念を考えてみましょう。最も単純な形式では、責任あるイノベーションの原則は、すべてのテクノロジーを削減するように設計されています。これらの原則は、すべてのテクノロジーがユーザー、傍観者、社会に意図しない結果をもたらす可能性があり、それらのリスクを特定して軽減するためのテクノロジーを作成する企業や開発者の責任であることを認識しています。
Responsible innovation principles are overarching and international and apply to any technology that exists today and will evolve in the future. This could be the basis for technology regulation, but companies, regardless of regulation, should understand that innovating responsibly instills trust in users, which will translate to mainstream adoption.
責任あるイノベーションの原則は包括的かつ国際的であり、今日存在し、将来進化するあらゆる技術に適用されます。これはテクノロジー規制の基礎となる可能性がありますが、企業は規制に関係なく、革新的な責任を持ってユーザーへの信頼を植え付けることを理解する必要があります。これは主流の採用につながります。
Truth in Technology Act
テクノロジー法の真実
The Securities Act of 1933, also known as the “truth in securities” law, was created to protect investors from fraud and misrepresentation and restore public confidence in
「証券の真実」法としても知られる1933年の証券法は、投資家を詐欺や不実表示から保護し、国民の信頼を回復するために作成されました。
免責事項:info@kdj.com
提供される情報は取引に関するアドバイスではありません。 kdj.com は、この記事で提供される情報に基づいて行われた投資に対して一切の責任を負いません。暗号通貨は変動性が高いため、十分な調査を行った上で慎重に投資することを強くお勧めします。
このウェブサイトで使用されているコンテンツが著作権を侵害していると思われる場合は、直ちに当社 (info@kdj.com) までご連絡ください。速やかに削除させていただきます。