|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Meta Platforms は、すでに搭載されている機能に加えて、リアルタイム ライブ AI や Shazam などの新機能を Ray-Ban メガネに追加しました。
Meta Platforms has added new features to its Ray-Ban glasses, including real-time live AI and Shazam on top of the already onboarded features.
Meta Platforms は、すでに搭載されている機能に加えて、リアルタイム ライブ AI や Shazam などの新機能を Ray-Ban メガネに追加しました。
This comes as the social media giant has been constantly upgrading the AI-enabled glasses to enhance performance including to handle more complex tasks and respond more naturally in major updates that are expected to transform the smart glasses.
これは、ソーシャルメディアの巨人が、より複雑なタスクを処理したり、スマートグラスを変革すると予想されるメジャーアップデートでより自然に応答したりするなど、パフォーマンスを向上させるためにAI対応グラスを継続的にアップグレードしていることを受けてのことだ。
Earlier this year Meta revealed it was integrating its next-generation AI model Llama 3 into virtual assistant – MetaAI in its Ray-Ban smart glasses to enhance performance. The multi-modal features were in early access last December and can perform translations in addition to identifying objects, animals, and monuments.
今年の初め、Meta は、パフォーマンスを向上させるために、次世代 AI モデル Llama 3 をレイバン スマート グラスの仮想アシスタント MetaAI に統合していることを明らかにしました。このマルチモーダル機能は昨年 12 月に早期アクセスされ、物体、動物、記念碑の識別に加えて翻訳も実行できます。
Now, Meta has brought other major upgrades to the smart glasses to boost their performance further. According to Cnet, the always-on continuous AI assistance started working on the Ray-Ban glasses on Monday for owners that have access to Meta’s features. This is in addition to the onboard translation, and Shazam which is currently available in the US and Canada only.
現在、Meta はスマート グラスのパフォーマンスをさらに向上させるために、その他の主要なアップグレードも行っています。 Cnet によると、メタの機能にアクセスできる所有者を対象に、月曜日からレイバン メガネで常時オンの継続的な AI アシスタントが機能し始めたという。これは、機内翻訳と、現在米国とカナダでのみ利用できる Shazam に追加されるものです。
The latest features added to the AI-enabled glasses include continuous audio and camera recording as opposed to specific individual prompts. This, according to Cnet, allows the glasses to be used for an extended period of time with the AI features turned on.
AI 対応メガネに追加された最新機能には、特定の個別のプロンプトではなく、継続的な音声とカメラの記録が含まれます。 Cnet によると、これにより、AI 機能をオンにした状態でメガネを長時間使用できるようになります。
Whenever the always-on live AI is activated, the glasses’ LED also stays on. Meta keeps a recording of the conversation that can be referred to throughout the AI session.
常時オンのライブ AI がアクティブになると、メガネの LED も点灯したままになります。 Meta は、AI セッション全体で参照できる会話の記録を保持します。
In terms of translation, it is expected to work automatically while talking. However, although the translation comes through the glasses, it comes with a slight delay.
翻訳に関しては、会話中に自動的に機能することが期待されます。ただし、翻訳はメガネを通して行われますが、わずかに遅れます。
The live AI assistance is reportedly similar to what Google demonstrated on its own prototype glasses this month via Gemini and Android XR, arriving next year.
伝えられるところによると、このライブAI支援は、Googleが今月Geminiと来年登場予定のAndroid XRを介して自社のプロトタイプグラスで実証したものと似ているという。
According to Meta, as cited by Cnet, the aways-on AI takes a hit on battery life, and users can expect up to 30 minutes of use before recharging the device.
Cnet が引用した Meta によると、外出時 AI はバッテリー寿命に影響を及ぼし、ユーザーはデバイスを再充電するまでに最大 30 分間使用できると予想されます。
However, the company further explains that this type of always-on camera-assisted AI is exactly what more tech companies will be exploring in the next year.
しかし同社はさらに、この種の常時稼働のカメラ支援AIはまさに来年、さらに多くのテクノロジー企業が研究するものであると説明している。
The upgrades come as Big Tech is pushing AI assistants as the raison d’etre for smart glasses. Last week, Google revealed Android XR for new smart glasses, and specifically positioned its Gemini AI assistant as the killer app.
このアップグレードは、ビッグテックがスマートグラスの存在意義としてAIアシスタントを推進している中で行われた。先週、Googleは新しいスマートグラス用のAndroid XRを発表し、特にGemini AIアシスタントをキラーアプリとして位置づけた。
In the meantime Andrew Bosworth, Meta CTO said in blog post that “2024 was the year AI glasses hit their stride.”
一方、Meta CTOのアンドリュー・ボスワース氏はブログ投稿で「2024年はAIメガネが本格的に普及した年だった」と述べた。
In the same blogpost, Bosworth further opines that smart glasses may be the best possible form factor for a “truly AI-native device.” He added the AI-powered glasses could be the first hardware category to be “completely defined by AI from the beginning.”
同じブログ投稿の中で、ボズワース氏はさらに、スマート グラスが「真の AI ネイティブ デバイス」として考えられる最良のフォーム ファクターである可能性があると述べています。同氏は、AI搭載メガネは「最初からAIによって完全に定義された」最初のハードウェアカテゴリーになる可能性があると付け加えた。
With Meta’s Ray-Ban smart glasses, users can activate the virtual assistant on the glasses by saying “Hey Meta” then ask a question or prompt, before the assistant can respond via speakers built on the frames.
Meta の Ray-Ban スマート メガネを使用すると、ユーザーは「Hey Meta」と言うことでメガネ上の仮想アシスタントを起動し、質問やプロンプトを尋ねると、アシスタントがフレームに内蔵されたスピーカーを通じて応答することができます。
According to Meta, users can livestream from the glasses to social media platforms like Facebook and Instagram, using “Hey Meta” to engage with the firm’s “advanced conversational assistant” MetaAI.
Meta によると、ユーザーは「Hey Meta」を使用して、同社の「高度な会話アシスタント」MetaAI と連携して、メガネから Facebook や Instagram などのソーシャル メディア プラットフォームにライブストリーミングすることができます。
The Ray Ban glasses feature enhanced audio and cameras, in addition to more than 150 different custom frame and lens combinations, “and they are lighter and comfortable.”
レイバン メガネは、150 以上のカスタム フレームとレンズの組み合わせに加えて、強化されたオーディオとカメラを備えており、「さらに軽くて快適です」。
免責事項:info@kdj.com
The information provided is not trading advice. kdj.com does not assume any responsibility for any investments made based on the information provided in this article. Cryptocurrencies are highly volatile and it is highly recommended that you invest with caution after thorough research!
If you believe that the content used on this website infringes your copyright, please contact us immediately (info@kdj.com) and we will delete it promptly.