OpenAIがGPT-4oの高度な新モデルを発表: 近日、誰もが利用可能

OpenAIがGPT-4oの高度な新モデルを発表: 近日、誰もが利用可能

閲覧時間: 1 分間

  • Andrea Miliani

    著者:Andrea Miliani テクニカルライター

  • ローカリゼーション&翻訳チーム

    翻訳: ローカリゼーション&翻訳チーム ローカリゼーション&翻訳サービス

OpenAI は、月曜日の夜に行われたOpenAI Spring Updateライブイベント中にGPT-4oと呼ばれる新しく、より高度なChatGPTモデルを発表しました。GPT-4oはGPT-4よりも高速で、テキスト、オーディオ、画像を同時に処理でき、デバイスのカメラを通して「見る」ことができます。

OpenAIは、26分間のライブストリーム中に、新しいモデルの新機能と性能をリアルタイムで示しました。また、新しいデスクトップアプリなど、以前のバージョンの今後のアップデートに関する詳細も共有しました。

OpenAの最高技術責任者であるミラ・ムラティ氏は、「今日のビッグニュースは、ChatGPT-4oと呼ばれる当社の新しいフラッグシップモデルの発表です」と述べました。

ムラティ氏は、まもなく非登録ユーザーを含め、誰もが新モデルと以前のバージョンの新機能を無料で利用できるようになると説明し、「今後数週間かけて展開していく予定です」と語りました。

OpenAIチームは、デモンストレーションの最初に、GPT-4oがいかに女性の声を用いて会話し、会話を中断され、ユーモアのセンスを持って迅速かつ創造的に応答し、さらには感情を認識してアドバイスできるかを示しました。

その後、GPT-4oを使用できる様々シナリオを提示しました。「ビジョン」機能を利用して紙に書かれた一次方程式を解いたり、デスクトップ版で画面を共有することでコードやグラフィックを理解したり、実際の会話で同時翻訳したりできます。GPT-4oは複数の言語を話せる他、様々な声調やスタイルで会話できます。

最後に、いかに人間の感情を認識したり、間違いを犯したりするかを示しました。デモンストレーション中、GPT-4oは何度か不具合を起こし、発表者の一人を木の画像と混同したり、チームメンバーがまだ何も見せていない数学の問題がすでに処理されていると思い込んだりしてしまいました。

しかし、GPT-4はすぐに謝罪し、その返答で聴衆を魅了しました。研究リーダーの一人であるバレット・ゾフ氏がGPT-4のことをいかに賞賛しているか語ると、「もうやめて、照れちゃうよ!」と答えました。

GPT-4oに対する反応

OpenAI は、新しいGPT-4oモデルの様々な機能をデモンストレーションするために、X上で、複数の短い動画を共有しました。

ホアキン・フェニックスが演じる主人公セオドア・トゥオンブリーがスカーレット・ヨハンソンの声を担当するAI仮想アシスタントと恋に落ちる映画『Her』を連想した人が複数いました。「めちゃめちゃすごい。このクリップを見たとき、すぐにこの映画を思い出しました!」と コメントしたユーザーもいれば、「これはまさにスカーレット・ヨハンソンだ。一体どうやって?!」 と記したユーザーもいます。

ユーザーの大半が新機能に感銘を受けましたが、批判や懸念を共有したユーザーもいます。ロボット自動化Arduinoプロジェクトの共同創設者であるマッシモ・バンジ氏は、「親愛なる@openai、デモンストレーションはとても印象的でゾッとするほど驚きましたが、イタリア語のアクセントがひどかったです :)」と投稿しています。

「実に素晴らしいが、無料版との違いが制限の上限のみなら、多くの有料ユーザーを失うだろう」と別のユーザーは述べています。

数日以内に、新モデルとアップデートがより多くの人に提供され、直接試しながら体験できるようになります。

この記事を気に入っていただけましたか?
評価しましょう!
気に入らなかった あまり気に入らなかった まあまあ気に入った 気に入った! とても気に入った!
5.00 1 ユーザーが投票しました
タイトル
コメント
フィードバックをありがとうございます
Please wait 5 minutes before posting another comment.
Comment sent for approval.

コメントする

詳細をご覧ください…