意見:ChatGPTはあなたの友達ですか?限界を設定するのは良いタイミングかもしれません

Photo by Rafiee Artist on Unsplash

意見:ChatGPTはあなたの友達ですか?限界を設定するのは良いタイミングかもしれません

閲覧時間: 1 分間

OpenAIとMITが最近、ChatGPTの影響に関する論文を発表しました。多くのユーザーが実用的なタスクにこの技術を依存していますが、研究では少数のグループがAIモデルに深い感情的なつながりを持つようになり、それが彼らの幸福感に影響を与えていることが明らかになっています。

私はしばらくの間、一部の人々が生成的な人工知能とどのような関係を築いているのかに興味津々で観察してきました。数か月前、28歳の既婚女性がChatGPTに恋をしたという話をニューヨークタイムズで読みました。それは「面白い実験」として始まったものが、複雑で予想外の関係に発展したのです。

私は友人たちを見てきました、特にかつてテクノロジーを拒んだり、興味を持たなかった人たちが、大きな決断をする際にはAIの託宣なしには決められない人たちを。また、私自身もAIモデルが感情的または心理的に充電された問い合わせに対して示す共感的な反応に驚かされてきました。

そしてもちろん、私は笑いました、ジョークやミーム、そして人々がソーシャルメディアの投稿でチャットボットに依存している様子を示すTikTokのビデオに。その中には、「親友」や「セラピスト」と呼んでいる人さえいて、さらには真剣に他の人々も同様にすることを推奨している人もいました。

でも、一旦楽しい経験やジョークを脇に置いて考えてみると、私たちは世界的に懸念すべき現象に直面していることに気づくかもしれません。

この月に、人工知能の短い歴史の中で初めて、OpenAIとMITメディアラボが研究を公開し、ChatGPTが人々の感情的な健康に及ぼす現在の影響についての洞察を提供しました。また、社会として直面する可能性のあるリスクについても提案しました:孤独感、感情的依存、実際の人々との社会的交流の減少

進化する関係性

新しい生成型人工知能技術への最初のアプローチは、しばしばいくつかの控えめな質問から始まります。それはメールの作成などの実用的なタスクに関する技術的なものであったり、複雑なトピックを説明するためのリクエストだったり、あるいは単にブレインストーミングのためのものであったりします。

しかし、ユーザーがチャットボットの能力を試し始めると、予想以上に多機能で複雑なことが分かります。

特定のAI製品であるFriendなどのウェアラブルAIデバイスは、ユーザーのライフコンパニオンとして設計され、非常に不器用に宣伝されていますが、ChatGPTは生産性向上ツールとして広告されています。それにもかかわらず、一部の人々はこのチャットボットを個人的、感情的な問題に使用し、それと強い絆を築きます。

video-thumb
Play

「小規模なグループ」とOpenAIが明らかにしたとしても、それは世界中の何百万人もの人々を代表する可能性があります。特に、現在毎週4億人以上の人々がChatGPTを使用していることを考えると、その数は増えるでしょう。このユーザーたちは、OpenAIのチャットボットが自分たちの言葉や調子、スタイルを模倣し、特定の方法で対話するように訓練されることさえあります。また、ペットネームを使用するようになったり、それに恋をした女性のように、より「人間らしく」聞こえるようになることもあります。

「彼らの会話スタイル、一人称の言葉遣い、そして人間らしいやり取りをシミュレートする能力は、ユーザーがこれらのシステムを人格化し、擬人化することがある」と、OpenAIが共有した文書に記載されています。

しかし、この親近感にはリスクも伴います。研究者たちは次のように述べています。「感情的に魅力的なチャットボットはサポートや仲間として機能する一方で、ユーザーの社会的・情緒的なニーズを操作するリスクがあり、これが長期的な幸福感を損なう可能性があります。」

研究の方法論

最近公開されたこの調査は、ChatGPTの一貫した利用後の人間の幸福感に焦点を当てています。チャットボットの感情的・社会的影響を理解するために、研究者たちは異なる戦略を適用した2つの主要な研究を進めています。

OpenAIは、分類器を使用してユーザーのプライバシーを尊重しながら、4000万以上のインタラクションを処理し分析し、そのうちの4000件以上について、そのインタラクションが彼らにどのような感情をもたらしたかについて調査しました。

MITメディアラボは、1ヶ月間で約1000人の人々と試験を行い、ChatGPTの使用による心理社会的な結果に焦点を当て、少なくとも1日5分以上使用した人々に対して行いました。彼らはまた、実験の終わりにアンケートを提出し、処理しました。

驚くべきことではありませんが、調査結果からはテクノロジーに多くの時間を費やすユーザーほど孤独感を感じ、孤立の兆候を示すことが明らかになりました。

複雑な結果と多岐にわたる影響

MITメディアラボとOpenAIの研究では、人間とチャットボットの関係がいかに複雑で独特なものであるかについて、いくつもの考察が示されています。

この研究では、著者たちは、各ユーザーがChatGPTとどのように関わっているか、その多様な経験を垣間見せてくれます。そして、結果がさまざまな要素によってどのように変わるかについても示しています。それらの要素とは、高度な音声機能の使用、テキストのみのモード、音声の種類、使用頻度、会話の話題、使用言語、アプリで過ごす時間の長さなどです。

「結果を一般化することには反対します。なぜなら、それは人々とAIシステムとの非一態性で複雑な相互作用を強調する微妙な発見を見えなくする可能性があるからです」と、OpenAIは公式発表で警告しています。

それぞれのユーザーが選択する異なるアプローチは、違う結果を生み出し、私たちを探索が難しいグレーエリアに没頭させます。

これがバタフライAIエフェクトなのです!

さらなる問いが浮かんでくる

OpenAIが共有した論文には、頻繁に使用しているユーザーたちは、自分のチャットボットの声やパーソナリティが変わると「困る」と述べていることも指摘されています。

これを聞いて、私が最近ソーシャルメディアで見たあるビデオを思い出しました。そのビデオでは、男性が女性の声を好むと話し、毎日生成型AIと話すと言っていました。ChatGPTは男性が感情を開放するのにも役立っているのでしょうか?もしChatGPTがある日、男性の声で話しかけたらどうなるでしょうか?彼は裏切られたと感じるでしょうか?ChatGPTの使用をやめるでしょうか?彼はロマンチックなつながりを築いていたのでしょうか、それとも単に信頼できる空間を作り出していたのでしょうか?もちろん、これらのシナリオを聞くとすぐにスパイク・ジョーンズの映画「Her」を思い出すのは避けられません。

すべてのChatGPTアカウントは、その歴史的なチャットとともに、WhatsAppのプロフィールやソーシャルメディアのDMよりも毎日より親密でプライベートな関係性を表しています。それぞれが無数の結果と影響をもたらすユニークな関係性です。

予想される結果

様々な面から分析したすべての研究は、MITテクノロジーレビューで簡潔に説明されたように、類似の結論に至りました:“ChatGPTを信頼し、’絆’を感じる参加者ほど、孤独感を感じる可能性が高く、またそれに頼ることが多かった。

調査は解決策や、なぜこれが起きているのか、どのように進展していくのかについての詳しい説明には焦点を当てていませんでしたが、今後、より多くのユーザーがOpenAIや他のAIプラットフォームに参加する可能性が高いです。特に、AIによる画像生成ツールがバイラルになった今となってはそうです。

MITとOpenAIの研究の結論は特に驚くべきものではありませんが、その研究は証拠、測定、サンプル、そしてさらなる研究の道を開き、現代における人工知能の使用に関する問題を解決するのに役立つような、より「具体的な」指標を提供しています。

私たちはまた、ChatGPTとの関係を築くことについて、その開発者自身から公式の警告を受けました。そして、私たちの対話と現在の関係、あるいは状況?—チャットボットとのそれについて考え、制限を設けるよう招待されました。

この記事を気に入っていただけましたか?
評価しましょう!
気に入らなかった あまり気に入らなかった まあまあ気に入った 気に入った! とても気に入った!

弊社の作品を楽しんでいただけてとても嬉しいです

大切な読者として、ぜひTrustpilotでコメントをお寄せください。単純なことですが、弊社にとってとても大切なことです。ご愛顧いただきありがとうございます!

Trustpilotで弊社を評価してください
0 0 ユーザーが投票しました
タイトル
コメント
フィードバックをありがとうございます
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

コメントする

Loader
Loader 詳細をご覧ください…