意見:チャットボットが人々の主治医になりつつある――素晴らしいが、リスクも伴う
私たちはあっという間に「Dr. Google」から「Dr. Chatbot」へと移行しています。8月には、OpenAIが週に2億人以上のアクティブユーザーを報告しました。ユーザーが最も頻繁に問い合わせるのはライティングやコーディングについてですが、中にはデートのアドバイスやスキンケアルーチン、病気の診断など、より個人的な問題についても利用している人々がいます。
最近の研究では、AIチャットボットが診断の正確さで医師を上回ったことが明らかになりました。しかし、本当に私たちの医師としてAIを信頼できるのでしょうか?
人々が問い合わせるトピックの範囲が広がるにつれて、医療分野でAIに依存するリスクや危険についての懸念も高まってきました。これらには生死を問う問題も含まれています。
「奇跡」で話題のDr. チャットボットがバイラル
数日前、ある女性がRedditでバイラルになりました。彼女は、ChatGPTが皮膚科医よりも彼女の肌を改善するのを助け、その前後の驚くべき画像を共有したからです。
37歳の白人女性が、閉鎖性コメド(毛穴の角栓)を治療するためのオリジナルスキンケアルーチンを作るためにChatGPTを利用し、実際に彼女の肌に効果があったのです!pic.twitter.com/vwkm13G2Hs
— AshutoshShrivastava (@ai_for_success) 2024年11月11日
「私はChatGPTに、プロの皮膚科医のように振る舞い、閉鎖性コメド、ニキビを取り除き、毛穴を小さくし、肌を引き締め、細かいシワを減らすスキンケアルーチンを作るように頼みました。その時の私の肌の写真も送りました」と彼女は書きました。そして、彼女がすでに所有している製品をすべて考慮に入れ、新しい製品とスキンケアルーチンを提案するようチャットボットに指示したことを説明しました。
2ヶ月後、そのRedditorは彼女の肌の改善に驚きました。
これは孤立したケースではありません。多くのユーザーが、チャットボットが自分の医師よりもX線や血液検査を理解し、説明することができたと明らかにしています。さらに、医師たちも、人工知能が解釈した画像やデータ分析に驚いています。
なぜ人々は医者としてチャットボットを使用しているのでしょうか?
AIはあなたが必要とするプロフェッショナルに変身することができます−一般医、セラピスト、皮膚科医、栄養士、放射線科医−それが必要なときに、そして人々が人間ではなくAIを選ぶ多くの理由があります。
専門家は高額な費用がかかることがある
ある皮膚の問題を抱えた女性が、チャットボットが提案した製品を約400ドルで購入したことを明らかにしました。
「これはかなりの投資だったけど、皮膚科医との相談料を考えれば、これは悪くないと思うわ」と彼女は書きました。
BetterCareによれば、2024年には、アメリカで健康保険のない患者が皮膚科医の診察料として約150ドル、治療費として最大1000ドルを支払わなければならないそうです。また、AIツールの別の人気の用途である心理療法の平均的な費用は、セッションあたり100〜200ドルとForbes Healthによって報告されています。
AIチャットボットは、安価な代替手段であり、特に低所得者層の人々にとっては唯一の選択肢と見なされるかもしれません。
もちろん、別の疑問も浮かび上がります:何か問題が起きた場合、それは本当に節約策なのでしょうか?
より速く、より便利に
私は最近、腕に発疹ができました。あの女性のスキンケア奇跡の投稿を見ても、私はスペインの皮膚科医に相談することを選びました。プライベートの健康保険を利用しても、最も早い予約は3ヶ月後でした。幸運なことに、それはただの乾燥で、私を悩ませることはなく、医者が診てくれる頃には治っていることを願っています。
医療のタイムラインは、都市や患者の保険プランによるところが大きいです。しかし、専門医や一般医を見ることは、世界の多くの地域で忍耐力の試練となっています。
チャットボットは文字通り私たちの手の届く範囲にあり、私たちの質問を分析して数秒で返答することができます。
気まずさが少ない
私には、医療相談があるときはいつでも頼れる医者の友人がいます。しかし、彼女が友人であるという事実は、時々気まずさを感じさせます。彼女にテキストを送る前に、私はいつも自問します:最近彼女のことを気にかけてきましたか?彼女は素晴らしい人間であり、素晴らしいプロフェッショナルです。私が医療の懸念を持つたびに、彼女は間違いなく答えてくれるでしょう。しかし、人間として、私は彼女の気持ちを気にせずにはいられません。
人工知能の利点の一つは、その人工性そのものです。感情が無く、機嫌の悪い日がなく、あなたを判断したり、「そんなに過敏症にならないで」(私の友人がこれを言ったことがあるわけではありません)と言ったりしません。なぜなら、それらは私たちの全ての懸念に対して礼儀正しく、私たちが欲しい全ての情報を提供するように訓練されているからです。それが技術が中毒性を持つ理由の一部であり、多くの人がスマートフォンの“プライバシー”で気まずい質問をすることを好む理由です。
チャットボットに頼るリスクと危険性
これは全てかっこよくて楽しそうに聞こえますが、AIと人類が直面しているリスクと課題を考える時間をとるまでです。
誤ったプロンプト、誤ったスペル
その研究では、AIが医師たちを上回る結果が出たが、重要な結論が得られました。診断のためにAIを味方として使うことが許された医師のグループは、それを使うことが許されなかったグループと比べて、大幅に優れた結果を出すことはありませんでした。なぜでしょうか? 一部の問題は、彼らがAIから最大限に恩恵を得るための適切な指示をどう書けば良いのかを理解していなかったことです。
「彼らはそれを特定の質問のための検索エンジンのように扱っていました。”肝硬変はがんのリスク因子ですか?目の痛みの可能性のある診断は何ですか?”」と、研究の一部を執筆したJonathan H. Chen医師はニューヨークタイムズに語りました。
これは多くのユーザーやAI技術が直面している問題の一つです。チャットボットは診断には優れていますが、多くの症状は個々に、パーソナライズされた方法で分析する必要があります。もし人間がチャットボットに対して適切な文脈を提供できなかったらどうでしょうか?または、患者の前の本物の医者が見落とさない重要な詳細や状況を忘れてしまったらどうでしょうか?
不正確さと幻覚
チャットボットはプロの知識全般家であり、時には自信満々に間違ったことを言います。そして私たちはそれを信じてしまいます。そして、日常的にこの技術に依存するユーザーは、ますますそれを信頼するようになります。
その時を忘れるのは難しい―5月のあの時―Google Geminiが提案したユーザーに対して、「ピザのソースに約1/8カップの無毒の接着剤を加えて、より粘り気を出す」ことを
それは面白かったですね、AIがばかげた回答を提供することを、私たちはすぐに「幻覚」という洒落た名前で見抜くことができました。でも、もしそれがもっと複雑な話題に関するものだったらどうでしょうか?AIの答えを読む人が、恐怖、孤独、自分の健康について心配していたらどうでしょうか?
AIが月々向上しているとはいえ、エラーの可能性は依然として存在します。
何か問題が起きた場合、責任は誰にあるのでしょうか?
現在、この倫理的な議論は非常に注目されています。もしチャットボットが誤った診断やひどいアドバイスを提供した場合、誰が責任を負うべきでしょうか?開発者、モデル、AI企業、そのモデルを訓練したソース?
数週間前に悲劇的な事件が起こり、懸念が高まりました。あるアメリカの母親がAIのせいで息子が死んだと主張し、AIキャラクターを作成するプラットフォームであるスタートアップのCharacter.aiに対して訴訟を起こしました。その14歳の少年はうつ病に苦しみ、技術に取り憑かれていました。彼のアバター、デナーリス・ターガリエンは彼と自殺計画を話し合い、それを実行するようにすら彼を励ましました。
世界経済フォーラムによると、AIは世界中の精神的健康危機を軽減する強力なツールと考えられています。それによって、不安やうつ病のケースの増加率を抑えることができます。しかし、特に子供たちにとっては、それが危険であることもあります。
自己責任で行う
まだ改善の余地はありますが、AIが医療における待ち時間の短縮––専門家の予約や救急室でのケア––科学の進歩を加速し、特に過剰な労働負荷と低賃金に悩む医師、特にラテンアメリカ諸国ではよく見られるこの現象を支援する大きな可能性を持っていると考えています。これは自宅から基本的な質問を患者にアシストすることによって達成できます。
また、社会階級間の医療へのアクセス格差を埋めるのにも役立つかもしれません。これまでにない医療の民主化の道を開くことでしょう。これら全ては、スマートフォンにアクセスできる人なら誰でも、ただのクエリーで手の届くところにあるのです。
しかし、私たちがまだ初期段階にあるということ、そして最も脆弱な人口を保護しなければならないということを理解することが極めて重要です。誰もが今日、自分の健康を改善するためにDr. Chatbotを利用する選択をする場合、利用規約の細かい部分についての理解、批判的な思考、そして現時点で自己が関与するリスクの責任を負うという認識を持って行動するべきです。
コメントする
キャンセル