
Image generated with OpenAI
意見:AIモデルは神秘的な「生物」、そしてそれらを作った人間さえも彼らを完全に理解していない
Anthropicが最近行った、Claude 3.5 Haikuモデルの仕組みについての研究は、先進的なAI技術の機能を理解するための新たな洞察と画期的な発見を約束しています。しかし、彼らがLLMを「生きている生物」であり、「考える」と述べるとき、彼らは何を意味しているのでしょうか?
数日前、Anthropicは大規模言語モデル(LLM)の仕組みに関する画期的な研究を2つ発表しました。技術的な発展は興味深く、関連性がありましたが、私の注目を最も引いたのはAI専門家たちが使った語彙でした。
研究「大規模言語モデルの生物学について」では、研究者たちは自分たちを、何十億年にもわたって進化した複雑な「生命体」を研究する生物学者になぞらえています。
「同様に、言語モデルは単純な人間が設計した訓練アルゴリズムによって生成されますが、これらのアルゴリズムから生まれたメカニズムはかなり複雑であるように見えます」と科学者たちは述べています。
ここ数年で、AIモデルは大きく進化してきました。そして、私たちはその急速な進化をこれまでの数ヶ月間見続けてきました。テキストのみのモデルから話すパートナーへ、そして今ではスタジオジブリ風の素晴らしい画像も生成できる多次元エージェントへと、ChatGPTは進化し続けています。
しかし、現在の最先端のAIモデルが、その創造者でさえ理解できないような高度な推論を開発するというSFレベルに達しているとしたらどうでしょうか? AI技術にまつわる多くの謎があり、それらは2025年に再訪問する――あるいは深掘りする――のに適しているかもしれません。
AIモデルの不気味なブラックボックスパラドックス
AIの採用やAIリテラシーについての議論は多く、生成的AIモデルの仕組みを理解する人々は、チャットボットを「友人」や「魔法の」アプリと見なすことが少ないとされています。しかし、専門家やテクノロジーに詳しい人々の間で、LLMを独立した創造物として比較、または考慮するかどうかについての議論もあります。後者については、「AIブラックボックスのパラドックス」という特別な要素が、この議論で重要な役割を果たしています。
ディープラーニングシステムは、人間と同様の方法で要素やトレンドを認識するように訓練されています。子供たちにパターンを認識し、特定の単語を異なるオブジェクトに割り当てるように教えるのと同じように、LLMは独自のつながりを築き、それらが「成長」するにつれてネットワークがますます複雑になるように訓練されています。
電子工学および計算機工学の准教授であるサミール・ラワシュデは、人工知能の専門家で、ここで説明するように、人間の知性を研究するときと同様に、深層学習システムがどのように決定を下し、結論を得るのかを実際に見ることはほぼ不可能です。これは専門家が「ブラックボックス問題」と呼ぶものです。
AIモデルは人間の理解を難しくする
Anthropicの最近の研究は、そのモデルが特定のシナリオで「どのように考えるか」を説明することで、以前は不明確だった、あるいは完全に間違っていたAIのブラックボックス状況に光を当てました。この研究はClaude 3.5 Haikuというモデルに基づいていますが、専門家がツールを開発し、他のAIモデルの類似の特性を分析することを可能にします。
「この知性の性質を理解することは、私たちが“考える”とは何かを再定義する可能性を持つ深遠な科学的挑戦である」と、Anthropicの研究者たちが共有した論文では述べられています。
しかし、AI技術に対して“考える”という用語を当てはめることは、業界の一部の専門家を不快にさせ、調査の批判の一部となっています。Redditのユーザーは、なぜ一部の人々が不快感を覚えるのかを説明しました。「記事全体に人間性を帰属させる表現が多く、作業内容がわかりにくくなっています。例えば、“考える”という言葉を使い続けていますが、“計算する”と言うべきです。私たちが話しているのはコンピューターソフトウェアで、生物学的な脳ではありません。」
「人間化」された用語は、非技術者がAIモデルをより良く理解するのを助け、コミュニティ内での議論を引き立てますが、真実は、「計算」や「思考」を言うかどうかに関わらず、同じ課題が残っているということです:我々はLLMがどのように動作するかについて、完全な理解や完全な透明性を持っていません。
近い将来の高度なAIモデルから何を期待するか
ChatGPT、DeepSeek、Perplexity、Claudeなどの高度なAI技術の存在を無視することができると思いますか-今でも、近い将来でも?全ての兆候が、後戻りはできないことを示しています。生成型と推論型のAIはすでに私たちの日常生活を変えており、それらはますます進化していくでしょう。
ほぼ毎日、WizCaseでは業界の新たな進展を報告しています。新しいAIモデル、新しいAIツール、新しいAI企業など、私たちの社会に大きな影響を与える可能性のあるものが次々と現れます。これらの先進的なモデルを理解し、その運用方法を理解するために一息つくことや、少しでもペースを落とすことは、AI競争の急速な進展や、政府や世界最大の企業の関与を考えると、不可能に思えます。
Anthropicの論文には、「AIモデルは私たちの生活や仕事にますます影響を与えるため、その影響がポジティブであることを確認するためには、十分に理解する必要がある」と記されています。現実的ではないかもしれませんが、研究者たちは楽観的です。「私たちがここで得た結果、そしてそれらが築き上げた進歩の軌跡は、この挑戦に立ち向かうことができるという、わくわくするような証拠だと信じています。」
しかし、これらの発見は実際にどれくらいの速度で進んでいるのでしょうか?この論文では、結果はわずかな領域と特定のケースに限られており、より一般的な結論を導き出すことは不可能であるとも指摘しています。ですから、おそらく速度は十分ではないでしょう。
規制当局がEU AI法のような措置を導入し、より透明性を求める一方で、主要なテクノロジー企業からは進歩を遅らせるという非難や怒りの声が上がっていますが、強力なAIモデルは引き続き進化を続けています。
私たち社会としては、これらの技術がどのように機能するかを深く理解するとともに、私たちのコミュニティに意義深い恩恵と進歩をもたらす方法でそれらを採用するというバランスを見つけるように努力しなければなりません。これは可能でしょうか?これらの「生き物」が「倫理的」で「善良」であり続けることをただ祈る、または期待するという考えが今はあまり非現実的に思えないのです。
コメントする
キャンセル