シカゴ大学のGlazeとNightshadeがアーティストにAIに対する防御を提供
急いでいる?ここに要点をまとめてみました!
- GlazeとNightshadeは、アーティストの作品が無許可のAIトレーニング利用から保護します。
- Glazeは、アーティストのスタイルをAIが複製するのを防ぐために画像をマスキングします。
- Nightshadeは、「毒入り」のピクセルを追加してAIを混乱させ、トレーニングデータを破壊します。
芸術家たちは、ベン・ヂャオ氏とそのチームによって開発されたGlazeとNightshadeという二つのツールを使い、不当なAIモデルに対抗しています。これは本日、MIT Technology Reviewによって報告されました。
これらのツールは、許可なくAIモデルの訓練に使われる芸術家の作品を保護することを目指しています。多くのクリエイターはこの行為を盗作と見なしています。MITによると、2023年の3月にリリースされたGlazeは、リリース以来400万回以上ダウンロードされ、アーティストのスタイルをAIが学ぶことを防ぐために、微妙に画像を変化させる機能があります。
MITによれば、「攻撩的」な対抗手段としてのナイトシェードは、学習に使用する際にAIの学習を破壊する可能性のある見えない変更を導入し、AIモデルをさらに混乱させるという。
これらのツールは、新作を生み出すためにオンラインの画像に頼ることが多い生成AIの急速な台頭に対するアーティストたちの懸念に触発されています。MITの報告によれば、ファンタジーイラストレーターのカルラ・オルティズをはじめとする他のクリエイターたちは、許可や対価なしに彼らの独特なスタイルをAIモデルが複製することで、生計を失うことを恐れていると声を上げています。
アーティストにとって、オンラインで作品を投稿することは、視認性と収入のために不可欠ですが、AIのトレーニング用にスクレイピングされるのを避けるために、作品を削除することを考える人も多くいます。これは彼らのキャリアを妨げる行為で、MITが指摘しています。
Nightshadeは、Glazeの1年後に立ち上げられ、より攻撃的な防御を提供するとMITは報告しています。画像に「毒入り」ピクセルを追加することで、AIのトレーニングを乱すことができ、これらの画像がスクレイピングされると、モデルは歪んだ結果を生み出します。
キョウチクトウの象徴的な効果は、アーティストたちに共鳴しています。それは詩的な正義と見なされています:もし彼らの作品がAIトレーニングのために盗まれたら、それはそれを搾取しているシステム自体を損なうことができます。
MITは、アーティストたちが初めはデータプライバシーについて懸念していたため、これらのツールに対する一部の懐疑論があったと指摘しています。これに対処するために、SAND Labはオフラインで動作するGlazeのバージョンをリリースし、データ転送がなく、搾取を警戒するアーティストたちとの信頼を築いています。
最近、MITが報告した通り、ラボはAI生成コンテンツの禁止を掲げる新しいソーシャルプラットフォーム、Caraとの提携により、そのアクセス範囲を拡大しました。
Zhao氏と彼のチームは、個々のクリエイターとAI企業間のパワーダイナミックを変えることを目指しています。
大手企業から創造性を保護するツールを提供することで、Zhaoはアーティストが自身の作品に対する管理を維持し、AIと知的財産に関する倫理基準を再定義することを支援することを望んでいる、とMITは述べています。
この取り組みは勢いを増していますが、MITが指摘しているように、ハッカーやAI開発者がこれらの安全対策を迂回する方法を探求するため、ツールが間違いなく保護を提供するわけではないと、一部の専門家は警告しています。
GlazeとNightshadeが無料で利用可能になり、ZhaoのSAND LabはAIによるコンテンツ作成の広がる影響に対抗して、芸術的な完全性を守り続ける先駆けとなっています。
コメントする
キャンセル