🚨 無断で実在人物のポルノAIモデルがHugging Faceに拡散──Civitaiで禁止された5,000件以上が再アップロードされる実態

🚨 無断で実在人物のポルノAIモデルがHugging Faceに拡散──Civitaiで禁止された5,000件以上が再アップロードされる実態 #news
AI画像生成の進化が加速する中で、その倫理的な境界が再び問われる事態が発生しています。AI開発プラットフォームとして知られるHugging Faceにおいて、実在の人物を無断でヌード化できるAIモデルが少なくとも5,000件以上ホストされていることが明らかとなりました。

AI画像生成の進化が加速する中で、その倫理的な境界が再び問われる事態が発生しています。AI開発プラットフォームとして知られるHugging Faceにおいて、実在の人物を無断でヌード化できるAIモデルが少なくとも5,000件以上ホストされていることが明らかとなりました。

これらのモデルは、当初別のプラットフォーム「Civitai」で共有されていたもので、2025年5月に禁止されたにもかかわらず、ユーザーの手により組織的に保存・再投稿され、再びインターネット上に拡散しているのです。

🔍 何が起きたのか?──CivitaiからHugging Faceへの“モデル移植”

問題のAIモデルは、Civitai上で公開されていたものが中心です。CivitaiはAI画像生成に特化した人気プラットフォームで、**LoRA(Low-Rank Adaptation)**と呼ばれる学習手法を用いた軽量モデルが多く投稿されていました。

しかし、それらの中には実在の有名人やインフルエンサーの顔や体を模倣し、性的な画像を生成する目的で作られたものが多数含まれており、倫理的・法的な問題が指摘されていました。

その結果、Civitaiは2025年5月に「実在の人物をベースにしたAIモデル」を全面的に禁止。決済サービス提供企業などの圧力も背景にあったとされています。

ところが、この措置に反発した一部ユーザーたちは、Civitaiでの禁止直前に大量のモデルを保存し、代替ホスティング先としてHugging Faceへ再アップロードするという行動に出ました。

🕵️‍♀️ 巧妙に隠されたモデルたち──名前偽装とアーカイブ経由の検索方法

Hugging Faceにアップロードされたモデルは、明らかに有名人をターゲットにしたものであるにもかかわらず、表面上は無害に見えるよう巧妙に偽装されています。たとえば:

  • モデル名を「LORA」や「Test model」などの汎用名称に変更
  • 検索エンジンやHugging Face内検索で特定の人物名を使ってもヒットしない
  • 専用の非公式アーカイブサイトを通じてアクセスすることでのみ発見可能

オンラインメディア404 Mediaが研究者から提供された「削除前のCivitaiモデル一覧(URL・ハッシュ情報付き)」と照合したところ、Hugging Face上で数千件の再投稿が確認されました。

⚖️ Hugging Faceの利用規約と“グレーゾーン”の倫理問題

Hugging Faceの利用規約では、「嫌がらせ、いじめ、同意なしに作成された性的コンテンツ」を明確に禁止しています。にもかかわらず、今回の件では規約違反と断定されず削除されていないモデルが多く存在しています。

これは、モデル自体が「性的画像生成に利用される可能性はあるが、初期状態ではそうしたコンテンツを出力しない」ため、技術的には“直接的な規約違反ではない”と解釈されていることが原因です。

一方で、Hugging Faceの倫理部門は「AIは同意に基づく技術(Consentful AI)であるべき」という理念を掲げており、今回の事例は明らかにその方針と矛盾していると、404 Mediaは批判しています。

👩‍💻 被害対象は誰か?──女性有名人とネットインフルエンサー

再投稿されたモデルの大多数は、女性の有名人やネット上で活動する女性インフルエンサーを対象にしていると報告されています。さらに、それらのモデルが実際に非同意のポルノ画像の生成に利用されている証拠も提示されました。

このようなモデルは、該当する人物に無許可でその姿や特徴を学習させ、性的に露骨な画像を出力するため、プライバシー侵害・名誉毀損・人格権の侵害など多くの法的問題を孕んでいます。

📉 「倫理なきAI流通」のリスクと問題点

このようなAIモデルの拡散は、以下のような深刻な社会的リスクを招いています:

  • ✖️ 同意なしのデジタルポルノ生成による人権侵害
  • ✖️ モデルの匿名性・非可視化による責任の所在不明化
  • ✖️ 規約のグレーゾーンを突いたホスティングの温床化
  • ✖️ 有害モデルのアーカイブ・共有ネットワークによる再拡散

また、Civitaiでの禁止直後にこうした行動が起きたことから、「倫理的規制があるほど地下化が進み、追跡困難になる」という皮肉な状況も浮き彫りになっています。

🌐 今後求められる対策と社会的課題

この問題を解決するには、AIプラットフォーム単位での対応にとどまらず、国際的な法整備や監視機構の整備が必要です。たとえば:

  • ✅ AIモデルに対する「出力責任」の法的定義
  • ✅ 非同意学習に対するデータ権保護制度の確立
  • ✅ 被害者による削除要請制度の整備(Right to be Forgotten)

さらに、利用者側にもAIの「便利さ」の裏側にある倫理的リスクを理解し、責任ある技術使用が求められる時代に突入しています。


📝 まとめ:AIの進化とともに問われる「同意」と「責任」

Hugging Faceに再アップロードされた非同意ポルノAIモデルの問題は、技術的進化の裏で人権や倫理が軽視されている現状を浮き彫りにしています。AIが社会に浸透する中で、**「誰かを勝手に作ることの是非」**に対する議論と制度整備は避けて通れません。

今後、AIを取り巻く倫理・法制度がどのように進化していくのか、そして私たち一人ひとりがどのように技術と向き合うのかが、未来のインターネット文化を大きく左右することになるでしょう。

タイトルとURLをコピーしました