🚨 実在人物の同意なき性的AIモデルがHugging Faceに拡散──Civitaiで禁止された5,000件以上が再アップロード

🚨 実在人物の同意なき性的AIモデルがHugging Faceに拡散──Civitaiで禁止された5,000件以上が再アップロード #news
AI技術の急速な進化とともに、私たちのプライバシーや人権をめぐる問題も深刻化しています。 今回明らかになったのは、AIモデル共有サイト「Hugging Face」にて、実在する人物の姿を同意なく再現する性的画像生成モデルが5,000件以上ホストされているという衝撃的な実態です。

AI技術の急速な進化とともに、私たちのプライバシーや人権をめぐる問題も深刻化しています。
今回明らかになったのは、AIモデル共有サイト「Hugging Face」にて、実在する人物の姿を同意なく再現する性的画像生成モデルが5,000件以上ホストされているという衝撃的な実態です。

これらのモデルは、元々Civitaiという別の共有プラットフォームに公開されていたもので、規約違反によりCivitaiから削除された後、ユーザーによってHugging Faceへ再投稿されたという経緯が明らかになりました。

🧠 問題の経緯:Civitaiによる全面禁止とその裏で進んでいた“保存活動”

画像生成AIの普及により、簡単な操作でポルノ画像を生成できるモデルが多数公開されるようになりました。Civitaiではこうしたモデルの公開が活発に行われていましたが、中には有名人や一般人の実在画像を模倣し、同意のない性的コンテンツを生成するモデルも多数含まれていたのです。

🚫 2025年5月、Civitaiが実在人物モデルの全面禁止を発表

この決定の背景には、クレジットカード会社など決済プロバイダーからの強い圧力があったとされています。性的コンテンツに関する倫理基準の強化が進む中、プラットフォームは取引維持のため、コンテンツ規制を強化せざるを得ない状況に追い込まれていました。

💾 ユーザー主導の“データ保存活動”が裏で進行

Civitaiによる禁止措置が行われる直前、ユーザーたちはDiscordなどで連携し、問題となるAIモデルを一斉にダウンロード。その後、**Hugging Faceへ匿名的に再アップロードする「保存・拡散活動」**が組織的に行われたと報告されています。

🕵️‍♂️ モデルの隠蔽と拡散──その手口と発見の経緯

再アップロードされたモデルは、一見無害に見えるようファイル名を「LORA」や「Test model」など曖昧な名前に偽装されており、Hugging Face上で人物名などを検索してもヒットしないよう工夫されています。

さらに、モデルの場所を知るには、ユーザーが外部に用意したアーカイブサイトを経由する必要がある仕組みになっており、通常の利用者が簡単に辿り着けないように設計されています。

🗂 オンラインメディア「404 Media」は、研究者から提供されたCivitai削除モデルのリスト(元URL・SHA256ハッシュなど)と、アーカイブサイトの情報を用いて、この再アップロード問題を特定しました。

👩‍💻 被害対象の多くは女性──著名人やインフルエンサーが標的に

再アップロードされたモデルの大多数は、女性有名人や女性インフルエンサーを対象としており、実際に非同意の性的コンテンツ生成に悪用されている証拠も存在しています。

  • 顔や体の形状を真似たモデル
  • 画像生成AIでヌードやわいせつ表現を合成
  • 本人の名誉やプライバシーを重大に侵害

Hugging Faceにアップロードされたモデルは、その悪質な目的が分からないように巧妙に隠蔽されています。モデルの名前は「LORA」や「Test model」といった、一見すると何でもないような一般的な名称に変更されているため、Hugging Face上で特定の有名人の名前を検索しても、これらのモデルを見つけることはできないようになっています。モデルを見つけるには、この保存活動を行っているユーザーたちが作成した、まったく別のウェブサイトを経由する必要があります。オンラインメディアの404は、研究者から提供されたCivitaiから削除されたモデルの名前・元URL・SHA256ハッシュを含むリストと、このアーカイブサイトを利用することで、Hugging Face上でホストされているモデルを特定しています。問題のモデルの大半は女性有名人やネットで活動するインフルエンサーを対象としており、実際に非同意の性的コンテンツの作成に利用されていることが示されていたそうです。

⚖️ Hugging Faceの規約と「AIのグレーゾーン」

Hugging Faceは公式利用規約にて、以下を明確に禁止しています:

  • 嫌がらせやいじめ
  • 明示的な同意のない性的コンテンツの生成

しかし、問題となっているAIモデルはあくまで**「元データを持たない中立的な学習済みモデル」**として投稿されており、ユーザーがどう使うかによって結果が変わるため、**Hugging Face側が即座に削除できない“グレーゾーン”**になっているという課題があります。

💬 倫理と技術のギャップ:「Consentful AI(同意に基づくAI)」とは?

Hugging Faceの倫理・社会チームは、「AIは同意に基づいた(Consentful)技術であるべきだ」という原則を掲げています。これはつまり、

「本人の同意がない限り、実在の人物の姿を模倣・再現することは倫理的に許されない」

という立場です。しかし現状、プラットフォームの管理体制とユーザーの実際の行動との間に明らかな乖離が生じているのが実情です。


🚨 AI時代のプライバシー侵害とプラットフォーム責任

今回の問題が示しているのは、単に性的コンテンツの拡散ではなく、AI時代における「同意の境界」が崩れつつあるという深刻な兆候です。

  • AIが人物を模倣することは「表現の自由」か、それとも「人格権の侵害」か?
  • プラットフォームが「技術的に可能なこと」と「倫理的に許されること」のバランスをどうとるのか?
  • 被害者が自身の画像や存在をAIから“削除”する権利はどこまで保証されるのか?

✅ 結論:透明性・規制・倫理設計の再構築が急務

今後、こうしたAIポルノ・フェイクコンテンツの問題に対し、次のような対策が求められます:

  • 🧩 モデルの投稿・配布における透明性の確保
  • ⚖ 明示的な「同意」取得が必要な利用規約の明文化
  • 🔐 個人の“顔・声・体”などの権利を保護するAI倫理法制の整備
  • 🛡 被害者の「削除申請」や「拡散防止ツール」の普及
タイトルとURLをコピーしました