AIが生成した超現実的な児童性的虐待画像の恐ろしい新時代が今進行中であると専門家は警告する。 犯罪者は、画像を生成できるダウンロード可能なオープンソースの生成 AI モデルを使用しており、壊滅的な影響を及ぼします。 このテクノロジーは、過去に虐待を受けた子供たちの何百もの新しい画像を作成するために使用されています。 犯罪者は、AI モデルのカスタマイズに使用できる虐待画像のデータセットを共有しており、AI が生成した児童性的虐待素材 (CSAM) の月額サブスクリプションの販売を開始しています。
このテクノロジーがどのように悪用されているかの詳細は、新しい文書に含まれています。 幅広いレポートを公開 Internet Watch Foundation (IWF) は、Web から虐待コンテンツを精査して削除する英国に拠点を置く非営利団体によって作成されました。 IWFは6月、AIが作成した疑いのあるコンテンツを含む7つのURLをオープンウェブ上で発見したと発表した。 AIがどのように使用されているかのスナップショットを提供するダークウェブのCSAMフォーラムの調査では、IWFが英国の法律で違法とみなしているAIで生成された画像が約3,000枚見つかった。
IWFの調査によると、AIが生成した画像には、乳児や幼児のレイプ、虐待されている有名なプレティーンの子供たち、ティーンエイジャーをフィーチャーしたBDSMコンテンツが含まれているという。 IWFの最高技術責任者であるダン・セクストン氏は、「私たちは著名人をフィーチャーした児童性的虐待素材の要求、議論、実際の例を見てきました」と語る。 セクストン氏によれば、有名人は時々年齢を下げられ、子供のように見えることがあるという。 他の例では、成人の有名人が子供を虐待する人物として描かれています。
AI によって生成された CSAM に関する報告は、オンラインで見つかる実際の虐待画像やビデオの数に比べるとまだ小さく見えますが、セクストン氏は、開発のスピードと、それが新たな種類の虐待画像を生み出す可能性に懸念を抱いていると述べています。 この調査結果は、オンラインでの CSAM の蔓延を調査している他のグループと一致しています。 カナダ児童保護センターの情報技術ディレクター、ロイド・リチャードソン氏は『WIRED』に語ったところによると、世界中の捜査官が1つの共有データベースで、AIが生成した児童の性的虐待と搾取に関する1万3500枚の画像にフラグを立てたという。 「それは氷山の一角にすぎません」とリチャードソン氏は言う。
現実的な悪夢
現在の AI 画像ジェネレーターは、魅力的なアート、リアルな写真、風変わりなデザインを作成でき、 新しい種類の創造性 そしてアートを永遠に変えるという約束。 また、次のような説得力のある偽物を作成するためにも使用されています。 バレンシアガ ポープ そして初期バージョンの ドナルド・トランプ氏の逮捕。 システムは、膨大な量の既存の画像を使用してトレーニングされます。 多くの場合、許可なくウェブから収集されます、単純なテキスト プロンプトから画像を作成できるようにします。 「帽子をかぶった象」を要求すると、まさにその通りになります。
CSAM を作成する犯罪者が画像生成ツールを採用していることは驚くべきことではありません。 「これらの画像の生成方法は、通常、公開されているソフトウェアを使用します」とセクストン氏は言います。 IWFが目撃した犯罪者らは、英国に本拠を置く企業Stability AIが提供するAIモデル「Stable Diffusion」を頻繁に参照している。 同社は『WIRED』のコメント要請に応じていない。 昨年末にリリースされたソフトウェアの 2 番目のバージョンでは、同社は モデルを変更しました 人々が CSAM やその他のヌード画像を作成することを困難にするためです。
セクストン氏は、犯罪者は古いバージョンのAIモデルを使用し、それを微調整して児童の違法な素材を作成していると述べた。 これには、既存の虐待画像や人々の顔の写真をモデルにフィードすることが含まれ、AI が特定の個人の画像を作成できるようになります。 「既存の被害者の新たなイメージを生み出す、微調整されたモデルが登場しています」とセクストン氏は言う。 加害者らは「既存の被害者の何百もの新しい画像を交換」し、個人に関する要求を行っていると同氏は言う。 調査によると、ダークウェブフォーラムの一部のスレッドは被害者の顔を共有しており、そのスレッドの1つは「AIとディープフェイク特定の女の子のための写真リソース」と呼ばれていた。