生成AIの児童性虐待画像を売買 日本のソーシャルメディアなどで

アンガス・クロフォード、トニー・スミス、BBCニュース

Artistic image showing the shadow of a small child in the background and an adult's hand on a computer keyboard in the foreground.

子どもを性的欲望の対象とするペドファイル(小児性愛者)らが、人工知能(AI)を利用して実物そっくりの児童性虐待の画像などを作成し、販売していることが、BBCなどの取材でわかった。

そうした画像は「ペイトリオン(Patreon)」など、コンテンツ共有で主流となっているサイト内のアカウントに料金を支払うことなどで購入されている。

ペイトリオンは、その種の画像は決して容認しない方針だと言明した。

一方、イギリスの全国警察本部長評議会(NPCC)は、一部プラットフォームが「莫大な利益」を上げながら「道義的責任」を取らないのは「言語道断」だとした。

AIソフトを使って

虐待画像の作成者は、「ステイブル・ディフュージョン(Stable Diffusion)」と呼ばれるAIソフトウェアを使っている。

AIは、通常は人間の知能を必要とする作業を、コンピュータに実行させることができる。

ステイブル・ディフュージョンは、ユーザーから画像に関してリクエストを言葉で受け付け、それに合った画像を作成する。

BBCは今回、このソフトウェアが、実物そっくりの児童性虐待の画像の作成に使われていることを確認した。画像には乳幼児をレイプする場面もあった。

オンラインの児童虐待を捜査する英警察のチームは、すでにこうしたコンテンツを目にしているとしている。

Octavia Sheepshanks
画像説明, ジャーナリストのオクテイヴィア・シープシャンクス氏
Presentational white space

フリーランス研究者でジャーナリストのオクテイヴィア・シープシャンクス氏は、この問題を数カ月にわたって調べてきた。その結果を広く知らせようと、子どもの慈善団体NSPCCを通じてBBCに連絡した。

「AIでの画像生成が可能になってから、この大洪水が起きている。(中略)非常に若い女の子だけでなく、幼児も対象にされている」と、シープシャンクス氏は話した。

児童性虐待を描いたコンピューター生成の「疑似画像」は、現実の画像と同じように扱われる。イギリスでは、それらの所有、公開、転送は違法だ。

NPCCで子どもの安全対策に取り組むイアン・クリッチリー氏は、実在の子どもが描かれていないからといって、誰も被害を受けていないと主張するのは間違いだと警告。

ペドファイルについて、「思いつきから合成、そして現実の子どもへの虐待へと、犯罪の度合いを上げていく」恐れがあるとした。

日本のソーシャルメディアに投稿

画像クリエイターの一部は、日本の人気ソーシャルメディア・プラットフォーム「ピクシブ(Pixiv)」に画像を投稿している。ピクシブは主に、漫画やアニメを共有しているアーティストらに利用されている。

このサイトは日本で運営されているため、クリエイターたちはグループやハッシュタグを使って自分の作品を宣伝している。日本では、性的な漫画や子どもの絵の共有は違法ではない。

ピクシブの広報担当は、この問題への対応を非常に重視していると説明。同社は5月31日、未成年者が関係する性的コンテンツの写実的な描写を全面禁止したと表明した。

同社はまた、監視システムの強化に積極的に取り組んできたと主張。AIの発展に関わる問題への対策に、かなりのリソースを割いていると述べた。

シープシャンクス氏の調査では、ユーザーらは工業製品を大量生産するような規模で、児童虐待画像を作成しているように思われるという。

同氏は、「膨大な量で、(クリエイターたちが)『最低で月1000枚を目標にしている』と言うほどだ」と話した。

ピクシブの個々の画像へのコメントを読むと、それを書き込んだ人たちが児童に対して性的関心をもっていることが明らかだ。なかには、AI生成ではない虐待の画像や動画を提供すると申し出るユーザーもいる。

シープシャンクス氏は、ピクシブのいくつかのグループを監視している。

「それらのグループにはメンバーが100人ほどいて、仲間内で『ほら、これが本物へのリンクだ』などと言って共有している」と同氏は話す。

「最もひどいものでは、そんな言葉(説明)があったなんてと驚いた」

さまざまな価格設定

ピクシブのアカウントの多くは、プロフィールの中に、アメリカが拠点のペイトリオンに置いてある「無修正コンテンツ」に誘導するリンクを含んでいる。

ペイトリオンは企業評価額が約40億ドル(約5760億円)で、25万人以上のクリエイターが利用しているとされる。まっとうなアカウントの大半は、有名セレブやジャーナリスト、作家らのものだ。

ファンたちは、月額料金を支払ってブログやポッドキャスト、動画、画像にアクセスすることで、クリエイターを支援できる。料金は月3.85ドル(約550円)から、さまざまな料金プランがある。

BBCが調べたところ、生成AIによる写実的な子どものわいせつ画像を販売するペイトリオンのアカウントを複数発見。それらでは、リクエストした画像の種類によって、異なる価格が設定されていた。

あるアカウントには、「私は自分のPCで女の子を調教している」と書かれ、その子たちが「服従」を示すと付け加えてあった。別のアカウントは、「独自の無修正アート」を月額8.30ドル(約1200円)で提供するとしていた。

BBCはペイトリオンに連絡し、一例を示した。ペイトリオンは、「(コンテンツは)リアルに近く、私たちのポリシーに違反している」と認め、問題のアカウントはすぐに削除したと説明した。

ペイトリオンはまた、自分たちには小児性愛コンテンツをいっさい認めない「ゼロ・トレランス(非容認)」ポリシーがあるとして、「クリエイターは、未成年者が関係する性的テーマのコンテンツに資金提供はできない」と主張した。

同社はさらに、インターネットで生成AIの有害コンテンツが増加していることは「現実のことで、憂慮すべき」だと表明。自分たちもそうしたコンテンツを「特定し削除することが増えている」と付け加えた。

そして、「私たちはすでに生成AIの児童搾取の合成コンテンツを禁止している」とし、専門のチームやテクノロジー、パートナーシップを活用するなど、「10代の若者の安全を守る」ことに「非常に積極的」だと説明した。

The NPCC's Ian Critchley
画像説明, イギリスの全国警察本部長評議会(NPCC)のイアン・クリッチリー氏
Presentational white space

AIソフトのステイブル・ディフュージョンは、英企業スタビリティーAIを中心に、学者と多くの企業の世界規模の共同作業によって作られた。

いくつかのバージョンがリリースされており、コードには作成可能なコンテンツの種類を制御する制限が書き込まれている。

しかし昨年、それ以前に作られた「オープンソース」バージョンが一般に公開され、ユーザーらはあらゆるフィルターを削除。それにより、違法なものを含めて、どんな画像も生成できるように訓練することが可能になった。

スタビリティーAIは、「私たちプラットフォームでは、違法または不道徳な目的での悪用を禁止している。これにはCSAM(児童性的虐待素材)が含まれと、私たちのポリシーは明確にしている」とBBCに説明。

「私たちの製品を違法または不正な目的で悪用する人々に対する取り締まりの努力を、強く支持する」とした。

AIが急速に発展し続ける中、プライバシーや人権、安全性をめぐる将来的なリスクについて、疑問の声が上がっている。

NPCCのクリッチリー氏は、現実度の高いAI生成や 「合成」の画像の氾濫によって、虐待の本当の被害者の特定が遅れることを懸念していると述べた。

「警察や法執行機関にとって、人工的または合成された子どもとは対照的に、世界のどこにいるかわからない実際の子どもの虐待を特定するのが一段と難しくなる」

クリッチリー氏は、社会が重要な転換点を迎えているとの考えを示した。

「インターネットとテクノロジーが若者たちに素晴らしい機会を与えよう、対策を確実にとるか、あるいは今よりさらに害の大きな場所になってしまうかどうかだ」