画像生成AI(人工知能)で、実在の児童に酷似した画像を生成できる追加学習用データが、ネット上で売買されていることがわかった。
過去に日本で活動した児童タレントの追加データもあり、追加データで作ったとみられる児童タレントに酷似した性的画像が別のサイトで販売されていた。日本の児童買春・児童ポルノ禁止法で規制することは困難とみられ、専門家は法整備の必要性を訴えている。
画像生成AIは、膨大な画像データを学習し、文章で指示を受けただけで、写真のような精巧な画像を生成する。特定の人物名を入力するだけでは酷似した画像を生成することは難しいが、一部の画像生成AIは、その人物の画像数十点を基に作った追加データを学習させれば、酷似した画像を生成できる仕組みになっている。追加データは「LoRAファイル」などと呼ばれ、こうした手法は「ファインチューニング(微調整)」と呼ばれる。
読売新聞は、過去に国内外で活動した複数の児童タレントの追加データを販売している英語のサイトを確認。サイト上では説明文に実在のタレント名が記され、1点あたり暗号資産で3ドル相当で取引されていた。成人の女性のデータもあった。
追加データが販売されていた日本の児童タレントと酷似した性的画像は、別の日本語サイトで数百円で販売されていた。AIで製造したと記され、複数の専門家によると、画像の特徴から、追加データで生成したとみられる。
画像生成AIは、大量の画像を短時間で生成でき、ポーズや表情を自由に設定できる。児童だけでなく、成人を含めて、実在の人物の追加データが流通すれば、酷似した性的画像が大量に拡散する恐れがある。
法務省によると、児童ポルノ禁止法は、被害児童が実在していることが適用の要件とされる。判例では、コンピューターで製造したものでも、特定の実在児童に見えるように描写した場合は規制対象となる。しかし、複数の専門家によると、顔以外に体の特徴なども酷似していないと対象にはならない可能性があり、AIによる性的画像が規制できるかどうかは不透明だ。
ネット上の表現を巡る問題に詳しい元裁判官の長瀬貴志・金沢大教授の話「生成AIと追加データが悪用され、児童の権利が侵害されている実態が明らかになった。水面下で被害が拡大している恐れがある。現行法が想定していない事態で、AIによる児童の性的画像の規制について、法整備を検討する必要がある」