画像生成AI(人工知能)の精度を上げるための学習に使われる膨大な画像データの中に、事件や災害の犠牲者の顔写真が多数含まれていることが、読売新聞の取材でわかった。
ニュースサイトなどから収集されたものを無断で使っているとみられる。AIが犠牲者と似た画像を生成する可能性は排除できず、今後、是非が議論になりそうだ。(桑原卓志)
■「再発防止のため」
「娘の写真がそんなことに使われているなんて」。大手広告会社・電通の新入社員だった高橋まつりさん(当時24歳)を2015年に過労自殺で亡くした母親の幸美さん(61)は困惑気味に話す。
幸美さんはまつりさんを亡くした後、報道各社にまつりさんの顔写真を提供し、SNSでも公開してきた。過重労働の実態を広く知ってもらい、「二度と同じようなことが繰り返されないように」との思いからだ。
しかし、その写真が世界で最も人気が高い画像生成AIの一つ「ステーブル・ディフュージョン(SD)」が学習に使うデータセット(データ群)の中に含まれていた。読売新聞が昨年12月、ネット上で公開されていたデータセットの内容を調べ、見つかった。
幸美さんは「無関係なAIの学習に使うのはやめてほしい」と訴えた。
■震災犠牲者も
画像生成AIは、指示を出すだけでイラストや実写と区別が付かない精巧な画像を生成する。画像の精度を上げるため、膨大なデータの学習を必要とする。
SDを開発した英新興企業「スタビリティーAI」によると、SDは、ドイツの非営利団体「LAION(ライオン)」が無償で提供しているデータセットを利用している。
画像データは約58億点に及び、まつりさん以外にも事件や事故の犠牲者の写真が多数見つかった。神戸市で1997年に起きた連続児童殺傷事件の被害児童や、東京・世田谷一家殺害事件(2000年)の家族4人の写真。東日本大震災(11年)などの災害や、米同時テロ(01年)などテロ事件の犠牲者の画像もあった。
データセットの画像は、ネットを自動巡回するプログラムで集められており、収集先にニュースサイトや、そこから転載されたネット掲示板などが含まれていた。
■機械的に収集
報道では、事件や災害の被害の実像を伝えるため、犠牲者の顔写真を掲載する場合がある。
一方、画像生成AIが学習に利用するデータセットは、画像の中身を問わず、機械的に無差別に収集されている。そのため、イラストなど著作物の無断学習も問題視されている。
これまでの読売新聞の取材では、児童買春・児童ポルノ禁止法に抵触する恐れがある実在児童の性的画像もデータセットに含まれていることが明らかになった。
専門家によると、AIが学習した画像と似た画像を生成する可能性は排除できない。犠牲者の名誉を傷つけるような画像が生成されたり、生成された画像が偽情報の発信に悪用されたりすることもありうる。
スタ社はメールでの取材に対し、「(希望者が申請をすれば)学習対象から除外できる仕組みがある」と回答した。しかし、データセットに犠牲者の顔写真が含まれていることの認識や見解については、回答がなかった。
死者のデジタルデータに詳しい関東学院大の折田明子教授(情報社会学)は「事件や災害の教訓を訴えるため、犠牲者の顔写真を公開した遺族からすると、AIの学習に使われることは想定外で、死者の尊厳にもかかわる。公益性がある報道とは異なる。AI開発企業が『申請があれば除外する』という対応では不十分だ」と指摘する。
一方で、無断学習の問題とは別に、亡くなった家族をAIで再現したいという需要が今後高まる可能性がある。折田教授は「AIが普及する中、遺族感情や死者の尊厳をどのように守っていくか、社会全体で議論する必要がある」と話した。
◇ 画像生成AIに関するご意見や情報を大阪社会部にお寄せください。
メール [email protected]
LINE https://lin.ee/FROjZBRd