<aside> <img src="/icons/report_gray.svg" alt="/icons/report_gray.svg" width="40px" /> 様々な画像生成AIのトレーニングで使用されているLAION-5Bというデータセットに児童性的虐待画像(CSAM)が含まれていることが判明しました。
以前から含まれていることは言われていましたが、スタンフォード大学の報告でそれが証明された形になります。 調査が昨年9月以降で、調査では数十億ある画像の一部しか対象にしていないため、実際のCSAMの量ははるかに多い可能性が高いとみられています。 また、スタンフォード大学はStable Diffusion 1.5をベースにした画像ジェネレータは、そういった画像を生成しやすいため、配布を中止すべきと主張しています。
こういった画像生成AIから児童性的虐待画像(CSAM)が作成されており、こちらも様々な問題を生んでおり、そのことを各紙が報じています。
ディープフェイクポルノの項目も関連していますので、そちらも併せてご覧ください。
</aside>
CSAM以外の問題は以下で取り上げています。
Stable Diffusionなどの画像生成AIが児童性的虐待画像を用いてトレーニングされていたことが判明
Stable Diffusionなどの画像生成AIが児童性的虐待画像を用いてトレーニングされていたことが判明 | TEXAL
スタンフォード大学の研究者たちは、データセットにCSAMが存在することで、そのデータで訓練されたAIモデルが、CSAMの新しい、さらには現実的なインスタンスを生成できる可能性があると指摘している。
Stable Diffusion 1.5をベースにした画像ジェネレータは、特にそのような画像を生成しやすいので、配布を中止すべきだ、と報告書は述べている。Stable Diffusion 2.0は、LAIONのトレーニングデータセットが有害なコンテンツや禁止されているコンテンツに対してより厳重にフィルタリングされているため、より安全であるとされているが、このStable Diffusion 2.0へのフィルタ追加に対する「コミュニティからの広範な不満」の後、Stable Diffusion 1.5は依然として露骨な写真を生成するためにオンライン上で人気を保っている。
画像生成AIの訓練に「児童ポルノ」が使用されていたことが発覚
画像生成AIの訓練に「児童ポルノ」が使用されていたことが発覚 | Forbes JAPAN 公式サイト(フォーブス ジャパン)
研究者たちは、公開された訓練データの中からCSAM(児童の性的虐待素材)の疑いがある画像を3000点以上発見したという。しかし、調査が行われたのが9月以降であることに加え、数十億ある画像の一部しか対象にしていないことを考慮すると、実際の量ははるかに多い可能性が高いと彼らは注意を促している。
今回の調査結果の検証に協力したカナダ児童保護センターは、これらの膨大なデータセットの整理に対する注意の欠如こそが、アップルやティックトックなどあらゆる大手テック企業を長年悩ませているCSAM問題を悪化させていると懸念している。
画像生成AI「Stable Diffusion」などに使われた50億枚超の画像セット「LAION-5B」に1008枚の児童ポルノ画像が入っていることが判明し削除へ
画像生成AI「Stable Diffusion」などに使われた50億枚超の画像セット「LAION-5B」に1008枚の児童ポルノ画像が入っていることが判明し削除へ
責任の押し付け合い?