卒業アルバムやSNS上の子どもの顔写真を使い、AIの技術で、わいせつな画像や動画に加工する「性的ディープフェイク」が問題になっていることを受けて、平井知事は「青少年健全育成条例」を改正し、こうした画像や動画を「児童ポルノ」と定義して、取り締まりの対象としたいという考えを明らかにしました。 「性的ディープフェイク」をめぐっては、本物と酷似したわいせつ画像や動画を作成できる格安の加工サイトが現れるなどして、近年、国内でも被害が広がっています。 平井知事は14日の定例記者会見で、こうした被害を防ぐため「県青少年健全育成条例」を改正したいという考えを明らかにしました。 それによりますと、実在する18歳未満の子どもの顔写真などを使い、AIの技術でわいせつな画像や動画に加工されたものについても「児童ポルノ」と定義するということです。 そしてこうした画像や動画を子どもに送るよう要求した場合、条例に基づい