X(旧ツイッター)に搭載された生成AI(人工知能)「Grok(グロック)」を悪用し、実在する人物の画像が性的な画像に加工される被害が相次いだ問題で、この機能が使われた11日間に世界で約300万枚の性的画像がつくられた可能性があることがわかった…