テクノロジーが日常生活と融合する時代において、AI脱衣の出現は懸念すべき傾向を示している。ソーシャルメディア分析会社Graphikaは、個人の同意なしに画像内の個人をデジタル的に脱がせるように設計された生成人工知能(AI)ツールの使用、つまり合成非同意親密画像(NCII)を生み出すという、不穏な慣習に光を当てた。このデジタル侵害はプライバシーを侵害するだけでなく、搾取と悪用で繁栄する市場を煽る。
増加傾向の統計的証拠
Graphika'の報告書は驚くべき統計を示しており、RedditやX(旧Twitter)などのプラットフォームにおけるコメントや投稿の量が2,408%増加し、NCIIサービスを提供するウェブサイトやTelegramチャンネルへのトラフィックを誘導していることを示している。2022年には1,280件だったものが、2023年には32,100件以上に増加していることは、単なる数字ではなく、この非倫理的な行為が急速に広まっていることを物語っている。
合成NCIIは、多くの場合、明示的に生成されたコンテンツとして具現化され、リアルで苦痛を与える画像を作成するためにAIの能力を活用する。これらのツールはプロセスを簡素化し、プロバイダーが明示的なコンテンツを大規模に生成することをより簡単かつ費用対効果の高いものにしている。このようなサービスがない場合、個人はカスタム画像拡散モデルを管理する複雑さと費用に悩まされることになる。
AIの脱衣ツールの急増は、偽の露骨なコンテンツの作成につながる可能性があり、厳しい状況を描き出している。その影響は多岐にわたり、標的を絞った嫌がらせ、セクストーション、児童性的虐待資料(CSAM)の忌まわしい作成に寄与している。さらに、AIは静止画像にとどまらず、ユーチューバーのMr.ビーストやハリウッド俳優のトム・ハンクスのような有名人を起用したコンテンツに見られるように、動画ディープフェイクの領域にも進出している。
世界的な対応と規制措置
英国を拠点とするインターネット・ウォッチ・ファンデーション(IWF)は、たった1ヶ月の間に、1つのダークウェブ・フォーラムで20,254枚以上の児童虐待画像を発見した。AIが生成する児童ポルノの出現は、ディープフェイクポルノと本物の画像の境界線を曖昧にし、見分けがつかないコンテンツでインターネットを氾濫させる可能性があり、迫り来る脅威となっている。
このエスカレートする危機を受け、国連はAIによって生成されるメディアを、特にソーシャル・メディア・プラットフォームにおける、情報の完全性に対する深刻かつ緊急の脅威と位置づけた。欧州議会と欧州理事会は、欧州連合(EU)内でのAI利用を規制する厳格な規則について合意に達し、立法機関も動き出している。
デジタル環境が進化する中、AIの脱衣やディープフェイク技術の台頭には早急な対応が求められる。意識を醸成し、倫理基準を守り、規制措置を実施することが不可欠です。一致団結した努力によってのみ、デジタル時代におけるプライバシー、完全性、そして人間の尊厳の本質を守ることができるのだ。