براساس نتایج یک پژوهش جدید که چهارشنبه ۲۹ آذر منتشر شد، در اعماق پستوهای فناوری پرطرفدار هوش مصنوعی که از دادههای موجود در اینترنت میتواند تصاویر مصنوعی خلق کند، هزاران عکس از آزار جنسی کودکان نیز وجود دارد.
دستاندرکاران این پژوهش از شرکتهای بزرگ فناوری دیجیتال خواستهاند که با انجام اقدامات ضروری و عاجل از ورود این تصاویر به عرصهٔ نامحدود تولید تصویر توسط هوش مصنوعی جلوگیری کنند.
وجود این تصاویر برهنه و حاوی آزار جنسی کودکان در شبکهٔ اینترنت کار تولید تصاویر جعلی (فیک) اما با ظاهر بسیار واقعی توسط هوش مصنوعی را بسیار ساده کرده است.
در عین حال فراگیری این روش مولد تصاویر جعلی (فيک) توسط برخی کاربران و تبدیل کردن عکسهای معمولی کودکان و نوجوانان به تصاویر برهنه در ماههای اخیر جنجالبرانگیز و در بسیاری از کشورها موجب نگرانی شدید والدین و مسئولان مراکز آموزشی شده است.
تاکنون پژوهشگران عرصهٔ مبارزه با آزار کودکان بر این تصور بودند که تصاویر جعلی (فیک) کودکان برهنه توسط ابزارهای غیرقانونی و خارج از کنترل هوش مصنوعی و با ترکیب عکسهای پورن با عکسهای معمولی خردسالان تولید میشود.
اما پژوهشگران «مرکز دیدهبانی اینترنت» در دانشگاه استنفورد آمریکا توانستهاند بیش از سه هزار و ۲۰۰ تصویر واقعی از آزار جنسی کودکان در LAION پيدا کنند. لایون شرکتی است که یک بایگانی علنی و عظیم از دادههایی را در اختیار دارد که توسط فناوری هوش مصنوعی مورد استفاده قرار میگیرد.
بسیاری از ابزارهای هوش مصنوعی مولد تصویر از جمله هوش مصنوعی «استیبل دیفیوژن» برای خلق تصویر از همین بایگانی استفاده میکنند.
«مرکز دیدهبانی اینترنت» در دانشگاه استنفورد در همکاری با مرکز حفاظت از خردسالان در کانادا و چندین نهاد خیریهٔ دیگر که در زمینهٔ مبارزه با آزار و سوءاستفاده جنسی از کودکان فعال هستند، وجود این محتواهای غیرقانونی و غیراخلاقی در دسترس ابزارهای هوش مصنوعی را شناسایی کرده و به نهادهای انتظامی گزارش دادهاند.
واکنشها به این پژوهش بسیار سریع بود. شرکت لایون به خبرگزاریها گفت به طور موقت دسترسی به تمامی دادههای خود را مسدود میکند. این شرکت در بیانیهای افزوده که به هیچ وجه سوءاستفادهٔ غیرقانونی از دادههای خود را تحمل نمیکند و قبل از بازبینی تمامی مضامین موجود در این شبکه بهطور موقت دسترسی به آن را مسدود کرده است.
پژوهشگران در «مرکز دیدهبانی اینترنت» در دانشگاه استنفورد میگویند تعداد تصاویر برهنه و یا آزار جنسی کودکان در بایگانی لایون که ۵.۸ میلیارد تصویر دارد، درصد بسيار ناچیزی است، ولی به احتمال فراوان روی قابلیت ابزارهای هوش مصنوعی برای تولید تصاویر مشابه تأثیر میگذارد و اگر تصاویر قربانیان واقعی آزار جنسی کودکان را بازنشر کند، بهمنزلهٔ تأیید این تجاوزها و آزارها خواهد بود.
دیوید ثیل، تنظیمکنندهٔ این پژوهش و کارشناس ارشد «مرکز دیدهبانی اینترنت» در دانشگاه استنفورد معتقد است که حل این مشکل کار سادهای نیست، چون بسیاری از نسخههای هوش مصنوعی مولد بدون انجام اقدامات پیشگیرانه و بررسیهای دقیق به یک بازار پررقابت عرضه شدهاند و همهٔ آنها به بخش اعظم همهٔ مضامین نوشتاری، صوتی و تصویری که سالهای سال در شبکهٔ اینترنت پخش شده، دسترسی دارند.
برای مثال دیوید ثیل از هوش مصنوعی CivitAI نام برده که مورد علاقهٔ افرادی است که از هوش مصنوعی برای تولید هرزهنگاری استفاده میکنند. بهگفتهٔ ثیل، این هوش مصنوعی فاقد اقدامات ایمنی برای سنجش تصاویر و مقابله با ساخت تصاویر کودکان است.
دیوید ثیل همچنین گفته است «باز گذاشتن دست ابزارهای هوش مصنوعی مولد برای دسترسی به تمامی محتواهای موجود در اینترنت قبل از آنکه محدودیت یا فیلترهای صحیح و قانونی به اجرا درآید، کار نادرستی بود».
کریستف شوهمن، پژوهشگر آلمانی که مغز متفکر شرکت لایون (LAION) شناخته میشود، معتقد است که تنها راه «دموکراتیزه کردن» هوش مصنوعی این بود که تمامی مضامینی که این فناوری میتواند از آنها بهره بگیرد، در منابع و بایگانیهای علنی در اختیار همگان قرار بگیرد.
مسئولان نهادهای دولتی و خیریهٔ حفاظت از کودکان اکنون با معضل پیچیدهای روبهرو هستند. از یک سو به خوبی میدانند که تمام دادههای موجود در شبکهٔ اینترنت را نمیتوان بازرسی و درصورت لزوم فیلتر کرد.
از سوی دیگر نگراناند که دسترسی بخش وسیعتری از کاربران به ابزارهای هوش مصنوعی میتواند آزار کودکان و نوجوانان و بهخصوص آزار روانی آنها را توسط افراد تبهکار و يا حتی کمسالانی که از روی شیطنت و یا کينهورزی بهدنبال تخریب وجههٔ دیگران هستند، افزایش دهد.