دولت آمریکا دستاندرکاران صنعت فناوری دیجیتال و موسسههای مالی را تحت فشار گذاشته تا بازار رو به گسترش سوءاستفاده از هوش مصنوعی برای تولید تصاویر جنسی از افراد را مهار کنند.
ابزارهای هوش مصنوعی مولد، خلق تصاویر جنسی جعلی از افراد با استفاده از روش موسوم به «جعل عمقی» را بسیار ساده کرده و جعلکنندگان این تصاویر را در شبکههای اجتماعی و اتاقهای گفتوگو همرسانی میکنند.
قربانیان این پدیده، از سلبرتیها گرفته تا کودکان، برای متوقف کردن گردش و بازنشر این تصاویر امکان چندانی ندارند.
در غیاب یک قانون فدرال برای نظارت بر این پدیده، کاخ سفید روز پنجشنبه سوم خرداد از شرکتهای فناوری و نهادهای مالی خواست به شکل داوطلبانه در این زمینه با دولت همکاری کنند.
ماه گذشته دادستانی فدرال علیه مردی ساکن ایالت ویسکانسین به اتهام استفاده از یک ابزار پرطرفدار هوش مصنوعی به نام «استیبل دیفیوژن» برای خلق هزاران تصویر جعلی اما با ظاهری بسیار واقعگرایانه از کودکان در حال برقراری رابطه جنسی اعلام جرم کرد. وکیل متهم پس از جلسه تفهیم اتهام موکلش حاضر نشد در مورد این پرونده اظهارنظر کند.
شرکت «استبیلیتی ایآی» که مرکز آن در لندن است در روزهای اخیر گفت عرضه نسخه قدیمیتر «استیبل دیفیوژن» را که متهم ساکن ویسکانسین از آن استفاده میکرده تأیید نکرده است. عناصر فنی تشکیلدهنده این نوع ابزارهای قابل دسترسی در منابع بدون محدودیت به سرعت در شبکه اینترنت پخش میشود و مهار نوع کاربری و از دسترس خارج کردن آنها بسیار دشوار است.
مرکز پژوهشی «رصدخانه اینترنت» در دانشگاه استنفورد آمریکا در ماه دسامبر گزارش داد که در «شبکه باز و گسترده هوش مصنوعی» (LAION) که یکی از بایگانیهای بزرگ تصویر و از منابع مهم آموزش ابزارهای خلق تصویر بوسیله هوش مصنوعی است هزاران عکس مظنون به سوءاستفاده جنسی از کودکان یافته است.
«زیانبار بودن این فناوری دیگر یک گمانهزنی نیست»
دولت آمریکا امیدوار است که بخش خصوصی با تعهد به اجرای اقدامات پیشنهادی دولت بتواند از خلق و انتشار گسترده تصاویری که بدون موافقت افراد، از جمله تصاویر جنسی کودکان، بوسیله ابزارهای هوش مصنوعی تولید میشوند و همینطور پول درآوردن از این طریق جلوگیری کند.
آراتی پراباکار، مشاور ارشد علمی جو بایدن و رئیس بخش سیاستگذاری در زمینه علوم و فناوری در کاخ سفید، گفت: «زمانی که فناوری هوش مصنوعی مولد در دسترس عموم قرار گرفت همه در مورد زیانهای این فناوری گمانهزنی میکردند. به نظرم اکنون میتوان بهطور مشخص زیان آن را احساس کرد و تشخیص داد.»
خانم پراباکار در گفتوگو با خبرگزاری آسوشیتدپرس از «شتاب فوقالعاده» تولید و انتشار تصاویر بدون اطلاع و رضایت افراد، به خصوص زنان و دختران کم سنوسال، به روش جعل عمقی صحبت کرد و هشدار داد که در بسیاری موارد این پدیده زندگی قربانیان را ویران میکند.
بیشتر در این باره: هشدار افبیآی درباره مداخله خارجی در انتخابات آمریکا با استفاده از هوش مصنوعیاو افزود: «این اقدامات که باید آن را شکلی از تعرض جنسی و جنسیتی قلمداد کرد به خصوص در مورد دختران نوجوان و نوجوانان همجنسگرا اتفاق میافتد و پیامدهای جدی دارد. به دلیل قابلیتهای هوش مصنوعی مولد این پدیده پرشتاب در حال گسترش است. سریعترین واکنشی که میتوانیم نشان دهیم اقدام شرکتهای فناوری در مقابله با این پدیده و پذیرش مسئولیت از سوی آنها است.»
سندی که کاخ سفید در این زمینه تهیه کرده و نسخهای از آن قبل از انتشار در اختیار خبرگزاری آسوشیتدپرس قرار گرفته،از شرکتهای طراحی و تولید هوش مصنوعی و همینطور موسسات مالی، ارائهدهندگان خدمات رایانهای ابری، شرکتهای پرداخت اینترنتی و موتورهای جستجوگر نظیر گوگل و اپل میخواهد هر آنچه را که وارد بازارهای مجازی میشود با دقت بیشتری کنترل کنند.
دولت آمریکا در این سند میافزاید که بخش خصوصی باید روشهای گوناگون پول درآوردن از تعرض جنسی با استفاده از تصویر را کاملاً مسدود و دسترسی وبسایتهایی که تصاویر جنسی کودکان را منتشر میکنند به سامانههای پرداخت اینترنتی قطع کند.
خانم پرابارکار در ادامه گفتوگو با آسوشیتدپرس افزود که بسیاری از بنگاههای مالی و شرکتهای پرداخت اینترنتی گفتهاند که به تجارتهای مرتبط با نشر تصاویر آلوده به تعرض جنسی خدمات نمیدهند.
او افزود: «ولی این ملاحظات همیشه رعایت و اجرا نمیشود و این یکی از مواردی است که باید با قاطعیت و دقت بیشتری اجرا شود.»
سندی که کاخ سفید تهیه کرده خاطرنشان میکند که ارائهدهندگان خدمات رایانهای ابری و فروشگاههای مجازیِ اپلیکیشنها باید فروش و فعالیت برنامههای تلفن همراه و خدمات اینترنتی را که برای خلق تصاویر جعل عمقی مورد استفاده قرار میگیرند، متوقف کنند.
علاوه بر این، چه در مورد تصاویری که با جعل عمقی تولید شده و چه در مورد تصاویر واقعی که بدون رضایت صاحب آن منتشر شده است، قربانیان این اقدامات باید بتوانند به راحتی و با سرعت پلتفرمهای اینترنتی را مجبور کنند که این تصاویر را پاک کند.
مشهورترین قربانی «جعل عمقی»، تیلور سوئیفت، خواننده آمریکایی است که طرفداران پر و پا قرص و پرشمارش در ماه ژانویه به شکل خودجوش تصمیم گرفتند با موج انتشار تصاویر جعلی او که با هوش مصنوعی تولید شده بود در شبکههای اجتماعی مقابله کنند.
پس از آن که مشخص شد منشأ خلق برخی از این تصاویر ابزار تصویرپردازی هوش مصنوعی مایکروسافت بوده این شرکت تعهد داد که ایمنی و کنترل را در این زمینه افزایش دهد.
شمار قابل توجهی از مدارس در آمریکا و سایر کشورها نیز به دلیل خلق و انتشار تصاویر برهنه از دانشآموزان خود که به روش جعل عمقی تولید شده با مشکل روبهرو هستند. در برخی از این موارد تحقیقات نشان داده است که محصلین نوجوان همین مدارس، تصاویر را با ابزارهای هوش مصنوعی تولید کرده و با همکلاسان خود به اشتراک گذاشتهاند.
تابستان گذشته دولت آمریکا موفق شد به شکل داوطلبانه با شرکتهای بزرگ فناوری دیجیتال، از جمله آمازون، متا، گوگل و مایکروسافت، در مورد انجام آزمایشهای فنی و ایمنی دقیق قبل از عرضه محصولات جدید هوش مصنوعی به توافق برسد.
مدتی بعد، در ماه اکتبر نیز جو بایدن یک فرمان اجرایی بلندپروازانه را امضا کرد که هدف آن جهت دادن به روند توسعه هوش مصنوعی به شکلی است که ضمن تضمین سودآوری شرکتهای خالق آن ایمنی عموم را به مخاطره نیندازد.
هر چند این فرمان اساساً روی حساسیتهای کلی در مورد توسعه هوش مصنوعی به خصوص در زمینه امنیت ملی تمرکز داشت ولی به رواج تولید تصاویر کودکآزارانه به وسیله هوش مصنوعی نیز اشاره کرد.
در همان فرمان آقای بایدن خاطرنشان کرد که مقرراتی که دولت در این زمینه وضع میکند باید به شکل تصویب لوایح قانونی در کنگره تقویت شود.
گروهی متشکل از سناتورهای هر دو حزب دمکرات و جمهوریخواه تلاش میکنند مجالس قانونگذاری آمریکا را قانع کنند که بودجهای ۳۲ میلیارد دلاری برای توسعه فناوری هوش مصنوعی و اقدامات لازم برای نظارت بر ایمنی این فناوری را تصویب کند ولی آنها تاکنون به تصویب لوایحی برای تبدیل کردن این روشهای نظارتی به قانون تمایل نشان ندادهاند.
جنیفر کلاین، مدیر شورای سیاستگذاری جنسیت در کاخ سفید، به خبرگزای آسوشیتدپرس گفت: «تشویق بخش خصوصی به پذیرش داوطلبانه همکاری نمیتواند منکر ضرورت اقدام کنگره در این زمینه باشد.»
در دهههای گذشته قوانین متعددی برای ممنوع کردن و جرم انگاشتن مالکیت تصاویر جنسی کودکان، حتی اگر جعلی باشند، تصویب شده است.
اراتی پراباکار، در بخش دیگری از مصاحبه با خبرگزاری آسوشیتدپرس گفت مشکل فقط مدل موسوم به متن باز یا قابل دسترسی بودن ابزارهای هوش مصنوعی برای همگان نیست.
او افزود: «مشکل، گستردهتر از این است. متأسفانه در این عرصه (تصاویر سوء استفاده جنسی) افراد زیادی از ابزارهای مولد تصویر استفاده میکنند. این پدیده به شدت در حال گسترش است. ولی به اعتقاد من هنوز دقیقاً مشخص نشده که چه بخشی از آن با استفاده از منابع باز و چه بخشی با استفاده از ابزارهای دارای مالکیت و محدودیت تولید میشوند.»