لینک‌های قابلیت دسترسی

خبر فوری
سه شنبه ۴ دی ۱۴۰۳ تهران ۰۴:۴۹

گزارش هشدار دربارهٔ هوش مصنوعی را تا چه حد می‌توان جدی گرفت؟


گزارشی که یک شرکت آمریکایی به سفارش وزارت خارجه ایالات متحده طی ۱۳ ماه تهیه و اخیراً ارائه کرده، از هشدارآمیزترین گزارش‌هایی است که تاکنون دربارهٔ هوش مصنوعی و خطرات احتمالی آن منتشر شده. با این حال، نقدهایی جدی بر این گزارش وجود دارد که نمی‌توان آن‌ها را نادیده گرفت.

گزارش نهایی با عنوان «برنامهٔ اقدام برای افزایش ایمنی و امنیت هوش مصنوعی پیشرفته» مجموعه‌ای از اقدامات سیاسی گسترده و بی‌سابقه را توصیه و حتی پیشنهاد می‌کند که آموزش مدل‌های هوش مصنوعی در سطح مشخصی از توان محاسباتی محدود بماند و کنگره استفادهٔ بیش از این سطح را غیرقانونی کند.

این گزارش چگونه تهیه شده؟

ماه نوامبر سال ۲۰۲۲ وزارت امور خارجه آمریکا در قالب قراردادی ۲۵۰ هزار دلاری به شرکتی به نام «گلدستون اِی‌آی» مأموریت داد تا گزارشی دربارهٔ خطرات هوش مصنوعی و تمهیداتی که در این زمینه وجود دارد، تهیه کند.

این شرکت چهارنفری، که دو بنیان‌گذار آن برادر هم هستند، عمدتاً برای کارمندان دولت دوره‌های آموزشی دربارهٔ آموزش و توضیح عملکرد هوش مصنوعی برگزار می‌کند.

این شرکت پس از ۱۳ ماه گزارشی ۲۴۷ صفحه‌ای منتشر کرده که دسترسی به نسخهٔ کامل آن تنها از طریق درخواست مستقیم از شرکت ممکن است و به‌طور عمومی منتشر نشده، اما خلاصه‌ای از آن در اختیار عموم قرار گرفته است.

این گزارش که ادعا می‌کند براساس مصاحبه با بیش از ۲۰۰ شخصیت امنیتی، سیاسی، متخصص نظامی و تعدادی از متخصصان هوش مصنوعی – به‌صورت مستقیم یا غیرمستقیم – تهیه شده، یکی از هشدارآمیزترین سندهایی است که تاکنون دربارهٔ هوش مصنوعی و خطرات احتمالی آن منتشر شده و نقشهٔ راهی را هم برای مهار خطرات مطرح‌شده در این گزارش ترسیم کرده است.

هشدارهای مطرح‌شده در گزارش

گزارش در مورد آن‌چه خود خطرات شبیه به سلاح‌های کشتارجمعی هوش مصنوعی خوانده، رویدادهای منجر به انقراض بشریت و قیام هوش مصنوعی و در اختیار گرفتن کنترل امور جهان هشدار می‌دهد و بر خطرات این فناوری بر امنیت ملی و امنیت جهانی تأکید دارد.

این گزارش از یک‌ سو با اشاره به رشد سریع فناوری هوش مصنوعی و امکان سوءاستفاده از آن، نسبت به خطرات منجر به انقراض بشریت ناشی از توسعهٔ فناوری هوش عمومی مصنوعی هشدار می‌دهد.

در مجموع، تصویری که این گزارش از چشم‌انداز آیندهٔ خطرات هوش مصنوعی تصویر می‌کند، شاید از تیره‌ترین چشم‌اندازهای مربوط به آیندهٔ این فناوری باشد.

هوش عمومی مصنوعی، تصور و فناوری – فعلاً – تخیلی و غیرواقعی است که فرض می‌کند ماشین توانایی آن را دارد که به حد مشابه هوش انسان و نوعی خودآگاهی دست پیدا کند. در این مورد می‌توانید اپیزود «کدام هوش مصنوعی؟ کدام خطر؟» از پادکست چیستا را گوش کنید.

کدام هوش مصنوعی؟ کدام خطر؟
please wait

No media source currently available

0:00 0:28:07 0:00
لینک مستقیم
توصیه‌ها و راه‌حل‌ها

نویسندگان این گزارش توصیه می‌کنند برای مهار و مقابله با این خطرات، دولت ایالات متحده مهارهایی را برای توسعه این فناوری مطرح و اجرا کند و از این فرصت برای وارد کردن مهارهای فناوری در روند قانون ملی استفاده و با استفاده از نفوذ خود این قوانین مهارکننده را در قوانین جهانی وارد کند.

این نقشهٔ راه همچنین توصیه می‌کند که بر مبنای قوانینی که برای مهار و نظارت بر هوش مصنوعی طراحی می‌شود، سازمانی جهانی برای اِعمال نظارت بر روند جهانی این فناوری تأسیس شود و در عین‌ حال نهادهای امنیتی و اطلاعاتی برنامه‌هایی را برای مهار سناریوهای فاجعهٔ احتمالی و پاسخ به آن‌ها آماده کنند.

این گزارش همچنین توصیه می‌کند که به‌طورجدی بر آموزش کارمندان دولت ایالات متحده بر آموزش دربارهٔ روندها و پیشرفت‌های هوش مصنوعی سرمایه‌گذاری شود؛ توصیه‌ای که با توجه به این‌که فعالیت اصلی این شرکت برگزاری دوره‌های آموزشی برای نهادهای دولتی است، می‌تواند به‌نوعی مشمول تضاد منافع باشد.

نقدهایی بر گزارش

مسئلهٔ هوش مصنوعی و آیندهٔ آن و نگرانی‌ها از سوءاستفاده‌های ناشی از آن امری واقعی و مهم در دنیای امروز ما است. از کانادا و ایالات متحده گرفته تا اتحادیهٔ اروپا و چین، طرح‌ها و قوانینی را برای نظارت بر هوش مصنوعی و توسعهٔ آن و به‌طور خاص دفاع از حقوق شهروندان در مقابل سوءاستفاده‌های احتمالی پیشنهاد و حتی تصویب کرده‌اند.

در ایالات‌ متحده، دستور اجرایی رئیس‌جمهور مبنی بر رعایت استانداردهایی در توسعهٔ هوش مصنوعی و در اتحادیهٔ اروپا قانونی که همین روزها در پارلمان این کشور برای ایجاد استانداردهای توسعهٔ هوش مصنوعی تصویب شد، نمونه‌هایی از این موارد است.

با این حال، در مجموع توصیه‌نامه‌های این نقشهٔ راه مواردی نیز وجود دارد که بر مبنای خرد جمعی پذیرفته‌ شده است؛ مواردی مانند آماده بودن برای سناریوهای احتمالی خطا در توسعهٔ هوش مصنوعی.

اما نکتهٔ مهم در این نقشهٔ راه یا گزارش بزرگ‌نمایی مبتنی بر هراس از آیندهٔ محکوم به ویرانی فناوری است.

این گزارش تمایز چندانی بین هوش مصنوعی فعلی و هوش مصنوعی عمومی قائل نمی‌شود، درحالی‌که این دو نوع فناوری به نظر بسیاری از متخصصان اصولاً دو بستر فناوری متفاوت هستند و توسعهٔ یکی به ظهور دیگری نمی‌انجامد.

از سوی دیگر، این گزارش به‌طورجدی به روایت و سخنان چهره‌های امنیتی و نظامی تکیه و سعی کرده به‌نوعی بدترین گزینهٔ ممکن را محتمل‌ترینِ آن‌ها نشان دهد. فقدان حضور دانشمندان و متخصصان علوم هوش مصنوعی در میان مراجع اصلی تهیهٔ گزارش، سطح پایین داده‌های فناوری و بنیان‌های علمی این فناوری باعث شده است تا سناریوهایی مبتنی بر برداشت‌های غیرکامل از فناوری ترسیم شود.

یکی دیگر از نکاتی که این گزارش را با چالش مواجه می‌کند، مجموعه راه‌حل‌هایی است که برای مقابله با خطرات احتمالی مطرح می‌کند.

به‌طور خلاصه، این راه‌حل‌ها در قالب محدود کردن فناوری، ایجاد امتیاز و توانایی برای دولت در نظارت و مهار و کنترل این فناوری، زیر نظر گرفتن رشد آن در کشورهای دیگر توسط نهادهای آمریکایی یا نهادهای بین‌المللی (که ایالات‌ متحده آن‌ها را ایجاد کند) و ایجاد نظام قضایی و جرم‌انگاری توسعهٔ فناوری خارج از نظارت دولت است.

این روند که به‌طور خلاصه شاید بتوان آن را امنیتی کردن فناوری توصیف کرد، پیشتر در فناوری‌های دیگری که توسعهٔ آن‌ها به‌شدت دشوارتر بود، بارها آزموده شده و شکست‌ خورده است.

شاید مسیر دیگری در مقابل ما باشد؛ این‌که به‌جای امنیتی کردن و تلاش برای محدود کردن و بستن و سانسور و زیرزمینی کردن توسعهٔ فناوری، بر باز شدن منابع این فناوری تأکید شود.

به‌جای سپردن عنان اختیار به دست دولت‌ها، می‌توان به نقش نهادهای مدنی متشکل از متخصصان این حوزه و حوزه‌های مرتبط توجه کرد تا خرد جمعی متخصصان راهنمای توسعه شود.

در عین حال، می‌توان با خارج کردن این عرصه از انحصار شرکت‌ها و باز کردن آن، به نیروهای مدنی این حوزه اجازه داد که هم‌زمان با رشد فناوری و نگرانی از سوءاستفاده‌هایی احتمالی، بدون این‌که جلوی مسیر پیشرفت را بگیرند، ابزارهای مهار و خنثی کردن سوءاستفاده از هوش مصنوعی را با استفاده از همان فناوری بسازند.

نظرات نویسندگان در یادداشت‌ها لزوماً بازتاب دیدگاه رادیوفردا نیست.
XS
SM
MD
LG