ورود هوش مصنوعی به میدان جنگ باعث نگرانی از شدت گرفتن درگیریها و تضعیف نقش حیاتی انسان در تصمیمگیریهای جنگی شده است. هوش مصنوعی نشان داده که میتواند سریعتر عمل کند، اما لزوماً ایمنتر یا اخلاقیتر نیست.
آنتونیو گوترش، دبیرکل سازمان ملل متحد، اخیراً گفت از گزارشهای رسانههای اسرائیلی مبنی بر استفاده اسرائیل از هوش مصنوعی برای شناسایی اهداف در غزه که «منجر به تلفات زیاد غیرنظامیان شده»، «عمیقاً ناراحت» است.
گذشته از نرمافزار مورد اشارۀ آقای گوترش، یعنی نرمافزار لَوندر و انکار و تکذیب اسرائیل، در اینجا نگاهی داریم به تحولات حوزۀ فناوری که درحال دگرگون کردن چهرۀ جنگ است.
همانطور که در مورد لوندر دیده شد، هوش مصنوعی با الگوریتمهای پرسرعت خود که حجم عظیمی از دادهها را برای شناسایی تهدیدات بالقوه پردازش میکنند، میتواند بهویژه برای انتخاب اهداف مفید باشد.
اما نتایج فناوری باز هم در حوزۀ احتمالات قرار میگیرند و کارشناسان هشدار میدهند که بروز خطا در آن اجتنابناپذیر است.
هوش مصنوعی در فن آرایش رزمی نیز کاربرد دارد، برای مثال، آرایش جنگی پهپادها به صورت دستهای؛ تاکتیکی که به نظر میرسد چین به سرعت در حال توسعۀ آن است. با این روش، پهپادها این قابلیت را خواهند داشت که با یکدیگر ارتباط برقرار کنند و بر اساس اهداف تعیینشدهٔ قبلی با هم همکاری داشته باشند.
در مقیاسی بزرگتر، هوش مصنوعی مدلهایی از میدانهای نبرد فراهم میکند و برای مقابله با حملات راههایی پیشنهاد میکند که هیچ بعید نیست شامل استفاده از سلاحهای هستهای هم بشود.
بیشتر در این باره: «استفاده ارتش اسرائیل از هوش مصنوعی» برای شناسایی و هدف گرفتن اعضای حماسفکر کردن با سرعتی هرچه بیشتر
آلساندرو آکورسی از گروه بینالمللی بحران میگوید: «یک درگیری تمامعیار بین دو کشور را تصور کنید که برای تهیه راهبرد و طرحهای نظامی آن سراغ هوش مصنوعی رفتهاند و هوش مصنوعی در آنِ واحد نسبت به هر رخداد و تحول جدید پاسخ میدهد.»
او میافزاید که با این کار «فاصلۀ زمانیِ واکنشهای طرفین درگیری بسیار کاهش مییابد و تصمیم و اقدامی برای یک انسان یک ساعت طول میکشد، برای هوش مصنوعی چند ثانبه بیشتر طول نمیکشد».
برای نمونه، پدافند هوایی اسرائیل، که به «گنبد آهنین» معروف است، میتواند ورود یک پرتابه را شناسایی کند و ماهیت آن، مقصد و خسارت احتمالی آن را تعیین کند. با اشاره به این سامانه، لور دو روشی-روشگوند از مؤسسه روابط بینالملل فرانسه میگوید: «متصدی این پدافند تنها یک دقیقه فرصت دارد تصمیم بگیرد که موشک را منهدم کند یا نه.»
و بهگفتۀ او، این متصدی «اغلب یک سرباز جوان ۲۰ ساله است که چندان از قوانین جنگ آگاه نیست. بنابر این، جای این پرسش هست که تسلط او بر تصمیمگیری مناسب تا چه اندازه میتواند دقیق باشد».
یک خلأ اخلاقی نگرانکننده
با توجه به تشدید مسابقه تسلیحاتی و دشواریهای همیشگی صحنه جنگ، بعید نیست هوش مصنوعی را هم در آینده بسیار نزدیک وارد میدان نبرد کنند و این درحالی است که بخش بزرگی از جهان هنوز بهطور کامل از پیامدهای بالقوه آن آگاه نیست.
دو روشی-روشگوند میگوید: انسانها با این کار «پیشنهادهای یک ماشین را مبنای تصمیمات خود قرار میدهند، اما از اطلاعاتی که دستگاه برای رسیدن به چنین تصمیمی از آن استفاده کرده، بیاطلاعاند».
او اضافه میکند: «درست است که در نهایت انسان دکمه پرتاب یا شلیک را فشار میدهد، اما عدم آگاهی فرد از روند تصمیمگیری و همچنین سرعت کار ماشین بدین معناست که فرد شلیککننده کنترل واقعی بر روی نتیجهگیریها و تصمیمات خود ندارد.»
اولریکه فرانکه از شورای روابط خارجی اروپا میگوید: هوش مصنوعی «مثل سیاهچاله است؛ لزوماً نمیفهمیم چه میداند یا چه فکر میکند، یا چگونه به این نتایج میرسد».
او ادامه میدهد: «چرا هوش مصنوعی این یا آن هدف را پیشنهاد میکند؟ چه میشود که این اطلاعات یا آن اطلاعات را به من میدهد؟ با این وضع اگر اجازه دهیم هوش مصنوعی جنگافزار را هم کنترل کند، با یک پرسش اخلاقی جدی روبهرو میشویم».
بیشتر در این باره: سازمان ملل اولین قطعنامه جهانی در مورد هوش مصنوعی را تصویب کرداوکراین بهعنوان صحنۀ آزمایش
خبر میرسد که ایالات متحده به تازگی از الگوریتمهایی در حملات اخیر خود علیه شورشیان حوثی در یمن استفاده کرده است.
اما آکورسی میگوید: «تغییردهنده واقعی شیوه بازی، جنگ اوکراین است که به آزمایشگاهی برای کاربرد نظامی هوش مصنوعی تبدیل شده است».
ویتالی گونچاروک از رصدخانه هوش مصنوعی دفاعی در دانشگاه هلموت اشمیت هامبورگ میگوید: از زمان حمله روسیه به اوکراین در سال ۲۰۲۲، طرفین درگیری شروع به «توسعه و بهکارگیری راه حلهای هوش مصنوعی برای حوزههایی مانند اطلاعات جغرافیایی فضایی، عملیات با سامانههای بدون سرنشین، آموزش نظامی و جنگ سایبری» کردهاند.
گونچاروک میگوید: «در نتیجه، جنگ در اوکراین به اولین درگیری تبدیل شده که در آن هر دو طرف، در جهت استفاده از هوش مصنوعی رقابت میکنند؛ عاملی که به یک مؤلفه حیاتی برای دستیابی به پیروزی بدل شده است.»
برتریجویی و خطر هستهای
«ترمیناتور»، ربات قاتلی که انسان کنترل خود را بر آن از دست میدهد، جزو تخیلات هالیوودی است. با اینحال، محاسبات سرد این ماشین، پژواکی از واقعیات هوش مصنوعی مدرن را در خود دارد: اینکه این سیستمها نه غریزه بقا دارند و نه تردید.
محققان چهار مؤسسه و دانشگاه آمریکایی در ژانویه نتایج یک مطالعه علمی انجامشده روی پنج مدل زبانی بزرگ (سیستمی شبیه به نرمافزار مولد چتجیپیتی) در موقعیتهای تنش سیاسی و درگیری را منتشر کردند.
این مطالعه نشان داد که گرایش این مدلهای هوش مصنوعی، «به سمت ایجاد رقابت تنگاتنگ تسلیحاتی است که منجر به درگیریهای بزرگتر و در موارد نادر استفاده از سلاحهای هستهای میشود».
قدرتهای بزرگ جهانی کوشش فراوانی دارند تا در میدان مسابقهٔ کاربرد نظامی هوش مصنوعی، پیروز صحنه شوند و همین تکاپوی بیامان، مانع ساماندهی و قانونگذاری بهموقع در این حوزه شده است.
جو بایدن، رئیسجمهور ایالات متحده و شی جین پینگ، رئیسجمهور چین در ماه نوامبر توافق کردند که کارشناسان خود را برای سامان دادن به این وضعیت بهکار بگمارند.
بحثهایی نیز ده سال پیش در سازمان ملل متحد آغاز شد، اما بدون نتیجهای ملموس باقی ماند.
آکورسی میگوید: «دربارهٔ کارهای که باید در ارتباط با خطرات ورود هوش مصنوعی به حوزه غیرنظامی انجام شود، بحثهایی وجود دارد، اما وقتی نوبت به صنعت دفاعی میرسد، کسی به آن نمیپردازد.»
بیشتر در این باره: گزارش هشدار دربارهٔ هوش مصنوعی را چقدر باید جدی گرفت؟