هوش مصنوعی و پهپادهای قاتل
ولادیمیر پراخواتیلوف (VLADIMIR PROKHVATILOV)
ا. م. شیری
کشورهایی که بخشی از بلوک نظامی پیمان امنیتی سهجانبه بین استرالیا، انگلستان و آمریکا (AUKUS) هستند، بر روی تعامل دستهای از پهپادهای خودران با هواپیماهای سرنشیندار، نیروهای زمینی و دریایی شروع به کار کردهاند. شبیهسازیهای رایانهای اخیراً برای دفع تهاجم فرضی چین به تایوان انجام شده است که نشاندهندۀ کارآمدی پهپادهای کنترلشونده با هوش مصنوعی در غلبه بر سامانههای دفاع موشکی و هوایی چین است.
دیوید اوچمانک (Ochmanek)، محقق ارشد شرکت RAND، گفت که شبیهسازیهای انجامشدۀ مشترک توسط نیروی هوایی ایالات متحده و شرکت RAND نشان داد که تبادل دادههای گروهی از پهپادها با استفاده از شبکۀ ارتباطی لیزری «مشبک» هنگام شبیهسازی عبور از سامانۀ چینی A2 / AD عملکرد خوبی داشتند.
A2 / AD (محدودیت و ممنوعیت دسترسی و مانورanti-access and area denial =) – به مفهوم بازدارندگی دشمن با افزایش خطر برای استقرار یا حرکت نیروهای دشمن به منطقۀ حفاظتشده است.
استفاده از لیزرهای خط دید مستقیم برای ارسال و دریافت دادهها بین پهپادها، به آنها استقلال عمل میدهد و اجازه میدهد تا فوراً دادههای پرواز و هدفگیری را مبادله کنند.
اوچمانک با تشریح چندین راه که گروه پهپادها میتوانند جریان را به نفع ایالات متحده و تایوان برگردانند، خاطرنشان کرد که میتوان از آنها همراه با جتهای جنگنده رادارگریز اف-۳۵ و اف-۲۲ برای هدف قرار دادن کشتیهای جنگی، هواپیماها و سامانههای موشکی چین استفاده کرد.
او گفت که پهپادهای شناسایی به هواپیماهای سرنشیندار اجازه خواهند داد تا با رعایت سکوت الکترونیکی خود، از شناسایی توسط رادارهای دشمن جلوگیری کنند.
پهپادهای متشکله در شبکه، آگاهی موقعیتی و قابلیتهای دستیابی به هدف را برای سکوهای سرنشیندار به طور چشمگیری افزایش میدهند و همزمان رادارهای دشمن را با چندین هدف پر میکنند و آنها را مجبور میکنند تا موشکها را روی طعمههای فریبنده به هدر دهند.
باب ورک (Bob Wark)، معاون سابق وزیر دفاع ایالات متحده اخیراً علناً اعلام کرد که در واقعیترین شبیهسازی حمله به تایوان که ایالات متحده میتوانست انجام دهد، ایالات متحده با نتیجه ۱۸ بر صفر به چین باخت. این شکستها نشان داد که قابلیتهای A2/AD چین به حدی توسعه یافته است که ایالات متحده دیگر نمیتواند انتظار برتری سریع هوایی، فضایی یا دریایی را داشته باشد.
ایالات متحده و متحدانش در پیمان امنیتی سهجانبه (AUKUS) روی انبوهی از پهپادهای خودمختار حساب میکنند تا سلطۀ نظامی گستردۀ چین در منطقۀ هند و اقیانوس آرام را خنثی نمایند.
دادن خودمختاری بیشتر و بیشتر در امر حملۀ مستقل به انبوه پهپادهای دشمن نه تنها در میان روشنفکران غیرنظامی که از «قیام روباتها» میترسند، بلکه در میان ارتش نیز نگرانکننده است.
حادثۀ اخیر که در خلال شبیهسازی کامپیوتری ارتش ایالات متحده از مأموریت گروهی از پهپادهای نظامی تحت کنترل هوش مصنوعی با نظارت یک متصدی، پهپاد اپراتور را «کشت»، نفت بر آتش پاشید.
پهپادها قرار بود تجهیزات پدافند هوایی دشمن را نابود کنند و برای هر حمله مجوز نهایی از اپراتور بگیرند. همه چیز طبق برنامه پیش میرفت تا اینکه اپراتور، انهدام تعدادی از تجهیزات را که توسط هوش مصنوعی به عنوان هدف شناسایی شده بود، ممنوع کرد. هوش مصنوعی با تشخیص اینکه اپراتور در مأموریت تداخل دارد، آن را منفجر کرد.
برای اصلاح این وضعیت، برنامهنویسان نظامی که شبیهسازی را اجرا میکردند، هوش مصنوعی را از کشتن اپراتورهای آن منع کردند. پس از آن، هوش مصنوعی به سمت دیگری رفت: برج ارتباطی را منفجر کرد تا دیگرهیچ کس نتواند از انجام مأموریت آن جلوگیری کند.
تاکر همیلتون، سرهنگ نیروی هوایی در کنفرانس دفاعی ماه مه انجمن سلطنتی هوافضا با موضوع تواناییهای رزمی هوایی و فضایی آینده در مورد این حادثه صحبت کرد. پس از انتشار خلاصۀ گزارشها در سایت جامعه، منطقۀ جنگی، اینسایدر و گاردین در این باره نوشتند.
اگرچه سخنگوی ستاد نیروی هوایی در پنتاگون انجام چنین شبیهسازی را رد کرد، اما انجمن سلطنتی هوافضا خلاصۀ سخنرانی سرهنگ همیلتون را از وب سایت خود حذف نکرده است. و سرهنگ همیلتون آدمی نیست که داستان بگوید. او بخش آزمایش و عملیات هوش مصنوعی و نیروی ویژۀ ۹۶ را زیر چتر آزمایشی ۹۶ در پایگاه نیروی هوایی اگلین در فلوریدا رهبری میکند. پهپادهای پیشرفته خودران در این مرکز مورد آزمایش قرار میگیرند.
سرهنگ در مصاحبه با Defense IQ گفت: «ما باید با جهانی روبرو شویم که هوش مصنوعی در آن وجود دارد و جامعۀ ما را تغییر میدهد. هوش مصنوعی همچنین بسیار شکننده است. به این معنی که میتوان آن را به راحتی فریب داد و یا دستکاری کرد. ما باید راههایی را توسعه دهیم تا هوش مصنوعی را قابل اعتمادتر کنیم و بهتر درک کنیم که چرا رمزهای برنامهنویسی تصمیمات خاصی که ما آن را توضیحپذیری هوش مصنوعی مینامیم، میگیرد».
سرگئی راستارگوییف، دانشمند برجستۀ روس، استاد دانشگاه دولتی لومونسوف روسیه، سالهای زیادی به مطالعۀ مسائل قابل توضیح هوش مصنوعی پرداخت. او در تکنگاری بنیادی بیست سال پیش زیر عنوان «هدف بمثابه رمزنگاری. تجزیه و تحلیل رمز اهداف مصنوعی» که به مطالعۀ روانشناسی (!) هوش مصنوعی اختصاص داشت، مینویسد: «امروزه برای دنیای برنامههای کامپیوتری، کسب استقلال به یک عمل انجام شده تبدیل شده است… محصولات نرمافزاری، ادامۀ ناخودآگاه جمعی انسان هستند که در چارچوب روانشناسی تحلیلی مورد مطالعه قرار گرفتهاند…».
نوربرت وینر، پدر علم سایبرنتیک در کتاب سایبرنتیک خود خاطرنشان کرد: «ایدۀ دستگاههای غیرانسانی که دارای قدرت و توانایی زیادی برای اجرای سیاستهای خود هستند و خطر آنها، به خودی خود چیز جدیدی نیست. آنچه جدید است این است که ما اکنون از این دست دستگاههای کارآمد داریم».
سرگئی راستارگوییف مینویسد که «افزایش قابلیت اطمینان و پیچیدگی به حافظه و پیچیدگی بیشتر و بیشتری نیاز دارد و در برخی مواقع نرمافزار سیستمی برای خود شروع به زندگی میکند و برای خود هدفی پیدا میکند». و مجموعۀ کامپیوتری هرچه پیچیدهتر باشد، «برنامه مستقلتر عمل میکند»!
دانشمند روس خطر اصلی را نه در انواع ویروسها، قطع برق یا خطاهای اپراتور، بلکه در استقلال رو به رشد نرمافزار، به عبارت امروزی- در هوش مصنوعی میبیند.
تمایل ارتش انگلیسی-آمریکایی برای خنثی کردن برتری نظامی جمهوری خلق چین در منطقۀ هند و اقیانوس آرام، با پیشروی در مسیر به حداکثر رساندن پیچیدگی و خودکارسازی پهپادهای قاتل با کمک هوش مصنوعی، حوادثی مانند آنچه را سرهنگ همیلتون بیان کرد، به یک ویژگی ضروری جنگهای آینده تبدیل میکند.
منبع: وبگاه بنیاد فرهنگ راهبردی
یادوری: کلمات و عبارات آبی رنگ در متن مقاله، پیوند منابع مورد استفاده هستند.
۱۷ خرداد-جوزا ۱۴۰۲