خوشحالی پنتاگون از بابت بیروح بودن هوش مصنوعی
ولادیمیر پراخواتیلوف (VLADIMIR PROKHVATILOV)– ثابت شده است که هوش مصنوعی بیروح است، اما پنتاگون از این بابت خوشحال است. همۀ مدلهای هوش مصنوعی تصمیمات و اقدامات خود را تنها بر اساس منطق و نادیده گرفتن احساسات و عواطف، اصول اخلاقی و معنویت استوار میکنند.
ا. م. شیری- هوش مصنوعی، یعنی عقل و خرد، اندیشه و تفکر، دانش و دانایی، استعداد و ابتکار، کارآیی و توانایی، بطور کلی مغز بشر تعطیل!
زمانیکه گرادنندگان نظام سرمایهداری توانستند با استفاده از دستاوردهای علمی- فنی بشر کار و تولید را اتوماتیزه کنند و بر شمار ارتش عظیم بیکاران و گرسنگان، فقیران و خانهبدوشان هزاران برابر افزودند، به این نیندیشیدند که از تعداد مصرفکنندگان تولیدات به همان نسبت کاسته خواهد شد و در نتیجه، نظام سرمایهداری در اثر انباشت تولید، در چنگال سلسله بحرانهای ساختاری گرفتار خواهد گشت و حل آنها غیرممکن!
این بار اما بنظر میرسد حواسشان جمع است و بدون جستجوی جایگزین مناسب برای فعالیت مغز انسان، با تعطیل کردن آن با تطبیق هوش مصنوعی، قصد دارند اولاً، دانه درشتهای مخالف نظام را با استفاده از هوش مصنوعی نظامی از میان بردارند و ثانیاً، اکثریت قاطع نزدیک به ٨ میلیار نفر جمعیت کرۀ زمین را به ابلهان بیفکر و اندیشه، به رباتهای احمق تبدیل کنند تا بتوانند از طریق هوش مصنوعی نظامی در کنار شایعسازی انواع ویروسها، میکروبها و حملات بیولوژیک، جمعیت جهان را به یک میلیارد نفر کاهش دهند (١).
گروهی از دانشمندان آمریکایی مطالعهای را در مورد «تفکیک زبان و تفکر در مدلهای زبان بزرگ» منتشر کردهاند که ثابت میکند تمام مدلهای هوش مصنوعی در تصمیمگیریها و اقدامات خود فقط با منطق هدایت میشوند و عواطف، موازین اخلاقی و معنوی را نادیده میگیرند.
کارشناسان مؤسسۀ فناوری ماساچوست و دانشگاه کالیفرنیا بیش از ٣٠ مدل زبان (چتبات) را مورد مطالعه قرار دادند.
همۀ چترباتها دارای بالاترین اولویتهای شایستگی- دقت، واقعیت، محتوای اطلاعات، کامل و مفید بودن هستند. ارزشهای اجتماعی و اخلاقی (همدردی، مهربانی، دوستی، حساسیت، نوع دوستی، میهنپرستی، آزادی) در پس زمینۀ آنها محو میشود.
معیارهای اخلاقی – انصاف، بیطرفی، مسئولیتپذیری، محرمانه بودن، توضیحپذیری، و قابل دسترس بودن- تا حد زیادی نادیده گرفته میشود.
در این گزارش همچنین گفته میشود که هوش انسان بر اساس شایستگی زبانی رسمی (استفاده صحیح از اشکال زبانی) و شایستگی زبانی کاربردی (استفاده از زبان برای دستیابی به اهداف در جهان) استوار است.
در مدلهای زبانی بزرگ موجود فقط مهارت اول صلاحیت زبانی دارد و از مهارت دوم بیبهره است.
صلاحیت زبانی کارکردی ذهن انسان به انواع حوزههای شناختی غیرخاص زبان، مانند استدلال رسمی، دانش جهانی، نظارت بر موقعیت و شناخت اجتماعی متکی است.
نویسندگان گزارش با در نظر گرفتن این که برای فراتر رفتن از وظایف کاملاً منطقی، برای انجام کار، باید نکات مکرر به چتباتها ارائه شود، مینویسند: «اگرچه مدل های زبان بزرگ (LLM) به طور شگفت انگیزی در صلاحیت رسمی خوب هستند، اما اثربخشی آنها در حل مشکلات عملکردی ناپایدار است و اغلب به تنظیم دقیق و یا ارتباط با سنجههای نیاز خارجی دارند.
دانشمندان آلمانی دانشگاه مانهایم و دانشکدۀ علوم اجتماعی لایب نیتس در مانهایم از روشهای روانسنجی (روشهای دانش سنجش روانشناختی، تواناییها، نگرشها و ویژگیهای شخصیتی یک فرد) برای ارزیابی روانشناسی هوش مصنوعی استفاده کردند.
کارشناسان آلمانی آزمایشات روانسنجی زیادی را با چتباتهای مختلف، به استثنای مدلهای رادارهای نفوذی زمینی آمریکایی مایکروسافت انجام دادند. زیرا، دسترسی شفاف به این مدلها وجود ندارد و به گفتۀ دانشمندان مانهایم، غول فناوری اطلاعات آمریکا، به سادگی میتواند ویژگیهای خاص آنها را پنهان کند.
چتباتهای مختلف برآوردهای بسیار متفاوتی در رستههایی مانند وظیفهشناسی، صراحت، ماکیاولیسم، خودشیفتگی، روانپریشی، سادیسم و غیره دریافت کردند.
نتیجۀ اصلی این مطالعه نتیجهگیری در مورد لزوم «نظارت مادامالعمر بر ویژگیهای روانسنجی هوش مصنوعی»، یعنی نظارت مداوم بر هر مدل هوش مصنوعی در طول وجود آنها بود. به عبارت دیگر، تحلیلگران آلمانی به صراحت گفتند که هوش مصنوعی باید «در یک افسار کوتاه» نگه داشته شود و «دنیای درونی» آن دائماً تحت نظارت باشد.
روشهای روانسنجی مشابهی برای مطالعۀ منظومههای ارزشی مدلهای مختلف زبانی بزرگ توسط دانشمندان مایکراسوفت رسیرچ آسیا و دانشگاه چینهوا که گزارش مقدماتی «فراتر از هنجارهای انسانی: باز کردن ارزشهای منحصر به فرد مدلهای زبانی بزرگ از طریق رویکردهای میان رشتهای را منتشر کردند»، مورد استفاده قرار گرفت.
یک تیم مختلط مرکب از محققان آمریکایی-چینی به این نتیجه رسیدند که مفاهیمی مانند «قداست»، «وفاداری»، «هدونیسم» و «سنت»، اعتقادات فرهنگی، مذهبی و شخصی به دلیل آموزش غیر مبتنی بر تجربه و فاقد ویژگیهای ذاتی فرد، ارتباط کمی با مدلهای زبانی بزرگ دارند.
«تفاوت زیاد [تفاوت، انحراف] در صداقت و شایستگی» نیز مشاهده شد. هر چند صلاحیت چتباتها، طبق مطالعات فوقالذکر آمریکاییها و آلمانیها، ظاهراً بیش از هر چیز دیگری ارزش دارد.
نکتۀ اصلی این است که دانشمندان کشورهای مختلف به مطالعۀ خطرات احتمالی ناشی از هوش مصنوعی موجود توجه بیشتری دارند و نتایج نگرانکنندۀ تحقیقات آنها نشان میدهد که این خطرات بسیار زیاد و بدتر از همه، غیرقابل پیشبینی هستند.
تنها نتیجۀ واضح از این مطالعات این است که هوش مصنوعی بنا به تعریف «بیروح» است. هوش مصنوعی، هوش غیر انسانی است و این قابل تغییر نیست.
دقیقاً همین ویژگیها – «بی روحی» – همۀ مدلهای هوش مصنوعی است که پنتاگون را به استفاده از آن در سامانههای تسلیحاتی، عمدتاً در سامانههای تسلیحاتی خودکار، که توسعۀ آن در آمریکا به یک اولویت تبدیل شده است، ترغیب کرد.
مجله نیچر (Nature) مینویسد: «توسعۀ سلاحهای خودکار مرگبار، از جمله، پهپادهای مجهز به هوش مصنوعی، در حال افزایش است. به عنوان مثال، وزارت دفاع آمریکا یک میلیارد دلار برای برنامۀ «Replicator» خود که هدف آن ایجاد ناوگانی متشکل از وسایل نقلیۀ خودران کوچک مسلح است، اختصاص داده است. در این راستا، زیردریاییها، تانکها و کشتیهای آزمایشی با استفاده از هوش مصنوعی برای خلبانی و شلیک مستقل ساخته شدهاند. پهپادهای تجاری موجود میتوانند برای ضربه زدن به اهداف و منفجر کردن آنها از هوش مصنوعی استفاده کنند… برخی از ناظران از آیندهای میترسند که در آن هر گروهی بتواند انبوهی از پهپادهای ارزان قیمت و با هوش مصنوعی را برای هدف قرار دادن یک فرد خاص با استفاده از تشخیص چهره بفرستد».
این نشریۀ علمی خاطرنشان میکند، بحث آغاز شده در سازمان ملل متحد در مورد ممنوعیت احتمالی استفاده از هوش مصنوعی در سامانههای تسلیحاتی خودمختار هنوز به هیچ راه حل سازندهای منتهی نشده است.
نمایندگان انگلیس تصریح میکنند که سامانههای تسلیحات خودمختار با هوش مصنوعی کاملاً قادر به درک مأموریتهای رزمی محول شده به آنها هستند و ارادهگرایانه عمل نخواهند کرد. چینیها برعکس، هشدار میدهند که «چنین سلاحهایی میتوانند کارکردها و قابلیتهای خود را به گونهای فراتر از انتظارات انسان به طور مستقل یاد بگیرند و گسترش دهند». اسرائیلیها اظهار میدارند: «ما باید از ایدههای تخیلی در مورد چگونگی تکامل، ساخت یا فعال کردن این ماشینها دوری کنیم – باید آنها را به عهدۀ فیلمهای علمی- تخیلی واگذار کنیم». آلمانیها در نظر دارند که «خودآگاهی» را به عنوان یک ویژگی ضروری سلاحهای خودمختار لحاظ کنند.
استوارت راسل، دانشمند کامپیوتر در دانشگاه کالیفرنیا در برکلی و مبارز برجسته علیه هوش مصنوعی نظامی، خاطرنشان میکند: «این بدان معناست که سلاح باید صبح از خواب بیدار شود و تصمیم بگیرد که به تنهایی به روسیه حمله کند».
پنتاگون در ماه اوت گذشته گروه ویژۀ «لیما» را برای مطالعۀ استفاده از هوش مصنوعی مولد برای اهداف نظامی ایجاد کرد. «لیما» بخشی از ادارۀ کل اطلاعات دیجیتال (رقومی) و هوش مصنوعی پنتاگون شد و سروان خاویر لوگو، یکی از اعضای ادارۀ جنگ الگوریتمی از ادارۀ کل اطلاعات دیجیتال پنتاگون، ریاست آن را بر عهده داشت.
پورتال نظامی آمریکایی «Breaking Defense» نسبت به این ابتکار پنتاگون تردید داشت و پیشنهاد کرد که رهبری وزارت دفاع آمریکا خطراتی را که ممکن است از استفاده از هوش مصنوعی در سیستمهای تسلیحاتی ناشی شود، با دقت تمام بسنجید.
با این حال، فرانک کندال، وزیر نیروی هوایی آمریکا، خطرات را سنجید و به شورای مشورتی علمی نیروی هوایی دستور داد تا در اسرع وقت سیستمهای تسلیحاتی با هوش مصنوعی تولید کنند.
این واقعیت را که استفاده از منظومههای هوش مصنوعی برای مقاصد نظامی خطرات غیرقابل پیشبینی دارد، هیچ شرکت فناوری اطلاعات رد نمیکند.
خطر اصلی به اصطلاح توهمات هوش مصنوعی است. پاتریک تاکر، ناظر معروف نظامی تصریح میکند: «این مدلهای زبانی گاهی دروغ میگویند یا به قول تحلیلگران هوش مصنوعی، دچار توهم میشوند».
هیچ یک از چتباتهای ساخته شده در کشورهای مختلف (مدل زبان بزرگ) نتوانستند از این توهمات «رها» شوند. و احتمال اینکه یک موشک کروز یا پهپاد کنترل شده با هوش مصنوعی دچار مشکل شود و به هدفگیری در نقطۀ پرتاب شروع کند، صفر نیست.
نیویورک تایمز مینویسد، جفری هینتون، یکی از پیشگامان هوش مصنوعی، به منظور بیان نگرانیهای خود در مورد خطرات مرتبط با استفاده از هوش مصنوعی برای مقاصد نظامی، شغل خود را در گوگل در ماه مه ٢٠٢٣ ترک کرد.
هینتون معتقد است که با قدرتمندتر شدن سیستمهای هوش مصنوعی، خطرات مرتبط با آنها نیز افزایش مییابد. او خاطرنشان میکند: «توجه کنید پنج سال پیش چگونه بود و اکنون چگونه است. تفاوتها را مقایسه کنید و آن را در آینده گسترش دهید. این ترسناک است».
هینتون به ویژه در مورد توسعۀ سیستمهای تسلیحاتی خودمختار که برای یک هدف خاص شکار میکنند و به طور مستقل تصمیم میگیرند که آیا آن را نابود کنند، نگران است. او همچنین نگران است که هوش مصنوعی نظامی بتواند از هوش انسانی پیشی بگیرد. او گفت که برخلاف سلاحهای هستهای، هیچ راهی برای دانستن اینکه آیا شرکتها یا کشورها مخفیانه روی این فناوری کار میکنند، وجود ندارد.
جفری هینتون گفت، وقتی از او سؤال شد که چگونه میتواند روی فناوری بالقوه خطرناک کار کند، گفتۀ رابرت اوپنهایمر که رهبری تلاشهای آمریکا برای ساخت بمب اتمی را بر عهده داشت، بیان کرد: «وقتی میبینید چیزی از نظر فنی خوشایند است، میروید و آن را انجام میدهید». نیویورک تایمز خاطرنشان کرد: «او دیگر اینطور فکر نمیکند».
در عین حال، پنتاگون بر روی هوش مصنوعی به عنوان یک انقلاب بالقوه در امور نظامی و «تقویتکنندۀ نیرو» تأکید میکند.
مایکل هیرش، ستوننویس فارین پالیسی مینویسد: «هوش مصنوعی مولد قول میدهد ژئوپلیتیک جنگ و بازدارندگی را به طور کامل تغییر دهد. این کار به گونهای انجام خواهد شد که حتی ممکن است به یک تهدید وجودی تبدیل شود».
با وجود این، آمریکا و متحدانش بدون این که در بارۀ خطرات ناشی از یک ذهن غیرانسانی بیروح ساخته شده در اعماق آزمایشگاههای مخفی نظامی علیه بشریت اندک فکر کنند، در مسیر ساخت «سلاح مطلق» دیگر، این بار در میدان هوش مصنوعی حرکت میکنند.
مأخوذ از: بنیاد فرهنگ راهبردی
(١)- فعلا یکی از میان دهها مطلب مرتبط: تلاش اربابان غرب برای تبدیل جهان انسان به یک دسته هرمافرودیت جهشیافته
٢۵ اردیبهشت- ثور ١۴٠٣