اروپا نگران گسترش هوش مصنوعی؛ تعیین فرمانروای جهان؟

“ولادیمیر پوتین” رئیس جمهور روسیه در سال ۲۰۱۷ میلادی گفته بود ” کسی که در حوزه هوش مصنوعی رهبر شود، فرمانروای جهان خواهد بود”.

به گزارش خبرگزاری فرانسه، جمعی از نمایندگان پارلمان اتحادیه اروپا از رهبران جهان خواستند تا برای یافتن راه‌هایی برای مهار گسترش سامانه‌های هوش مصنوعی پیشرفته مانند «چت جی.پی.تی.» نشستی برگزار کنند. به اعتقاد این افراد، سامانه‌های این‌چنینی سریعتر از حد انتظار در حال توسعه هستند.

آنها اعلام کردند که کشورهای دموکراتیک و غیر دموکراتیک «در مسیر دستیابی به هوش مصنوعی باید به خویشتنداری و مسئولیت پذیری» فراخوانده شوند.

این در حالیست که تازه‌ترین هوش مصنوعی که به عنوان ترانسفورماتور‌های از پیش آموزش‌دیده مولد (GPT) شناخته می‌شود، نوید تغییر کامل ژئوپولیتیک جنگ و بازدارندگی را می‌دهد. جی پی تی این کار را به شیوه‌هایی انجام می‌دهد که آرامش بخش نیست.

این فناوری می‌تواند جنگ را کم‌تر کشنده سازد و احتمالا بازدارندگی را تقویت کند. با گسترش چشمگیر نقش پهپاد‌های هدایت شده با هوش مصنوعی در نیرو‌های سه گانه ارتش، می‌توان از جان انسان‌ها محافظت کرد. با این وجود، در حال حاضر پنتاگون در حال آزمایش ربات‌های هوش مصنوعی است که می‌توانند با جت جنگنده اف -۱۶ اصلاح شده پرواز کنند و روسیه نیز خودرو‌های تانک مانند خودران را آزمایش کرده است.

چین عجله دارد تا سیستم‌های هوش مصنوعی خود را راه اندازی کند و اثربخشی پهپاد‌های مسلح نیز در سال‌های آینده افزایش خواهد یافت. یکی از بزرگ‌ترین تلاش‌ها اگرچه هنوز نوپاست پیشبرد هوش مصنوعی در برنامه محرمانه نیروی هوایی ایالات متحده، نسل بعدی سلطه هوایی می‌باشد که بر اساس آن حدود ۱۰۰۰ فروند پهپاد جنگی “وینگمن” به نام هواپیما‌های رزمی مشارکتی در کنار ۲۰۰ هواپیمای خلبان عمل می‌کنند.

“داگلاس شاو” مشاور ارشد ابتکار عمل تهدید هسته‌ای می‌گوید: “من به راحتی می‌توانم آینده‌ای را تصور کنم که در آن تعداد پهپاد‌ها بسیار بیش‌تر از افراد نیرو‌های مسلح باشند”.

به گفته “چارلز والد” ژنرال بازنشسته نیروی هوایی ایالات متحده این یک عامل افزایش دهنده نیرو خواهد بود. یکی از بزرگترین مشکلات در حال حاضر جذب نیرو است.

از سوی دیگر، نرم افزار مبتنی بر هوش مصنوعی می‌تواند قدرت‌های بزرگ را وادار کند که زمان تصمیم گیری خود را به جای ساعت‌ها یا روز‌ها به چند دقیقه کاهش دهند. آنان ممکن است بیش از حد به ارزیابی‌های استراتژیک و تاکتیکی هوش مصنوعی وابسته باشند؛ حتی زمانی که صحبت از جنگ هسته‌ای به میان می‌آید.

“هربرت لین” از دانشگاه استنفورد می‌گوید خطر این است که تصمیم گیرندگان می‌توانند به تدریج به هوش مصنوعی جدید به عنوان بخشی از فرماندهی و کنترل تسلیحات تکیه کنند، زیرا این هوش مصنوعی با سرعتی بسیار بیش‌تر از انسان‌ها عمل می‌کند.

“جیمز جانسون” از دانشگاه آبردین در اسکاتلند در کتابی که در سال جاری با عنوان “هوش مصنوعی و بمب” چاپ شد سناریوی یک جنگ هسته‌ای تصادفی در دریای چین شرقی در سال ۲۰۲۵ میلادی را ترسیم می‌کند که توسط اطلاعات مبتنی بر هوش مصنوعی و توسط بات‌های مجهز به هوش مصنوعی، دیپ فیک‌ها (جعل عمیق) و عملیات پرچم دروغین تشدید می‌شود.

لین، کارشناس امنیت سایبری می‌گوید: “وقتی مردم باور می‌کنند که ماشین‌ها در حال فکر کردن هستند احتمالا کار‌های دیوانه وار انجام می‌دهند. آنچه واضح به نظر می‌رسد این است که یک مسابقه تسلیحاتی جدید هوش مصنوعی در حال انجام است و احتمالا کاری برای متوقف کردن آن نمی‌توان انجام داد.

“ایلان ماسک” و “استیو وزنیاک” در نامه‌ای سرگشاده‌ای در اواخر ماه مارس به همراه بیش از دو هزار فرد پیشتاز و محقق در عرصه فناوری از آزمایشگاه‌های سراسر جهان خواستند تا آموزش جدیدترین مدل‌های هوش دیجیتال را که ممکن است منجر به فاجعه‌ای برای انسان شود متوقف سازند.

EnglishGermanPersian