هک با قدرت هوش مصنوعی؛ تهدیدی جدی در ابعاد جهانی

گوگل می‌گوید هک با قدرت هوش مصنوعی به تهدیدی جدی برای آینده تبدیل شده است. طبق این گزارش، گروه‌های تبهکار بین‌المللی و عوامل وابسته به دولت‌ها از مدل‌های تجاری هوش مصنوعی برای بهبود و گسترش حملات خود استفاده می‌کنند.بر اساس یک گزارش گوگل، اقدامات هکرها با استفاده از قدرت هوش مصنوعی ، تنها در عرض سه ماه، از یک مشکل نوظهور به یک تهدید جدی در مقیاس وسیع تبدیل شده است.

گزارش‌های پیشین نشان داده بودند که جدیدترین مدل‌های هوش مصنوعی فراتر از حد تصور در کدنویسی توانمند هستند. این مدل‌ها در حال حاضر، به ابزارهایی بسیار قدرتمند برای سوءاستفاده از آسیب‌پذیری‌ سیستم‌ها تبدیل شده‌اند و طیف گسترده‌ای از سامانه‌های نرم‌افزاری را به خطر انداخته‌اند.

اینترنت بدون سانسور با سایفون دویچه‌ وله

این گزارش همچنین دریافته است که گروه‌های تبهکار، همراه با عوامل بین‌المللی وابسته به دولت‌های چین، کره شمالی و روسیه، به طور گسترده از مدل‌های تجاری از جمله جمینای، کلود و ابزارهای شرکت اوپن‌ای‌آی برای بهبود و گسترش حملات استفاده می‌کنند.

بیشتر بخوانید: سرمایه‌گذاری ۷۲۵ میلیارد دلاری غول‌های فناوری در هوش مصنوعی

به گزارش گاردین، یک کارشناس که در تدوین این گزارش نقش داشته می‌گوید این که چنین چیزی در آینده نزدیک رخ خواهد داد، تصوری اشتباه است. به گفته او “واقعیت این است که این روند همین حالا آغاز شده است”.

این کارشناس می‌گوید: «عوامل تهدیدکننده، از هوش مصنوعی برای افزایش سرعت، مقیاس و پیچیدگی حملات خود استفاده می‌کنند. این فناوری به آن‌ها امکان می‌دهد عملیات خود را آزمایش کنند، در برابر اهداف پایداری بیشتری داشته باشند و بدافزارهای بهتری بسازند.»

شرکت هوش مصنوعی آنتروپیک ماه گذشته از انتشار یکی از جدیدترین مدل‌های خود به نام “میتوس” خودداری کرد. این شرکت اعلام کرده بود که این مدل، توانایی‌های بسیار قدرتمندی دارد و اگر به دست افراد نادرست بیفتد، تهدیدی برای دولت‌ها، موسسات مالی و به طور کلی جهان خواهد بود.

به طور مشخص، آنتروپیک اعلام کرد میتوس آسیب‌پذیری‌ها و نقص‌های امنیتی ناشناخته را در “تمام سیستم‌عامل‌های اصلی و تمام مرورگرهای اصلی وب” یافته است.

هکرها در یک قدمی کارزار تخریب بزرگ

با این حال، گزارش گوگل دریافته است که یک گروه تبهکار، اخیرا در آستانه استفاده از یک “آسیب‌پذیری روز صفر” برای اجرای یک کارزار سوءاستفاده گسترده بوده است و به نظر می‌رسد این گروه، از یک مدل زبانی بزرگ هوش مصنوعی استفاده می‌کرده که البته، بنا به این گزارش، میتوس نبوده است.

“حمله روز صفر”، اصطلاحا به استفاده از آسیب‌پذیری و نقص یک محصول گفته می‌شود که پیش‌تر برای سازندگان آن ناشناخته بوده است.

این گزارش همچنین دریافته است که گروه‌های تبهکار هکری در حال آزمایش OpenClaw هستند. این مدل، یک ابزار هوش مصنوعی است که در ماه فوریه به شدت فراگیر شد. اوپن‌کلا به کاربران خود امکان می‌داد بخش‌های بزرگی از زندگی‌شان را بدون هیچ محدودیتی به یک عامل هوش مصنوعی بسپارند.

در آن زمان، برخی کاربران گزارش دادند که عامل هوش مصنوعی، برخی از ایمیل‌ها یا داده‌ها را به اشتباه حذف کرده است. این ابزار نشان داد عامل‌های خودکار هوش مصنوعی اگر دسترسی گسترده داشته باشند، می‌توانند اقدامات مخرب یا خطرناک انجام دهند.

استیون مرداک، استاد مهندسی امنیت در دانشگاه کالج لندن می‌گوید ابزارهای هوش مصنوعی می‌توانند هم به طرف دفاعی در امنیت سایبری کمک کنند و هم به هکرها.

دویچه وله فارسی را در اینستاگرام دنبال کنید

او می‌گوید: «به همین دلیل است که من از این موضوع دچار وحشت نشده‌ام. به طور کلی ما به مرحله‌ای رسیده‌ایم که روش قدیمی کشف باگ‌ها از بین رفته است و از این پس همه چیز با کمک مدل‌های زبانی بزرگ انجام خواهد شد. مدتی طول خواهد کشید تا پیامدهای این روند کاملا مشخص شوند.»

EnglishGermanPersian