کیان آنلاین – رایان حسینی: مایکروسافت میگوید ایران، کره شمالی، روسیه و چین شروع ازهوش مصنوعی در حملات سایبری استفاده کردهاند. مایکروسافت روز چهارشنبه اعلام کرد که برخی از دشمنان ایالات متحده از جمله ایران و کره شمالی و تا حدی روسیه و چین را شناسایی کرده که از هوش مصنوعی این شرکت و شرکای تجاری آن برای عملیات سایبری تهاجمی یا استفاده کرده یا تلاش کردهاند که استفاده کنند .
شرکت مایکروسافت، در یک پست وبلاگی اعلام کرده، تکنیکهایی که مایکروسافت با همکاری شریک خود OpenAI ایجاد کرده اند، یک تهدید نوظهور است.
نقش هوش مصنوعی در قدرتهای نظامی جهان
این شرکت در مورد اینکه چگونه رقبای ژئوپلیتیک ایالات متحده از مدلهای زبانی بزرگ برای گسترش توانایی خود برای نفوذ مؤثرتر به شبکهها و اجرای عملیات نفوذ استفاده کردهاند، توضیحاتی ارائه داده است.
مدل زبانی بزرگ یا به اختصار الالام LLM، سیستمهای هوش مصنوعی هستند که برای درک، تولید و پاسخگویی به زبان انسان طراحی شده اند. آنها «بزرگ» هستند زیرا حاوی میلیاردها پارامتر هستند که به آنها امکان میدهد الگوهای پیچیده در دادههای زبان را پردازش کنند.
مایکروسافت گفته که در «حملات» همه مدلهای زبان بزرگی که شرکا داشتهاند را هم شناسایی کردند. این شرکت گفته که افشای این حملات با استفاده از هوش مصنوعی به صورت عمومی حتی اگر «حرکتها در مرحله اولیه و تدریجی» هم باشند، مهم است.
بیشتر بخوانید:
رتبه در ساخت هوش مصنوعی چند است؟
شرکتهای امنیت سایبری مدتهاست که از یادگیری ماشینی در حوزه دفاعی، عمدتاً برای شناسایی رفتارهای غیرعادی در شبکهها استفاده میکنند. اما مجرمان و هکرهای تهاجمی نیز از آنها استفاده میکنند و معرفی مدلهای زبان بزرگ شرکت هایی مانند ChatGPT OpenAI، این وضعیت را تقویت کرده است.
مایکروسافت میلیاردها دلار در OpenAI سرمایهگذاری کرده است و اعلامیه روز چهارشنبه مصادف با انتشار گزارشی بود که در آن اشاره می کرد که انتظار میرود هوش مصنوعی مولد، در حوزه اجتماعی، مخرب عمل کنند و منجر به دیپفیکهای پیچیدهتر و شبیهسازی صدا شود.
این وضعیت می تواند تهدیدی برای دموکراسی ها در سالی باشد که در آن بیش از 50 کشور انتخابات برگزار میکنند. دیپ فیکها میتوانند اطلاعات نادرست را در بین رای دهندگان منتشر کنند و به تصمیمگیری غلط آنها منجر شود.
نشریه فورچون چند نمونه از استفاده های مخرب از هوش مصنوعی را که مایکروسافت ارائه کرده، بازنشر کرده است. در همه این موارد، تمام حسابهای هوش مصنوعی گروههای نامبرده غیرفعال شدهاند:
۱) گروه جاسوسی سایبری کره شمالی معروف به کیمسوکی از این مدلها برای تحقیق در مورد اندیشکدههای خارجی که این کشور را مطالعه میکردند، استفاده کرده بود.
۲) سپاه پاسداران ایران از مدلهای زبانی بزرگ برای کمک به مهندسی اجتماعی، عیبیابی خطاهای نرمافزاری و حتی در مطالعه چگونگی فرار نفوذگران از شناسایی در یک شبکه در معرض خطر استفاده کرده است.
این استفاده، شامل تولید ایمیلهای فیشینگ بود که «از جمله یکی از آنها وانمود میکرد از یک آژانس توسعه بینالمللی آمده است و دیگری تلاش برای فریب دادن فمینیستهای برجسته برای رفتن به وبسایتی بود که توسط خود آنها درباره فمینیسم ساخته شده بود». مهندسی اجتماعی رشتهای در علوم اجتماعی است که در جهت تحت تأثیر قرار دادن نگرشها و رفتار اجتماعی در مقیاس بزرگ توسط دولتها، رسانهها یا گروههای خصوصی برای ایجاد ویژگیهای خاص در یک جامعه هدف تلاش میکند
۳) واحد اطلاعات نظامی روسیه معروف به Fancy Bear از این مدل ها برای تحقیق در مورد فناوری های ماهوارهای و راداری که ممکن است مربوط به جنگ در اوکراین باشد، استفاده کرده است.
۴) گروه جاسوسی سایبری چینی معروف به پانداهای آبی – که طیف وسیعی از صنایع، آموزش عالی و دولتها را از فرانسه گرفته تا مالزی را هدف قرار میدهد – با استفاده از این مدلها ظرفیت عملیات فنی خود را افزایش داده است.
۵) گروه چینی Maverick Panda که بیش از یک دهه است پیمانکاران دفاعی ایالات متحده را هدف قرار داده است، با مدلهای زبان بزرگ، «در مورد موضوعات بالقوه حساس و افراد برجسته، ژئوپلیتیک منطقه ای، نفوذ ایالات متحده و امور داخلی»، دست به تحقیقات زده است.
OpenA هم در بیانیهای گفته که تکنیکهای کشفشده با ارزیابیهای قبلی مطابقت دارد که نشان میدهد چت ربات مدل GPT-4 فعلی آن « قابلیتهای محدودی برای اقدامات مخرب امنیت سایبری دارد.»
در آپریل گذشته، جن ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیرساختهای ایالات متحده، به کنگره آمریکا گفته بود «دو تهدید و چالش وجود دارد که دوران جدید را تعریف میکند. یکی چین است و دیگری هوش مصنوعی.»
ایسترلی در آن زمان گفته بود که ایالات متحده باید اطمینان حاصل کند که هوش مصنوعی با در نظر گرفتن امنیت ساخته شده است.
منتقدان انتشار عمومی ChatGPT در نوامبر 2022 ادعا میکنند که انتشار عمومی آن به طور غیرمسئولانه ای عجولانه بود، زیرا امنیت در آن رعایت نشده است.
هوش مصنوعی؛ آینده ارتشهای جهان
آمیت یوران، مدیر عامل شرکت امنیت سایبری Tenable به نشریه فورچون گفته: « بازیگران بد بینالمللی از مدلهای زبان بزرگ استفاده میکنند و این پیشبینی از روز اول انجام شده بود.»
برخی از متخصصان امنیت سایبری از مایکروسافت برای انتشار هوش مصنوعی بدون توجه به آسیبپذیریها در مدلهای زبان بزرگ شکایت دارند و معتقدند این شرکت باید مسئولانهتر عمل میکرد.
ادوارد آموروسو، استاد دانشگاه نیویورک و افسر ارشد سابق AT&T، میگوید که اگرچه استفاده از هوش مصنوعی و مدلهای زبان بزرگ ممکن است تهدیدی آشکار نباشد، اما «در نهایت به یکی از قویترین سلاحها در ارتش هر کشوری تبدیل خواهند شد»