آیا ارتش ایران به هوش مصنوعی مسلح شده است؟

تکنولوژی ارتش ایران

کیان آنلاین – رایان حسینی: مایکروسافت می‌گوید ایران، کره شمالی، روسیه و چین شروع ازهوش مصنوعی در حملات سایبری استفاده کرده‌اند. مایکروسافت روز چهارشنبه اعلام کرد که برخی از دشمنان ایالات متحده از جمله ایران و کره شمالی و تا حدی روسیه و چین را شناسایی کرده که از هوش مصنوعی این شرکت و شرکای تجاری آن برای عملیات سایبری تهاجمی یا استفاده کرده یا تلاش کرده‌اند که استفاده کنند .

شرکت مایکروسافت، در یک پست وبلاگی اعلام کرده، تکنیک‌هایی که مایکروسافت با همکاری شریک خود OpenAI  ایجاد کرده اند، یک تهدید نوظهور است.

نقش هوش مصنوعی در قدرت‌های نظامی جهان

این شرکت در مورد اینکه چگونه رقبای ژئوپلیتیک ایالات متحده از مدل‌های زبانی بزرگ برای گسترش توانایی خود برای نفوذ مؤثرتر به شبکه‌ها و اجرای عملیات نفوذ استفاده کرده‌اند، توضیحاتی ارائه داده است.

مدل زبانی بزرگ یا به اختصار ال‌ال‌ام LLM، سیستم‌های هوش مصنوعی هستند که برای درک، تولید و پاسخگویی به زبان انسان طراحی شده اند. آنها «بزرگ» هستند زیرا حاوی میلیاردها پارامتر هستند که به آنها امکان می‌دهد الگوهای پیچیده در داده‌های زبان را پردازش کنند.

مایکروسافت گفته که در «حملات» همه مدل‌های زبان بزرگی که شرکا داشته‌اند را هم شناسایی کردند. این شرکت گفته که افشای این حملات با استفاده از هوش مصنوعی به صورت عمومی حتی اگر «حرکت‌ها در مرحله اولیه و تدریجی» هم باشند، مهم است.


بیشتر بخوانید:

رتبه در ساخت هوش مصنوعی چند است؟


شرکت‌های امنیت سایبری مدت‌هاست که از یادگیری ماشینی در حوزه دفاعی، عمدتاً برای شناسایی رفتارهای غیرعادی در شبکه‌ها استفاده می‌کنند. اما مجرمان و هکرهای تهاجمی نیز از آنها استفاده می‌کنند و معرفی مدل‌های زبان بزرگ شرکت هایی مانند ChatGPT OpenAI، این وضعیت را تقویت کرده است.

مایکروسافت میلیاردها دلار در OpenAI سرمایه‌گذاری کرده است و اعلامیه روز چهارشنبه مصادف با انتشار گزارشی بود که در آن اشاره می کرد که انتظار می‌رود هوش مصنوعی مولد، در حوزه اجتماعی، مخرب عمل کنند و منجر به دیپ‌فیک‌های پیچیده‌تر و شبیه‌سازی صدا شود.

این وضعیت می تواند تهدیدی برای دموکراسی ها در سالی باشد که در آن بیش از 50 کشور انتخابات برگزار می‌کنند. دیپ فیک‌ها می‌توانند اطلاعات نادرست را در بین رای دهندگان منتشر کنند و به تصمیمگیری غلط آنها منجر شود.

نشریه فورچون چند نمونه از استفاده های مخرب از هوش مصنوعی را که مایکروسافت ارائه کرده، بازنشر کرده است. در همه این موارد، تمام حساب‌های هوش مصنوعی گروه‌های نام‌برده غیرفعال شد‌ه‌اند:

۱) گروه جاسوسی سایبری کره شمالی معروف به کیمسوکی از این مدل‌ها برای تحقیق در مورد اندیشکده‌های خارجی که این کشور را مطالعه می‌کردند، استفاده کرده بود.

۲) سپاه پاسداران ایران از مدل‌های زبانی بزرگ برای کمک به مهندسی اجتماعی، عیب‌یابی خطاهای نرم‌افزاری و حتی در مطالعه چگونگی فرار نفوذگران از شناسایی در یک شبکه در معرض خطر استفاده کرده است.

این استفاده، شامل تولید ایمیل‌های فیشینگ بود که «از جمله یکی از آنها وانمود می‌کرد از یک آژانس توسعه بین‌المللی آمده است و دیگری تلاش برای فریب دادن فمینیست‌های برجسته برای رفتن به وب‌سایتی بود که توسط خود آنها درباره فمینیسم ساخته شده بود». مهندسی اجتماعی رشته‌ای در علوم اجتماعی است که در جهت تحت تأثیر قرار دادن نگرشها و رفتار اجتماعی در مقیاس بزرگ توسط دولت‌ها، رسانه‌ها یا گروه‌های خصوصی برای ایجاد ویژگی‌های خاص در یک جامعه هدف تلاش می‌کند

۳) واحد اطلاعات نظامی روسیه معروف به Fancy Bear از این مدل ها برای تحقیق در مورد فناوری های ماهواره‌ای و راداری که ممکن است مربوط به جنگ در اوکراین باشد، استفاده کرده است.

۴) گروه جاسوسی سایبری چینی معروف به پانداهای آبی – که طیف وسیعی از صنایع، آموزش عالی و دولت‌ها را از فرانسه گرفته تا مالزی را هدف قرار می‌دهد – با استفاده از این مدل‌ها ظرفیت عملیات فنی خود را افزایش داده است.

۵) گروه چینی Maverick Panda که بیش از یک دهه است پیمانکاران دفاعی ایالات متحده را هدف قرار داده است، با مدل‌های زبان بزرگ، «در مورد موضوعات بالقوه حساس و افراد برجسته، ژئوپلیتیک منطقه ای، نفوذ ایالات متحده و امور داخلی»، دست به تحقیقات زده است.

OpenA هم در بیانیه‌ای گفته که تکنیک‌های کشف‌شده با ارزیابی‌های قبلی مطابقت دارد که نشان می‌دهد چت ربات مدل GPT-4 فعلی آن « قابلیت‌های محدودی برای اقدامات مخرب امنیت سایبری دارد.»

در آپریل گذشته، جن ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیرساخت‌های ایالات متحده، به کنگره آمریکا گفته بود «دو تهدید و چالش وجود دارد که دوران جدید را تعریف می‌کند. یکی چین است و دیگری هوش مصنوعی.»

ایسترلی در آن زمان گفته بود که ایالات متحده باید اطمینان حاصل کند که هوش مصنوعی با در نظر گرفتن امنیت ساخته شده است.

منتقدان انتشار عمومی ChatGPT در نوامبر 2022 ادعا می‌کنند که انتشار عمومی آن به طور غیرمسئولانه ای عجولانه بود، زیرا امنیت در آن رعایت نشده است.

هوش مصنوعی؛ آینده ارتش‌های جهان

آمیت یوران، مدیر عامل شرکت امنیت سایبری Tenable به نشریه فورچون گفته: « بازیگران بد  بین‌المللی از مدل‌های زبان بزرگ استفاده می‌کنند و این پیش‌بینی از روز اول انجام شده بود.»

برخی از متخصصان امنیت سایبری از مایکروسافت برای انتشار هوش مصنوعی بدون توجه به آسیب‌پذیری‌ها در مدل‌های زبان بزرگ شکایت دارند و معتقدند این شرکت باید مسئولانه‌تر عمل میکرد.

ادوارد آموروسو، استاد دانشگاه نیویورک و افسر ارشد سابق AT&T، می‌گوید که اگرچه استفاده از هوش مصنوعی و مدل‌های زبان بزرگ ممکن است تهدیدی آشکار نباشد، اما «در نهایت به یکی از قوی‌ترین سلاح‌ها در ارتش هر کشوری تبدیل خواهند شد»

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *