مایکروسافت هکرهایی از چین، روسیه و ایران را به استفاده از هوش مصنوعی خود متهم کرد

Источник изображения: Pixabay

مایکروسافت گزارشی منتشر کرد که در آن گروه‌های هک مرتبط با اطلاعات نظامی روسیه، ایران، چین و کره شمالی را به استفاده از مدل‌های زبان بزرگ (LLM) برای بهبود حملات متهم کرد. این شرکت در حالی اعلام کرد که گروه‌های هک تحت حمایت دولت را با استفاده از فناوری هوش مصنوعی خود ممنوع کرده است.


  منبع تصویر: Pixabay

منبع تصویر: Pixabay

صرف نظر از اینکه آیا نقض قانون یا شرایط خدمات وجود دارد، ما به سادگی نمی‌خواهیم آن نهادهایی که شناسایی کرده‌ایم، که نظارت می‌کنیم و می‌دانیم بازیگران تهدیدی از انواع مختلف هستند، به این فناوری‌ها دسترسی داشته باشند. به آژانس گفت رویترز تام برت، معاون امنیت مشتری مایکروسافت قبل از انتشار این گزارش.

این یکی از اولین، اگر نگوییم اولین باری است که یک شرکت هوش مصنوعی به طور علنی درباره نحوه استفاده عوامل تهدید امنیت سایبری از فناوری هوش مصنوعی بحث می کند. باب روتسد، رئیس تحلیل تهدیدات امنیت سایبری در OpenAI گفت.

OpenAI و مایکروسافت گفتند که استفاده هکرها از ابزارهای هوش مصنوعی آنها در مراحل اولیه است و هیچ پیشرفتی مشاهده نشده است. “آنها فقط از این فناوری مانند هر کاربر دیگری استفاده می کنند.” – گفت برت.

گزارش مایکروسافت اشاره می کند که اهداف استفاده از LLM توسط گروه های مختلف هکر هنوز متفاوت است. به عنوان مثال، گروه های هکری که گمان می رود پیوندهایی با GRU دارند، از LLM برای بررسی استفاده کرده اند “فناوری های مختلف ماهواره ای و راداری که ممکن است مربوط به عملیات نظامی متعارف در اوکراین باشد.” هکرهای کره شمالی از LLM برای تولید محتوا استفاده کردند “که احتمالا در کمپین های فیشینگ نیزه ای استفاده می شود” در مقابل کارشناسان منطقه هکرهای ایرانی از این مدل‌ها برای نوشتن ایمیل‌های متقاعدکننده‌تر برای قربانیان احتمالی استفاده می‌کردند و هکرهای چینی برای مثال، برای پرسیدن سوالاتی در مورد آژانس‌های اطلاعاتی رقیب، مسائل امنیت سایبری و LLM‌ها آزمایش کردند. “شخصیت های مشهور”.

اگر متوجه خطایی شدید، آن را با ماوس انتخاب کرده و CTRL+ENTER را فشار دهید.

منبع: https://3dnews.ru/1100281