مایکروسافت هکرهایی از چین، روسیه و ایران را به استفاده از هوش مصنوعی خود متهم کرد
انتشار: بهمن 25، 1402
بروزرسانی: 05 اردیبهشت 1404

مایکروسافت هکرهایی از چین، روسیه و ایران را به استفاده از هوش مصنوعی خود متهم کرد


مایکروسافت گزارشی منتشر کرد که در آن گروه های هک مرتبط با اطلاعات نظامی روسیه، ایران، چین و کره شمالی را به استفاده از مدل های زبان بزرگ (LLM) برای بهبود حملات متهم کرد. این شرکت در حالی اعلام کرد که گروه های هک تحت حمایت دولت را با استفاده از فناوری هوش مصنوعی خود ممنوع کرده است.

  منبع تصویر: Pixabay

منبع تصویر: Pixabay

صرف نظر از اینکه آیا نقض قانون یا شرایط خدمات وجود دارد، ما به سادگی نمی خواهیم آن نهادهایی که شناسایی کرده ایم، که نظارت می کنیم و می دانیم بازیگران تهدیدی از انواع مختلف هستند، به این فناوری ها دسترسی داشته باشند. به آژانس گفت رویترز تام برت، معاون امنیت مشتری مایکروسافت قبل از انتشار این گزارش.

این یکی از اولین، اگر نگوییم اولین باری است که یک شرکت هوش مصنوعی به طور علنی درباره نحوه استفاده عوامل تهدید امنیت سایبری از فناوری هوش مصنوعی بحث می کند. باب روتسد، رئیس تحلیل تهدیدات امنیت سایبری در OpenAI گفت.

OpenAI و مایکروسافت گفتند که استفاده هکرها از ابزارهای هوش مصنوعی آنها در مراحل اولیه است و هیچ پیشرفتی مشاهده نشده است. "آنها فقط از این فناوری مانند هر کاربر دیگری استفاده می کنند." - گفت برت.

گزارش مایکروسافت اشاره می کند که اهداف استفاده از LLM توسط گروه های مختلف هکر هنوز متفاوت است. به عنوان مثال، گروه های هکری که گمان می رود پیوندهایی با GRU دارند، از LLM برای بررسی استفاده کرده اند "فناوری های مختلف ماهواره ای و راداری که ممکن است مربوط به عملیات نظامی متعارف در اوکراین باشد." هکرهای کره شمالی از LLM برای تولید محتوا استفاده کردند "که احتمالا در کمپین های فیشینگ نیزه ای استفاده می شود" در مقابل کارشناسان منطقه هکرهای ایرانی از این مدل ها برای نوشتن ایمیل های متقاعدکننده تر برای قربانیان احتمالی استفاده می کردند و هکرهای چینی برای مثال، برای پرسیدن سوالاتی در مورد آژانس های اطلاعاتی رقیب، مسائل امنیت سایبری و LLM ها آزمایش کردند. "شخصیت های مشهور".

اگر متوجه خطایی شدید، آن را با ماوس انتخاب کرده و CTRL+ENTER را فشار دهید.


منبع: https://3dnews.ru/1100281