مایکروسافت گزارشی منتشر کرد که در آن گروههای هک مرتبط با اطلاعات نظامی روسیه، ایران، چین و کره شمالی را به استفاده از مدلهای زبان بزرگ (LLM) برای بهبود حملات متهم کرد. این شرکت در حالی اعلام کرد که گروههای هک تحت حمایت دولت را با استفاده از فناوری هوش مصنوعی خود ممنوع کرده است.
صرف نظر از اینکه آیا نقض قانون یا شرایط خدمات وجود دارد، ما به سادگی نمیخواهیم آن نهادهایی که شناسایی کردهایم، که نظارت میکنیم و میدانیم بازیگران تهدیدی از انواع مختلف هستند، به این فناوریها دسترسی داشته باشند. به آژانس گفت رویترز تام برت، معاون امنیت مشتری مایکروسافت قبل از انتشار این گزارش.
این یکی از اولین، اگر نگوییم اولین باری است که یک شرکت هوش مصنوعی به طور علنی درباره نحوه استفاده عوامل تهدید امنیت سایبری از فناوری هوش مصنوعی بحث می کند. باب روتسد، رئیس تحلیل تهدیدات امنیت سایبری در OpenAI گفت.
OpenAI و مایکروسافت گفتند که استفاده هکرها از ابزارهای هوش مصنوعی آنها در مراحل اولیه است و هیچ پیشرفتی مشاهده نشده است. “آنها فقط از این فناوری مانند هر کاربر دیگری استفاده می کنند.” – گفت برت.
گزارش مایکروسافت اشاره می کند که اهداف استفاده از LLM توسط گروه های مختلف هکر هنوز متفاوت است. به عنوان مثال، گروه های هکری که گمان می رود پیوندهایی با GRU دارند، از LLM برای بررسی استفاده کرده اند “فناوری های مختلف ماهواره ای و راداری که ممکن است مربوط به عملیات نظامی متعارف در اوکراین باشد.” هکرهای کره شمالی از LLM برای تولید محتوا استفاده کردند “که احتمالا در کمپین های فیشینگ نیزه ای استفاده می شود” در مقابل کارشناسان منطقه هکرهای ایرانی از این مدلها برای نوشتن ایمیلهای متقاعدکنندهتر برای قربانیان احتمالی استفاده میکردند و هکرهای چینی برای مثال، برای پرسیدن سوالاتی در مورد آژانسهای اطلاعاتی رقیب، مسائل امنیت سایبری و LLMها آزمایش کردند. “شخصیت های مشهور”.
اگر متوجه خطایی شدید، آن را با ماوس انتخاب کرده و CTRL+ENTER را فشار دهید.
منبع: https://3dnews.ru/1100281