مؤسسه ایمنی هوش مصنوعی بریتانیا (AISI) که در نوامبر 2023 تأسیس شد، Inspect را راه اندازی کرده است، یک پلت فرم طراحی شده برای آزمایش و ارزیابی ایمنی هوش مصنوعی. ارزیابی هوش مصنوعی را برای استفاده در سازمان های صنعتی، تحقیقاتی و علمی ساده می کند.
جعبه ابزار Inspect که تحت مجوزهای منبع باز از جمله مجوزهای MIT در دسترس است، برای ارزیابی قابلیت های خاص مدل های هوش مصنوعی در حوزه های مختلف، از جمله دانش مدل پایه و توانایی استدلال، و توسعه ارزیابی بر اساس نتایج طراحی شده است.
با توجه به منبع TechCrunchپلت فرم Inspect از سه جزء اصلی تشکیل شده است: مجموعه داده ها، ابزارهای راه حل و ابزارهای ارزیابی. مجموعه داده ها نمونه هایی را برای آزمون های ارزیابی ارائه می دهند. ابزارهای راه حل کار اجرای آزمایش ها را انجام می دهند. و ابزارهای ارزیابی نتایج را ارزیابی می کنند و نمرات آزمون را در معیارها خلاصه می کنند.
کامپوننت های Inspect را می توان با استفاده از بسته های شخص ثالث نوشته شده در پایتون گسترش داد. ما امیدواریم که جامعه جهانی هوش مصنوعی از Inspect نه تنها برای انجام تست ایمنی مدل خود استفاده کند، بلکه برای انطباق و تکامل پلتفرم منبع باز به طوری که بتوانیم ارزیابیهای با کیفیت بالا را در سراسر جهان تولید کنیم.» ایان هوگارت، رئیس AISI گفت.
پلتفرم Inspect چند روز پس از آن معرفی شد که موسسه ملی استاندارد و فناوری (NIST) برنامه NIST GenAI را در اواخر آوریل اعلام کرد که برای ارزیابی فناوریهای مختلف هوش مصنوعی، از جمله مدلهای تولید متن و تصاویر طراحی شده است.
در ماه آوریل، ایالات متحده و بریتانیا شراکتی را اعلام کردند که در آن “دولت ها دانش فنی، اطلاعات و استعدادها را در زمینه امنیت هوش مصنوعی به اشتراک خواهند گذاشت.” به عنوان بخشی از این همکاری، یک موسسه ایمنی هوش مصنوعی در ایالات متحده ایجاد خواهد شد که خطرات مرتبط با هوش مصنوعی و هوش مصنوعی مولد را ارزیابی خواهد کرد.
اگر متوجه خطایی شدید، آن را با ماوس انتخاب کرده و CTRL+ENTER را فشار دهید.
منبع: https://3dnews.ru/1104687