انتشار ابزاری برای آزمایش ایمنی مدل های هوش مصنوعی

توسط انگلیس انجام شد؛

انتشار ابزاری برای آزمایش ایمنی مدل های هوش مصنوعی

موسسه ایمنی هوش مصنوعی انگلیس، مجموعه ابزاری به نام «اینسپکت» را با هدف «تقویت ایمنی هوش مصنوعی» منتشر کرد.

به گزارش خبرگزاری علم و فناوری ام ویک به نقل از تک کرانچ، موسسه ایمنی هوش مصنوعی انگلیس که به تازگی تاسیس شده است، مجموعه ابزاری به نام «اینسپکت» (Inspect) را با هدف «تقویت ایمنی هوش مصنوعی» منتشر کرده است که به صنعت، سازمان های تحقیقاتی و دانشگاه ها کمک می کند تا ارزیابی های هوش مصنوعی را توسعه دهند.

این مجموعه ابزار تحت یک لایسنس منبع باز، در دسترس قرار دارد قادر است توانایی های خاصی از مدل های هوش مصنوعی  از جمله دانش اصلی مدل ها و توانایی آنها در استدلال را ارزیابی کند.

موسسه ایمنی هوش مصنوعی در یک بیانیه مطبوعاتی ادعا کرد که «اینسپکت» برای نخستین بار به عنوان یک پلت فرم آزمون ایمنی هوش مصنوعی تحت حمایت دولت، به منظوراستفاده گسترده منتشر شده است.

یان هوگارت، رییس موسسه ایمنی در بیانیه ای گفت: همکاری موفقیت آمیز در تست ایمنی هوش مصنوعی به معنای داشتن یک رویکرد مشترک و در دسترس برای ارزیابی است. ما امیدواریم که «اینسپکت» بتواند یک عنصر سازنده باشد. ما امیدواریم که جامعه جهانی هوش مصنوعی را با استفاده از «اینسپکت» نه تنها برای انجام آزمایش های ایمنی مدل خود، بلکه برای کمک به انطباق و ایجاد پلت فرم منبع باز ببینیم تا بتوانیم ارزیابی های با کیفیت بالا را در سراسر جهان تولید کنیم.»

معیار های هوش مصنوعی سخت هستند، از این رو به این دلیل که پیچیده ترین مدل های هوش مصنوعی امروز جعبه های سیاهی هستند که زیرساخت ها، داده های آموزشی و سایر جزییات کلیدی مواردی هستند که توسط شرکت هایی که آنها را ایجاد می کنند پنهان نگه داشته می شوند؛ بنابراین «اینسپکت» با توسعه و گسترش روش های آزمایش جدید با این چالش مقابله می کند.

بازرسی از سه جزء اصلی تشکیل شده است: مجموعه داده ها، حل کننده ها و امتیاز دهنده ها. مجموعه داده ها نمونه هایی را برای آزمون های ارزیابی ارایه می دهند. حل کننده ها کار انجام تست ها را انجام می دهند؛ و امتیازدهندگان کار حل کننده ها را ارزیابی می کنند و نمرات را از آزمون ها به معیار ها تبدیل می کنند.

انتشار «اینسپکت» پس از آن صورت گرفت که یک سازمان دولتی موسسه ملی استاندارد و فناوری (NIST)، «نیست جن ای آی» (NIST GenAI) را برای ارزیابی فناوری های مختلف هوش مصنوعی از جمله مدل های تولیدکننده متن و تصویرراه اندازی کرد. «نیست جن ای آی» قصد دارد معیار هایی را منتشر کند، به ایجاد سیستم های تشخیص اصالت محتوا کمک کند و توسعه نرم افزاری را برای شناسایی اطلاعات جعلی یا گمراه کننده تولید شده توسط هوش مصنوعی تشویق کند.

در ماه آوریل، آمریکا و انگلیس به دنبال تعهدات اعلام شده در اجلاس ایمنی هوش مصنوعی انگلیس در بلچلی پارک، همکاری مشترکی برای توسعه آزمایش مدل پیشرفته هوش مصنوعی اعلام کردند. به عنوان بخشی از این همکاری، آمریکا قصد دارد موسسه ایمنی هوش مصنوعی خود را راه اندازی کند که به طور گسترده مسیولیت ارزیابی خطرات ناشی از هوش مصنوعی و هوش مصنوعی مولد را بر عهده خواهد داشت.

آیا شما به دنبال کسب اطلاعات بیشتر در مورد "انتشار ابزاری برای آزمایش ایمنی مدل های هوش مصنوعی" هستید؟ با کلیک بر روی استان ها، ممکن است در این موضوع، مطالب مرتبط دیگری هم وجود داشته باشد. برای کشف آن ها، به دنبال دسته بندی های مرتبط بگردید. همچنین، ممکن است در این دسته بندی، سریال ها، فیلم ها، کتاب ها و مقالات مفیدی نیز برای شما قرار داشته باشند. بنابراین، همین حالا برای کشف دنیای جذاب و گسترده ی محتواهای مرتبط با "انتشار ابزاری برای آزمایش ایمنی مدل های هوش مصنوعی"، کلیک کنید.