بریتانیا و ایالات متحده، همراه با شرکای بین المللی از 16 کشور دیگر، دستورالعملهای جدیدی را برای توسعه سیستم های هوش مصنوعی ایمن (AI) منتشر کردهاند.
هفته گذشته در گزارشی به توسعه یک مدل هوش مصنوعی در OpenAI اشاره شده بود که *Q (با تلفظ Q-Star) نام داشت که میتواند مسائل ریاضی را حل کند. بااینحال چندین پژوهشگر OpenAI نگرانی خود نسبت به آن را ابراز کردند و حتی گفته شد که یکی از دلایل اخراج «سم آلتمن»، مدیرعامل OpenAI توسعه این هوش مصنوعی تهدیدکننده بشر بوده است.
آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده (CISA) گفت: «این رویکرد مالکیت نتایج امنیتی برای مشتریان را در اولویت قرار میدهد، شفافیت و پاسخگویی رادیکال را در بر میگیرد و ساختارهای سازمانی را ایجاد میکند که در آن طراحی ایمن اولویت اصلی است».
مرکز ملی امنیت سایبری (NCSC) افزود، هدف افزایش سطح امنیت سایبری هوش مصنوعی و کمک به اطمینان از طراحی، توسعه و استقرار این فناوری به شیوهای امن است.
این دستورالعملها همچنین بر اساس تلاشهای مداوم دولت ایالات متحده برای مدیریت خطرات ناشی از هوش مصنوعی با حصول اطمینان از اینکه ابزارهای جدید به اندازه کافی قبل از انتشار عمومی آزمایش میشوند، وجود فیلترهایی برای رسیدگی به آسیبهای اجتماعی، مانند تعصب و تبعیض، و نگرانیهای مربوط به حفظ حریم خصوصی، شکل میگیرد.
این تعهدات همچنین شرکتها را ملزم میکند که به تسهیل کشف و گزارش آسیبپذیریهای شخص ثالث در سیستمهای هوش مصنوعی خود از طریق سیستم باگ بانتی متعهد شوند تا بتوانند بهسرعت آنها را پیدا کرده و برطرف کنند.
NCSC اشاره میکند: جدیدترین دستورالعملها به توسعهدهندگان کمک میکند اطمینان حاصل کنند که امنیت سایبری هم پیششرط ضروری ایمنی سیستم هوش مصنوعی است و هم در فرآیند توسعه از ابتدا و در سراسر آن، که بهعنوان رویکرد «ایمن بر اساس طراحی» شناخته میشود، موضوع یکپارچگی را هم شامل شود.
این موضوع شامل طراحی ایمن، توسعه ایمن، استقرار ایمن، و بهرهبرداری و نگهداری ایمن است، که تمام حوزههای مهم در چرخه عمر توسعه سیستم هوش مصنوعی را پوشش میدهد و سازمانها را ملزم میکند که تهدیدات سیستم های خود را مدلسازی کنند و همچنین از زنجیره تامین و زیرساخت خود محافظت کنند.