OpenAI و DeepMind برای سرعت بخشیدن به ارزیابی آخرین مدلها، مؤسسه ایمنی جدید هوش مصنوعی بریتانیا را تحت فشار قرار میدهند.
بزرگترین شرکتهای هوش مصنوعی جهان، دولت بریتانیا را تحت فشار قرار میدهند تا آزمایشهای ایمنی خود را برای سیستمهای هوش مصنوعی سرعت بخشد، زیرا تمایل بریتانیا برای ایفای نقش پیشرو در تنظیم این فناوری بهسرعت در حال تشدید است.
OpenAI، Google DeepMind، Microsoft و Meta از جمله گروههای فناوری هستند که در ماه نوامبر تعهدات داوطلبانهای امضا کردند تا آخرین مدلهای هوش مصنوعی تولیدی خود را برای بررسی توسط مؤسسه جدید ایمنی هوش مصنوعی بریتانیا باز کنند. در آن زمان، شرکتها متعهد شدند که اگر مؤسسه نقصهایی در این فناوری پیدا کند، مدلهای خود را تعدیل خواهند کرد.
به گفته افراد متعددی که با این فرآیند آشنا هستند، شرکتهای هوش مصنوعی به دنبال شفافسازی آزمایشهایی هستند که AISI انجام میدهد، مدت زمانی که طول میکشد و در صورت یافتن هرگونه خطر، فرآیند بازخورد چگونه است.
افراد نزدیک به شرکتهای فناوری گفتند که از نظر قانونی موظف به تغییر یا تأخیر انتشار محصولات خود بر اساس نتایج آزمایشهای ایمنی AISI نیستند.
با این حال، یک پست لینکدین از ایان هوگارث، رئیس AISI، روز دوشنبه گفت: «شرکتها توافق کردند که دولتها باید مدلهای خود را قبل از انتشار آزمایش کنند: مؤسسه ایمنی هوش مصنوعی در حال اجرای آن است.»
دولت بریتانیا به فایننشال تایمز گفت: «آزمایش مدلها هماکنون با همکاری نزدیک با توسعهدهندگان در حال انجام است. ما از دسترسی مداوم به توانمندترین مدلهای هوش مصنوعی برای آزمایشهای پیش از استقرار استقبال میکنیم، یکی از توافقنامههای کلیدی که شرکتها در اجلاس ایمنی هوش مصنوعی امضا کردند، که در ماه نوامبر در پارک بلچلی برگزار شد.
“ما یافتهها را در صورت لزوم با توسعه دهندگان به اشتراک خواهیم گذاشت. با این حال، در مواردی که خطراتی پیدا میشود، انتظار داریم که آنها هر گونه اقدام مرتبطی را قبل از راه اندازی انجام دهند.”
اختلاف با شرکتهای فناوری، محدودیتهای تکیه بر توافقهای داوطلبانه برای تعیین پارامترهای توسعه سریع فناوری را آشکار میکند. روز سهشنبه، دولت نیاز به «الزامات الزامآور آینده» را برای توسعهدهندگان پیشرو هوش مصنوعی بیان کرد تا اطمینان حاصل شود که آنها در قبال ایمن نگهداشتن سیستمها پاسخگو هستند.
موسسه ایمنی هوش مصنوعی تحت حمایت دولت، کلید جاه طلبی نخست وزیر، ریشی سوناک برای بریتانیا برای ایفای نقش محوری در مقابله با خطرات وجودی ناشی از ظهور هوش مصنوعی است، مانند استفاده از این فناوری در آسیب رساندن به حملات سایبری یا طراحی سلاحهای ضد مح زیستی.
به گفته افرادی که مستقیماً از این موضوع مطلع هستند، AISI آزمایش مدلهای هوش مصنوعی موجود را آغاز کرده است و به مدلهای هنوز منتشر نشده از جمله Gemini Ultra گوگل دسترسی دارد.
یک نفر گفت که آزمایش بر روی خطرات مرتبط با سوء استفاده از هوش مصنوعی، از جمله امنیت سایبری، با تکیه بر تخصص مرکز ملی امنیت سایبری در ستاد ارتباطات دولتی (GCHQ) متمرکز شده است.
قراردادهای دولتی اخیراً منتشر شده نشان میدهد که AISI یک میلیون پوند برای خرید قابلیتهای «جیل بریک» هزینه کرده است، به این معنی که دستوراتی برای ترغیب چتباتهای هوش مصنوعی به دور زدن حفاظهایشان و «فیشینگ نیزهای»، زمانی که افراد و سازمانها معمولاً از آن طریق هدف قرار میگیرند، صرف کرده است. ایمیل، برای سرقت اطلاعات حساس یا انتشار بدافزار.
قرارداد دیگر مربوط به توسعه «اتوماسیون مهندسی معکوس» است، فرآیندی که توسط آن کد منبع به روشی خودکار برای شناسایی عملکرد، ساختار و طراحی آن شکسته میشود.
Google DeepMind گفت: «موسسه ایمنی هوش مصنوعی بریتانیا به برخی از توانمندترین مدلهای ما برای اهداف تحقیقاتی و ایمنی برای ایجاد تخصص و توانایی در درازمدت دسترسی دارد».
ما برای همکاری خود با موسسه ارزش قائل هستیم و فعالانه با هم کار میکنیم تا ارزیابیهای قویتری برای مدلهای هوش مصنوعی ایجاد کنیم، و همچنین بهدنبال اجماع در مورد بهترین شیوهها با پیشرفت بخش هستیم.
OpenAI و Meta از اظهار نظر خودداری کردند.