،

درگیری بریتانیا با بزرگترین شرکت‌های فناوری جهان

ارشادی
اشتراک‌گذاری در:
بزرگترین شرکت‌های فناوری هوش مصنوعی با تست‌های ایمنی بیش از حد در بریتانیا برخورد می‌کنند

OpenAI و DeepMind برای سرعت بخشیدن به ارزیابی آخرین مدل‌ها، مؤسسه ایمنی جدید هوش مصنوعی بریتانیا را تحت فشار قرار می‌دهند.

بزرگ‌ترین شرکت‌های هوش مصنوعی جهان، دولت بریتانیا را تحت فشار قرار می‌دهند تا آزمایش‌های ایمنی خود را برای سیستم‌های هوش مصنوعی سرعت بخشد، زیرا تمایل بریتانیا برای ایفای نقش پیشرو در تنظیم این فناوری به‌سرعت در حال تشدید است.

OpenAI، Google DeepMind، Microsoft و Meta از جمله گروه‌های فناوری هستند که در ماه نوامبر تعهدات داوطلبانه‌ای امضا کردند تا آخرین مدل‌های هوش مصنوعی تولیدی خود را برای بررسی توسط مؤسسه جدید ایمنی هوش مصنوعی بریتانیا باز کنند. در آن زمان، شرکت‌ها متعهد شدند که اگر مؤسسه نقص‌هایی در این فناوری پیدا کند، مدل‌های خود را تعدیل خواهند کرد.

به گفته افراد متعددی که با این فرآیند آشنا هستند، شرکت‌های هوش مصنوعی به دنبال شفاف‌سازی آزمایش‌هایی هستند که AISI انجام می‌دهد، مدت زمانی که طول می‌کشد و در صورت یافتن هرگونه خطر، فرآیند بازخورد چگونه است.

افراد نزدیک به شرکت‌های فناوری گفتند که از نظر قانونی موظف به تغییر یا تأخیر انتشار محصولات خود بر اساس نتایج آزمایش‌های ایمنی AISI نیستند.

با این حال، یک پست لینکدین از ایان هوگارث، رئیس AISI، روز دوشنبه گفت: «شرکت‌ها توافق کردند که دولت‌ها باید مدل‌های خود را قبل از انتشار آزمایش کنند: مؤسسه ایمنی هوش مصنوعی در حال اجرای آن است.»

دولت بریتانیا به فایننشال تایمز گفت: «آزمایش مدل‌ها هم‌اکنون با همکاری نزدیک با توسعه‌دهندگان در حال انجام است. ما از دسترسی مداوم به توانمندترین مدل‌های هوش مصنوعی برای آزمایش‌های پیش از استقرار استقبال می‌کنیم، یکی از توافق‌نامه‌های کلیدی که شرکت‌ها در اجلاس ایمنی هوش مصنوعی امضا کردند، که در ماه نوامبر در پارک بلچلی برگزار شد.

“ما یافته‌ها را در صورت لزوم با توسعه دهندگان به اشتراک خواهیم گذاشت. با این حال، در مواردی که خطراتی پیدا می‌شود، انتظار داریم که آنها هر گونه اقدام مرتبطی را قبل از راه اندازی انجام دهند.”

اختلاف با شرکت‌های فناوری، محدودیت‌های تکیه بر توافق‌های داوطلبانه برای تعیین پارامترهای توسعه سریع فناوری را آشکار می‌کند. روز سه‌شنبه، دولت نیاز به «الزامات الزام‌آور آینده» را برای توسعه‌دهندگان پیشرو هوش مصنوعی بیان کرد تا اطمینان حاصل شود که آنها در قبال ایمن نگه‌داشتن سیستم‌ها پاسخگو هستند.

موسسه ایمنی هوش مصنوعی تحت حمایت دولت، کلید جاه طلبی نخست وزیر، ریشی سوناک برای بریتانیا برای ایفای نقش محوری در مقابله با خطرات وجودی ناشی از ظهور هوش مصنوعی است، مانند استفاده از این فناوری در آسیب رساندن به حملات سایبری یا طراحی سلاح‌های ضد مح زیستی.

به گفته افرادی که مستقیماً از این موضوع مطلع هستند، AISI آزمایش مدل‌های هوش مصنوعی موجود را آغاز کرده است و به مدل‌های هنوز منتشر نشده از جمله Gemini Ultra گوگل دسترسی دارد.

یک نفر گفت که آزمایش بر روی خطرات مرتبط با سوء استفاده از هوش مصنوعی، از جمله امنیت سایبری، با تکیه بر تخصص مرکز ملی امنیت سایبری در ستاد ارتباطات دولتی (GCHQ) متمرکز شده است.

قراردادهای دولتی اخیراً منتشر شده نشان می‌دهد که AISI یک میلیون پوند برای خرید قابلیت‌های «جیل بریک» هزینه کرده است، به این معنی که دستوراتی برای ترغیب چت‌بات‌های هوش مصنوعی به دور زدن حفاظ‌هایشان و «فیشینگ نیزه‌ای»، زمانی که افراد و سازمان‌ها معمولاً از آن طریق هدف قرار می‌گیرند، صرف کرده است. ایمیل، برای سرقت اطلاعات حساس یا انتشار بدافزار.

قرارداد دیگر مربوط به توسعه «اتوماسیون مهندسی معکوس» است، فرآیندی که توسط آن کد منبع به روشی خودکار برای شناسایی عملکرد، ساختار و طراحی آن شکسته می‌شود.

Google DeepMind گفت: «موسسه ایمنی هوش مصنوعی بریتانیا به برخی از توانمندترین مدل‌های ما برای اهداف تحقیقاتی و ایمنی برای ایجاد تخصص و توانایی در درازمدت دسترسی دارد».

ما برای همکاری خود با موسسه ارزش قائل هستیم و فعالانه با هم کار می‌کنیم تا ارزیابی‌های قوی‌تری برای مدل‌های هوش مصنوعی ایجاد کنیم، و همچنین به‌دنبال اجماع در مورد بهترین شیوه‌ها با پیشرفت بخش هستیم.

OpenAI و Meta از اظهار نظر خودداری کردند.

نظرات ارزشمند شما

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *