ماه گذشته، چین اولین کشوری بود که مقررات مربوط به مدلهای هوش مصنوعی مولد (AI) را صادر کرد. قانون جدید تصویب شده توسط این کشور اولین و دقیقترین مقررات جهان در مورد کنترل ابزارهای مولد هوش مصنوعی مانند ChatGPT OpenAI و موارد دیگر است. به رهبری اداره فضای مجازی چین، مقررات موقت به طور مشترک توسط هفت تنظیم کننده چینی منتشر شد. این قانون قرار است از 15 آگوست اجرایی شود و برای همه خدمات محتوای تولیدی هوش مصنوعی اعمال خواهد شد. این شامل متن، تصاویر، صدا و ویدئو است که برای عموم مردم چین ارائه شده است.
همانطور که پکن به دنبال کنترل عرضه خدمات به سبک ChatGPT است، قانون محتوای سالم و «ارزشهای سوسیالیستی اصلی» را برجسته میکند. در ماه آوریل، چین پیشنویس قبلی مقررات را منتشر کرد و از شهروندان خود خواست تا بازخورد خود را ارائه دهند. مقررات جدید لحن حمایتیتری نسبت به آخرین فناوری دارند. مقامات چینی متعهد شدهاند «اقدامات موثری را برای تشویق توسعه نوآورانه هوش مصنوعی مولد انجام دهند». علاوه بر این، مجازاتهایی مانند جریمههای بین 10.000 تا 100.000 یوان برای تخلفات مرتبط با هوش مصنوعی وضع شده است.
در دسترس بودن ابزارهای مولد هوش مصنوعی در چین
شرکتهای چینی هنوز خدمات سبک ChatGPT خود را برای عموم عرضه نکردهاند. Ernie Bot Baidu و Tongyi Qianwen از Alibaba Group Holding یا در حالت آزمایشی هستند یا فقط برای استفاده تجاری در دسترس هستند. در همین حال، مدلهای ChatGPT OpenAI و Bard Google هنوز در چین در دسترس نیستند.
دستورالعمل برای ارائه دهندگان خدمات هوش مصنوعی مولد
طبق آخرین مقررات، شرکتهایی که خدمات هوش مصنوعی مولد ارائه میدهند باید «به ارزشهای سوسیالیستی اصلی پایبند باشند». این قانون همچنین به ارائه دهندگان خدمات هوش مصنوعی هشدار داده است که هر گونه محتوایی را تولید کنند که «براندازی قدرت دولتی و سرنگونی نظام سوسیالیستی را تحریک کند، امنیت و منافع ملی را به خطر بیندازد، به وجهه کشور آسیب برساند، جدایی از کشور را تحریک کند، وحدت ملی را تضعیف کند و ثبات اجتماعی، تروریسم، افراط گرایی، نفرت ملی و تبعیض قومی، خشونت، فحاشی و پورنوگرافی را ترویج میکند. این قانون همچنین از شرکتها خواسته است تا اطمینان حاصل کنند که مدلهای هوش مصنوعی و چتباتها «اطلاعات نادرست و مضر» تولید نمیکنند.
چتباتها و مدلهای هوش مصنوعی توسعهیافته در چین باید عملکردهایی را برای اطمینان از اینکه محتوای تولید شده عاری از اطلاعات ناخواسته است، ادغام کنند. بر اساس گزارش ساوت چاینا مورنینگ پست، ژونگ هونگی، رئیس 360 Security Technology، نحوه عملکرد ربات چت این شرکت را به صورت خودسانسوری توضیح داده است. در یک ارائه، Hongyi نشان داد که اگر کاربر یک کلمه حساس را در پیامهای خود وارد کند، ربات چت فوراً به مکالمه پایان میدهد.