،

قوانین سوسیالیستی چین بر هوش مصنوعی و تأثیر آن بر محتوای آنلاین

ارشادی
اشتراک‌گذاری در:
قوانین سوسیالیستی چین بر هوش مصنوعی - لاگ مدیا

ماه گذشته، چین اولین کشوری بود که مقررات مربوط به مدل‌های هوش مصنوعی مولد (AI) را صادر کرد. قانون جدید تصویب شده توسط این کشور اولین و دقیق‌ترین مقررات جهان در مورد کنترل ابزارهای مولد هوش مصنوعی مانند ChatGPT OpenAI و موارد دیگر است. به رهبری اداره فضای مجازی چین، مقررات موقت به طور مشترک توسط هفت تنظیم کننده چینی منتشر شد. این قانون قرار است از 15 آگوست اجرایی شود و برای همه خدمات محتوای تولیدی هوش مصنوعی اعمال خواهد شد. این شامل متن، تصاویر، صدا و ویدئو است که برای عموم مردم چین ارائه شده است.
همانطور که پکن به دنبال کنترل عرضه خدمات به سبک ChatGPT است، قانون محتوای سالم و «ارزش‌های سوسیالیستی اصلی» را برجسته می‌کند. در ماه آوریل، چین پیش‌نویس قبلی مقررات را منتشر کرد و از شهروندان خود خواست تا بازخورد خود را ارائه دهند. مقررات جدید لحن حمایتی‌تری نسبت به آخرین فناوری دارند. مقامات چینی متعهد شده‌اند «اقدامات موثری را برای تشویق توسعه نوآورانه هوش مصنوعی مولد انجام دهند». علاوه بر این، مجازات‌‎هایی مانند جریمه‌های بین 10.000 تا 100.000 یوان برای تخلفات مرتبط با هوش مصنوعی وضع شده است.

در دسترس بودن ابزارهای مولد هوش مصنوعی در چین

شرکت‌های چینی هنوز خدمات سبک ChatGPT خود را برای عموم عرضه نکرده‌اند. Ernie Bot Baidu و Tongyi Qianwen از Alibaba Group Holding یا در حالت آزمایشی هستند یا فقط برای استفاده تجاری در دسترس هستند. در همین حال، مدل‌های ChatGPT OpenAI و Bard Google هنوز در چین در دسترس نیستند.

دستورالعمل برای ارائه دهندگان خدمات هوش مصنوعی مولد

طبق آخرین مقررات، شرکت‌هایی که خدمات هوش مصنوعی مولد ارائه می‌دهند باید «به ارزش‌های سوسیالیستی اصلی پایبند باشند». این قانون همچنین به ارائه دهندگان خدمات هوش مصنوعی هشدار داده است که هر گونه محتوایی را تولید کنند که «براندازی قدرت دولتی و سرنگونی نظام سوسیالیستی را تحریک کند، امنیت و منافع ملی را به خطر بیندازد، به وجهه کشور آسیب برساند، جدایی از کشور را تحریک کند، وحدت ملی را تضعیف کند و ثبات اجتماعی، تروریسم، افراط گرایی، نفرت ملی و تبعیض قومی، خشونت، فحاشی و پورنوگرافی را ترویج می‌کند. این قانون همچنین از شرکت‌ها خواسته است تا اطمینان حاصل کنند که مدل‌های هوش مصنوعی و چت‌بات‌ها «اطلاعات نادرست و مضر» تولید نمی‌کنند.
چت‌بات‌ها و مدل‌های هوش مصنوعی توسعه‌یافته در چین باید عملکردهایی را برای اطمینان از اینکه محتوای تولید شده عاری از اطلاعات ناخواسته است، ادغام کنند. بر اساس گزارش ساوت چاینا مورنینگ پست، ژونگ هونگی، رئیس 360 Security Technology، نحوه عملکرد ربات چت این شرکت را به صورت خودسانسوری توضیح داده است. در یک ارائه، Hongyi نشان داد که اگر کاربر یک کلمه حساس را در پیام‌های خود وارد کند، ربات چت فوراً به مکالمه پایان می‌دهد.

نظرات ارزشمند شما

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *