هوش مصنوعی پا را فراتر گذاشته است و به آرامی شاخکهای خود را در سراسر صنعت فناوری در سراسر جهان گسترش میدهد. در حالیکه مزایای هوش مصنوعی بسیار زیاد است، خطرات آن نیز بسیار زیاد است. بر اساس گزارش ساوت چاینا مورنینگ پست، بههمین دلیل است که چین در حال برنامهریزی برای محدودیتهای سختگیرانه در مورد نحوه استفاده از هوش مصنوعی است. طبق این گزارش، مقامات چینی بهدنبال ایجاد تعادل بین خطرات و مزایای هوش مصنوعی هستند.
چین پیشنویس دستورالعمل جدیدی را منتشر کرده است و بهدنبال بهبود دو جنبه است. اول، نحوه استفاده از داده های آموزشی و ایمن بودن آن دوم امنیت مدلهای زبان بزرگ (LLM) که برای فناوری هوش مصنوعی مولد مانند ChatGPT یا Baidu’s Ernie Bot استفاده میشود.
کاری که چین میخواهد انجام دهد
مقامات در چین میخواهند اطمینان حاصل کنند که هر دادهای که برای آموزش مدلهای هوش مصنوعی استفاده میشود، نباید دارای نقض حق چاپ باشد. همچنین، نباید هیچگونه اطلاعات شخصی را نقض کند. طبق این گزارش، تمام آموزشهای دایا باید «توسط برچسبزنان و بازبینهای مجاز داده پردازش شود تا ابتدا بررسیهای امنیتی را پشت سر بگذارند». بهعبارت دیگر، دادهها باید قبل از تولید مصنوعی ابتدا از چشم انسان عبور کنند.
همچنین، زمانی که توسعهدهندگان LLMهای خود را میسازند، «باید بر اساس مدلهای بنیادی ثبتشده و دارای مجوز توسط مقامات باشند». باز هم، این اطمینان حاصل میکند که مقامات میدانند چه اطلاعاتی به این مدلها داده میشود که برای هوش مصنوعی مولد استفاده میشوند.
نه به «محتوای غیرقانونی»
تعریف چین از محتوای غیرقانونی نسبتاً گسترده است و شامل اطلاعات سیاسی حساس است. بهعنوان مثال، سوالات مربوط به تایوان محتوای غیرقانونی در نظر گرفته میشود. علاوه بر این، اخبار جعلی، ترویج خرافات یا پورنوگرافی نیز محتوای غیرقانونی تلقی میشود. پیشنویس پیشنهادی میخواهد تمام دادههای آموزشی هوش مصنوعی را که حاوی بیش از «۵ درصد محتوای غیرقانونی» هستند، مسدود کند. این به این دلیل است که طبق قوانین امنیت سایبری چین، اطلاعات خطرناک در نظر گرفته میشود.
چین پیشنویس پیشنهادی را ارائه کرده است و تا 25 اکتبر بهدنبال بازخورد عمومی است.