در اواخر ماه مارس، بیش از 1000 رهبر تکنولوژی، محققان و متخصصین حوزه هوش مصنوعی، نامهای را امضا کردند که طبق آن، این تکنولوژی یک ریسک بزرگ برای جامعه و بشریت است.
این گروه که یکی از افراد شناخته شده آن ایلان ماسک (رئیس تسلا و مالک توییتر) است، از آزمایشگاهها و مراکز هوش مصنوعی خواستند تا توسعه قدرتمندترین سیستمهای خود را به مدت شش ماه متوقف کنند تا بتوانند خطرات پشت این فناوری را بهتر بشناسند.
بر اساس این نامه، سیستمهای هوش مصنوعی فقط وقتی باید توسعه پیدا کنند که ما مطمئن باشیم اثرات مثبت است و ریسکهای آن قابل مدیریت کردن است.
این نامه که در حال حاضر بیش از 27 هزار امضاء دارد، مختصر است، حیطه صحبت آن گسترده است، و برخی از نامهایی که در میان نام امضاءکنندگان دیده میشوند، به نظر میرسد که رابطه پیچیدهای با هوش مصنوعی دارند. به عنوان مثال، ایلان ماسک در حال ساخت استارتآپ هوش مصنوعی خود است، در حالی که خودش یکی از برجستهترین افرادی است که این نامه را امضاء کردهاند.
اما این نامه، یک نگرانی بزرگ در میان متخصصان هوش مصنوعی را بیان میکند و آن این است که آخرین سیستمها (خصوصا ChatGPT 4 که توسط یک استارتآپ مستقر در سانفرانسیسکو به نام OpenAI ساخته شده است.) میتواند به جامعه آسیب برساند. آنها اعتقاد دارند که سیستمهایی که در آینده ساخته میشوند، حتی میتوانند خطرناکتر باشند.
برخی از این ریسکها در حال حاضر وجود دارند و سایر آنها نیز در ماهها و سالهای آینده از راه خواهند رسید و برخی نیز هنوز در حد فرضیه هستند.
دلیل این نگرانی چیست؟
دکتر یوشوا بنجیو (Yoshua Bengio) شاید یکی از مهمترین افرادی است که این نامه را امضاء کرده است. او سابقه کار با دو محقق دیگر یعنی جفری هینتون (Geoffrey Hinton) و یان لکون Yann LeCun را داشته است که هینتون یک محقق در شرکت گوگل بوده و لکون دانشمند ارشد هوش مصنوعی در شرکت متا است. وی چهار دهه اخیر را صرف توسعه تکنولوژیای کرد که پشت سیستمهایی مانند ChatGPT 4 هستند. در سال 2018، این سه محقق جایزه Turing را برای کار بر روی شبکههای عصبی دریافت کردند که از این جایزه با عنوان “نوبل علوم کامپیوتری” نیز نام برده میشود.
یک شبکه عصبی، سیستمی محاسباتی است که مهارتها را از طریق تحلیل داده یاد میگیرد. بیش از پنج سال پیش، شرکتهایی مانند گوگل، مایکروسافت و OpenAI شروع به ساخت شبکههای عصبی کردند که از مقدار زیادی از متون دیجیتال آموزش دیده باشد. این تکنولوژی مدلهای زبانی بزرگ یا LLM نامیده میشود.
LLM ها با یافتن الگو در متن، یاد میگیرند که متن خود را ایجاد کنند که این متنها میتوانند در قالب مقاله وبلاگ، شعر و حتی برنامههای کامپیوتری باشند. آنها حتی میتوانند به مکالمه بپردازند.
این فناوری میتواند به برنامهنویسان کامپیوتری، نویسندگان و سایر کاربران کمک کنند که کارهای خود را سریعتر انجام دهند. اما دکتر بنجیو و سایر متخصصان هشدار میدهند که LLMها میتوانند رفتارهای ناخواسته و غیرمنتظره را نیز یاد بگیرند.
این سیستمها میتوانند اطلاعات غیرقابل اعتماد، متعصبانه و یا سمی را ایجاد کنند. سیستمهایی مانند GPT-4 حقایق اشتباه را میگیرند و اطلاعات جدیدی را بر اساس آنها ایجاد میکنند. به این فرایند “هذیان گویی” گفته میشود.
شرکتها در حال کار بر روی این مسئله هستند، اما متخصصانی مانند دکتر بنجیو نگران این مسئله هستند که با قدرتمندتر کردن این سیستمها، خطرات جدید به وجود بیاید.
خطرات کوتاه مدت: خطای اطلاعات
از آنجایی که این سیستمها اطلاعات را از طریق چیزی که به نظر میرسد کاملا محرمانه است، ایجاد میکنند، ممکن است در جداسازی حقیقت از دروغ به اشتباه بیافتند. متخصصان نگران هستند که مردم از این سیستمها به منظور دریافت توصیههای پزشکی یا مشاوره روانشناسی استفاده کنند یا از این اطلاعات خام برای تصمیمگیری استفاده کنند. در حالی که هیچ تضمینی وجود ندارد که این سیستمها در انجام کارهایی که از آنها خواسته شده درست عمل کنند.
علاوه بر این، متخصصان نگران هستند که مردم از این سیستم برای انتشار اطلاعات غلط، سوء استفاده کنند. به این دلیل که این سیستمها میتوانند مانند انسان مکالمه کنند، میتوانند بسیار گمراه کننده باشند. در حال حاضر با توجه به قدرت این سیستمها در تعامل طبیعی، تشخیص واقعیت از دروغ بسیار سخت است.
خطرات میان مدت: از دست رفتن مشاغل
دانشمندان حوزه هوش مصنوعی همچنین نگران هستند که هوش مصنوعی جدید میتواند مشاغل را از بین ببرد. تکنولوژیهای فعلی مانند ChatGPT 4 در حال حاضر میتوانند در انجام کارها به انسان کمک کنند اما OpenAI این حقیقت را تایید میکند که این سیستم میتواند روزی جایگزین انسان در تهیه محتوا در اینترنت شود.
این سیستمها در حال حاضر نمیتوانند جایگزین وکلا، حسابداران و دکترها شوند. اما میتوانند جایگزین کمک حسابدارها، دستیار وکلا یا مترجمها شوند.
طبق مقالهای که توسط محققان OpenAI تهیه شده است، تخمین زده میشود که حداقل 10 درصد از وظایف کاری 80 درصد از نیروی کار در ایالات متحده آمریکا و 50 درصد از وظایف کاری 19 درصد از شاغلین، تحت تاثیر LLM قرار بگیرد.
خطرات بلند مدت: از دست رفتن کنترل
برخی از افرادی که این نامه را امضاء کردهاند اعتقاد دارند که هوش مصنوعی میتواند از کنترل ما خارج شود یا تمدن بشری را نابود کند. اما بسیاری از متخصصان این فکر را بسیار اغراقآمیز میدانند.
این نامه توسط گروهی از انستیتو Future of Life تهیه شده است. سازمانی که در مورد ریسکهای از بین رفتن تمدن بشری تحقیق میکند. آنها هشدار میدهند که از آنجایی که سیستمهای هوش مصنوعی غالبا رفتار غیرقابل پیشبینی را از مقدار زیادی از داده که تحلیل میکنند، یاد میگیرند، ممکن است باعث ایجاد مشکلاتی جدی و غیر منتظره شوند.
آنها نگران این موضوع هستند که با وصل شدن LLM به شبکه اینترنتی سازمانها، این سیستمها به قدرتی غیرقابل پیشبینی دست یابند، زیرا میتوانند کدهای کامپیوتری خود را بنویسند و این مسئله خطری بسیار جدی است. به اعتقاد این گروه، توسعهدهندگان نرمافزار میتوانند با اجازه دادن به سیستمهای هوش مصنوعی برای ایجاد کدهای خود، ریسکهای جدیدی ایجاد کنند.