،

هوش مصنوعی دقیقا چه خطراتی برای ما دارد؟

اوغر
اشتراک‌گذاری در:
خطرات هوش مصنوعی

در اواخر ماه مارس، بیش از 1000 رهبر تکنولوژی، محققان و متخصصین حوزه هوش مصنوعی، نامه‌ای را امضا کردند که طبق آن، این تکنولوژی یک ریسک بزرگ برای جامعه و بشریت است.

این گروه که یکی از افراد شناخته شده آن ایلان ماسک (رئیس تسلا و مالک توییتر) است، از آزمایشگاه‌ها و مراکز هوش مصنوعی خواستند تا توسعه قدرتمندترین سیستم‌های خود را به مدت شش ماه متوقف کنند تا بتوانند خطرات پشت این فناوری را بهتر بشناسند.

بر اساس این نامه، سیستم‌های هوش مصنوعی فقط وقتی باید توسعه پیدا کنند که ما مطمئن باشیم اثرات مثبت است و ریسک‌های آن قابل مدیریت کردن است.

این نامه که در حال حاضر بیش از 27 هزار امضاء دارد، مختصر است، حیطه صحبت آن گسترده است، و برخی از نام‌هایی که در میان نام امضاءکنندگان دیده می‌شوند، به نظر می‌رسد که رابطه پیچیده‌ای با هوش مصنوعی دارند. به عنوان مثال، ایلان ماسک در حال ساخت استارت‌آپ هوش مصنوعی خود است، در حالی که خودش یکی از برجسته‌ترین افرادی است که این نامه را امضاء کرده‌اند.

اما این نامه، یک نگرانی بزرگ در میان متخصصان هوش مصنوعی را بیان می‌کند و آن این است که آخرین سیستم‌ها (خصوصا ChatGPT 4 که توسط یک استارت‌آپ مستقر در سانفرانسیسکو به نام OpenAI ساخته شده است.) می‌تواند به جامعه آسیب برساند. آن‌ها اعتقاد دارند که سیستم‌هایی که در آینده ساخته می‌شوند، حتی می‌توانند خطرناکتر باشند.

برخی از این ریسک‌ها در حال حاضر وجود دارند و سایر آن‌ها نیز در ماه‌ها و سال‌های آینده از راه خواهند رسید و برخی نیز هنوز در حد فرضیه هستند.

دلیل این نگرانی چیست؟

دکتر یوشوا بنجیو (Yoshua Bengio) شاید یکی از مهم‌ترین افرادی است که این نامه را امضاء کرده‌ است. او سابقه کار با دو محقق دیگر یعنی جفری هینتون (Geoffrey Hinton) و یان لکون Yann LeCun را داشته است که هینتون یک محقق در شرکت گوگل بوده و لکون دانشمند ارشد هوش مصنوعی در شرکت متا است. وی چهار دهه اخیر را صرف توسعه تکنولوژی‌ای کرد که پشت سیستم‌هایی مانند ChatGPT 4 هستند. در سال 2018، این سه محقق جایزه Turing را برای کار بر روی شبکه‌های عصبی دریافت کردند که از این جایزه با عنوان “نوبل علوم کامپیوتری” نیز نام برده می‌شود.

یک شبکه عصبی، سیستمی محاسباتی است که مهارت‌ها را از طریق تحلیل داده یاد می‌گیرد. بیش از پنج سال پیش، شرکت‌هایی مانند گوگل، مایکروسافت و OpenAI شروع به ساخت شبکه‌های عصبی کردند که از مقدار زیادی از متون دیجیتال آموزش دیده باشد. این تکنولوژی مدل‌های زبانی بزرگ یا LLM نامیده می‌شود.

LLM ها با یافتن الگو در متن، یاد می‌گیرند که متن خود را ایجاد کنند که این متن‌ها می‌توانند در قالب مقاله وبلاگ، شعر و حتی برنامه‌های کامپیوتری باشند. آن‌ها حتی می‌توانند به مکالمه بپردازند.

این فناوری می‌تواند به برنامه‌نویسان کامپیوتری، نویسندگان و سایر کاربران کمک کنند که کارهای خود را سریع‌تر انجام دهند. اما دکتر بنجیو و سایر متخصصان هشدار می‌دهند که LLMها می‌توانند رفتارهای ناخواسته و غیرمنتظره را نیز یاد بگیرند.

این سیستم‌ها می‌توانند اطلاعات غیرقابل اعتماد، متعصبانه و یا سمی را ایجاد کنند. سیستم‌هایی مانند GPT-4 حقایق اشتباه را می‌گیرند و اطلاعات جدیدی را بر اساس آن‌ها ایجاد می‌کنند. به این فرایند “هذیان گویی” گفته می‌شود.

شرکت‌ها در حال کار بر روی این مسئله هستند، اما متخصصانی مانند دکتر بنجیو نگران این مسئله هستند که با قدرتمندتر کردن این سیستم‌ها، خطرات جدید به وجود بیاید.

ریسک‌های هوش مصنوعی

خطرات کوتاه مدت: خطای اطلاعات

از آن‌جایی که این سیستم‌ها اطلاعات را از طریق چیزی که به نظر می‌رسد کاملا محرمانه است، ایجاد می‌کنند، ممکن است در جداسازی حقیقت از دروغ به اشتباه بیافتند. متخصصان نگران هستند که مردم از این سیستم‌ها به منظور دریافت توصیه‌های پزشکی یا مشاوره روانشناسی استفاده کنند یا از این اطلاعات خام برای تصمیم‌گیری استفاده کنند. در حالی که هیچ تضمینی وجود ندارد که این سیستم‌ها در انجام کارهایی که از آن‌ها خواسته شده درست عمل کنند.

علاوه بر این، متخصصان نگران هستند که مردم از این سیستم برای انتشار اطلاعات غلط، سوء استفاده کنند. به این دلیل که این سیستم‌ها می‌توانند مانند انسان مکالمه کنند، می‌توانند بسیار گمراه کننده باشند. در حال حاضر با توجه به قدرت این سیستم‌ها در تعامل طبیعی، تشخیص واقعیت از دروغ بسیار سخت است.

خطرات میان مدت: از دست رفتن مشاغل

دانشمندان حوزه هوش مصنوعی همچنین نگران هستند که هوش مصنوعی جدید می‌تواند مشاغل را از بین ببرد. تکنولوژی‌های فعلی مانند ChatGPT 4 در حال حاضر می‌توانند در انجام کارها به انسان کمک کنند اما OpenAI این حقیقت را تایید می‌کند که این سیستم می‌تواند روزی جایگزین انسان در تهیه محتوا در اینترنت شود.

این سیستم‌ها در حال حاضر نمی‌توانند جایگزین وکلا، حسابداران و دکترها شوند. اما می‌توانند جایگزین کمک حسابدارها، دستیار وکلا یا مترجم‌ها شوند.

طبق مقاله‌ای که توسط محققان OpenAI تهیه شده است، تخمین زده می‌شود که حداقل 10 درصد از وظایف کاری 80 درصد از نیروی کار در ایالات متحده آمریکا و 50 درصد از وظایف کاری 19 درصد از شاغلین، تحت تاثیر LLM قرار بگیرد.

خطرات بلند مدت: از دست رفتن کنترل

برخی از افرادی که این نامه را امضاء کرده‌اند اعتقاد دارند که هوش مصنوعی می‌تواند از کنترل ما خارج شود یا تمدن بشری را نابود کند. اما بسیاری از متخصصان این فکر را بسیار اغراق‌آمیز می‌دانند.

این نامه توسط گروهی از انستیتو Future of Life تهیه شده است. سازمانی که در مورد ریسک‌های از بین رفتن تمدن بشری تحقیق می‌کند. آن‌ها هشدار می‌دهند که از آن‌جایی که سیستم‌های هوش مصنوعی غالبا رفتار غیرقابل پیش‌بینی را از مقدار زیادی از داده که تحلیل می‌کنند، یاد می‌گیرند، ممکن است باعث ایجاد مشکلاتی جدی و غیر منتظره شوند.

آن‌ها نگران این موضوع هستند که با وصل شدن LLM به شبکه اینترنتی سازمان‌ها، این سیستم‌ها به قدرتی غیرقابل پیش‌بینی دست یابند، زیرا می‌توانند کدهای کامپیوتری خود را بنویسند و این مسئله خطری بسیار جدی است. به اعتقاد این گروه، توسعه‌دهندگان نرم‌افزار می‌توانند با اجازه دادن به سیستم‌های هوش مصنوعی برای ایجاد کدهای خود، ریسک‌های جدیدی ایجاد کنند.

 

نظرات ارزشمند شما

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *