Search
Close this search box.

ترس رهبران گروه هفت از بی قانونی هوش مصنوعی

زارعی
اشتراک‌گذاری در:
ترس رهبران گروه هفت از بی قانونی هوش مصنوعی

هوش مصنوعی یکی از حیرت انگیزترین پدیده هایی است که تنها چند ماه پس از فراگیر شدن توجه تمام دنیا را به خود جلب کرده است. در پی سال های اخیر فراگیری استفاده گسترده از آن نگرانی های افراد را بابت از بین رفتن مشاغل با استفاده از هوش مصنوعی و حتی غلبه این هوش در دنیا را به دنبال داشته است. به طوری که حتی بزرگان دنیای فناوری نیز هشدارهایی در این رابطه داده اند. به طوری که رهبران بزرگ کشورهای صنعتی، در نظر دارند تا در این رابطه این قوانین را برای کنترل آن تصویب کنند. آیا ترس رهبران گروه هفت از بی قانونی هوش مصنوعی درست است؟ مطلبی است که در ادامه به بررسی آن می پردازیم:

 

توافق رهبران گروه هفت برای مهار هوش مصنوعی

اعضای گروه G7 پس از اقدام اتحادیه اروپا جهت تصویب قانون هوش مصنوعی جلسه تشکیل دادند. چهل و نهمین اجلاس گروه هفت، در کشور ژاپن در روز شنبه در هیروشیما برگزار شد. در این اجلاس، رهبران بزرگترین کشورهای صنعتی دنیا، نگرانی های خود را از بابت پیشرفت های هوش مصنوعی اعلام کرده اند. همچنین تدوین قوانینی را به منظور کنترل هوش مصنوعی و ابزارهای آن را تا پایان سال جاری اعلام کرده اند.

کشورهای فرانسه، کانادا، آلمان، ایتالیا، بریتانیا، آمریکا و ژاپن رهبران گروه هفت هستند. برنامه اتحادیه اروپا می شود. سران کشورهای صنعتی خواستار تدوین و پیاده سازی استانداردهای فنی جهت کنترل این هوش شدند. آن ها اذعان کردند که قانون گذاری در این حوزه، همراستا با سرعت پیشرفته هوش مصنوعی نبوده است. طبق گزارشات این اجلاس، نتایج مذاکرات انجام شده تا پایان سال جاری میلادی ارائه می شود.

 

کشور ژاپن به صورت جدی پایه کار است.

نخست وزیر ژاپن فومیو کیشیدا در راستای تضمین توسعه اعتماد رفتار انسان محور هوش مصنوعی، به دنبال همکاری همه جانبه برای امنیت داده های میان مرزی است. همچنین تلاش می‌ کند که کمک های مالی را نیز در این راستا تامین کند. پس از پیشرفت و شهرت بی سابقه chatGPT از کمپانی اوپن ای آی، نگرانی هایی در رابطه با این پیشرفت بی سابقه هوش مصنوعی ایجاد شد. رهبران دولتی و کشورهای صنعتی هر یک خواستار کنترل و قانون گذاری بیشتری در حوزه این فناوری پیشرفته هستند. در غیر این صورت، خطراتی از جانب توسعه بی حد و مرز این فناوری و تبدیل شدن آن به سلاح قدرتمند برای شایعه پراکنی و اختلالات سیاسی، تمامی جهان را تهدید می کند.

 

گوشزد کردن خطرات بی سابقه هوش مصنوعی

مدیر عامل شرکت OpenAI، سم آلتمن، و رئیس بخش خصوصی آی بی ام به طور مشترک خواستار قانونگذاری بیشتر در زمینه هوش مصنوعی شدند. همچنین سازمان جهانی بهداشت طبق بیانیه مجزا اعلام کرد که استفاده سریع از فناوری هوش مصنوعی در تجهیزات پزشکی احتمال خطاها را به شدت افزایش داده است. نخست وزیر انگلستان نیز خواستار پیش نویسی سیاست ها و قوانینی است که خطرات و مزایای فناوری هوش مصنوعی را کنترل نماید. در این راستا از مدیر عامل و دیگر رهبران فناوری برای حضور در انگلستان دعوت شده است. اتحادیه اروپا نیز به صورت پیشتاز از شرکت ها خواسته است تا زمانی که کاربران هوش مصنوعی در ارتباط هستند، این مسئله به صورت روشن به آن ها اطلاع داده شود. همچنین استفاده از این ابزار برای شناسایی افراد در مراکز عمومی ممنوع شده است.

دولت ژاپن خواستار دستورالعمل‌های ساده تری از اتحادیه اروپا برای قوانین هوش مصنوعی است. کیوکو یوشیناگا موسسه قانون و سیاست تکنولوژی در مرکز حقوقی دانشگاه جورج تاون نظر خود را این گونه بیان کرده است: «برای قانون گذاری بهترین هوش مصنوعی باید کشورهای بیشتری از جمله کشورهای کم درآمد نیز در مذاکرات بزرگ شرکت داشته باشند.» علاوه بر این گروه ۷، سازمان های بین المللی نظیر سازمان توسعه و همکاری های اقتصادی نیز خواستار تحلیل اثر قانون گذاری در این حوزه شدند. همچنین این گروه اعلام کرده است در زمینه قانون گذاری با شرکت ‌های فناوری همکاری های لازم را انجام داده است تا بستر رشد پیاده سازی نوآوری های مسئولانه فراهم گردد.

گوشزد کردن خطرات بی سابقه هوش مصنوعی

با روی کار آمدن هوش مصنوعی 300 میلیون نفر در جهان بیکار خواهند شد.

طبق تحقیقات انجام شده هوش مصنوعی می ‌تواند، به شرکت ها کمک کند تا از طریق خودکار سازی فرایند های خاص، بسیاری از هزینه ها را کاهش دهند. شرکت ها می توانند برای رشد کسب و کار خود قدم ‌های بزرگتری بردارند. بر این اساس هوش مصنوعی می تواند در فرایند خودکار سازی 25 درصدی کل بازار کار به صورت کاملا موفق عمل کند. همچنین می تواند 46 درصد از مشاغل اداری،37 درصد از مشاغل مربوط به مهندسی و معماری و 44 درصد مشاغل قانونی را به صورت کاملا خودکار بر عهده بگیرد.

در مقابل، در حوزه فناوری اطلاعات باعث ایجاد تقاضا برای توسعه دهندگان نرم افزار با درآمد بالا خواهد شد. در این راستا، مستقیماً نیاز به آموزش و تربیت متخصصان آموزش عالی افزایش پیدا خواهد کرد. بدین ترتیب این یک فرآیند دومینوی بوده و یک اثر هشدار دهنده نیز به حساب می آید. پتانسیل فناوری هوش مصنوعی برای جا به جایی 300 میلیون شغل، به یکی از نگرانی ‌های اصلی برای غول های فناوری و کارگران تبدیل شده است. تمامی این مخاطرات به این دلیل است که توسعه هوش مصنوعی برای انسان با سرعت بسیار باورنکردنی پیشرفته رشد کرده است که ممکن است جامعه را دگرگون و حتی سرنگون کند.

 

هشدار ایلان ماسک به جهانیان از خطرات مربوط به هوش مصنوعی

مدیرعامل شرکت تسلا نگرانی های جدی خود را در مورد تبعات همه گیری شدن هوش مصنوعی اعلام کرده است. ایلان ماسک درباره خطرات هوش مصنوعی به جهان هشدار داده است. او این فناوری را بزرگترین خطر برای تمدن می داند. آقای ماسک، در آیلند و در نشست تابستانی انجمن ملی فرمانداران، از دولت آمریکا خواست تا قبل از پیشرفت بیش از حد هوش مصنوعی، راهکارهایی را برای مقابله با خطرات این حوزه از فناوری در نظر بگیرد.

همچنین به سخنان خود اضافه کرد: معمولاً قانونگذاری در مورد اتفاقات و رویدادها مخاطره ‌آمیز زمانی رخ می دهد. که حوادث ناگواری در صنعت اتفاق بیفتد. بعد از گذشت سال ها مقامات به فکر می افتند که در این مورد قانون گذاری هایی را انجام دهند. این موارد خطرات اساسی برای بشریت نداشتند، ولی فناوری هوش مصنوعی می ‌تواند خطری جدی برای وقایع نسل انسانی باشد. ایلان ماسک از صاحبان مشاغل و شرکت ‌های فناوری خواست تا برای تسهیل قانون گذاری در این حوزه، درک بهتری از ماهیت فناوری هوش مصنوعی به دست آورده و آن را ارائه کنند.

هشدار ایلان ماسک به جهانیان از خطرات مربوط به هوش مصنوعی

سخن پایانی

هوش مصنوعی در حوزه ربات ها و… با سرعت بی سابقه ای در حال پیشرفت است. به طوری که بزرگان گروه هفت خطرات آن را به جهانیان هشدار می دهند. رهبران گروه هفت با اذعان به اینکه قانون گذاری در حوزه هوش مصنوعی با سرعت رشد این فناوری نبوده است، اجلاسی برگزار کردند. رهبران گروه هفت می خواهند سیستم های هوش مصنوعی به صورت دقیق، ایمن، قابل اعتماد و بدون تبعیض باشند. در این راستا نیاز است که تحقیقات گسترده ای از عملکرد این فناوری انجام و قوانینی در این حوزه وضع شود.

نظرات ارزشمند شما

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *