،

هشدار کریستوفر نولان، کارگردان Oppenheimer از خطرات هوش مصنوعی برای Silicon Valley

ارشادی
اشتراک‌گذاری در:
فیلم اوپنهایمر هوش مصنوعی کریستوفر مولان

فهرست مطالب

فیلم اوپنهایمر قرار است اواخر این هفته اکران شود و قبل از اکران، کارگردان مستند بلند، کریستوفر نولان، هشداری برای شرکت‌های فناوری و مهندسان شاغل در آن‌ها دارد. او بدون نام بردن گفت که سیلیکون ولی باید از حالا پاسخگویی را یاد بگیرد.
The Verge به نقل از نولان در پاسخ به این سوال که سیلیکون ولی باید از این فیلم چه چیزهایی بیاموزد، گفت: «فکر می‌کنم چیزی که نمی‌خواهم آن‌ها از یاد ببرند، مفهوم مسئولیت‌پذیری است».

نولان بعد از نمایش فیلم اوپنهایمر در هتل ویتبی نیویورک صحبت کرد. این فیلم بر اساس پرومتئوس آمریکایی، بیوگرافی 2005 توسط کای برد و مارتین جی شروین در مورد جولیوس رابرت اوپنهایمر، فیزیکدانی است که اغلب به دلیل ایفای نقش محوری در پروژه منهتن به عنوان «پدر بمب اتمی» شناخته می‌شود.
این پروژه تحقیق و توسعه‌ای است که در طول جنگ جهانی دوم انجام شد و منجر به ایجاد اولین سلاح هسته‌ای شد.
به طور گسترده گفته شده است که اوپنهایمر از کشف خود پشیمان شد زیرا وی ویرانی ناشی از بمباران اتمی هیروشیما و ناکازاکی را دید. او ظاهراً قدرت مخرب بمب و تهدیدی برای بشریت را درک کرد.

 

فیلم اوپنهایمر نولان - هوش مصنوعی - لاگ مدیا

 

حرفی که نولان برای گفتن دارد

او با اشاره به نوآوری‌های فناوری شرکت‌ها در سیلیکون ولی تصریح کرد: «وقتی از طریق فناوری نوآوری می‌کنید، باید مطمئن شوید که در شما مسئولیت‌پذیری وجود دارد».
«ظهور شرکت‌ها در 15 سال گذشته درباره کلماتی مانند «الگوریتم» که معنی آن‌ها را به معنای ریاضی معنی‌دار نمی‌دانند. آن‌ها فقط نمی‌‎خواهند مسئولیت کاری که این الگوریتم انجام می‌دهد را به عهده بگیرند».

هشدار هوش مصنوعی

هوش مصنوعی (AI) آخرین فناوری است که توسط رهبران، مبتکران، دانشمندان و منتقدان به طور مفصل مورد بحث قرار گرفته است. به نظر می‌رسد در بحث درباره تأثیرات منفی هوش مصنوعی، تعداد نظرات موافق و مخالف برابر است.
او گفت این یک احتمال وحشتناک است. وحشتناک. حداقل به این دلیل که سیستم‌های هوش مصنوعی وارد زیرساخت‌های دفاعی می‌شوند، در نهایت آن‌ها با سلاح‌های هسته‌ای متهم می‌شوند و اگر به مردم اجازه دهیم که بگویند که این یک موجودیت مجزا از شخصی است که استفاده، برنامه‌نویسی، و استفاده از هوش مصنوعی را دارد، آنگاه ما محکوم به فنا خواهیم شد.
نولان خاطرنشان کرد: «این باید در مورد مسئولیت‌پذیری باشد. ما باید مردم را در قبال کارهایی که با ابزارهایی که در اختیار دارند، انجام می‌دهند، مسئول بدانیم.
چندین شرکت مانند گوگل، اپل، متای مادر فیسبوک و توییتر در میان سایرین به الگوریتم‌هایی تکیه می‌کنند که داده‌های [برخی] کاربران را برای ارائه تجربیات  در نظر می‌گیرند.

 

فیلم اوپنهایمر نولان - لاگ مدیا

 

نولان تاکید کرد: «وقتی با محققان برجسته در زمینه هوش مصنوعی صحبت می‌کنم، آن‌ها به معنای واقعی کلمه در حال حاضر به آن به عنوان لحظه اوپنهایمر خود اشاره می‌کنند.
نولان با اشاره به اینکه شرکت‌های دره سیلیکون می‌گویند در مورد نتیجه چنین نوآوری فکر می‌کنند، به داستان او نگاه می‌کنند تا بگویند چه مسئولیتی برای دانشمندان در حال توسعه فناوری‌های جدید است که ممکن است عواقب ناخواسته ای داشته باشد.
«آن‌ها می‌گویند که مسئولیت دارند. و این مفید است. که حداقل در گفتار وجود داشته باشد. و امیدوارم این روند فکری ادامه پیدا کند. نولان گفت: من نمی‌گویم داستان اوپنهایمر پاسخ آسانی برای این سؤالات ارائه می‌دهد، اما حداقل این یک داستان هشدار دهنده است.

نولان در مخالفت با کاهش حقوق و تهدیدات هوش مصنوعی

اخیراً، نولان، همراه با چندین ستاره دیگر از فهرست A مانند کیلیان مورفی، مت دیمون و امیلی بلانت، حمایت خود را از اولین انصراف در صنعت سینما توسط انجمن بازیگران سینما- فدراسیون هنرمندان تلویزیون و رادیو آمریکا و انجمن نویسندگان آمریکا گسترش دادند.
این گروه برای اولین بار در 63 سال گذشته، به دلیل کاهش دستمزد و استفاده از فناوری هوش مصنوعی توسط استودیوها، دست از کار کشیدند. آن‌ها به دنبال محافظت از این هستند که شرکت‌ها نتوانند بدون اجازه از تصاویر آن‌ها در فیلم‌ها استفاده کنند.

نظرات ارزشمند شما

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *