با رشد ناگهانی تکنولوژی هوش مصنوعی و پیادهسازی آن در اپلیکیشنها و خدمات مختلف در سال جاری، نگرانی عمدهای در رابطه با ایمنی آن در میان متخصصان این صنعت و همچنین سایر مردم ایجاد شد. این نگرانیها حتی به کاخ سفید هم رسیده است و جو بایدن خبر از برنامهریزی جهت ملاقات با شرکتهای بزرگ هوش مصنوعی داد که در آن، این شرکتها به صورت داوطلبانه جهت ایمنسازی و توسعه معقول هوش مصنوعی توافق کنند.
دفتر ریاست جمهوری ایالات متحده آمریکا خبر این جلسه را در کنفرانس مطبوعاتی روز 21 جولای اعلام کرد. این جلسه با حضور هفت شرکت آمازون، آنتروپیک، گوگل، اینفلکشن، متا، مایکروسافت و OpenAI برگزار خواهد شد. این شرکتها همگی نقش عمدهای در ایجاد این موج فراگیر هوش مصنوعی داشتهاند. دفتر ریاست جمهوری به دنبال تعهدات داوطلبانهای از سوی این شرکتها است که اطمینان یابد پیشرفت هوش مصنوعی به صورت امن و قابل اعتماد صورت خواهد گرفت و مردم یا دادههای مصرفکنندگان را به خطر نخواهد انداخت.
سه نکته اساسی که بایدن بر روی آنها تاکید دارد عبارتند از:
قابلیت اطمینان: شرکتها باید از قابل اطمینان بودن محصول خود قبل از عرضه مطمئن شوند. این به معنی آزمایش محصول و بررسی قابلیتهای آن، انجام تستهای خارجی، بررسی ریسکهای بالقوه بیولوژیکی، امنیت سایبری و اجتماعی است. علاوه بر این، باید نتیجه این بررسیها در دسترس عموم قرار بگیرد.
امنیت: شرکتها باید سیستمی بسازند که امنیت را در اولویت قرار میدهد، به این معنی که مدلهای خود را در مقابل حملات سایبری و داخلی محافظت میکند و از بهترین استانداردها و رویهها برای پیشگیری از سوء استفاده، کاهش ریسک برای جامعه و محافظت از امنیت ملی استفاده میکند.
اعتماد: شرکتها وظیفه دارند که اعتماد مردم را جلب کنند. یعنی امکان تشخیص واقعی یا ساختگی بودن صوت و تصویر را برای کاربران فراهم کنند. از اینکه این فناوری تعصب و تبعیض را ترویج نمیکند، حفاظت از حریم خصوصی را تقویت میکند و از کودکان در مقابل آسیب، حفاظت میکند، اطمینان یابد.
با توجه به ابراز نگرانیهای اخیر توسط منتقدان و اشخاصی از جمله ایلان ماسک و استیو وزنیاک و درخواست آنها در جهت کاهش سرعت توسعه این فناوری و یا حتی توقف موقت توسعه آن، باید دید که شرکتهای فعال در این صنعت چه تصمیمی خواهند گرفت. در حال حاضر شرکت OpenAI پیشگام شده است و بیانیهای در مورد تعهد به موارد اعلامی توسط کاخ سفید منتشر کرده است.