آنچه در جلسه مشترک کاخ سفید با ابرشرکت‌های هوش‌مصنوعی گذشت؛ برنامه‌ریزی برای امنیت این بات

بهار قربانپور
اشتراک‌گذاری در:

فهرست مطالب

 هفت شرکت برتر هوش‌مصنوعی جهان در جدیدترین نشست خود، موضوع بهبود ایمنی و امنیتی محصولات هوش مصنوعی را در اولویت قراردادند.

به منظور رفع نگرانی‌های دولت در مورد خطرات و مشکلات سیستم‌های هوش مصنوعی، بالاخره ماه‌ها رایزنی و مذاکره بین کاخ‌سفید و شرکت‌های آمازون، آنتروپیک، متا، مایکروسافت، گوگل، OpenAI وInflection  که همگی در حوزۀ هوش‌مصنوعی فعالیت دارند به نتیجه رسید.

در نشستی که با حضور نمایندگان کاخ‌سفید و مدیران و روسای هفت شرکت برتر در زمینۀ هوش‌مصنوعی برگزار شد افزایش بودجه بخش تحقیق‌وتوسعه در اولویت کار قرارگرفت و تأکیدشد این بودجه برای تحقیقات مبتنی بر تبعیض، به عنوان راهی برای مقابله با سوگیری‌های الگوریتمی موجود در شبکه های هوش مصنوعی هزینه خواهد شد.

شرکت‌های حاضر در نشست با امضای تفاهم‌نامه‌ای، برای سرمایه گذاری بیشتر در بخش امنیت سایبری موافقت کردند.

رییس شرکت آنتروپیک دربارۀ اختصاص این ردیف بودجه به خبرنگاران گفت: «قطعاً هنگام توسعه پروژه در ابزاری مانند ChatGPT، احتمال افشا آنلاین موارد تولید شده زیاد است که در این مورد، OpenAI  تقصیری ندارد. به‌همین‌خاطر به این نتیجه‌ رسیدیم تا با افزایش سرمایه‌گذاری و اختصاص بودجۀ بیشتر در امنیت سایبری، برای مبارزه با درز چنین اطلاعاتی، اقدام بهینه انجام داده باشیم.»

سخنگوی کاخ‌سفید نیز به خبرنگاران گفت: «تخصیص واترمارک به محتوای تولید شده توسط هوش مصنوعی وعده داده شده است. این موضوع اخیراً به دلایل مختلف در مطبوعات داغ شده است.

تاکنون، شرکت های هوش مصنوعی مولد، شکایت‌های متعددی مبنی بر عدم رعایت کپی‌رایت داشتند. واترمارک کردن محتوای تولیدشده توسط هوش‌مصنوعی راهی برای کاهش ترس از داده‌های تصادفی و تولیدشده توسط انسان (از زندگی شخصی افراد) در دریای محتوای هوش‌مصنوعی است که به سرعت در حال بهبود و رشد است.»

یکی از مدیران اجرایی OpenAI نیز در پاسخ به این پرسش که آیا تأثیر هوش‌مصنوعی بر مشاغل، به‌‎عنوان مسأله‌ای مهم، بررسی می‌شود یا خیر گفت:«از زاویه تأثیر سیستمیک، باید تأثیر هوش‌مصنوعی بر مشاغل بررسی شود. در دنیا به اندازه کافی شغل‌های مختلف وجود دارد و در نهایت کارگران به سمت صنایع تحت تأثیر کمتر دیگر جذب می‌شوند، اما این انتقال هزینه‌های انسانی، اقتصادی و زمانی دارد. در صورت اعمال سریع تغییرات کل اقتصاد و سیستم کار ممکن است دچار مشکل شود.»

باید دقت‌کنیم که تخصیص واترمارک به داده‌های تولیدشده توسط هوش‌مصنوعی (یا داده‌های مصنوعی) به نفع شرکت‌های هوش مصنوعی نیز خواهد بود. چرا که آن‌ها به دلیل وجود داده‌های مصنوعی، مسموم، و یا ناتوانی سیستم در تشخیص داده‌های مصنوعی از داده‌های شخصی امن‌تر و بسیار گران‌تر تمایلی به ایجاد اختلال در سیستم هوش‌مصنوعی خود ندارند.

شاید بتوان با نگاهی خوشبینانه به این قضیه نگاه کرد که هفت‌ابرشرکت فعال در حوزۀ هوش‌مصنوعی خواهان افزایش ضریب ایمنی و امنیت سیستم‌های خود شدند و طی رایزنی با کاخ‌سفید به تهیه و تنظیم پیش‌طرح و یا برنامه‌ریزی در این مورد رأی دادند اما همان‌طور که می‌دانیم این‌روزها شرکت‌های زیادی وارد حوزۀ هوش‌مصنوعی شدند و روز‌به‌روز سعی در ارائۀ محصولی جدید دارند.

حال پرسش اساسی این است آیا می‌توان به داده‌های اطلاعاتی شرکت‌هایی که در مقایسه با غول‌هایی مانند OpenAI و مایکروسافت کوچک‌تر و ضعیف‌تر هستند اعتماد کرد؟

این توافقنامه تا کجا و چه‌حد شرکت‌های کوچک‌تر را زیر ذره‌بین ممیزی خود قرارمی‌دهد و مراقب است که محتواهای اشتباه به کاربران، ارائه نشود؟! به‌عبارت بهتر، غول‌های فعال در زمینۀ هوش‌مصنوعی تا چه میزان خود را در جایگاه نهادی نظارتی می‌بینند و برای سرندکردن اطلاعات درست از نادرست به شرکت‌های نوپا و تازه‌کار در این زمینه، کمک خواهند کرد؟

نظرات ارزشمند شما

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *