هفت شرکت برتر هوشمصنوعی جهان در جدیدترین نشست خود، موضوع بهبود ایمنی و امنیتی محصولات هوش مصنوعی را در اولویت قراردادند.
به منظور رفع نگرانیهای دولت در مورد خطرات و مشکلات سیستمهای هوش مصنوعی، بالاخره ماهها رایزنی و مذاکره بین کاخسفید و شرکتهای آمازون، آنتروپیک، متا، مایکروسافت، گوگل، OpenAI وInflection که همگی در حوزۀ هوشمصنوعی فعالیت دارند به نتیجه رسید.
در نشستی که با حضور نمایندگان کاخسفید و مدیران و روسای هفت شرکت برتر در زمینۀ هوشمصنوعی برگزار شد افزایش بودجه بخش تحقیقوتوسعه در اولویت کار قرارگرفت و تأکیدشد این بودجه برای تحقیقات مبتنی بر تبعیض، به عنوان راهی برای مقابله با سوگیریهای الگوریتمی موجود در شبکه های هوش مصنوعی هزینه خواهد شد.
شرکتهای حاضر در نشست با امضای تفاهمنامهای، برای سرمایه گذاری بیشتر در بخش امنیت سایبری موافقت کردند.
رییس شرکت آنتروپیک دربارۀ اختصاص این ردیف بودجه به خبرنگاران گفت: «قطعاً هنگام توسعه پروژه در ابزاری مانند ChatGPT، احتمال افشا آنلاین موارد تولید شده زیاد است که در این مورد، OpenAI تقصیری ندارد. بههمینخاطر به این نتیجه رسیدیم تا با افزایش سرمایهگذاری و اختصاص بودجۀ بیشتر در امنیت سایبری، برای مبارزه با درز چنین اطلاعاتی، اقدام بهینه انجام داده باشیم.»
سخنگوی کاخسفید نیز به خبرنگاران گفت: «تخصیص واترمارک به محتوای تولید شده توسط هوش مصنوعی وعده داده شده است. این موضوع اخیراً به دلایل مختلف در مطبوعات داغ شده است.
تاکنون، شرکت های هوش مصنوعی مولد، شکایتهای متعددی مبنی بر عدم رعایت کپیرایت داشتند. واترمارک کردن محتوای تولیدشده توسط هوشمصنوعی راهی برای کاهش ترس از دادههای تصادفی و تولیدشده توسط انسان (از زندگی شخصی افراد) در دریای محتوای هوشمصنوعی است که به سرعت در حال بهبود و رشد است.»
یکی از مدیران اجرایی OpenAI نیز در پاسخ به این پرسش که آیا تأثیر هوشمصنوعی بر مشاغل، بهعنوان مسألهای مهم، بررسی میشود یا خیر گفت:«از زاویه تأثیر سیستمیک، باید تأثیر هوشمصنوعی بر مشاغل بررسی شود. در دنیا به اندازه کافی شغلهای مختلف وجود دارد و در نهایت کارگران به سمت صنایع تحت تأثیر کمتر دیگر جذب میشوند، اما این انتقال هزینههای انسانی، اقتصادی و زمانی دارد. در صورت اعمال سریع تغییرات کل اقتصاد و سیستم کار ممکن است دچار مشکل شود.»
باید دقتکنیم که تخصیص واترمارک به دادههای تولیدشده توسط هوشمصنوعی (یا دادههای مصنوعی) به نفع شرکتهای هوش مصنوعی نیز خواهد بود. چرا که آنها به دلیل وجود دادههای مصنوعی، مسموم، و یا ناتوانی سیستم در تشخیص دادههای مصنوعی از دادههای شخصی امنتر و بسیار گرانتر تمایلی به ایجاد اختلال در سیستم هوشمصنوعی خود ندارند.
شاید بتوان با نگاهی خوشبینانه به این قضیه نگاه کرد که هفتابرشرکت فعال در حوزۀ هوشمصنوعی خواهان افزایش ضریب ایمنی و امنیت سیستمهای خود شدند و طی رایزنی با کاخسفید به تهیه و تنظیم پیشطرح و یا برنامهریزی در این مورد رأی دادند اما همانطور که میدانیم اینروزها شرکتهای زیادی وارد حوزۀ هوشمصنوعی شدند و روزبهروز سعی در ارائۀ محصولی جدید دارند.
حال پرسش اساسی این است آیا میتوان به دادههای اطلاعاتی شرکتهایی که در مقایسه با غولهایی مانند OpenAI و مایکروسافت کوچکتر و ضعیفتر هستند اعتماد کرد؟
این توافقنامه تا کجا و چهحد شرکتهای کوچکتر را زیر ذرهبین ممیزی خود قرارمیدهد و مراقب است که محتواهای اشتباه به کاربران، ارائه نشود؟! بهعبارت بهتر، غولهای فعال در زمینۀ هوشمصنوعی تا چه میزان خود را در جایگاه نهادی نظارتی میبینند و برای سرندکردن اطلاعات درست از نادرست به شرکتهای نوپا و تازهکار در این زمینه، کمک خواهند کرد؟