الکساندر اسمیت، خبرنگار سطح A خبرگزاری رویترز، شخصی است که بهخاطر گزارشها و خبرهای تحقیقی خود در بین روزنامهنگاران و خبرنویسان، مشهور است. اینبار او «چالش استفاده از هوشمصنوعی در شرکتهای بزرگ» را برگزیده است و برای تکمیل گزارش خود با تهیۀ یک نظرسنجی به سراغ مدیران شرکتهای بزرگ و کارمندان رفته است.
اسمیت در ابتدای خبر خود نوشته: «باوجود نگرانیهایی که کارفرمایانی چون مایکروسافت و گوگل را به محدودساختن استفاده از ChatGPT وادار کرده است بسیاری از کارگران در سراسر ایالات متحده به این ربات هوشمصنوعی روی میآورند تا آنها را در اجرای کارهای اساسی کمک کند.»
این خبرنگار در گزارش روز خود چنین آورده «درحالحاضر، اکثر شرکتها در سرتاسر جهان، در حال بررسی نحوه استفاده بهینه از ChatGPT هستند و بهدنبال راهکاری برای یافتن برنامهای از چت باتاند که از هوش مصنوعی مولد برای برقراری مکالمه با کاربران و پاسخگویی به درخواستهای بیشمار، پیشنویس ایمیلها، خلاصه کردن اسناد و انجام تحقیقات اولیه استفاده میکند. با این حال، مدیران سازمانها و شرکتهای امنیتی نگرانیهایی را مطرح کردهاند که این کار ممکن است ناقض مالکیت معنوی باشد.»
نتایج نظرسنجی و روایی آن
آمار، بهدست آمده از این تحقیق در بازه زمانی یک هفتهای نشان میدهد که «حدود 28 درصد از پاسخ دهندگان به نظرسنجی آنلاین اعلام کردند که در محل کار خود از ربات هوشمصنوعی استفاده میکنند؛ 22٪ از این تعداد، به گفتۀ خودشان، آزادانه از AI بهره میگیرند و کارفرمایانشان، مشکلی با استفاده از هوشمصنوعی ندارند.
این نظرسنجی که در بین 2625 بزرگسال در سراسر ایالات متحده صورت گرفت با درصد خطای 2 ، از اعتبار روایی 98 درصد بهرهمند است.
حدود 10٪ از شرکتکنندگان نیز گفتند که رؤسای آنها به صراحت ابزارهای هوشمصنوعی خارجی را ممنوع کردهاند و 25٪ نمیدانستند که آیا شرکتشان اجازه استفاده از این فناوری را میدهد یا خیر.»
الکساندر اسمیت سپس نگاهی به تاریخچۀ عرضۀ هوشمصنوعی داشته و اینچنین آورده «ChatGPT پس از عرضه در نوامبر 2022، به سریعترین برنامه در تاریخ تبدیل شد. هم هیجان و هم هشدار ایجاد کرد و توسعهدهنده OpenAI، خود را در تضاد با تنظیمکنندهها قرار داد؛ به ویژه در اروپا، جایی که جمعآوری انبوه دادههای این شرکت، انتقاد ناظران حریمخصوصی را به همراه داشته است.»
خبرنگار خبرگزاری رویترز برای تکمیل نظرسنجی خود هم به سراغ کارمندان عادی و هم شرکتهای بزرگ و معروف رفت تا نظر آنان را درخصوص استفاده از ربات هوشمصنوعی بداند.
در ادامه این گزارش را بخوانیم:
شرکت Okta
بِن کینگ، معاون بخش CRM در شرکت امنیتی Okta (OKTA.O) نیز در این نظرسنجی شرکت کرده است او گفت: «کارمندان در این شرکت، از خدمات هوشمصنوعی مولد استفاده میکنند. یک سرویس رایگان – بنابراین شرکتها از طریق فرآیند ارزیابی معمول خود خطری را متحمل نخواهند شد.»
دو ابرشرکت سازندۀ هوشمصنوعی (Open AI و مایکروسافت)
اما این خبرگزاری به سراغ کارمندان و مدیران OpenAI نیز رفت و از آنان در مورد پیامدهای استفاده از ChatGPT از سوی کارکنان منفرد پرسید هرچند بسیاری از کارمندان از شرکت در نظرسنجی، خودداری کردند. پیشتر از اینها، این شرکت در یک توییت نوشته بود که هوشمصنوعی ناقض حریم خصوصی نیست و میتوان به پاسخهای ارائهشده از سوی هوشمصنوعی، اطمینان داشت.
مایکروسافت نیز که سازندۀ هوشمصنوعی Bard است برای حضور در این نظرسنجی، فراخوانده شد که وکیل رسمی این شرکت در پاسخ به درخواست خبرنگار رویترز گفت: «مدیر و کارمندان مایکروسافت تمایلی به حضور در این نظرسنجی ندارند.»
شرکت Alphabet
بر اساس گزارش این خبرنگار، Alphabet با بیان این جمله که دوست دارم با شما شفاف و صریح باشم گفت: «ما به کارمندان در مورد نحوۀ استفاده از چتباتها از جمله Bard گوگل هشدار دادهایم.» بنابهگفتۀ این خبرنگار، این بیان، کاملاً دوپهلو و مبهم است چراکه مشخص نیست «هشدار» بهمعنای ممنوع کردن استفاده از هوشمصنوعی است یا احتیاط در استفاده از ربات؟!
شرکت کوکاکولا
سخنگوی کوکاکولا در آتلانتا، جورجیا گفت: «ما آزمایشهایی را در مورد اینکه چگونه هوشمصنوعی میتواند اثربخشی عملیاتی را افزایش دهد آغاز کردهایم و باید اعتراف کنیم اخیراً نسخه سازمانی ChatGPT خود را برای بهرهوری، راهاندازی کردیم. هنوز ابتدای راهیم نه کاملاً با هوشمصنوعی مخالفیم و نه کاملاً موافق؛ معتقدیم که خطرناک بودن یا مفید بودن هوشمصنوعی، در دست خود ماست؛ هرچند حتماً قوانین محکمی را در استفاده از چتبات برای کارمندان خود قرار خواهیم داد.»
شرکت سرمایهگذاری TATE.L
در همین حال، داون آلن، مدیر مالی (TATE.L) به رویترز گفت: «ما بودجهای جداگانه که تقریباً رقم بسیار زیادی است برای واحد تحقیقوتوسعۀ خود اختصاص دادیم تا ظرف ششماه آینده یعنی پیش از آغاز سال نوی میلادی، پایان این نبرد را به ما بگویند بهعبارت بهتر بدانیم که آیا میشود به هوشمصنوعی در فعالیتهای سازمانی اعتماد داشت یا خیر؟ تیمهای مختلفی را مجبور به تصمیمگیری در مورد نحوه استفاده از آن از طریق یک سری آزمایش کردیم. پرسش ما این است: آیا باید از هوشمصنوعی در روابط سرمایه گذار استفاده کنیم؟ آیا باید آن را در مدیریت دانش به کار بگیریم؟ و اصلاً چگونه میتوانیم از آن برای انجام کارها با کارآمدی بیشتر بهره ببریم؟»
اشخاص حقیقی
خبرنگار رویترز که این گزارش تحقیقی و مفصل را آماده کرده است در بخشی از خبر خود نوشته: «کارمندی از شرکت Tinder اعلام کرده که کارگران برای برنامههای بیضرری همچون نوشتن ایمیل اداری، چگونگی طراحی در فوتوشاپ، آداب معاشرت در جلسات مدیران و مسایلی اینچنینی از ChatGPT استفاده میکنند که بیشتر جنبۀ آموزش و یادگیری دارد.»
و البته شخص دیگری که نخواست نام و هویت سازمانی که در آنجا مشغول کار است فاش شود به خبرنگار رویترز گفت: «ما برای تحقیقاتمان از هوشمصنوعی استفاده کردیم که متأسفانه، پاسخ فاجعهآمیز بود. دوست داشتیم میزان خطرپذیری بانکها و سیستم سرمایهگذاری یا بورس ایالت متحده و نحوۀ نفوذ به آنها را بدانیم که بهراحتی با فریبدادن هوشمصنوعی و ارائۀ چند پاسخ اشتباه، موفق به این کار شدیم. بهنظر من هوشمصنوعی، چندان هم بیضرر نیست.»
چند کارمند از شرکت (PG.N) Procter & Gamble
و اما چندتن از کارمندان شرکت Gamble به خبرنگار رویترز گفتند که اصلاً نمیتوانند به پلتفرم هوشمصنوعی در رایانههای شرکت خود دسترسی داشته باشند؛ و تعدادی دیگر نیز اعلام کردند که ما مجاز به صحبت با مطبوعات نیستیم میتوانید از مدیران بپرسید که آیا هوشمصنوعی در این شرکت استفاده میشود یا نه!
با این پاسخ، خبرنگار رویترز نتیجه گرفت که بهاحتمال زیاد نمیتوان به یافتههای بهدستآمده از کارکنان این شرکت، استناد کرد.
و در نهایت: پل لوئیس، افسر ارشد امنیت اطلاعات در شرکت امنیت سایبری Nominet، گفت که شرکتها حق دارند در خصوص استفاده از هوشمصنوعی محتاط باشند. این ربات با وجود داشتن قابلیتهای بسیار، اطلاعات کاملاً ایمن ارائه نمیکند. اطلاعاتی که باید در مورد آنها محتاط بود. او از خبرنگار رویترز پرسید بهنظر شما پاسخهای مهندسی شده به پرسشهای کاربران میتواند قابل اعتماد باشد؟ اما با همۀ اینها، معتقدم که میشود با دقت قدم برداشت و راه استفادۀ بهینه از بات هوشمصنوعی را آموخت و به مردم یاد داد.
Samsung Electronics
پیش از این نیز تحقیقات مشابهی در کره انجام شده بود و البته در ماه می، Samsung Electronics به کارکنان خود در سراسر جهان دستور داده بود که حق استفاده از ChatGPT و ابزارهای هوش مصنوعی را ندارند. این شرکت در دفاع از این دستور گفته بود: «پس از اینکه باخبر شدیم یک کارمند کد حساسی را در پلتفرم هوشمصنوعی آپلود کرده است نتیجه گرفتیم که این ربات میتواند مضر باشد. بنابراین در حال بررسی اقداماتی برای ایجاد یک محیط امن برای استفاده از هوش مصنوعی مولد هستیم که بهرهوری و کارایی کارکنان را افزایش میدهد نه تقلب و کارهای مخاطرهآمیز را و تا زمانی که به این هدف نرسیم، کارمندان حق استفاده از هوشمصنوعی نخواهند داشت.»