Search
Close this search box.

چالش استفاده از هوش‌مصنوعی در شرکت‌های بزرگ

بهار قربانپور
اشتراک‌گذاری در:
چالش های استفاده از هوش مصنوعی

الکساندر اسمیت، خبرنگار سطح A خبرگزاری رویترز، شخصی است که به‌خاطر گزارش‌ها و خبرهای تحقیقی خود در بین روزنامه‌نگاران و خبرنویسان، مشهور است. این‌بار او «چالش استفاده از هوش‌مصنوعی در شرکت‌های بزرگ» را برگزیده است و برای تکمیل گزارش خود با تهیۀ یک نظرسنجی به سراغ مدیران شرکت‌های بزرگ و کارمندان رفته است.

اسمیت در ابتدای خبر خود نوشته: «باوجود نگرانی‌هایی که کارفرمایانی چون مایکروسافت و گوگل را به محدودساختن استفاده از ChatGPT وادار کرده است بسیاری از کارگران در سراسر ایالات متحده به این ربات هوش‌مصنوعی روی می‌آورند تا آنها را در اجرای کارهای اساسی کمک کند.»

این خبرنگار در گزارش روز خود چنین آورده «درحال‌حاضر، اکثر شرکت‌ها در سرتاسر جهان، در حال بررسی نحوه استفاده بهینه از ChatGPT هستند و به‌دنبال راهکاری برای یافتن برنامه‌ای از چت بات‌اند که از هوش مصنوعی مولد برای برقراری مکالمه با کاربران و پاسخگویی به درخواست‌های بی‌شمار، پیش‌نویس ایمیل‌ها، خلاصه کردن اسناد و انجام تحقیقات اولیه استفاده می‌کند. با این حال، مدیران سازمان‌ها و شرکت‌های امنیتی نگرانی‌هایی را مطرح کرده‌اند که این کار ممکن است ناقض مالکیت معنوی باشد.»

نتایج نظرسنجی و روایی آن

آمار، به‌دست آمده از این تحقیق در بازه زمانی یک هفته‌ای نشان می‌دهد که «حدود 28 درصد از پاسخ دهندگان به نظرسنجی آنلاین اعلام کردند که در محل کار خود از ربات هوش‌مصنوعی استفاده می‌کنند؛ 22٪ از این تعداد، به گفتۀ خودشان، آزادانه از AI بهره می‌گیرند و کارفرمایان‌شان، مشکلی با استفاده از هوش‌مصنوعی ندارند.

این نظرسنجی که در بین 2625 بزرگسال در سراسر ایالات متحده صورت گرفت با درصد خطای 2 ، از اعتبار روایی 98 درصد بهره‌مند است.

حدود 10٪ از شرکت‌کنندگان نیز گفتند که رؤسای آن‌ها به صراحت ابزارهای هوش‌مصنوعی خارجی را ممنوع کرده‌اند و 25٪ نمی‌دانستند که آیا شرکت‌شان اجازه استفاده از این فناوری را می‌دهد یا خیر.»

الکساندر اسمیت سپس نگاهی به تاریخچۀ عرضۀ هوش‌مصنوعی داشته و این‌چنین آورده «ChatGPT پس از عرضه در نوامبر 2022، به سریع‌ترین برنامه در تاریخ تبدیل شد. هم هیجان و هم هشدار ایجاد کرد و توسعه‌دهنده OpenAI، خود را در تضاد با تنظیم‌کننده‌ها قرار داد؛ به ویژه در اروپا، جایی که جمع‌آوری انبوه داده‌های این شرکت، انتقاد ناظران حریم‌خصوصی را به همراه داشته است.»

خبرنگار خبرگزاری رویترز برای تکمیل نظرسنجی خود هم به سراغ کارمندان عادی و هم شرکت‌های بزرگ و معروف رفت تا نظر آنان را درخصوص استفاده از ربات هوش‌مصنوعی بداند.

در ادامه این گزارش را بخوانیم:

شرکت Okta

نظر شرکت Oketa دربارۀ هوش‌مصنوعی

بِن کینگ، معاون بخش CRM در شرکت امنیتی Okta (OKTA.O) نیز در این نظرسنجی شرکت کرده است او گفت: «کارمندان در این شرکت، از خدمات هوش‌مصنوعی مولد استفاده می‌کنند. یک سرویس رایگان – بنابراین شرکت‌ها از طریق فرآیند ارزیابی معمول خود خطری را متحمل نخواهند شد.»

دو ابرشرکت سازندۀ هوش‌مصنوعی (Open AI و مایکروسافت)

openAi و Microsoft دربارۀ هوش‌مصنوعی چه می‌گویند؟

اما این خبرگزاری به سراغ کارمندان و مدیران OpenAI نیز رفت و از آنان در مورد پیامدهای استفاده از ChatGPT از سوی کارکنان منفرد پرسید هرچند بسیاری از کارمندان از شرکت در نظرسنجی، خودداری کردند. پیش‌تر از این‌ها، این شرکت در یک توییت نوشته بود که هوش‌مصنوعی ناقض حریم خصوصی نیست و می‌توان به پاسخ‌های ارائه‌شده از سوی هوش‌مصنوعی، اطمینان داشت.

مایکروسافت نیز که سازندۀ هوش‌مصنوعی Bard است برای حضور در این نظرسنجی، فراخوانده شد که وکیل رسمی این شرکت در پاسخ به درخواست خبرنگار رویترز گفت: «مدیر و کارمندان مایکروسافت تمایلی به حضور در این نظرسنجی ندارند.»  

شرکت Alphabet

آیا استفاده از هوش‌مصنوعی در Alphabet مجاز است؟

بر اساس گزارش این خبرنگار، Alphabet  با بیان این جمله که دوست دارم با شما شفاف و صریح باشم گفت: «ما به کارمندان در مورد نحوۀ استفاده از چت‌بات‌ها از جمله Bard گوگل هشدار داده‌ایم.» بنابه‌گفتۀ این خبرنگار، این بیان، کاملاً دوپهلو و مبهم است چراکه مشخص نیست «هشدار» به‌معنای ممنوع کردن استفاده از هوش‌مصنوعی است یا احتیاط در استفاده از ربات؟!

شرکت کوکاکولا

نظر مدیران و کارکنان شرکت Cocacola دربارۀ هوش‌مصنوعی

سخنگوی کوکاکولا در آتلانتا، جورجیا گفت: «ما آزمایش‌هایی را در مورد این‌که چگونه هوش‌مصنوعی می‌تواند اثربخشی عملیاتی را افزایش دهد آغاز کرده‌ایم و باید اعتراف کنیم اخیراً نسخه سازمانی ChatGPT خود را برای بهره‌وری، راه‌اندازی کردیم. هنوز ابتدای راهیم نه کاملاً با هوش‌مصنوعی مخالفیم و نه کاملاً موافق؛ معتقدیم که خطرناک بودن یا مفید بودن هوش‌مصنوعی، در دست خود ماست؛ هرچند حتماً قوانین محکمی را در استفاده از چت‌بات برای کارمندان خود قرار خواهیم داد.»

شرکت سرمایه‌گذاری TATE.L

مدیران شرکت Tate.L چه نظری دربارۀ هوش‌مصنوعی دارند؟

 در همین حال، داون آلن، مدیر مالی (TATE.L)  به رویترز گفت: «ما بودجه‌ای جداگانه که تقریباً رقم بسیار زیادی است برای واحد تحقیق‌وتوسعۀ خود اختصاص دادیم تا ظرف شش‌ماه آینده یعنی پیش از آغاز سال نوی میلادی، پایان این نبرد را به ما بگویند به‌عبارت بهتر بدانیم که آیا می‌شود به هوش‌مصنوعی در فعالیت‌های سازمانی اعتماد داشت یا خیر؟ تیم‌های مختلفی را مجبور به تصمیم‌گیری در مورد نحوه استفاده از آن از طریق یک سری آزمایش کردیم. پرسش ما این است: آیا باید از هوش‌مصنوعی در روابط سرمایه گذار استفاده کنیم؟ آیا باید آن را در مدیریت دانش به کار بگیریم؟ و اصلاً چگونه می‌توانیم از آن برای انجام کارها با کارآمدی بیشتر بهره ببریم؟»

اشخاص حقیقی

نظرات متفاوت کارمندان شرکت‌ها دربارۀ حق استفاده از هوش‌مصنوعی

خبرنگار رویترز که این گزارش تحقیقی و مفصل را آماده کرده است در بخشی از خبر خود نوشته: «کارمندی از شرکت Tinder اعلام کرده که کارگران برای برنامه‌های بی‌ضرری همچون نوشتن ایمیل اداری، چگونگی طراحی در فوتوشاپ، آداب معاشرت در جلسات مدیران و مسایلی این‌چنینی از ChatGPT استفاده می‌کنند که بیشتر جنبۀ آموزش و یادگیری دارد.»

و البته شخص دیگری که نخواست نام و هویت سازمانی که در آن‌جا مشغول کار است فاش شود به خبرنگار رویترز گفت: «ما برای تحقیقات‌مان از هوش‌مصنوعی استفاده کردیم که متأسفانه، پاسخ فاجعه‌آمیز بود. دوست داشتیم میزان خطرپذیری بانک‌ها و سیستم سرمایه‌گذاری یا بورس ایالت متحده و نحوۀ نفوذ به آن‌ها را بدانیم که به‌راحتی با فریب‌دادن هوش‌مصنوعی و ارائۀ چند پاسخ اشتباه، موفق به این کار شدیم. به‌نظر من هوش‌مصنوعی، چندان هم بی‌ضرر نیست.»

چند کارمند از شرکت (PG.N) Procter & Gamble

و اما چندتن از کارمندان شرکت Gamble  به خبرنگار رویترز گفتند که اصلاً نمی‌توانند به پلتفرم هوش‌مصنوعی در رایانه‌های شرکت خود دسترسی داشته باشند؛ و تعدادی دیگر نیز اعلام کردند که ما مجاز به صحبت با مطبوعات نیستیم می‌توانید از مدیران بپرسید که آیا هوش‌مصنوعی در این شرکت استفاده می‌شود یا نه!

با این پاسخ، خبرنگار رویترز نتیجه گرفت که به‌احتمال زیاد نمی‌توان به یافته‌های به‌دست‌آمده از کارکنان این شرکت، استناد کرد.

و در نهایت: پل لوئیس، افسر ارشد امنیت اطلاعات در شرکت امنیت سایبری Nominet، گفت که شرکت‌ها حق دارند در خصوص استفاده از هوش‌مصنوعی محتاط باشند. این ربات با وجود داشتن قابلیت‌های بسیار، اطلاعات کاملاً ایمن ارائه نمی‌کند. اطلاعاتی که باید در مورد آن‌ها محتاط بود. او از خبرنگار رویترز پرسید به‌نظر شما پاسخ‌های مهندسی شده به پرسش‌های کاربران می‌تواند قابل اعتماد باشد؟ اما با همۀ این‌ها، معتقدم که می‌شود با دقت قدم برداشت و راه استفادۀ بهینه از بات هوش‌مصنوعی را آموخت و به مردم یاد داد.

Samsung Electronics

آیا سامسونگ به کارمندان خود اجازۀ استفاده از هوش‌مصنوعی می‌دهد؟

پیش از این نیز تحقیقات مشابهی در کره انجام شده بود و البته در ماه می، Samsung Electronics به کارکنان خود در سراسر جهان دستور داده بود که حق استفاده از ChatGPT و ابزارهای هوش مصنوعی را ندارند. این شرکت در دفاع از این دستور گفته بود: «پس از این‌که باخبر شدیم یک کارمند کد حساسی را در پلتفرم هوش‌مصنوعی آپلود کرده است نتیجه گرفتیم که این ربات می‌تواند مضر باشد. بنابراین در حال بررسی اقداماتی برای ایجاد یک محیط امن برای استفاده از هوش مصنوعی مولد هستیم که بهره‌وری و کارایی کارکنان را افزایش می‌دهد نه تقلب و کارهای مخاطره‌آمیز را و تا زمانی که به این هدف نرسیم، کارمندان حق استفاده از هوش‌مصنوعی نخواهند داشت

نظرات ارزشمند شما

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *