Search
Close this search box.
،

در مدت کوتاهی پس از انتشار، نشت داده‌های جمینی شناسایی شد

ارشادی
اشتراک‌گذاری در:
نشت اطلاعات از هوش مصنوعی گوگل (جمینی)

در 8 فوریه 2024، گوگل Gemini را معرفی کرد، اپلیکیشن جدیدی که برای گوشی‌های هوشمند طراحی شده است تا هم به‌عنوان یک ربات چت مکالمه و هم به‌عنوان دستیار دیجیتال فعال صوتی عمل کند. Gemini که قادر به پاسخگویی به دستورات صوتی و متنی است، طیف گسترده‌ای از عملکردها از جمله پاسخ به سؤالات، تولید تصاویر، تهیه پیش نویس ایمیل، تجزیه و تحلیل عکس‌های شخصی و موارد دیگر را ارائه می‌دهد.

بلافاصله پس از انتقال از Google Bard به Gemini AI، نگرانی‌هایی در میان کاربرانی ایجاد شد که گمان می‌کردند درخواست‌ها و دستورهایشان در نتایج جستجوی Google درز می‌کند.

در ساعات اولیه روز سه شنبه، 13 فوریه، حضور چت‌های گوگل جمینی در نتایج جستجو کاهش یافت و تنها سه نتیجه قابل مشاهده بود. با پیشروی بعد از ظهر، این تعداد بیشتر کاهش یافت و تنها یک نتیجه جستجو حاوی چت‌های لو رفته جمینی باقی ماند.

مطالب مرتبط: چگونه یک سایت فیشینگ مبتنی بر ChatGPT را شناسایی کنیم؟

مدت کوتاهی پس از آن، شرکت چند ملیتی آمریکایی توضیحاتی را ارائه کرد و به پدیده نشت سهوی داده‌ها که از سیستم‌های نگهداری داده‌های گوگل سرچشمه می‌گیرد، پرداخت.

بحث نشت داده‌های هوش مصنوعی گوگل جمینی

آنچه آشکار شد، ظهور گزارش‌هایی در پلتفرم‌های رسانه‌های اجتماعی بود که نشان می‌داد صفحات چت مرتبط با هوش مصنوعی Gemini به‌صورت آنلاین درز کرده است. این افشاگری باعث نگرانی‌های فوری در مورد حریم خصوصی و امنیت داده‌ها شد. نشت داده‌های هوش مصنوعی گوگل جمینی.

منبع: Google با این حال، پس از بررسی دقیق‌تر، مشخص شد که این حادثه از شیوه‌های نمایه‌سازی موتورهای جستجو مانند بینگ ناشی شده است.

شکاف حفظ اطلاعات هوش مصنوعی Google Gemini

با توجه به نشت توسط گوگل و اصلاح آن، مکالماتی در مورد مکانیسم‌های زیربنایی هوش مصنوعی Gemini و پیامدهای آن برای حفظ حریم خصوصی کاربران مطرح شده است.

نگرانی‌هایی در مورد حفظ داده‌های شخصی Gemini AI مطرح شد، با گزارش‌هایی که نشان می‌دهد مکالمات به‌طور بالقوه می‌توانند تا سه سال ذخیره شوند.

هنگام بحث در مورد نشت داده‌های هوش مصنوعی Google Gemini، کاربران اینترنت نگرانی‌های شدیدی را در مورد امنیت داده‌های خود ابراز کردند. Chamil R. Tennekoon، یکی از کاربران X در توییتی نوشت: «هوش مصنوعی Google مکالمات را برای سال‌ها حفظ می‌کند. دستیار هوش مصنوعی گوگل Gemini اطلاعات شخصی خود را تا سه سال نگه می‌دارد، حتی اگر افراد بخواهند داده‌های خود را حذف کنند».

با توجه به این حادثه امنیتی که باعث نگرانی کاربران شد، گوگل بیانیه‌ای رسمی با هدف رسیدگی و شفاف‌سازی این موضوع صادر کرد. از طریق این بیانیه، همراه با تلاش‌ها برای ارائه کنترل بیشتر به کاربران بر حفظ داده‌ها، گوگل به دنبال کاهش نگرانی‌های مربوط به مکانیسم حفظ هوش مصنوعی Google Gemini بود.

«Google مکالمات Gemini Apps، اطلاعات مربوط به استفاده از محصول، اطلاعات مکان و بازخورد شما را جمع‌آوری می‌کند. Google از این داده‌ها، مطابق با خط‌مشی رازداری ما، برای ارائه، بهبود و توسعه محصولات و خدمات Google و فناوری‌های یادگیری ماشینی، از جمله محصولات سازمانی Google مانند Google Cloud، استفاده می‌کند.»

بیشتر بخوانید: ربات‌های چت هوش مصنوعی و خطرات سایبری

ربات‌های چت هوش مصنوعی تحت تهدیدات سایبری مداوم

در گذشته اخیر، ربات‌های چت هوش مصنوعی به‌طور فزاینده‌ای به اهدافی برای حملات سایبری تبدیل شده‌اند و توجه را به آسیب‌پذیری‌های ذاتی در چنین پلتفرم‌های پرکاربردی جلب می‌کنند. شایان ذکر است، ChatGPT OpenAI، رقیب سرسخت هوش مصنوعی Gemini، از زمان راه‌اندازی خود در نوامبر ۲۰۲۲، رشد سریعی را تجربه کرد و میلیون‌ها کاربر را ظرف چند روز جمع کرد و جایگاه خود را به‌عنوان یکی از سریع‌ترین برنامه‌های مصرف‌کننده در تاریخ حفظ کرد.

با این حال، این محبوبیت آن را به هدف تهدیدات سایبری نیز تبدیل کرد. در ماه مه سال بعد، یک گروه هکریست مسئولیت حمله به وب‌سایت OpenAI را بر عهده گرفت و به نقض احتمالی آینده اشاره کرد. در پاسخ به حوادث امنیتی، OpenAI به‌طور موقت برخی از محصولات را آفلاین کرد تا آسیب را کاهش دهد.

متعاقباً، در ژوئن 2023، یک شرکت امنیت سایبری بیش از 100.000 دستگاه آلوده به بدافزار را کشف کرد که اعتبار ChatGPT را در معرض خطر قرار داده بود که منجر به نگرانی‌هایی در مورد امنیت داده‌ها شد. با وجود گزارش‌هایی مبنی بر افشای اطلاعات، OpenAI این مشکل را به بدافزار موجود در دستگاه‌های کاربران نسبت داد.

در نوامبر 2023، OpenAI ظاهراً با حمله سایبری دیگری مواجه شد و کاربران برای دسترسی به پورتال‌های ChatGPT خود با مشکلاتی مواجه شدند. با این حال، صحت این ادعاها توسط منابع رسمی تایید نشده است و چالش‌های جاری در حفاظت از چت‌بات‌های هوش مصنوعی در برابر تهدیدات سایبری را برجسته می‌کند.

مزایا و چالش‌های امنیتی Gemini AI

در میان ربات‌های چت مجهز به هوش مصنوعی که به‌طور گسترده در دسترس هستند، هوش مصنوعی Gemini به دلیل سرعت، دقت و تطبیق پذیری آن متمایز است. در حالی که مقایسه با سایر ربات‌های چت مانند ChatGPT و Microsoft Copilot، ویژگی‌ها و قابلیت‌های منحصربه‌فرد Gemini AI آن را متمایز می‌کند.

با این وجود، نگرانی‌های مربوط به حفظ حریم خصوصی و امنیتی، به‌ویژه با توجه به حجم قابل توجهی از داده‌های کاربر که به‌طور مداوم روزانه به ربات‌های چت ارائه می‌شود، موضوع مهمی برای بحث باقی می‌ماند.

مطالب مرتبط: آیا Gemini بهتر از ChatGPT است؟

برای چت‌بات‌ها، آسیب‌پذیری‌های مهم ممکن است شامل فقدان رمزگذاری در طول تعاملات مشتری و ربات، آموزش ناکافی کارکنان که منجر به قرار گرفتن در معرض داده‌ها می‌شود، و آسیب‌پذیری در پلتفرم‌های میزبانی شود.

وقتی این آسیب‌پذیری‌ها توسط عوامل مخرب مورد سوء استفاده قرار می‌گیرند، می‌توانند خطرات قابل توجهی برای کاربران و کسب‌وکارها ایجاد کنند و اهمیت اقدامات به‌روز شده امنیت سایبری را برجسته کنند.

نظرات ارزشمند شما

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *