مطابق تحقیقاتی که اخیراً منتشر شده، طیفی از پاسخهای مشابه، شناسایی شده است که نشان میدهد غولهای فنآوری در اکثر موارد از پاسخهای یکدیگر کپی میکنند.
این موضوع، زمانی مطرح شد که کاربران متوجه شدند هوشمصنوعی در تولید تصاویری از سفیدپوستان مردد عمل میکند و همین موضوع باعث شد تا بازخوردهای تندی نسبت به این شرکت نشان دهند.
درهمین حال، بسیاری از کاربران، گوگل را متهم کردند که چتبات خود را برای پیشبرد یک برنامۀ سیاسی تنظیم کرده است.
آزمایشهای دیگر نشان داد که این رفتار سیاستزده، فقط منحصر به گوگل و Gemini نیست؛ بلکه سایر چتباتها مثل OpenAI، ChatGPT 4، Google’s Gemini Pro، Anthropic’s Claude Opus، xAI’s Grok و Meta AI نیز در مورد طیف وسیعی از موضوعات با محوریت نژاد، سیاست، جنسیت، هویت جنسیتی و خشونت، رفتاری مشابه دارند و اطلاعاتی را پیش روی کاربران میگذراند که نشان از سانسور و یا جناحبندی عقیدتی دارد.
آنچه در این تحقیقات مشخص شده است این است: به نظر میرسد پاسخهای رباتهای چت، بیشتر شبیه آن است که شرکتهای فنآوری خودشان صحبت میکنند. یعنی “آنها تعیین میکنند که مخاطبان دربارۀ موضوعات، چگونه فکر کنند.”