مقامات بریتانیایی به سازمانها در مورد ادغام چتباتهای مبتنی بر هوش مصنوعی در کسبوکارشان هشدار میدهند و میگویند که تحقیقات به طور فزایندهای نشان داده است که میتوان آنها را فریب داد تا وظایف مضر را انجام دهند.
مرکز (NCSC) گفت که کارشناسان هنوز با مشکلات امنیتی بالقوه مرتبط با الگوریتمهایی که میتوانند تعاملاتی با صدای انسان ایجاد کنند – مدلهای زبان بزرگ یا LLM نامیده میشوند- مقابله نکردهاند.
به نظر میرسد ابزارهای هوش مصنوعی پیش از آنکه بهدرستی بررسی شوند مورد استفاده قرار گرفتند.
این مرکز همچنین گفت که استفاده از هوشمصنوعی، در آیندهای نهچندان دور میتواند خطرهایی به همراه داشته باشد به ویژه اگر چنین مدلهایی به سایر سازمانها وصل شوند فرآیندهای کسب و کار و پژوهشی را با خطری جدی روبهرو خواهند کرد.
به عنوان مثال، یک ربات گفتگوی مبتنی بر هوش مصنوعی که توسط یک بانک به کار گرفته شده، ممکن است بهراحتی و با چند دستور ساده، فریب داده شود تا یک تراکنش غیرمجاز انجام دهد،
اگر یک هکر بتواند از این باگ بهره ببرد خسارتهایی که به بار میآید غیرقابل جبران خواهد بود.
NCSC در یکی از پستهای وبلاگ خود با اشاره به نسخههای آزمایشی نرمافزار میگوید: «امیدوارم صاحبان کسب و کار بهطورکامل به هوشمصنوعی اعتماد نکنند چرا که خطر هک در کمین است.»