هوش مصنوعی (AI) که با سرعت زیادی تکامل یافته است. مدلهای مولد هوش مصنوعی مانند Dall-E هم از نظر تعداد و هم از نظر توانایی رشد زیادی کردهاند. علاوه بر این، شرکتهای بزرگ فناوری نیز به طور مداوم مدلهای هوش مصنوعی خود را بهبود میبخشند تا رقبای خود را کنار بگذارند. در حال حاضر، چت رباتهای مبتنی بر هوش مصنوعی که در سراسر اینترنت در دسترس هستند، قابلیتهایی برای ویرایش تصاویر و همچنین ایجاد آنها ارائه میکنند. شرکتهایی مانند Shutterstock و Adobe با توسعه بیشتر این مدلهای هوش مصنوعی پیشرو هستند. با این حال، این قابلیتها در حال تبدیل شدن به یک نتیجه خطرناک است.
هکرها از این مدلهای هوش مصنوعی برای دستکاری غیرقانونی و حتی سرقت آثار هنری و تصاویر آنلاین موجود سوء استفاده میکنند. مجرمان سایبری سپس از تصاویر ایجاد شده یا دستکاری شده برای کلاهبرداری از کاربران و انتشار اطلاعات نادرست استفاده میکنند. از سرقت آثار هنری و تصاویر میتوان با تکنیکهای واترمارک جلوگیری کرد، اما برای دستکاری تصاویر موجود کارایی ندارد.
PhotoGuard چیست و چگونه کار میکند
طبق گزارشی که توسط لابراتوار علوم کامپیوتر و هوش مصنوعی Engadget MIT انجام شده، تکنیکی به نام PhotoGuard برای محافظت از تصاویر در برابر تغییر توسط هوش مصنوعی توسعه داده شده است. این ابزار پیکسلهای انتخاب شده را در یک تصویر تغییر میدهد که از توانایی هوش مصنوعی برای درک تصویر جلوگیری میکند.
تیم تحقیقاتی این تغییرات پیکسلی را «آشفتگی» نامید که برای چشم انسان نامرئی است و فقط توسط ماشینها قابل خواندن است. طبق گفته تیم، روش حمله «رمزگذار» میتواند موقعیت و رنگ هر پیکسل را در یک تصویر تغییر دهد. این امر مانع از آن میشود که هوش مصنوعی متوجه آنچه که به آن نگاه میکند.
روشهای محاسباتی پیشرفتهتر و فشردهتر، تصویر را به عنوان تصویری متفاوت برای هوش مصنوعی استتار میکنند. این ابزار با بهینهسازی تغییرات در تصویر واقعی، تصویر متفاوتی را نشان میدهد تا شبیه تصویر «هدف شده» شود. اگر هوش مصنوعی سعی کند هر گونه تغییری در تصویر «محافظت شده» ایجاد کند، روی تصاویر “هدف” جعلی اعمال میشود. نتیجه یک تصویر تولید شده توسط هوش مصنوعی است که غیرواقعی بهنظر میرسد.
آنچه توسعه دهندگان در مورد این ابزار گفتند
«حمله رمزگذار باعث میشود که مدل فکر کند که تصویر ورودی (برای ویرایش) یک تصویر دیگر است (مثلاً یک تصویر خاکستری). در حالیکه حمله انتشار، مدل انتشار را مجبور میکند تا به سمت تصویر هدف (که میتواند کمی خاکستری نیز باشد) ویرایش کند. یا تصویر تصادفی)»
این تکنیک بیخطا نیست زیرا کلاهبرداران میتوانند با افزودن نویز دیجیتال، برش یا ورق زدن تصویر، تصویر محافظتشده را مهندسی معکوس کنند.
رویکرد مشترک شامل توسعهدهندگان مدل، پلتفرمهای رسانههای اجتماعی و سیاستگذاران، دفاعی قوی در برابر دستکاری غیرمجاز تصویر ارائه میکند. کار بر روی این موضوع مبرم امروز از اهمیت بالایی برخوردار است. برای عملی کردن این محافظت به کار زیادی نیاز است. شرکتهایی که این مدلها را توسعه میدهند باید در مهندسی ایمنسازی قوی در برابر تهدیدات احتمالی ناشی از این ابزارهای هوش مصنوعی سرمایه گذاری کنند.