ابزار جدید هوش مصنوعی برای محافظت از تصاویر در برابر ویرایش‌ و سوء استفاده

ارشادی
اشتراک‌گذاری در:
ابزار هوش مصنوعی PhotoGuard

هوش مصنوعی (AI) که با سرعت زیادی تکامل یافته است. مدل‌های مولد هوش مصنوعی مانند Dall-E هم از نظر تعداد و هم از نظر توانایی رشد زیادی کرده‌اند. علاوه بر این، شرکت‌های بزرگ فناوری نیز به طور مداوم مدل‌های هوش مصنوعی خود را بهبود می‌بخشند تا رقبای خود را کنار بگذارند. در حال حاضر، چت ربات‌های مبتنی بر هوش مصنوعی که در سراسر اینترنت در دسترس هستند، قابلیت‌هایی برای ویرایش تصاویر و همچنین ایجاد آن‌ها ارائه می‌کنند. شرکت‌هایی مانند Shutterstock و Adobe با توسعه بیشتر این مدل‌های هوش مصنوعی پیشرو هستند. با این حال، این قابلیت‌ها در حال تبدیل شدن به یک نتیجه خطرناک است.
هکرها از این مدل‌های هوش مصنوعی برای دستکاری غیرقانونی و حتی سرقت آثار هنری و تصاویر آنلاین موجود سوء استفاده می‌کنند. مجرمان سایبری سپس از تصاویر ایجاد شده یا دستکاری شده برای کلاهبرداری از کاربران و انتشار اطلاعات نادرست استفاده می‌کنند. از سرقت آثار هنری و تصاویر می‌توان با تکنیک‌های واترمارک جلوگیری کرد، اما برای دستکاری تصاویر موجود کارایی ندارد.

PhotoGuard چیست و چگونه کار می‌کند

طبق گزارشی که توسط لابراتوار علوم کامپیوتر و هوش مصنوعی Engadget MIT انجام شده، تکنیکی به نام PhotoGuard برای محافظت از تصاویر در برابر تغییر توسط هوش مصنوعی توسعه داده شده است. این ابزار پیکسل‌های انتخاب شده را در یک تصویر تغییر می‌دهد که از توانایی هوش مصنوعی برای درک تصویر جلوگیری می‌کند.
تیم تحقیقاتی این تغییرات پیکسلی را «آشفتگی» نامید که برای چشم انسان نامرئی است و فقط توسط ماشین‌ها قابل خواندن است. طبق گفته تیم، روش حمله «رمزگذار» می‌تواند موقعیت و رنگ هر پیکسل را در یک تصویر تغییر دهد. این امر مانع از آن می‌‌شود که هوش مصنوعی متوجه آنچه که به آن نگاه می‌کند.
روش‌های محاسباتی پیشرفته‌تر و فشرده‌تر، تصویر را به عنوان تصویری متفاوت برای هوش مصنوعی استتار می‌کنند. این ابزار با بهینه‌سازی تغییرات در تصویر واقعی، تصویر متفاوتی را نشان می‌دهد تا شبیه تصویر «هدف شده» شود. اگر هوش مصنوعی سعی کند هر گونه تغییری در تصویر «محافظت شده» ایجاد کند، روی تصاویر “هدف” جعلی اعمال می‌شود. نتیجه یک تصویر تولید شده توسط هوش مصنوعی است که غیرواقعی به‌نظر می‌رسد.

آنچه توسعه دهندگان در مورد این ابزار گفتند

«حمله رمزگذار باعث می‌شود که مدل فکر کند که تصویر ورودی (برای ویرایش) یک تصویر دیگر است (مثلاً یک تصویر خاکستری). در حالی‌که حمله انتشار، مدل انتشار را مجبور می‌کند تا به سمت تصویر هدف (که می‌تواند کمی خاکستری نیز باشد) ویرایش کند. یا تصویر تصادفی)»
این تکنیک بی‌خطا نیست زیرا کلاهبرداران می‌توانند با افزودن نویز دیجیتال، برش یا ورق زدن تصویر، تصویر محافظت‌شده را مهندسی معکوس کنند.

رویکرد مشترک شامل توسعه‌دهندگان مدل، پلتفرم‌های رسانه‌های اجتماعی و سیاست‌گذاران، دفاعی قوی در برابر دستکاری غیرمجاز تصویر ارائه می‌کند. کار بر روی این موضوع مبرم امروز از اهمیت بالایی برخوردار است. برای عملی کردن این محافظت به کار زیادی نیاز است. شرکت‌هایی که این مدل‌ها را توسعه می‌دهند باید در مهندسی ایمن‌سازی قوی در برابر تهدیدات احتمالی ناشی از این ابزارهای هوش مصنوعی سرمایه گذاری کنند.

نظرات ارزشمند شما

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *