تصاویر تولید شده با هوش مصنوعی این روزها بسیار رایج بوده و در سطحی قرار دارد که تشخیص یک تصویر تولید شده توسط هوش مصنوعی و واقعی بسیار دشوار است.
بنابراین این نگرانی را در مورد سوء استفاده احتمالی از هوش مصنوعی به دنبال دارد. شرکت OpenAI پیشتر واترمارک هایی را برای تصاویر تولید شده از DALL-E 3 برای حفظ شفافیت در مورد منبع و احترام به اصالت ارائه کرد. این شرکت اکنون در حال توسعه ابزاری بوده که قادر است تصاویر واقعی را از تصاویری که توسط هوش مصنوعی چون مدل هوش مصنوعی DALL-E تولید شده را تشخیص دهد.
بلاگ رسمی شرکت OpenAI این اطلاعیه را منتشر و اظهار داشت که آنها در حال کار بر روی روش جدیدی جهت شناسایی محتوای تولید شده توسط هوش مصنوعی است. این شرکت اعلام کرد، هدف کمک به محققان در مطالعه اصالت محتوا و پیوستن به کمیته راهبری منشأ و اصالت محتوا (C2PA) بوده که استانداردی پرکاربرد برای صدور گواهی محتوای دیجیتال محسوب میشود. این به سازندگان اجازه داده تا محتوای خود را برچسبگذاری و تأیید کنند تا منشأ واقعی تایید شود.
در سوی دیگر OpenAI افزود که آنها همچنین ابرداده C2PA را برای Sora، مدل تولید ویدیوی، در صورت عرضه گسترده، یکپارچه میکند. برای کسانی که مطلع نیستند، Sora یک ابزار رده بالا در تولید متن به ویدیو است، همچون DALL-E 3، که تنها کاربران پولی به آن دسترسی دارند. طبق گزارش پیشین، سورا تا سال 2024 در دسترس عموم قرار میگیرد.
همانطور که گفته شد، OpenAI همچنین در حال توسعه ابزار جدیدی بوده که از هوش مصنوعی برای شناسایی تصاویر تولید شده توسط DALL-E 3 بهره میگیرد. به طور ویژه، احتمال تولید تصویر توسط ابزار را تشخیص خواهد داد. به گفته OpenAI، پس از فشرده شدن تصویر، تغییر اشباع یا حتی برش تصویر، همچنان میتوان تصویر را تشخیص داد. همچنین باید بیان داشت، هدف این ابزارها مقاومت بیشتر در برابر تلاش برای حذف سیگنالهای مربوط به منشاء محتوا هم محسوب میشود.
ابزار تشخیص تصاویر ایجاد شده با DALL-E دارای دقت 98 درصدی بوده و گذشته از آن، تصاویر تولید شده با هوش مصنوعی به عنوان تولید شده توسط هوش مصنوعی علامت نخواهند خورد. با تمام این اوصاف OpenAI همیشه سعی کرده حقوق تولیدکننده را حفظ کند و مانع از سو استفاده شود.
برای کسب جزئیات بیشتر باید منتظر ماند تا این ابزار به کار گرفته شود و روش تشخص سهل گردد.