Yapay zeka teknolojisinin hızla gelişmesi ve bunun sonucunda ortaya çıkan AI tarafından üretilen görüntülerin güvenilirliği konusu, OpenAI tarafından yakından takip ediliyor. OpenAI’nin arkasındaki firma, ChatGPT ve DALL-E 3 modeli tarafından üretilen tüm görüntülere filigranlar ekleyeceğini duyurdu. Bu adım, görüntülerin kaynaklarını belirlemeye ve içeriği AI aracılığıyla mı yoksa insanlar tarafından mı oluşturulduğunu göstermeye yönelik bir önlem olarak kabul ediliyor.
OpenAI’nin yaptığı açıklamaya göre, kullanılacak filigranlar Content Provenance and Authenticity (C2PA) standartlarını temel alacak. Bu filigranlar, ChatGPT web sitesinde ve DALL-E 3 modeli için API’de oluşturulan görüntülerde görünecek. Mobil kullanıcılar içinse bu özellik 12 Şubat tarihinde kullanılabilir hâle gelecek.
C2PA filigranları, görünmez bir metadata bileşeni barındıracak ve her görüntünün sol üst köşesinde görünecek olan “CR” sembolüyle birlikte olacak. Bu sayede kullanıcılar, OpenAI tarafından oluşturulan herhangi bir görüntünün kaynağını kontrol edebilecekler. Web siteleri aracılığıyla Content Credentials Verify gibi platformlar sayesinde görüntülerin içeriğini oluşturmak için hangi AI aracının kullanıldığını tespit etmek mümkün olacak.
OpenAI, filigranların görüntü kalitesini etkilemeyeceğini ve sadece metadata düzeyinde yer alacağını belirtiyor. Bununla birlikte, görüntü boyutlarında küçük bir artış yaşanabileceği ifade ediliyor.
Ancak, görsel ve metadata filigranları kesin bir çözüm sunmuyor. Bu filigranlar kolayca görüntülerden çıkarılabiliyor. Hatta sadece bir ekran görüntüsü almak bile metadata filigranının kaldırılmasına neden olabiliyor. Ayrıca, çoğu sosyal medya platformu yüklenen içeriklerden metadata’yı genellikle siliyor.
OpenAI’nin bu adımı, yapay zeka tarafından üretilen görüntülerin kaynakları ve güvenilirliği konusunda farkındalığı artırmayı hedefliyor. Diğer şirketlerin de benzer filigranlar kullanarak bu alanda adımlar atması bekleniyor.