AB Düzenleyicileri X'i Soruşturuyor: Grok Deepfake Skandalı 3 Milyon Görüntüyü Etkiledi
AB düzenleyicileri, X platformunda Grok yapay zeka modeline ilişkin yaklaşık 3 milyon deepfake görüntünün yayılımını soruşturuyor; odağı veri koruma, içerik moderasyonu, algoritmik şeffaflık ve olası yaptırımlar oluşturmaktadır.

Soruşturmanın Kapsamı
AB düzenleyicileri, X platformunda tespit edilen Grok kaynaklı deepfake skandalını çok yönlü biçimde inceliyor; soruşturma kişisel verilerin korunması, içerik moderasyonu, algoritmik şeffaflık ve platform sorumluluğu başlıklarını kapsıyor. Yetkililer X'ten olayla ilgili veri ve günlük kayıtları, moderasyon süreçleri ile kullanıcı şikâyetlerini talep etti; ayrıca üye ülkelerin veri koruma kurumlarıyla koordineli hareket ediliyor ve gerektiğinde uluslararası iş birliği imkanları değerlendiriliyor.
İlginizi Çekebilir: Ripple Körfez Genişlemesini Hedefliyor: RLUSD Suudi Benimseme Yolunu Test Ediyor
Grok Ve Deepfake Yayılımı
Grok yapay zeka modeline atfedilen veya ilişkili olduğu bildirilen yaklaşık 3 milyon deepfake görüntünün nasıl üretildiği ve hızla yayıldığı soruşturmanın merkezinde yer alıyor. Görsellerin bir kısmı otomatik araçlarla üretilmiş, bazıları ise meta verileri silinerek veya manipüle edilerek paylaşılmış olabilir; bu durum tespit ve izleme çalışmalarını zorlaştırıyor. Uzmanlar yayılımın sosyal ağ algoritmalarıyla hızlandığını ve bot destekli dağıtımın etkili olduğunu belirtiyor.
AB Düzenleyicilerinin Endişeleri
Avrupa düzenleyicileri, söz konusu görüntülerin GDPR ve platform güvenliği kurallarıyla çelişip çelişmediğini, kullanıcı haklarının ihlal edilip edilmediğini ve dezenformasyonun toplumsal etkilerini mercek altına alıyor. Endişeler arasında kişisel mahremiyetin ihlali, kimlik ve itibar zararları, seçim güvenliği riskleri ve yapay zeka sistemlerinin sorumluluk mekanizmalarının eksikliği yer alıyor; bu çerçevede düzenleyiciler şeffaflık, denetim ve hesap verebilirlik taleplerini sıklaştırabilir.
Olası Yaptırımlar Ve İyileştirmeler
Soruşturma sonucuna bağlı olarak X platformu için uyum programları, zorunlu şeffaf raporlama, bağımsız denetimler ve hızlı müdahale mekanizmaları gibi zorlayıcı önlemler gündeme gelebilir; ağır ihlallerde ise para cezaları veya uygulama kısıtlamaları söz konusu olabilir. Düzenleyiciler ayrıca yapay zeka modellerinde güvenlik ve etik standartlarının yükseltilmesini, içerik tespiti ve etiketleme araçlarının güçlendirilmesini ile kullanıcı bildirim süreçlerinin iyileştirilmesini talep edebilir.