İrlanda veri düzenleyicisi, Elon Musk’ın sahibi olduğu X platformunda kullanılan yapay zeka aracı Grok'un, kullanıcılar tarafından yasa dışı veya zararlı içerik oluşturulmasını engelleyip engellemediğini incelemek üzere kapsamlı bir soruşturma başlattığını duyurdu.
İrlanda Veri Koruma Komisyonu (DPC), sosyal medya devi X'e (eski adıyla Twitter) karşı, platformun yapay zeka aracı Grok'un ürettiği içeriklerle ilgili yasal bir süreç başlattı. Komisyon, Elon Musk'ın xAI şirketi tarafından geliştirilen ve sosyal medya platformuna entegre edilen Grok'un, uygunsuz ve yanıltıcı görseller üretilmesine karşı yeterli önlemleri alıp almadığını mercek altına aldı.
Avrupa Birliği genelinde veri koruma yasalarının uygulanmasında kilit rol oynayan DPC, başlattığı bu soruşturmanın, X'in Dijital Hizmetler Yasası (DSA) ve Genel Veri Koruma Tüzüğü (GDPR) kapsamındaki yükümlülüklerine odaklandığını belirtti. Soruşturma, özellikle Grok'un kamuya mal olmuş kişilerin sahte görüntülerini (deepfake) veya şiddet içeren materyalleri üretme kapasitesi üzerine yoğunlaşıyor.
Endişe Kaynağı: Denetimsiz Görüntü Üretimi
Soruşturmanın temelinde, Grok'un kullanıma sunulmasından kısa bir süre sonra ortaya çıkan raporlar yatıyor. Kullanıcıların, Grok'un görüntü oluşturma özelliklerini kullanarak siyasi figürlerin ve ünlülerin uygunsuz, yanıltıcı veya zararlı görsellerini üretebildiği yönündeki şikayetler, düzenleyici kurumların dikkatini çekti. DPC, bu tür içeriklerin yayılmasının dezenformasyon riskini artırdığına ve bireylerin itibarını zedeleyebileceğine dikkat çekiyor.
Komisyon yetkilileri, X platformunun bu riskleri azaltmak için teknik ve idari olarak hangi tedbirleri aldığını inceleyecek. Özellikle, kullanıcıların zararlı içerik üretmesini engelleyen filtreleme mekanizmalarının etkinliği ve platformun bu tür içerikleri tespit edip kaldırma hızı sorgulanacak.
AB Mevzuatı ve Muhtemel Yaptırımlar
İrlanda Veri Koruma Komisyonu, Avrupa Birliği'ndeki birçok büyük teknoloji şirketi için ana düzenleyici otorite konumunda bulunuyor. Başlatılan bu soruşturma, AB'nin son dönemde teknoloji devlerine yönelik sıkı denetim politikasının bir parçası olarak değerlendiriliyor.
Eğer soruşturma sonucunda X'in gerekli güvenlik önlemlerini almadığı veya AB yasalarını ihlal ettiği tespit edilirse, şirket ciddi yaptırımlarla karşı karşıya kalabilir. Bu yaptırımlar arasında, şirketin küresel cirosunun belirli bir yüzdesine varan ağır para cezaları ve platformun Avrupa'daki faaliyetlerine yönelik operasyonel kısıtlamalar bulunuyor.
Soruşturma süreci devam ederken, X yönetiminden konuya ilişkin henüz resmi bir açıklama yapılmadı. Uzmanlar, bu davanın üretken yapay zeka teknolojilerinin denetimi konusunda emsal teşkil edebileceğini belirtiyor.