AB, X Sosyal Medya Platformunda Grok Araçlarına Yönelik Soruşturma Başlattı

Avrupa Birliği, X Platformu Üzerindeki Grok Araçlarını İnceliyor

Avrupa Birliği, X isimli sosyal medya platformunda yer alan yapay zeka aracı Grok üzerinde, rızaya dayanmadan üretilen cinsel içeriklere ilişkin ciddi bir soruşturma başlattı. İrlanda Veri Koruma Komisyonu (DPC), bu içeriklerin Avrupa Birliği ve Avrupa Ekonomik Alanı’ndaki bireylerin kişisel verilerinin işlenmesine dair bir ihlal durumunu araştıracak. Dikkatler, özellikle Genel Veri Koruma Tüzüğü (GDPR) kapsamında bu ihlallerin olup olmadığında yoğunlaşıyor. Soruşturma, hem içerik üretim süreçlerini hem de veri işleme yöntemlerini kapsamaktadır. Bu durum, X’in Avrupa’daki düzenleyici baskılarla yeniden yüzleştiğini gösteriyor.

AB, X Sosyal Medya Platformunda Grok Araçlarına Yönelik Soruşturma Başlattı

Aralık ayının sonu ile ocak ayı arasındaki dönemde yapılan bağımsız bir inceleme, Grok aracılığıyla yaklaşık 3 milyon cinsel içerikli görselin üretildiğini ortaya koydu. İngiltere merkezli Center for Countering Digital Hate (CCDH) tarafından yayınlanan verilere göre, bu içeriklerin yaklaşık 23 bini çocuklara ait görsellerden oluşuyor. Bu bulgular, platformda yapay zekanın denetim süreçlerinin yetersiz olduğunu göstermekte ve çocuklara yönelik cinsel içerik üretimi iddiaları, düzenleyicilerin müdahale alanlarının başında yer alıyor. Ancak, platformun mevcut güvenlik önlemlerinin ne kadar etkili olduğu hala tartışma konusu olmaya devam ediyor.

GDPR ve Dijital Hizmetler Yasası Kapsamında İncelemeler

İrlanda Veri Koruma Komisyonu, X’in Avrupa’daki ana ofisi olan X Internet Unlimited Company (XIUC) üzerinden yürütülen veri işleme faaliyetlerini dikkatlice inceliyor. DPC yetkilileri, Grok’un cinsel içerikli görüntüler üretebildiğine dair haberler sonrası şirketle temas kurduklarını belirtti. Şirket, bazı teknik kısıtlamalar getirdiğini ifade etse de, soruşturma bu önlemlerin GDPR çerçevesinde yeterli olup olmadığını değerlendirecek. Özellikle açık rıza, veri minimizasyonu ve çocukların korunmasına ilişkin düzenlemeler kritik bir öneme sahip. Ayrıca, sınır ötesi veri işlemeleri nedeniyle soruşturmanın sonuçları tüm Avrupa Birliği genelinde bağlayıcı olabilir.

Öte yandan, Avrupa Komisyonu da ocak ayı itibarıyla Dijital Hizmetler Yasası (DSA) çerçevesinde X hakkında ayrı bir inceleme başlattı. Bu süreç, Grok’un yasa dışı içeriklerin yayılmasına yönelik risklerinin yeterince değerlendirilip azaltılıp azaltılmadığını sorguluyor. DSA, büyük çevrimiçi platformlara sistemik riskleri analiz etme ve bunları azaltma yükümlülüğü getiriyor. Ancak mevcut iddialar, özellikle rızaya dayanmayan cinsel içeriklerin varlığı durumunda, platformun içerik denetimi ve risk yönetimi süreçlerinin sorgulanmasına yol açtı. Çocuklara yönelik içerik üretimi iddiaları, düzenleyici kurumların bu alandaki hassasiyetini artırmıştır.

Teknik Kısıtlamalar ve Denetimler Arasındaki Uçurum

X yönetimi, ocak ayı ortasında Grok’un kişilerin fotoğraflarını düzenleyip açık kıyafetler eklemesini engellediğini duyurdu. Ancak, yakın zamanda yapılan testlerde sistemin hâlâ benzer manipülasyonlara izin verdiği gözlemlendi. Bir gazetecinin gerçekleştirdiği denemede, Grok’un bir kişinin fotoğrafını daha açık kıyafetlerle yeniden oluşturduğu ve hatta çıplaklık unsurları eklediği bildirildi. Bu durum, uygulanan teknik sınırlamalar ile gerçek uygulama sonuçları arasında bir tutarsızlık olduğunu göstermekte.

Son dönemlerde Avrupa’da yapay zeka sistemlerinin denetimi daha sıkı bir hale getiriliyor. Yapay Zeka Yasası’nın kabul edilmesiyle birlikte, özellikle yüksek riskli sistemlere yönelik şeffaflık ve güvenlik gereklilikleri artış göstermiştir. Ancak mevcut soruşturma, doğrudan GDPR ve DSA hükümleri çerçevesinde yürütülmekte. Eğer potansiyel ihlaller tespit edilirse, X, küresel cirosunun yüzde 4’üne kadar varan para cezalarıyla karşılaşabilir. Tüm bunların yanı sıra, platformun içerik denetimi politikaları ve yapay zeka araçlarının sınırlandırılması ile ilgili yeni düzenlemeler gündeme gelebilir.

Tüm bu gelişmeler, yapay zeka destekli içerik üretim araçlarının kişisel veri koruma ve çocuk güvenliği açısından nasıl yönetileceğine dair daha geniş bir tartışmayı da beraberinde getiriyor. Avrupa’daki düzenleyiciler, teknoloji şirketlerinden daha güçlü teknik ve idari önlemler talep ediyor. Ancak uygulamada ortaya çıkan açıklar, mevcut denetim mekanizmalarının etkinliği konusunda soru işaretleri yaratıyor. İlerleyen dönemlerde bu soruşturmanın bulguları, hem X’in Avrupa’daki faaliyetleri hem de benzer yapay zeka sistemlerinin regülasyonu açısından etkili bir rol oynayacak.

Yorum yapın