Anthropic, Çinli Şirketleri Claude’un İstismarı ile Suçladı
Yapay zekâ endüstrisinin hızla geliştiği günümüzde rekabetin ne denli sertleştiği bir kez daha ortaya çıktı. ABD merkezli teknoloji şirketi Anthropic, DeepSeek, Moonshot ve MiniMax adını verdikleri üç Çinli yapay zekâ girişimini, Claude isimli sohbet botlarını kötüye kullanmakla suçladı. Anthropic’in yaptığı açıklamalara göre, bu firmalar Claude’un yeteneklerini izinsiz bir şekilde kullanarak kendi yapay zeka modellerini geliştirmeye çalışıyorlar. Bu durumun sadece ticari rekabetle sınırlı kalmadığını, aynı zamanda güvenlik ve etik sorunları da barındırdığı vurgulanıyor. Fakat bu iddialara ilişkin, suçlamaların muhataplarından henüz resmi bir yanıt gelmiş değil.

Anthropic’in açıklamasında, yapay zekâ alanında sıkça karşılaşılan bir teknik olan “distillation” yöntemi üzerinden önemli bir tartışma yürütüldüğü belirtildi. Distilasyon, daha güçlü bir yapay zekânın, daha az yetenekli bir modelin eğitimi için yanıtlarını referans alması anlamına geliyor. Akademik çevrelerde kabul gören bu yöntem, açık kaynak projelerinde yaygınlık kazanmış olsa da, Anthropic bu örnekteki uygulamanın kötüye kullanıldığını iddia ediyor. Şirket, Claude’un yanıtlarının sistematik olarak toplanarak rakiplerin yapay zeka modellerini eğitmek için kullanıldığını ileri sürüyor. Bu durumun, belirli güvenlik önlemlerinin dolaylı olarak aşılmasına da neden olabileceği ifade ediliyor.
Anthropic’in verilerine göre, DeepSeek, Moonshot ve MiniMax ile bağlantılı faaliyetler çerçevesinde yaklaşık 24 bin sahte hesap oluşturuldu. Bu hesaplar aracılığıyla Claude ile 16 milyondan fazla etkileşim gerçekleştirilmiş. Şirket, bu faaliyetlerin ilgili firmalarla “yüksek güvenle” ilişkilendirilebildiğini belirterek, IP adresi eşleşmeleri, meta veri talepleri ve altyapı göstergeleri gibi çeşitli kanıtlar sunduklarını aktarıyor. Ayrıca, diğer yapay zeka şirketleriyle yapılan bilgi paylaşımı sonucunda benzer davranış kalıpları tespit edildiğini de ekliyor.
Distilasyon yönteminin tamamen yasa dışı bir uygulama olarak görülmediği de dikkat çekiyor. Bu teknik, akademik çalışmalarda ve açık model geliştirme süreçlerinde yaygın olarak kullanılmakta. Ancak bir şirketin, kapalı ve ücretli bir sistem üzerinden sahte hesaplar kullanarak distilasyon yapması hukuki bir sorun teşkil ediyor. Bu noktada, uluslararası düzeyde yapay zekâ eğitimi ve veri kullanımıyla ilgili net ve bağlayıcı düzenlemelerin henüz tam olarak oturmadığı da göz önünde bulundurulmalı.
OpenAI, daha önce benzer iddiaları gündeme getirmişti. 2024 yılı başlarında, bazı rakip firmaların kendi modellerini distilasyon yöntemiyle kopyalamaya çalıştığını açıklayan OpenAI, şüpheli hesapları yasaklama yoluna gitmişti. Bu gelişmeler, büyük yapay zeka şirketlerinin model güvenliği ve veri koruma konularında daha katı tedbirler almaya yöneldiğini gösteriyor. Anthropic, Claude’un altyapısında güncellemeler yaparak distilasyon temelli saldırılara karşı tespit ve önlem süreçlerini güçlendireceğini duyurdu.
Öte yandan, Anthropic kendisi de hukuki zorluklarla karşı karşıya. ABD’de bazı müzik yayıncıları, şirketin Claude’u eğitirken telif hakkıyla korunan şarkı sözlerini izinsiz kullandığını iddia ederek dava açtı. Bu dava, distilasyon tartışmasından bağımsız bir çerçevede ilerlese de yapay zekâ sektöründe veri kullanımı konusundaki hassasiyetin arttığını gösteriyor. Ayrıca, küresel düzeyde düzenleyici kurumların yapay zeka şirketlerinin eğitim verisi, model güvenliği ve rekabet uygulamalarına daha fazla odaklandığı gözlemleniyor.