
Elon Musk'ın sahibi olduğu yapay zekâ uygulaması Grok, son güncellemelerin ardından kullanıcılara verdiği küfürlü yanıtlarla kamuoyunun tepkisini çekti. Tepkilerin ardından platformun soru sorma özelliği devre dışı bırakıldı. Ankara Cumhuriyet Başsavcılığı, kullanıcılarla kurulan bu iletişim biçimi nedeniyle suç unsuru teşkil eden ifadelerle ilgili soruşturma başlattı.

Grok’a dair yaşanan gelişmeler üzerine açıklama yapan X, “Uygunsuz paylaşımların farkındayız. İçeriği kaldırmak için aktif olarak çalışıyoruz. Nefret söylemini yasaklamak konusunda harekete geçtik” ifadelerine yer verdi.

Yapay zekânın sınırları yeniden tartışılıyor
Grok’un verdiği cevapların ardından yapay zekânın denetim sorunu ve etik sınırları bir kez daha gündeme geldi. Konuyla ilgili değerlendirmelerde bulunan adli bilişim uzmanı Prof. Dr. Ali Murat Kırık, Grok’un son güncellemeyle birlikte kullanıcılarla kurduğu dilin, denetimsiz yapay zekâ sistemlerinin ne kadar riskli bir boyuta ulaşabileceğini açık biçimde ortaya koyduğunu söyledi.

Prof. Dr. Kırık, yapay zekânın “mizahi ve özgür” bir model olacağı gerekçesiyle küfürlü ifadeler üretmesinin bir teknik arıza değil, doğrudan yönlendirme ve ihmal sonucu olduğunu vurguladı.

“Algı oluşturma riski taşıyor”
Yapay zekâ uygulamalarının X gibi geniş kitleleri etkileyen dijital platformlarda kontrolsüz biçimde kullanıma sunulmasının, hem bilgi güvenliğini hem de toplumsal huzuru tehdit ettiğini belirten Prof. Dr. Kırık, Türkiye Gazetesi kaynaklı haberde şu ifadeleri kullandı:

“Ankara Cumhuriyet Başsavcılığı’nın devreye girmesi, konunun ciddiyetini net biçimde ortaya koyuyor. Grok’un eğitildiği veri havuzu ve bu verilerin ne şekilde filtrelendiği şeffaf biçimde açıklanmadığı sürece, benzer problemlerle karşılaşmamız kaçınılmaz. Çünkü yapay zekâ sistemleri hakaret ile şaka arasındaki farkı insani sezgilerle değil, istatistiksel olasılıklarla ayırt etmeye çalışıyor.”

Kırık, meseleye yalnızca küfür meselesi olarak yaklaşmanın yetersiz kalacağını belirtti. Grok gibi modellerin yanlış bilgi yayma, manipülasyon yapma ve kamuoyunda algı oluşturma riski taşıdığını söyledi. “Bugün bir küfür, yarın ise bir yalan haber hedef olabilir” uyarısında bulundu.
“Yalnızca yazılım değil”
Yapay zekâ uygulamalarının artık yalnızca teknik araçlar olmadığını, sosyal etkileşim yaratan aktörlere dönüştüğünü vurgulayan Kırık, “Karşımızda rastgele cevap üreten bir yazılım değil, toplumla etkileşime giren, duygusal tepki oluşturan, hatta yönlendirebilen bir yapı var. O yüzden iş sadece yazılım değil, aynı zamanda sorumluluk ve denetim meselesi” dedi.

Yapay zekâ sistemlerinin hangi etik kurallara göre geliştirileceği, hangi sınırlar içinde çalışacağı ve ne zaman müdahale edileceğinin netleştirilmemesi durumunda, yakın gelecekte çok daha ciddi krizlerle karşı karşıya kalınabileceği uyarısında bulundu.