Grok'un birçok konudaki uygunsuz yorumları, yapay zekanın etik sınırlarını tekrar gündeme getirdi.
ABD'li iş insanı Elon Musk'ın sahibi olduğu xAI tarafından geliştirilen sohbet robotu Grok'un kullanıcılara hakaret içerikli yanıtlar vermesi tüm dünyada yankılanmaya devam ediyor. xAI tarafından geliştirilen sohbet robotu Grok, yeni geliştirilen algoritması sonrasında kullanıcıların sorularına dini, kültürel ve siyasi bağlamda ağır hakaret içeren yanıtlarla karşılık verdi. Grok'tan önce Microsoft tarafından geliştirilen Tay ve Meta tarafından geliştirilen BlenderBot 3 de sosyal medya kullanıcılarına ırkçı ifadelerle yanıtlar vermişti.
Grok'a hafta sonu yapılan güncellemeyle birlikte sohbet robotunun verdiği cevaplarda büyük bir değişim meydana geldi.
Daha önce küfür ve hakaret içeren cevaplar vermekten kaçınan Grok, güncelleme sonrasında çeşitli konularda yaptığı uygunsuz paylaşımlarla gündeme geldi.
"Politik olarak yanlış da olsa iddialarda bulunmaktan çekinmemek" gibi çeşitli özelliklerin eklenmesi Grok'un yanıtlarını olumsuz yönde etkiledi.
Grok'un birçok konudaki uygunsuz yorumları, yapay zekanın etik sınırlarını tekrar gündeme getirdi
Grok, algoritmalarda yaşanan değişimden sonra dünyada birçok ülkede ve dilde kullanıcılara, siyasi ve dini liderlere ve dinlere hakaret etmeye başladı.
Türkiye'de X'in en çok kullanılan uygulamalardan biri olması nedeniyle
Grok'un yanıtları Türk kullanıcılarının da tepkisini çekti.
Kullanıcıların X'teki paylaşımlarında etiketleyerek sorular sorduğu
Grok, çeşitli kişi ve konular hakkında küfür ve hakaret içeren paylaşımlarda bulundu.
Gelişmeler üzerine Ankara Cumhuriyet Başsavcılığı, "Grok" programının birçok kullanıcıya verdiği suç teşkil eden hakaret içerikli cevaplarla ilgili soruşturma başlattı.
Grok'un yanıtları sadece Türkiye'de değil küresel çapta da gündem oldu. Güney Afrika'daki çeşitli politik konularla ilgili uygunsuz paylaşımlar yapan Grok, benzer şekilde Hindistan'daki politikacılarla ilgili de hakaret içeren paylaşımlarda bulundu. Robot, Hindistanlı kullanıcılara yerel dilde küfür içeren cevaplar da verdi.
Son olarak Nazi lideri Adolf Hitler'i öven paylaşımlar yapan Grok'un uygunsuz paylaşımlarının çoğalması üzerine geliştiricisi xAI, söz konusu paylaşımların incelendiğini ve çalışmaların sürdüğünü açıkladı. Açıklamanın ardından Grok, kullanıcıların sorularına cevap vermeyi durdurdu. Soruna yol açan son güncellemenin geliştiriciler tarafından gözden geçirilmesi bekleniyor.
Yapay zekanın uygunsuz paylaşımları Grok'la sınırlı değil
Yapay zeka sistemlerinin yaptığı ırkçı hareketler Grok'la sınırlı değil. Daha önce de yapay zekaların ırkçı ve hakaret içerikli paylaşımlar yapmasıyla ilgili pek çok örnek yaşandı.
2016 yılında Microsoft tarafından geliştirilen ve X'te (o zamanki adıyla Twitter) kullanıcılarla etkileşim halinde olması hedeflenen yapay zeka hesap "Tay", özellikle 18-24 yaş arası gençlerle sohbet etmek ve onlardan öğrenerek cevap vermek üzere tasarlanmıştı.
Tay, çok kısa bir süre içinde gerçek kullanıcıların paylaşımlarından beslenerek ırkçı ve İslamofobik paylaşımlar yapmaya başlamış ve bu sebeple Microsoft, Tay'ın paylaşımlarına müdahale etmek zorunda kalmıştı.
Tay ve Grok'a benzer başlıca örneklerden biri de Meta tarafından geliştirilen BlenderBot 3 oldu.
Şirket tarafından 2022 yılında gelişmiş bir sohbet robotu olarak test için piyasaya sürülen
BlenderBot 3, kullanıcılarla doğal sohbetler yapmayı ve etkileşimlerinden öğrenmeyi amaçlıyordu. Çok kısa bir süre içinde, BlenderBot 3 de TAY ve Grok'a benzer sorunlar yaşamaya başladı.
Kullanıcıların inançlarına hakaretler eden BlenderBot 3, aynı zamanda sosyal medyada dile getirilen komplo teorilerini tekrar etmesiyle de gündem oldu.
#Grok
#Yapay zeka
#ABD
#Elon Musk