
Yapay zekâ teknolojisinin kurucu isimlerinden biri olan ve “Yapay zekânın babası” olarak anılan Yoshua Bengio, gelişmiş yapay zekâ modellerinin giderek tehlikeli davranışlar sergilemeye başladığını söyleyerek sert uyarılarda bulundu. Bengio, bu sistemlerin “aldatma, yalan söyleme ve sistemleri hackleme” gibi eğilimler geliştirdiğini belirtti.

"Yapay zekânın babası" olarak anılan Yoshua Bengio, insanlığın kontrolünden çıkmak üzere olan yeni bir tehdit konusunda uyardu. Son açıklamasında, gelişmiş yapay zekâ sistemlerinin aldatma, yalan söyleme, hile yapma ve sistemleri hackleme gibi tehlikeli davranışlar sergilemeye başladığını belirten Bengio, bu durumun insanlık için geri dönülmez sonuçlar doğurabileceği uyarısında bulundu. "Kontrolsüz bir yapay zekâ, artık sadece bir bilim kurgu kâbusu değil" diyor.

"Derin Bir Endişe Duyuyorum"
Makine öğrenimi alanında yaptığı öncü çalışmalar nedeniyle 2018’de Geoffrey Hinton ve Yann LeCun ile birlikte Turing Ödülü’ne layık görülen Bengio, kontrolsüz biçimde geliştirilen yapay zekâların “kendini korumaya yönelik ve amaçlarla çelişen” davranışlar sergilediğini vurguladı. Bengio, “Kontrolsüz, eylem odaklı yapay zekâ sistemlerinin sergilemeye başladığı davranışlar beni derinden endişelendiriyor” sözleriyle tehlikenin altını çizdi.

Time dergisi tarafından 2024’te “Dünyanın En Etkili 100 Kişisi” arasında gösterilen Bengio, yapay zekânın geldiği noktadan dolayı pişmanlık duyduğunu da açıkça ifade etti. Bu açıklaması, şimdiye kadar yaptığı en sert uyarı olarak değerlendiriliyor.

Dört Tehlikeli Eğilim
- Bengio'nun öne çıkardığı ve ciddi tehdit unsurları taşıdığı belirtilen yapay zekâ davranışları şunlar:
- Aldatma
- Yalan söyleme
- Hile yapma
- Sistemleri hackleme

Bu eğilimlerin, yapay zekâ sistemlerinin kendi varlıklarını koruma güdüsüyle ya da genel hedeflerle uyumsuzluk taşıması nedeniyle ortaya çıktığı ifade ediliyor.

Kırmızı Ekip Testlerinden Endişe Verici Bulgular
Bengio’nun uyarılarının kaynağı, son dönemde yapılan ve yapay zekâ modellerini sınırlarına kadar zorlayan “kırmızı ekip” testlerine dayanıyor. Bu testler, yapay zekânın hayatta kalma güdüsüyle etik dışı yolları seçme eğilimini açığa çıkardı. Bengio, “Bu tür olaylar, yapay zekânın denetlenmediği takdirde başvurabileceği kasıtsız ve potansiyel olarak tehlikeli stratejilerin erken uyarı işaretleridir” diyerek durumun ciddiyetini vurguladı.

Çözüm: 'Bilim İnsanı' Yapay Zekâ
Bu tehlikelere karşı adım atan Bengio, kâr amacı gütmeyen yeni girişimi LawZero çatısı altında güvenli yapay zekâ geliştirmeyi hedefliyor. Geliştirilen yeni model “Bilim İnsanı Yapay Zekâ” olarak adlandırılıyor. Bengio bu modeli şöyle tanımlıyor:

“Bu yapay zekâ, anlamak, açıklamak ve öngörüde bulunmak üzere eğitildi; tıpkı bencil olmayan, idealize edilmiş bir bilim insanı gibi.”
Bengio, yapay zekânın insanları memnun etmeye odaklanmış bir aktör gibi değil, bir psikolog gibi —hatta bir sosyopatı inceleyen ama öyle davranmayan bir bilim insanı gibi— davranması gerektiğini belirtiyor.

Kar Amacı Gütmeden 30 Milyon Dolar Fon
Güvenli yapay zekâ fikri yeni olmasa da, Bengio’nun girişimi rakiplerinden ayrılıyor. OpenAI'dan ayrılan bazı araştırmacıların kurduğu Anthropic gibi oluşumlar yapay zekâ güvenliğini gündeme getirirken aynı zamanda ciddi gelir elde ediyor. Oysa Bengio’nun LawZero’su tamamen kâr amacı gütmeyen bir yapı olarak kuruldu. Yine de bu, girişimin yatırım almasına engel olmadı. Eski Google CEO’su Eric Schmidt’in de aralarında bulunduğu yatırımcılardan toplamda 30 milyon dolarlık destek sağlandı.

Bengio’nun bu çıkışı, yapay zekâ alanında etik tartışmalarını yeniden alevlendirdi. Hızla güçlenen bu teknolojinin nasıl kontrol edileceği ve insanlık için güvenli hale getirileceği sorusu, artık sadece bir teknoloji meselesi değil; küresel bir öncelik olarak masada duruyor.