Khaled A. Beydoun, Amerika Birleşik Devletleri’nde tanınmış bir hukuk profesörü, yazar, insan hakları savunucusu ve İslamofobi konusunda uzman bir akademisyen. Özellikle İslamofobi, göçmen hakları ve medeni haklar konularında çalışmalar yapan Beydoun’un Instagram hesabında 2 buçuk milyon takipçisi var. Detroit Mercy School of Law’da hukuk profesörü olarak ders veren Beydoun aynı zamanda University of California, Berkeley’de de misafir öğretim üyesi olarak çalışmış. Harvard Üniversitesi’nden hukuk derecesi bulunan Beydoun, Michigan Üniversitesi’nden de yüksek lisans derecesine sahip. Kariyeri boyunca İslamofobi ve Müslümanların Amerika’daki sosyo-politik durumu üzerine odaklanan araştırmalar yapmış olan Beydoun, 2018’de yayımlanan “American Islamophobia: Understanding the Roots and Rise of Fear” (Amerikan İslamofobisi: Korkunun Kökenlerini ve Yükselişini Anlamak) adlı kitabıyla büyük ilgi görmüş ve ABD’de İslamofobi ve Müslümanların yaşadığı ayrımcılık konusunda farkındalık yaratmaya katkı sağlamış. Çeşitli medya kuruluşları için yazılar yazmakta, toplumsal meselelerde görüş bildirmekte ve İslamofobi ile ayrımcılıkla mücadele konusunda sesini duyurmakta olan Beydoun geçtiğimiz hafta ise Kadın ve Demokrasi Vakfı (KADEM) tarafından gerçekleştirilen 6. Uluslararası Adalet ve Kadın Zirvesi için İstanbul’daydı. Beydoun, zirvede Gazze’de yaşananlar kapsamında “Yapay Zeka Destekli Soykırım” başlığında konuşmacılar arasında yer aldı. Yeni Şafak Pazar olarak; Beydoun ile Gazze’ye karşı yapılan soykırımı, yapay zekanın insan haklarını nasıl ihlal ettiğini ve nasıl bir tehdit oluşturduğunu konuştuk.
“Yapay zeka destekli soykırım” ifadesini Gazze bağlamında nasıl tanımlıyorsunuz?
Gazze’de şu anda olanları “dijital soykırım” olarak tanımlıyorum, çünkü İsrail ordusunun yapay zekayı toplu ve toplumsal ölüm için kullanış biçimi hem de büyük teknoloji platformlarının bilgiyi yayma şekli bunu dijital bir boyuta taşıyor. Yani algoritmalar, İsrail’in insanları toplu halde öldürme kapasitesini daha verimli ve daha yıkıcı hale getiriyor. Bu yüzden, daha önce görmediğimiz bir ölüm ölçeğine tanık oluyoruz. 13 ay içinde yaklaşık 200 bin kişinin öldürülmesi gibi bir durum, yapay zekanın yıkıcı gücü sayesinde gerçekleşiyor. Bu nedenle, bunu dijital bir soykırım olarak anlamamız çok önemli. “Lavender”, İsrail ordusu ve istihbaratının Gazze’deki belirli hedefleri tespit etmek ve izlemek için kullandığı bir yapay zeka ve gözetim sistemine verilen kod adı. Gazze gibi bölgelerde yapay zeka destekli gözetim ve izleme amacıyla kullanılan bir başka sistem olan “Where’s Your Daddy” gibi sistemlerin amacı, bireyleri kimlikleri ve bağlantıları üzerinden takip etmek, geçmişe dönük bilgilerini analiz ederek onları daha kolay izlemek ya da hedeflemek. Belki uluslararası hukukta gelecekte “Lavender” veya “Where’s Your Daddy” gibi yapay zeka destekli öldürme makinelerini yasadışı olarak sınıflandırmak veya savaş suçlarına yol açabilecek türden silahlar olarak değerlendirmek mümkün olabilir.
Geniş bir sivillere yönelik kitlesel ölüm yaşanıyor
Gazze’de Al teknolojilerinin kullanımının etik sınırlarını nasıl değerlendiriyorsunuz?
En büyük savaş suçu ihlallerinden biri, sivillerin ayrım gözetmeksizin hedef alınmasıdır, değil mi? Örneğin, bir yapay makinesine peşinde olunan bir ismi, diyelim ki Hamas’la ilişkili birini giriyorsunuz. Ancak o tek kişiyi hedef alırken, 100 kişinin öldürülmesi söz konusu oluyor. Burada doğrudan bir savaş suçu ortaya çıkıyor, çünkü geniş bir sivillere yönelik kitlesel ölüm yaşanıyor. Bu ölenlerin çoğu da çocuklar ve kadınlar gibi siviller oluyor. Bu nedenle, son istatistiklerde kurbanların yüzde 70’inin kadınlar ve çocuklar olduğu görülüyor. Bu, en belirgin savaş suçlarından biri. Bir diğer savaş suçu ise savaşlarda yasaklı alan sayılan kurumların ve binaların hedef alınması. Örneğin, okulları, ibadet yerlerini (camiler veya kiliseler gibi) veya insanları besleyen fırınları bombalayamazsınız; bu nedenle Gazze’de kıtlık ciddi bir sorun. Yapay zeka silahlarının bu şekilde insanları ve kurumları ayrım gözetmeden hedef alması, çeşitli savaş suçlarına yol açıyor.
Gazze örneğinde Al tabanlı teknolojiler hangi şekillerde kullanılıyor?
Yapay zekanın rolü, özellikle gözetim, veri analizi ve savaş operasyonlarında görülüyor. Gazze’nin zaten çok sıkı gözetim altında, yakın takipte tutulan bir yer olduğunu anlamak çok önemli. Örneğin, Gazze’deki herkesin kimlik kartı Tel Aviv’deki gözetim mekanizmalarına doğrudan bilgi aktarıyor. Gazze’deki insanların biyometrik verileri toplandı, yüz tanıma kameraları ve dijital kontrol noktaları bu yapıyı tamamlıyordu. Yani Gazze, yapay zeka teknolojileri tarafından yönetilen, sıkı gözetim altında bir “açık hava hapishanesi” gibi. Bu durum, günümüzde soykırımın öncesindeki durumdu. Soykırım sürecinde, “Lavender” ve “Where’s Your Daddy” gibi yeni makineler bu dijital yapının üzerine eklendi ve aranan kişilerin yerinin tespit edilmesini sağladı, çünkü zaten önceden verilere sahiptiler.
Yapay zeka destekli bir soykırımın toplum ve kültürel yapı üzerindeki psikolojik etkilerini nasıl görüyorsunuz peki?
Bu çok ürkütücü ve baskılayıcı bir durum, çünkü insanlar soykırım öncesinde bile Gazze’de attıkları her adımın, aldıkları her kararın dijital gözetim mekanizmaları tarafından yakından izlendiğini biliyorlardı. Bu, insanın kendi kendini denetlemesini sağlayan bir içselleştirmeye yol açıyor. Bu önceden böyleydi, ancak sonrasında daha da korkutucu hale geliyor, çünkü insanları öldüren makineler oluyor. Bu genellikle “öldürme listesi” ile beslenen dronlar şeklinde gerçekleşiyor. Düşmanınızın tamamen yenilikçi, gelişmiş öldürme makineleri olması çok korkutucu bir durum.
Doğu Türkistan’ı da Gazze gibi açık hava hapishanesine dönüştürdüler
Yapay zekanın askeri operasyonlarda kullanılması, dünyanın dört bir yanındaki çatışma bölgelerinde nasıl bir tehdit oluşturuyor peki?
Örneğin, Lübnan gibi yerlerde yapay zekanın nasıl kullanıldığına bakabilirsiniz. İsrail Savunma Kuvvetleri’nin (IDF), bazı telsiz ve sinyal cihazlarını izleyip en uygun zamanda patlatmak için bu teknolojiden yararlandığı iddia ediliyor. Bu şekilde, yapay zekanın Gazze’deki yetenekleri Lübnan gibi yerlere de genişletiliyor. Bir diğer örnek, daha çok silahlı çatışma değil ama bir tür soykırım vakası olarak ele alınabilir: Çin’in Doğu Türkistan’daki Uygur Müslümanları üzerinde yapay zeka kullanımı. Çin, Uygur Müslümanlarının yaşadığı Doğu Türkistan’ı Gazze gibi açık hava hapishanesine dönüştürdü. Orada dijital kontrol noktaları bulunuyor ve bu noktalar, Uygur Müslümanlarını fiziksel ve fenotipik özelliklerine göre tanıyabilen yüz tanıma kameralarıyla donatılmış durumda. Bu kameralar, bölgedeki her bireyin biyometrik verileriyle iletişim kuruyor, nerelere gittiklerini, yaptıkları alışverişleri, seyahat ettikleri yerleri ve telefonlarındaki etkinlikleri takip ediyor. Bu simbiotik yapı sayesinde devlet, yapay zeka teknolojileri aracılığıyla yalnızca gözetim yapmakla kalmıyor; aynı zamanda bireyi devlete karşı şüphe uyandıracak aktivitelerden kaçınmaya teşvik ediyor. Yani, birey kendini devletin olası misillemesinden korkarak oto-kontrol altına alıyor. Örneğin, Çin’deki bir Uygur Müslümanı, telefonunun gözetim altında olduğundan ve Çin dışındaki bir aile üyesiyle konuşursa bu durumun şüphe uyandırabileceğinden dolayı bu faaliyette bulunmamaya özen gösterebilir. Bu yüzden Uygur Müslümanları yıllardır yurt dışındaki aile üyeleriyle iletişim kurmamakta. Yapay zeka bu geniş gözetim ve baskı sisteminin sadece bir yönü. Gözetim altında olduğunuzu bildiğinizde, bu durum hangi faaliyetlerde bulunacağınızı belirleyecektir.
Gazze’de yaşananlar silahlı çatışmalarda görülmemiş bir şey
Gazze halkının bu dijital gözetim ve şiddet zamanlarındaki psikolojik direncini nasıl etkiliyor?
Bu ölçekte bir ölümle karşı karşıya kalmak daha önce Gazze’de ya da dünyanın başka yerlerindeki silahlı çatışmalarda görülmemiş bir şey. Bu tür bir yıkımla başa çıkmak zor olduğu için direnç seviyesini ölçmek de zor.
Yapay zeka destekli silahlar yasa dışı olarak kabul edilmeli
Gazze örneğinde yaşananları önlemek için uluslararası topluma düşen görevler nelerdir? Al destekli soykırımın önüne geçmek için ne tür adımlar atılabilir?
Yakın gelecekte, uluslararası hukukun, belirli AI destekli savaş silahlarını yasadışı olarak sınıflandırarak, bunları yasa dışı olarak kabul etmesini görmek istiyorum, çünkü bu silahların kitleler üzerinde zarar verme ve yıkım yapma yetenekleri çok büyük.