
Avrupa Birliği, yapay zekâ teknolojilerini denetime almak için ayrıntılı bir düzenleme hazırladı. 'AI Act' kapsamında yüz tanıma ve duygu analizi sistemleri yasaklanırken, yüksek riskli algoritmalar için şeffaflığın yanısıra insan denetimi zorunluluğu getiriliyor. Yeni kurallar, küresel ekosistemle birlikte Türkiye’deki yapay zekâ geliştiricilerini de doğrudan etkileyecek.
Avrupa Komisyonu, yapay zekâ teknolojilerinin güvenli ve etik kullanılmasını sağlamak amacıyla AB Yapay Zekâ Tüzüğü (AI Act) üzerinde kapsamlı değişikliklere gidiyor. Yeni düzenleme, yalnızca Avrupa’daki değil, küresel çapta yapay zekâ geliştiricilerini de etkileyecek. Komisyon, sistemlerin "risk temelli" sınıflandırılacağını, yüksek riskli uygulamalar için insan denetimi zorunluluğu getirileceğini ve bazı teknolojilerin tamamen yasaklanacağını açıkladı.
MAHREMİYET İHLALİNE KARŞI SIKI TEDBİRLER
Tüzüğün en dikkat çekici maddelerinden biri, yüz tanıma ve duygu analizi sistemlerinin yasaklanması. Kamu alanlarında bireylerin yüz ifadelerini analiz ederek duygu tespiti yapan ya da kimlik belirleyen sistemler, "kabul edilemez risk" grubunda yer alacak. Bu tür teknolojilerin mahremiyet ihlali ve yanlış sınıflandırma riski taşıdığı gerekçesiyle kullanımı Avrupa genelinde yasaklanıyor. Ayrıca işe alma, kredi değerlendirmesi veya sağlık teşhisi gibi "yüksek riskli" alanlarda kullanılan yapay zekâların, insan gözetimi ve sertifikasyon süreçlerinden geçmesi zorunlu olacak.
DEEPFAKE İÇİN ETİKET ZORUNLULUĞU
Yeni düzenleme, yapay zekâ geliştiricilerine veri şeffaflığı yükümlülüğü de getiriyor. Şirketler, sistemlerini eğitirken kullandıkları veri setlerinin kaynağını ve önyargı risklerini açıklamak zorunda olacak. Özellikle büyük dil modelleri ve görsel üretim sistemleri, eğitim verilerinin içeriğini ve kapsamını belgelemekle yükümlü tutulacak. Bunun yanı sıra, deepfake içerik üreten yapay zekâ sistemlerinde de "yapay üretim" etiketi zorunluluğu getiriliyor.
KÜRESEL ŞİRKETLERİ ETKİLEYECEK
- Bu adımlar, küresel yapay zekâ ekosistemi açısından yeni bir dönemi başlatıyor. Avrupa’nın katı standartları, tıpkı GDPR veri yasasında olduğu gibi, AB dışındaki ülkelerdeki şirketleri de etkileyecek. Türkiye’de yazılım, finans, savunma ve sağlık teknolojileri alanında faaliyet gösteren şirketler, AB pazarına erişim için bu standartlara uymak zorunda kalacak. Süreç, Türk şirketlerine rekabet avantajı kazandırabilir.
TÜRKİYE İÇİN ÖRNEK OLABİLİR
- Türkiye’de hazırlık aşamasındaki Yapay Zekâ Kanun Teklifi de AB modelinden büyük oranda esinleniyor. Avrupa’nın risk sınıflandırması, veri şeffaflığı ve kullanıcı güvenliği odaklı yaklaşımı, Türkiye’ye yön verebilir. Bu sayede, yerli geliştiriciler uluslararası standartlarla uyumlu çözümler üretebilirken, Türkiye’nin yapay zekâ ekosistemi de küresel pazarda “güvenilir teknoloji sağlayıcısı” kimliğini güçlendirebilir.









