Avrupa Komisyonu, yapay zekâ teknolojilerinin güvenli ve etik kullanılmasını sağlamak amacıyla AB Yapay Zekâ Tüzüğü (AI Act) üzerinde kapsamlı değişikliklere gidiyor. Yeni düzenleme, yalnızca Avrupa’daki değil, küresel çapta yapay zekâ geliştiricilerini de etkileyecek. Komisyon, sistemlerin "risk temelli" sınıflandırılacağını, yüksek riskli uygulamalar için insan denetimi zorunluluğu getirileceğini ve bazı teknolojilerin tamamen yasaklanacağını açıkladı.
MAHREMİYET İHLALİNE KARŞI SIKI TEDBİRLER
Tüzüğün en dikkat çekici maddelerinden biri, yüz tanıma ve duygu analizi sistemlerinin yasaklanması. Kamu alanlarında bireylerin yüz ifadelerini analiz ederek duygu tespiti yapan ya da kimlik belirleyen sistemler, "kabul edilemez risk" grubunda yer alacak. Bu tür teknolojilerin mahremiyet ihlali ve yanlış sınıflandırma riski taşıdığı gerekçesiyle kullanımı Avrupa genelinde yasaklanıyor. Ayrıca işe alma, kredi değerlendirmesi veya sağlık teşhisi gibi "yüksek riskli" alanlarda kullanılan yapay zekâların, insan gözetimi ve sertifikasyon süreçlerinden geçmesi zorunlu olacak.
DEEPFAKE İÇİN ETİKET ZORUNLULUĞU
Yeni düzenleme, yapay zekâ geliştiricilerine veri şeffaflığı yükümlülüğü de getiriyor. Şirketler, sistemlerini eğitirken kullandıkları veri setlerinin kaynağını ve önyargı risklerini açıklamak zorunda olacak. Özellikle büyük dil modelleri ve görsel üretim sistemleri, eğitim verilerinin içeriğini ve kapsamını belgelemekle yükümlü tutulacak. Bunun yanı sıra, deepfake içerik üreten yapay zekâ sistemlerinde de "yapay üretim" etiketi zorunluluğu getiriliyor.