Yüz tanıma analizine yasak

Avrupa Birliği, yapay zekâ teknolojilerini denetime almak için ayrıntılı bir düzenleme hazırladı. 'AI Act' kapsamında yüz tanıma ve duygu analizi sistemleri yasaklanırken, yüksek riskli algoritmalar için şeffaflığın yanısıra insan denetimi zorunluluğu getiriliyor. Yeni kurallar, küresel ekosistemle birlikte Türkiye’deki yapay zekâ geliştiricilerini de doğrudan etkileyecek.

Orhan Orhun Ünal
Arşiv.

Avrupa Komisyonu, yapay zekâ teknolojilerinin güvenli ve etik kullanılmasını sağlamak amacıyla AB Yapay Zekâ Tüzüğü (AI Act) üzerinde kapsamlı değişikliklere gidiyor. Yeni düzenleme, yalnızca Avrupa’daki değil, küresel çapta yapay zekâ geliştiricilerini de etkileyecek. Komisyon, sistemlerin "risk temelli" sınıflandırılacağını, yüksek riskli uygulamalar için insan denetimi zorunluluğu getirileceğini ve bazı teknolojilerin tamamen yasaklanacağını açıkladı.

MAHREMİYET İHLALİNE KARŞI SIKI TEDBİRLER

Tüzüğün en dikkat çekici maddelerinden biri, yüz tanıma ve duygu analizi sistemlerinin yasaklanması. Kamu alanlarında bireylerin yüz ifadelerini analiz ederek duygu tespiti yapan ya da kimlik belirleyen sistemler, "kabul edilemez risk" grubunda yer alacak. Bu tür teknolojilerin mahremiyet ihlali ve yanlış sınıflandırma riski taşıdığı gerekçesiyle kullanımı Avrupa genelinde yasaklanıyor. Ayrıca işe alma, kredi değerlendirmesi veya sağlık teşhisi gibi "yüksek riskli" alanlarda kullanılan yapay zekâların, insan gözetimi ve sertifikasyon süreçlerinden geçmesi zorunlu olacak.

DEEPFAKE İÇİN ETİKET ZORUNLULUĞU

Yeni düzenleme, yapay zekâ geliştiricilerine veri şeffaflığı yükümlülüğü de getiriyor. Şirketler, sistemlerini eğitirken kullandıkları veri setlerinin kaynağını ve önyargı risklerini açıklamak zorunda olacak. Özellikle büyük dil modelleri ve görsel üretim sistemleri, eğitim verilerinin içeriğini ve kapsamını belgelemekle yükümlü tutulacak. Bunun yanı sıra, deepfake içerik üreten yapay zekâ sistemlerinde de "yapay üretim" etiketi zorunluluğu getiriliyor.

KÜRESEL ŞİRKETLERİ ETKİLEYECEK

TÜRKİYE İÇİN ÖRNEK OLABİLİR