mentexa Logo mentexa İletişime Geç
Nisan 2026 Orta Seviye 12 dk okuma

Algoritmaların Adil Karar Verdiğini Nasıl Anlarız

Kamu hizmetlerinde kullanılan yapay zeka sistemlerinin adalet ve şeffaflık standartlarını değerlendirme yöntemleri. Algoritmik karar alma süreçlerinde ön yargı tespit etme, sistem şeffaflığını ölçme ve halka karşı sorumluluk sağlama tekniklerini keşfedin.

Bilgisayar ekranında kodlar ve yapay zeka algoritmaları gösterilen ofis ortamında çalışan yazılımcı

Neden Algoritmaları Denetlemek Önemli

Türkiye'de giderek daha fazla kamu kurumu karar verme süreçlerinde yapay zeka kullanıyor. Sosyal yardım dağıtımından kredi onayına kadar, birçok kişinin yaşamını etkileyen kararlar artık algoritmalar tarafından alınıyor. Ama bu algoritmalar gerçekten adil midir?

İşin çıkmazı şu: Çoğu zaman, bu sistemlerin nasıl karar verdiğini kimse tam olarak anlamıyor. Hatta sistem tasarlayanlar bile bazı durumlarda açıklamakta zorluk çekebiliyor. Eğer algoritma yanlış bir karar verirse, kim sorumlu? Ve en önemlisi — nasıl anlayabiliriz ki sistem gerçekten herkese adil davranıyor?

Denetleme Gerekliliği

Algoritmaların adalet ve şeffaflık açısından değerlendirilmesi, demokratik toplumların temel bir ihtiyacı haline geldi.

Algoritmik Ön Yargı: Nerede Saklanıyor

Algoritmaların önyargılı olması genellikle kötü niyetten değil, kötü verilerden kaynaklanıyor. Örneğin, Türkçe dil işleme sistemleri eğer ağırlıklı olarak İstanbul'dan toplanan verilerle eğitildiyse, Doğu Anadolu lehçesiyle yazılan metinleri yanlış anlayabilir.

Tarihsel önyargı da ciddi bir sorun. Eğer geçmiş karar verme verileri zaten ayrımcıysa, algoritma o ayrımcılığı öğrenir ve güçlendirir. Mesela, hakim kararları üzerinde eğitilen bir sistem, eğer geçmişte bazı bölgelere karşı önyargılı kararlar verilmişse, yeni kararlarında da bunu tekrar edecektir.

Kritik Bulgu: Algoritmalar "tarafsız" görünseler de, eğitim verileri insan yapımıdır — ve insanlar önyargılıdır.
Algoritma akış şemasını gösteren görselleştirme, veri seçimi ve ön yargı tespit sürecini temsil eden diyagram
Farklı insan yüzlerini gösteren çeşitlilik ve temsil konsepti, algoritma adalet değerlendirmesi ve eşit temsil

Şeffaflık Testleri: Algoritma Ne Yapıyor

Bir algoritmanın adil olup olmadığını anlamak için, sistemin karar alma mantığını açığa çıkarmak gerekir. Bunu yapmanın birkaç yolu var. İlk olarak, algoritmanın hangi faktörleri kullandığını bilmeliyiz. Sosyal yardım talebini değerlendiren bir sistem hangi bilgilere bakıyor? Gelir mi, servet mi, eğitim seviyesi mi, yaşanan bölge mi?

İkinci adım, "hassasiyet analizi" yapmak. Demek ki, bir faktörün (mesela yaşanılan şehir) değişmesi karar nasıl etkiliyor? Eğer Ankara'dan bir kişi Şırnak'a taşınırsa, algoritma sonucu değişir mi? Değişirse, bu neden oluyor? Haklı bir neden var mı?

Üçüncü olarak, "benzer durum testi" gerekir. Benzer profillere sahip kişiler benzer kararlar alıyor mu? Eğer iki kişi eğitim seviyesi, gelir ve aile yapısı açısından özdeşse ama farklı ırktan ve cinsiyetten ise, algoritma onlara aynı şekilde davranıyor mu?

Türkiye'ye Özgü Değerlendirme Çerçevesi

KVKK (Kişisel Verilerin Korunması Kanunu) zaten Türkiye'de veri kullanımını düzenliyor. Ama yapay zeka sistemleri için spesifik rehberler sınırlı. Ulusal bir çerçeve oluşturmak gerekiyor. Bu çerçeve şu soruları yanıtlamalı:

  • Hesap Verilebilirlik: Sistem yanlış karar verirse kim sorumlu? Kurum, geliştirici, yoksa veri tarafından?
  • Aydınlatma Hakkı: Bireylerin sistem hakkında bilgilendirilme ve algoritmanın kararını anlaması hakkı var mı?
  • İtiraz Mekanizması: Algoritmanın kararına karşı insan müdahalesi mümkün mü?
  • Düzenli Denetim: Sistem performansı sürekli izleniyor mu ve ön yargı düzeltiliyor mu?
Hukuk kitapları ve kişisel veri koruma belgelerini gösteren masaüstü, KVKK ve yasal çerçeveler

Pratik Değerlendirme Adımları

1

Veri Kaynağı Denetimi

Algoritma hangi verilerle eğitildi? Veri taraflı mı? Tüm Türkiye'yi temsil ediyor mu? Cinsiyet, coğrafya, yaş dağılımı dengeli mi?

2

Performans Karşılaştırması

Sistem tüm nüfus gruplarında eşit başarı gösteriyor mu? Bazı bölgelerde daha hatalı mı? Belirli yaş gruplarında sorun mu var?

3

Açıklanabilirlik Testi

Sistem karar vermişse, nedenini açıklayabiliyor mu? Basit bir "hayır" demiyor, doğru nedenleri sunuyor mu?

4

Etki Değerlendirmesi

Algoritmanın yanlış kararı bireylere ne kadar zararlı olabilir? Düşük riskli mi, yoksa yaşam kalitesi etkileyen mi?

5

Arka Kapı Analizi

Sistem yasaklı bir faktörü (ırk, din, vb.) doğrudan kullanmıyor mu? Ama dolaylı yoldan mu kullanıyor (örneğin bölge adı üzerinden)?

6

Düzenli Denetim

Sistem canlı mı izleniyor? Zamanla performansı kötüleşiyor mu? Yeni verilerle ön yargı gelişiyor mu?

Türkiye'de Uygulamaya Başlamak

Şu anda Türkiye'de bu denetim mekanizmaları kurumsallaşmamış. Ama değişiyor. Bazı kurumlar kendi başlarına adalet denetimleri başlatıyor. Üniversiteler araştırma yapıyor. Sivil toplum kuruluşları haber veriyor.

Bir başlangıç noktası var: Yapay zeka kullanılacaksa, bunu yapmadan önce bir "etki değerlendirmesi raporu" hazırlanmalı. Bu rapor şu sorulara yanıt vermeli: Sistem neyi otomatikleştiriyor? Kim etkileniyor? Ön yargı riski nedir? Nasıl denetlenecek?

Üniversite kütüphanesinde yapay zeka ve etik konuları üzerine çalışan araştırmacılar

Sonuç: Algoritma Adalet Sorgusu Başladı

Algoritmalar adil davranıyor mu sorusunun cevabı basit değil. Ama sormanız gerekir. Eğer siz sormuyorsanız, hiç kimse sormayabilir. Türkiye'de yapay zeka hızla yaygınlaşıyor — sosyal medya moderasyonundan kredi kararlarına kadar. Bu sistemlerin hepsi test edilmeli, denetlenmeli, sorgulanmalı.

İyi haber: Bu sorgulamayı yapabilirsiniz. Şeffaflık talep edebilirsiniz. Yanlış karar gelmişse, insan denetçisine başvurabilirsiniz. Ama ancak kurum veya sistem bunu izin verirse. O yüzden başlangıç, denetim çerçevelerini yasal ve zorunlu hale getirmektir.

Hatırla: Algoritmaların tasarımcıları karar vermiş olabilir, ama denetim hakkı sizindir. Bu hakkı kullanın.

Zeynep Karagöz

Zeynep Karagöz

Kıdemli Yapay Zeka Etiği Uzmanı

Yapay zeka etiği ve algoritmik adalet konusunda 12 yıllık deneyime sahip, Türkiye'de sorumlu teknoloji geliştirme çerçeveleri oluşturmaya odaklanan uzman.

Önemli Not

Bu makale eğitim ve bilgilendirme amaçlıdır. Yapay zeka sistemlerinin değerlendirilmesine ilişkin teknik ve hukuki konularda, spesifik durumlara yönelik tavsiye için lütfen yapay zeka etiği alanında uzman danışmanlara veya yetkili kurumlara başvurunuz. Her algoritma farklıdır ve uygulanacak değerlendirme yöntemi bağlama ve sistem türüne göre değişebilir.