Yapay zekada sorun: Irkçılık ve önyargı
Türkçe “O bir doktor” cümlesinin Google Translate (yapay zekayla çalışan tercüme) soru kutusunda İngilizcesini sorunca cevap: “He is a doctor.” Türkçede cinsiyet belirtmeyen “O”, İngilizceye “he” (erkek) olarak çevrilmiş... Türkçe “O bir hemşire” cümlesi ise Google Translate’de şöyle çıkıyor: “She is a nurse.” Tercüme: she = kadın. Elbette erkek hemşire de var, kadın doktor da var. Ama dilin içine gömülü cinsiyetçilik, yapay zekaya da bulaşmış durumda. Yapay zeka, tıpkı onu yaratan insan kadar önyargılı, ırkçı, cinsiyetçi, tarafl ı olabilir. Ve zaten, oluyor da!
Polise ekstra zeka
Büyük veri analizinde yapay zeka kullanılıyor. Ve acaba büyük veriden, şehir güvenliğine dair tahmin yapılabilir mi? Bu soruya evet diyen en az iki büyük ABD şehri var: San Fransisco ve Chicago. Yaptıkları şey, kamu ve özel sektör tarafından toplanan verileri analiz ederek, şehirde olası güvenlik sorunlarını, “gerçekleşmeden önce” tahmin etmek. Bunlar cinayet, hırsızlık, gasp, darp gibi suçları önceden saptamak anlamına. İstihbarattan ziyade, polis işi.
Tom Cruise’un Azınlık Raporu
2002 tarihli Azınlık Raporu (Minority Report) filminde Tom Cruise, mistik güçlere sahip (!) kişilerin, olayları olmadan önce sezme becerisinden (?) yararlanarak güvenlik önlemi alan bir polis şefiydi. Ama o da aynı sistemle, üstelik haksız yere suçlanınca sistemin “işlemediğini” anlamıştı.
San Fransisco ve Chicago’daki uygulamada ise mistikler yok, büyük veri var. Bunun çoğunluğu “açık veri.” Kamu ve özel sektörün topladığı veriler analiz amacıyla bir havuzda toplanıyor. San Fransisco’da Baş Veri Sorumlusu (Chief Information Off icer) 2012’de, kamunun elindeki 200’e yakın veri setini vatandaşın kullanımına açmıştı. Bundan, polis de yararlanıyor.
Önsezi Laboratuvarı
San Fransisco polisi, büyük veriyi kullanarak, nerede ne zaman nasıl bir tür suç işlenebileceğine dair tahminlerini daha doğru yaptığı inancında. Chicago’da ise University of Chicago Urban Labs (Şehir Laboratuvarı) ile ortaklaşa çalışan polis, büyük veri analiziyle suçu “gerçekleşmeden” tahmine çalışıyor. Sadece 2016’da 726 cinayet işlenen Chicago için Trump, “Şehir yönetimi buna bir çare bulmazsa, oraya asker göndereceğim” diye tehdit etmişti.
Chicago Emniyeti, bu konuyla ilgilenmek üzere Azınlık Raporu kıvamında bir birim kurdu:
Önsezi (Hunch) Laboratuvarı. Ama bu iş için mistik güçlere değil, büyük veriye bakıyorlar. Bu ve başka büyük veri analiz sonuçlarını bir uygulama haline getirmişler.
Polislere verilen ceptellere bu uygulama yüklenmiş. Polis, buna bakarak şehrin durumunu ekranda görüyor.
Yazılımda ırk ayrımcılığı
Sivil toplum örgütlerinin eleştirdiği bir birim ise Stratejik Kişi Listesi. Burada sabıkalılar, “olağan şüpheliler” ve “ilgi duyulan şahıslar” (Angloamerikan deyimiyle “persons of interest”) sıralı. Polise göre, bir suç işleyen yeniden işleyebilir. ABD’nin öncü medeni haklar ve özgürlükler savunucusu ACLU’ya göre ise büyük veri analizinde kullanılan algoritmalar, siyahları hep dezavantajlı gösteriyor. Yani, algoritmalarda gizli bir ırk ayrımı var.
Matematik ve mantığa dayanan, dolayısıyla “yansız” olması gereken algoritmada ırk ayrımı sorununa çare arayan MIT mezunu Joy Buolamwini, Algoritma Adalet Birliği’ni (Algorithmic Justice League) kurdu. 2010-11-16-17 Pulitzer ödüllü ProPublica “kamu yararına gazetecilik” sitesi de yüz tanıma ve suça eğilimi tahmin algoritmalarının daha çok siyahların aleyhine sonuç verdiğini örneklerle kanıtlıyor.
Aylin Çalışkan’ın araştırması
Princeton Üniversitesi’nden Aylin Çalışkan ve ekibi ise, yazılımlara (algoritmaya) ırkçılık, cinsiyetçilik, önyargıların bulaştığını ortaya koyan bir araştırmayı bilim dünyasının saygın kaynağı Science dergisinde 14 Nisan’da yayınladılar: “Makineler, insanın bildiklerini öğreniyor. Çünkü makinenin yapay zekasını insan yazıyor.” (http://science.sciencemag.org/content/ 356/6334/183.full)
Bu tür sorunlar çözülmeden, yapay zekanın, insan davranışını “insan gibi” anlaması mümkün olamayacak.