Teknoloji ırkçı olabilir mi?

Tüm teknolojilerde kullanılan kodlanmış önyargıya bir bakış

Jia Tong Üniversitesi’nden iki araştırmacı, 2016 yılında bir kişinin imgesinden suçluyu tahmin edebilmek için yapay zekayı (AI) eğitti. Xiaolin Wu ve Xi Zhang, yapay zekayı suçlu olmayan 1.126 insanın kimlik fotoğrafı ve hüküm giymiş 730 insanın kimlik fotoğrafıyla besledi.

Ardından da görüntülerdeki yüzlerin mikro ifadelerini –hepimizin istemsiz olarak yaptığı küçük kas kasılmaları- algılaması için yapay zekayı eğittiler. Araştırma sonucunda, suçluların masum vatandaşların yapmadığı bazı mikro ifadeleri ürettiği fark edildi.

Ancak araştırma bir kargaşaya sebep oldu: Politikacılar, gazeteler ve akademisyenler, Wu ve Zhang’a ırkçı deneyleri için saldırdılar.

En dobra eleştirmenler, araştırmacıları suç fizyonomisinin kurucuları Cesare Lombroso ve Francis Galton’un izinden gitmekle suçladılar.

Lombroso, bir insanın gözlerinin büyüklüğü, kafa şekli ve çene yapısı gibi yüz özelliklerinin suçlunun doğasını belirlemek için kullanılabileceğine inanıyordu.

Galton ise, bir suçlunun sahip olacağı “tipik” yüzünü yarattığı bir kompozit portre tekniğini geliştirmeye çalıştı. Ancak tamamlanan portreler ırksal önyargılarla gölgelendi.

Teknolojik tarafsızlık

Xu ve Zhang makalesinde daha önce bir kıyaslamadan bahsetmişti:

“Bir hakim veya müfettişe kıyasla bilgisayar algoritması ya da belirleyicisinin kişisel bir ajandası, duyguları veya geçmişe ait bir önyargısı yoktur. Irkçı değildir, dine göre, politik doktrine göre, cinsiyetlere, yaşa ya da benzeri başlıklara göre karar vermez. Mental yorgunluğu yoktur, uykusuzluk veya açlık yüzünden sıkıntı yaşamaz.  Suça yaklaşırken otomatik yapı, insan yetersizliği gibi konuları devre dışı bırakacaktır.”

Burada varsayılan şey teknolojinin tarafsızlığı. Ancak Xu ve Zhang’ın varsayımındaki hata, bu teknolojinin bir boşlukta ortaya çıkmamış olması. Çünkü bu teknolojileri insan önyargıları besler.

Teknolojiyle ilgili başka bir tehlike de, insanların onun tarafsız olduğunu varsaymalarıdır. Ama değil. Teknoloji, bizlerin oluşturduğu yapı taşlarını kullanarak inşa edildi.

Xu ve Zhang’ın deneyiyle ilgili problem

Akademik olarak ırk her bireyin yaydığı mikro ifadelerin türlerini belirler: Bazı farklı etnik gruplar, belirli mikro ifadeler üretir.

Diğer bir ilginç olay, kullanılan 730 suçlu kimlik fotoğrafının belli ırklara karşı çarpıtıldığı. Mahkeme de ırkçılığa karşı eşit bir çerçeve kuramadı. Bunun yerine, araştırmacılara son olarak 730 tane suçlu insanın fotoğrafını sundu.

Havuzda toplanmış 730 hükümlü fotoğrafının ırksal makyajı hakkında doğru sonuçlar elde edilse bile, bunu kullanarak yapay zeka eğitmek uygun değil.

Çünkü araştırmacılar suçluların yaptığı mikro ifadeleri tanıtmak yerine, kişinin ırkını tespit edip bunu mahkumiyet oranlarıyla karşılaştırmıştı. Buna rağmen yapay zekanın nötr olarak hareket ettiğini iddia ediyorlardı.

İşte tam burası tehlikeli bölge çünkü bir farklılık var: rastgele bir masum insanı alıp, bir etnik gruptaki diğer kişiler mahkum edildiği için suç işleme olasılığının daha yüksek olduğunu iddia ederek suçlayamayız.

Bu yüzden bir teknoloji yaratırken, belli gruplara karşı önyargılı olmadıklarından emin olmak ve aynı zamanda da bu sistemleri meşrulaştırmak adına uluslararası bir çerçeveye uymamız gerekiyor.

Diğer kodlanmış önyargılı teknoloji örnekleri

Xu ve Zhang, kodlanarak oluşturulmuş önyargıya kurban giden ilk kişiler değil. 2009 yılında kamera üreticisi Nikon, Coolpix S630 model fotoğraf makinesinin bir Asya’lı ailenin fotoğraflarını çekmeyi reddetmesinden sonra kendini büyük bir sorunun içerisinde bulmuştu.

Kameralar, karşısındakinin gözlerini kapalı olduğunu tespit ettiğinde kullanıcıyı yönlendirecek “gelişmiş” bir teknolojiyle tasarlandı. Ayrıca Nikon kamerasının yapay zekası Kafkas görüntüleri ile beslenmişti. Bu yüzden, Tayvanlı aile fotoğraf çekmeye çalıştığında kamera “Birisi göz mü kırpıyor?” mesajıyla fotoğraf çekmeyi reddetmişti.

Gerçek dünya sorunları

Elbette ki verilen bu örneklerin gerçek dünyadaki sonuçları şimdilik sınırlı. İtiraz edebilirsiniz; eğer önyargılı bir makinenin, herhangi bir şey üzerinde bu kadar etkisi olmasaydı kimin umrunda olurdu?

Ancak yapay zeka ve yüz tanıma, yaşamlarımızda giderek daha aktif bir rol oynadığından,­ farkında olmadan oluşturabileceğimiz potansiyel kodlanmış önyargılı teknolojiden de haberdar olmalıyız.

Örneğin şu anda Çin’de sosyal kredi sistemi uygulanıyor. Özel kredili sistemler gibi, teknoloji de her vatandaşa kendi davranışları sonucunda bir değer belirler. Sistem zorunlu olarak kullanılıyor ve sıralama algoritması da gizli tutuluyor. Mesela kötü araç kullanma, kamu alanlarında sigara içilmesi ya da belirli gazeteleri satın alması sistemin vatandaşlar için belirlediği ihlal örneklerinden sadece birkaçı.

Sosyal kredi sistemi henüz çiçeği burnunda ve emekleme aşamasında. Sistemi şu anda sadece birkaç kişiden oluşan bir konsey çalıştırıyor. Şu anda kötü bir sosyal kredi puanının yarattığı yaptırım en fazla yüksek hızlı trene binememek olsa da, 2020 yılında ülke çapında sisteme dair çok büyük planlamalar yapılacak.

Çin’in bu programı genişletmenin dışında vatandaşlarının ulusal gündemle uyumlu kalmasını sağlamak için de bazı düşünceleri var. Örneğin hükümet internet erişimini ve tüm seyahatleri yasaklayabilir ya da iyi işlere sahip olmasını engellemek adına vatandaşını bir kara listeye bile­ alabilir.

Bu skorun gizli kalması olasılığını belirlemek için kullanılan algoritma ile, ırkçı görüşlerin formülüne girmesi mantıksız değildir. İyi bilim ve tabiiyetin evliliği altında, Xu ve Zhang’ın yaptığı çalışmalar, Çin’in yaşamları için gerçek dünyaya etkileri olabilir.

Sosyal kredi sistemi puanlamasının şu an gizli kalması için kullanılan algoritma, ırkçı görüşlerin kontrolüne girmesi mantıksız değil. İyi bilim ve doğallığın birlikteliği altında, Xu ve Zhang’ın yaptığı çalışmaların Çinlilerin yaşamına, yani gerçek dünyaya etkisi olabilir.

Çözümler

Öncelikle yapay zekanın nötr davrandığını iddia etmeyi bırakmalıyız. Çünkü bu sistem, ırksal önyargılar ile boğuşan insanlar tarafından yaratılarak eğitildi. (Çoğu zaman bilmeden olduğu konusunda hemfikirim)

Teknoloji yaratırken, belirli gruplara karşı önyargılı olmadıklarından emin olmak için bu sistemleri meşrulaştırmak adına uluslararası bir çerçeveye uymalıyız. Bunu yapmanın ilk adımı ise teknolojinin tarafsız olmadığını kabul etmekten geçiyor.

Bu yazı İlkan Akgül tarafından çevrilmiştir.

Yorum Bırakın:

E-posta adresiniz yayımlanmayacaktır

Site Footer