trendy woman with words on face in neon light
Photo by elifskies on Pexels.com

Yapay önyargı, değerler ve insanlık!

0 Shares
0
0
0
0
0

Amazon'un Alexa'sı, Apple'ın Siri'si ve Microsoft'un Cortana'sı gibi yapay zeka destekli dijital asistanların neden kadın olarak adlandırıldığını hiç merak ettiniz mi?

Yapay zeka (AI) ve makine öğrenimi (ML) artık neredeyse hayatımızın her alanına ‘görünmez el’ gibi girmiş durumda. Çok büyük miktarda veri işlemesiyle temel kararları gerçek zamanlı olarak veriyor.

Örneğin, insanları işe alıyor, kime kredi verileceğine karar veriyor, suç ve suçlu tahminleri yapıyor, insanlara dinlemeleri ve izlemeleri için önerilerde bulunuyor, dijital dünyada hangi reklamı kimin görmesi gerektiğine karar veriyor…

Bugün, artık yapay zekanın dahil olmadığı bir alan bulmak oldukça zor. Bazı araştırmacılar bunun yeni bir alt yapı türü olduğunu öne sürüyorlar. Fiziki ya da görünür olmayan, ama tüm sosyal ilişkilerin, örgütsel uygulamaların ve eylemlerin karar süreçlerinin merkezinde bulunan güçlü bir alt yapı…

Şimdi ilk soruya dönelim! Neden bu dijital asistanlara kadın isimleriyle bir cinsiyetlendirme yapılmış durumda? Aslında cevap basit ve dramatik. Dijital dünyada da olsa, kadınları hizmet ve asistanlık rolüne yerleştiren cinsiyete dayalı klişeler yüzünden!

Yapay zeka ve ‘algoritmik önyargı’!

Teknoloji hayatımızı kolaylaştırıyor. Pek çok noktada verimlilik sağlıyor. Yapay zeka uygulamaları da böyle. Sayısız fayda sunuyor.

Konunun tartışılması gereken bir de öteki yüzü var: Bu teknolojik gelişmeler aslında toplumun ilişki setleri, değer yargıları ve kalıplarından beslenerek büyüyor. Yani, insanlık için derinlere kök salmış önyargılar, ayrımcılık, eşitsizlik gibi konular da yeni gelişen bu teknolojilerin göbeğinde ‘algoritmik önyargı’ olarak kendine sağlam bir yer edinebilir durumda.

Dolayısıyla, teknolojinin sunduğu bu avantajlardan herkes eşit olarak yararlanma şansına sahip olmayabilir. Algoritmaların belirli kategorilerdeki bireylere (genellikle azınlıklar ve kadınlar) karşı ayrımcı sonuçlar ürettiğinde ortaya çıkan algoritmik önyargı, özellikle ırk ve cinsiyet söz konusu olduğunda, mevcut sosyal eşitsizlikleri daha da körükleyebilir.

Bununla ilgili pek çok örnek var dünya üzerinde tartışılan. Amazon’un cinsiyetçi yaklaşım yaptığı tesbit edildiği için son verilen işe alım yapay zeka uygulaması, Goldman Sachs’ın Apple kredi kartlarında erkeklere kadınlardan daha fazla kredi limitleri vererek kadınlara karşı ayrımcılık yaptığı iddia edilen bir algoritma kullandığı için düzenleyiciler tarafından soruşturulması gibi…

Konu, sadece insanlar açısından değil, yapay zekayı iş modellerinin içine gömen tüm şirketler için de özellikle itibar riskleri açısından kritik. Karar süreçlerini yapay zekaya emanet eden şirketlerin daha önce yönetmedikleri düzeyde risklere de hazırlıklı olmaları gerekiyor.

Yapay zeka ve etik kodlar!

Yeni sorularla devam edelim. Bu değerler ve önyargılar setinin yapay zekaya aynalanmasına kim, nasıl karar veriyor? Nasıl kontrol ediliyor? Kim, nasıl sorumlu tutuluyor? Hesap verebilirlik, şeffaflık, adil denetim gibi noktalarda durum nasıl?

İnsanlar yanlış bir şey yaptığında bunun otorite ve toplum karşısında bir sonucu olur. En basitinden utanç ve suçluluk duygusu ortaya çıkar. (Ya da en azından ahlaki olarak öyle olmasını bekleriz.) Adalet ve eşitlik kavramları somut ve evrensel olarak tek ve biricik olsa da bu kavramlara dayalı kararlar verilmesini algoritmalarla sağlamak mümkün olamayabilir. Ya da diğer uçta, algoritmaların aşırı denetim misyonuyla çok daha otokratik bir pusulaya dönüşmesi de söz konusu olabilir. Yani, konu değerler ekseninde çok da kolay değil!

Yapay zeka, veri kümelerinden 'öğrenerek' çalışır: Veri madenciliği yapmak, analiz etmek, kalıpları belirlemek ve yapmak için algoritmalar oluşturulur. Veri kümeleri kitaplar, fotoğraflar, sağlık verileri, devlet kurumu verileri veya sosyal medya profilleri dahil olmak üzere herhangi bir sayıda kaynaktan gelebilir.

Toplumsal önyargılar ve eşitsizlik genellikle bu tür verilere gömülüdür ve yapay zeka, doğrudan buna programlanmadıkça, adalet gibi sosyal değerleri yaymayacaktır. Bu nedenle, bir yapay zeka işe alma sistemi, geçmişte çok az kadının işe alındığı önceki işe alım verilerine dayanıyorsa, algoritma bu modeli sürdürecektir.

Öte yandan, veriler ihmaller nedeniyle de önyargılı olabilir. Veri kümeleri, internet geçmişi veya sosyal medya varlığı, kredi kartı geçmişi veya elektronik sağlık kayıtları olmayan tüm kitleleri atlayarak çarpık ya da yönlendirilmiş sonuçlara yol açabilir.

Bu tartışma elbette yeni değil. 2016’da Dünya Ekonomik Forumu’nda özellikle ‘insanlık’ ve ‘eşitlik’ yapay zekanın etik konularından biri olarak listelendi. UNESCO, dijital dünyada etik kodlar dokümanı yayınladı.

Bugün de tüm etik unsurların gözden geçirilmesiyle, özellikle yapay zeka için temelde üzerinde durulması gereken genel ilkeler sıralanmış durumda: “Şeffaflık, adalet ve hakkaniyet, zarar vermeme, sorumluluk, mahremiyet, iyilik, özgürlük ve özerklik, güven, sürdürülebilirlik, saygınlık, dayanışma.”

Yapay zeka ve sürdürülebilir sağlıklı gelecek!

Yapay zeka gibi teknoloji uygulamaları özellikle iklim ve çevre konularıyla ilgili olarak pek çok noktada farklı çözümler sunacak. Ancak, sürdürülebilir sağlıklı gelecek için sadece iklim ve çevre ile ilgili konuların değil, özellikle adalet, eşitlik, özgürlük gibi insanlığın köklü konularının da aynı dikkat ve hassasiyetle ele alınması gerekiyor.

Yapay zeka giderek tüm hayatımızı sararken, bu sorunlarla da ilgilenmek ve yapay zekayı bu temel sorunlarını körükleyecek değil, tersine çözümleyecek şekilde bağlamak son derece önemli olacak.


Kaynaklar:

https://www.rotman.utoronto.ca/Connect/MediaCentre/NewsReleases/20210923

Article: Can AI Mitigate Racial Inequity? by Nitin Mehta 

https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/

https://www.nature.com/articles/s42256-019-0088-2

https://hbr.org/2020/10/a-practical-guide-to-building-ethical-ai

https://en.unesco.org/artificial-intelligence/ethics

Yorum Yap