Yakın bir zaman önce Facebook üzerinden video seyrederken siyahi bir erkeği “primat” olarak tanımlayan Facebook’un yapay zekası, kullanıcıya daha fazla “primat videosu izlemek ister misiniz?” şeklinde kabul edilemez bir önerme de bulundu.
Facebook ise bu durum için yaptığı açıklamada; kabul edilemez bir hata olduğunu ve bunun tekrar yaşanmasını önlemek için öneri özelliğini araştıracaklarını belirtti.
27 Haziran 2020 tarihli ve The Daily Mail‘e ait olan bahsi geçen video da, siyah erkeklerin beyaz siviller ve polis memurlarıyla tartıştığı klipleri içeriyordu. Maymunlar veya primatlarla hiçbir bağlantısı yoktu.
Facebook’un eski içerik tasarım yöneticisi olan Darci Groves, bir arkadaşının kısa süre önce kendisine önerinin ekran görüntüsünü gönderdiğini söyledi. Daha sonra mevcut ve eski Facebook çalışanları için hazırlanan ürün geri bildirim formundan bu hatayı Facebook’a ilettiler. Buna cevaben, şirketin video hizmeti olan Facebook Watch’un bir ürün yöneticisi bunu “kabul edilemez” olarak nitelendirdi ve şirketin “temel nedeni araştırdığını” söyledi.
Bayan Groves, Facebook yapay zekası tarafından önerilen “primat” kelimesinin “korkunç” olduğunu söyledi.
Facebook sözcüsü Dani Lever yaptığı açıklamada şunları söyledi: “Daha önce de söylediğimiz gibi, yapay zekamızda iyileştirmeler yapmış olsak da, bunun mükemmel olmadığını biliyoruz ve yapacak daha çok işimiz var. Bu saldırgan önerileri görmüş olabilecek herkesten özür dileriz.”
Google, Amazon ve diğer teknoloji şirketleri, yapay zeka sistemlerinde, özellikle de ırk konularında, önyargılar için yıllardır inceleme altında. Araştırmalar, yüz tanıma teknolojisinin beyaz olmayan insanlara karşı önyargılı olduğunu ve onları tanımlamakta daha fazla sorun yaşadığını, bu da siyahların bilgisayar hatası nedeniyle ayrımcılığa uğradığı veya tutuklandığı olaylara yol açtığını göstermişti.
2015’teki bir örnekte, Google Fotoğraflar yanlışlıkla siyahların resimlerini “goriller” olarak etiketledi ve Google bunun için “gerçekten üzgün” olduğunu ve sorunu hemen çözmek için çalışacağını söyledi. İki yıldan uzun bir süre sonra Wired, Google’ın çözümünün aramalardan “goril” kelimesini sansürlemek ve aynı zamanda “şempanze” ve “maymun” kelimelerini engellemek olduğunu buldu.
Facebook, yüz ve nesne tanıma algoritmalarını eğitmek için kullanıcı tarafından yüklenen dünyanın en büyük resim havuzlarından birine sahip. Kullanıcıların geçmiş göz atma ve görüntüleme alışkanlıklarına göre içeriklerini düzenleyen şirket, bazen insanlara ilgili kategoriler altındaki gönderileri görmeye devam etmek isteyip istemediklerini soruyor. “Primatlar” gibi mesajların yaygın olup olmadığı ise henüz belli değildi.
Facebook ve fotoğraf paylaşım uygulaması Instagram, ırkla ilgili diğer sorunlarla mücadele etmeye devam ediyor. Örneğin Temmuz ayındaki Avrupa Futbol Şampiyonası’ndan sonra, İngiltere milli futbol takımının üç siyah üyesi, şampiyonluk maçında penaltı vuruşlarını kaçırdıkları için sosyal ağda ırkçı tacize uğramıştı
Irk sorunları da Facebook’ta iç çekişmeye neden oldu. 2016 yılında şirketin CEO’su Mark Zuckerberg, çalışanlarından şirketin Menlo Park – California’daki genel merkezindeki ortak bir alanda “Black Lives Matter” ifadesinin üzerini çizmeyi ve “All Lives Matter” ile değiştirmeyi bırakmalarını istedi. Yüzlerce çalışan, şirketin Başkan Donald J. Trump‘ın Minneapolis’te George Floyd‘un öldürülmesiyle ilgili bir gönderisini ele almasını protesto etmek için geçen yıl sanal bir grev düzenledi.
Şirket daha sonra medeni haklar ile ilgili başkan yardımcısını işe aldı ve bir medeni haklar denetimi yayınladı. Temmuz ayındaki yıllık çeşitlilik raporunda Facebook, ABD merkezli çalışanlarının yüzde 4,4’ünün siyah olduğunu ve bir önceki yıl yüzde 3,9 olduğunu söyledi.
Dört yıl sonra Facebook’tan ayrılan Bayan Groves, bir röportajda, şirketteki bir dizi yanlış adımın, liderleri için ırksal sorunlarla uğraşmanın bir öncelik olmadığını gösterdiğini söyledi ve ekledi;
“Facebook bu hataları yapıp sonra ‘özür dilerim’ diyemez”…