Yapay zekadaki görünmez tehdit: İslamofobik önyargı büyüyor

Avrupa ve Kuzey Amerika’da kullanılan yapay zekâ sistemlerinin, eğitim verilerindeki önyargılar nedeniyle Müslümanları ve koyu tenli toplulukları sistematik olarak yanlış tanıdığı, riskli kategorilere yerleştirdiği ve çevrimiçi içerikleri haksız şekilde bastırdığı belirtiliyor. Uzmanlar, bu algoritmik islamofobinin güvenlik politikaları ve oryantalist veri setlerinden beslendiğini vurgulayarak, şeffaflık ve insan gözetimi çağrısı yapıyor.

Yapay zekadaki görünmez tehdit: İslamofobik önyargı büyüyor

Yapay zekâ, size karşı nefret beslemesine gerek yok; ayrımcılık yapması için sadece yanlış verilere ihtiyaç vardır. Avrupa ve Kuzey Amerika genelinde, yapay zekâ teknolojileri artık insanların nasıl görüldüğünü, sınıflandırıldığını ve şüpheye maruz kaldığını belirliyor.

Ancak yüz tanıma sistemleri genellikle koyu tenli kişiler ve başörtüsü takanları yanlış tanıyor. Sınır kontrol yazılımları ise Müslüman isimlerini riskli olarak işaretliyor ve çevrimiçi içerik denetimi, Filistin hakkında paylaşımları sessizce kaldırırken, anti-Müslüman nefret içeriklerinin serbestçe dolaşmasına izin veriyor.

Yapay zekâ, tarafsız, objektif ve verimli olarak satıldı – insan hatasını ortadan kaldıran nihai teknik çözüm olarak. Ama teknoloji, çevresindeki dünyadan öğrenir. Eğer bu dünya eşitsiz, önyargılı ve dışlayıcı ise, üzerine kurulan algoritma da öyle olur.

Yapay zekâ, eğitim verilerine gömülü varsayımları yansıtır ve bu varsayımlar, onu üreten toplumları yansıtır. Bu yüzden önyargıyı ortadan kaldırdığını iddia eden sistemler, aslında onu güçlendirebilir.

AI for the People CEO'su Mutale Nkonde, The New Arab’a verdiği demeçte, “Bu sistemler kazara önyargılı hale gelmedi,” dedi. “Onlar, Müslüman kimliğini doğası gereği şüpheli olarak çerçeveleyen onlarca yıllık politika ve güvenlik doktrinlerinden oluşan verilerle eğitildi. Teknoloji, bu önyargıyı yalnızca büyüttü,” dedi ve ekledi: “Daha hızlı, tespit edilmesi daha zor ve karşı çıkması daha güç hale geldi.” Hukukçular ve dijital hak savunucuları arasında algoritmik sistemlerin şeffaflığını sorgulama ve direnç gösterme bilinci giderek artıyor.

Önyargılı veri, önyargılı sistemler

Yüz tanıma teknolojileri sistematik olarak koyu tenli bireylerde ve dini azınlıklarda düşük performans gösteriyor.

Örneğin, önemli bir araştırma, ticari yüz tanıma sistemlerinin koyu tenli kadınlarda hata oranının %34,7’ye kadar çıktığını, açık tenli erkeklerde ise %0,8 olduğunu ortaya koydu.

ABD Ulusal Standartlar ve Teknoloji Enstitüsü (NIST) tarafından yapılan bir başka rapor, bu sistemlerin Siyah ve Asyalı yüzleri beyazlara kıyasla 10 ila 100 kat daha fazla yanlış tanıma olasılığı olduğunu buldu.

Eğer eğitim verileri belirli nüfuslarda düşük performansı kodluyorsa, bu sistemleri polislik, gözetim veya tarama alanlarında kullanmak adaletsizliği yalnızca algoritmik biçimde sürdürmek anlamına gelir.

Polislik, sınırlar ve Müslüman bakışı

Birleşik Krallık’ta Ulusal Veri Analitik Çözümü gibi öngörücü polislik projeleri, yıllardır süren ırksal profilleme nedeniyle çarpıtılmış tarihi tutuklama verileri üzerine inşa edildi.

Bu algoritmalar, polis kaynaklarını uzun süredir aşırı gözetim altındaki aynı topluluklara yönlendiriyor ve önyargıyı “veri odaklı verimlilik” diline büründürüyor.

Fransa’da durum benzer şekilde endişe verici. Başlangıçta çevrimiçi “radikalleşmeyi” tespit etmek için tasarlanan sistemler, sessizce dini ifadeyi izleme araçlarına dönüştü. Camii web siteleri, dua uygulamaları ve inanç temelli sosyal sayfalar, inanç ile aşırılık arasındaki farkı ayırt edemeyen algoritmalar tarafından taranıyor.

Bu dijital şüphe, görünür dini potansiyel bir tehdit olarak gören daha geniş siyasi iklimi yansıtıyor. Nkonde, bu mantığın kendini sürdürdüğünü belirtiyor: “Tehditleri tespit etmek için teknolojiler tasarladığımızda, çoğu zaman onları kimin şüpheli olduğunu öğretmiş oluyoruz.”

ABD’de bu durum en net şekilde görülüyor. 2017 sonrası ulusal güvenlik öncelikleri, algoritmik önyargının ölçeklenmesine zemin hazırladı. İlk Trump yönetimi sırasında, 13.769 ve 13.780 sayılı yürütme emirleri, yedi Müslüman çoğunluklu ülkeden göçü kısıtladı. Bu kararlar terörle mücadele önlemleri olarak gerekçelendirildi, ancak etkileri ABD sınır kontrol mimarisine derinlemesine yayıldı.

Nkonde’ye göre bu dönem, “ABD sınırlarında kullanılan AI sistemlerinin geliştirilmesinde parametrelerden birini belirledi.” Yüz tanıma taramaları ve biyometrik kontroller, Müslüman dünyasından gelenler için rutin hale geldi. Bu taramalardan sonra veri, ırk, etnik köken, menşe ülke ve “ek tarama nedeni” sistemin meta verilerine kaydedildi.

Zamanla algoritma, bu özellikleri “risk” ile ilişkilendirmeyi öğrendi. Nkonde bunu önyargının sessiz pekiştirilmesi olarak tanımlıyor. “Bu veriler modele işleniyor ve Müslüman yolcuların veri seti içinde ‘terörizm’ kelimesiyle ilişkilendirilme olasılığı artıyor.”

Sonuç, şüphe üreten bir veri ve daha fazla veri üreten bir şüphe döngüsüdür. Masum yolcular, yaptıkları şeyden değil, makinenin ne bekleyeceğini öğrenmiş olmasından dolayı işaretlenir, sorgulanır veya geciktirilir.

Nkonde, “Bu, teknolojide kodlanmış açık bir İslamofobik önyargı örneğidir,” diyor. “Politik korku veriye dönüşüyor ve veri kader haline geliyor.”

Üretken yapay zekâ ve ‘Oryantalist’ eğitim verileri

Bir sonraki endişe dalgası, büyük veri kümeleri kullanan üretken yapay zekâ ve dil/görsel modellerle ilgili, diyor Cambridge Üniversitesi doktora adayı Sonia Fereidooni.

“Bugün ticari olarak yoğun şekilde kullanılan üretken AI modelleri, oryantalist eğitim verilerinden kaynaklanan, derin köklü anti-Müslüman önyargıya sahiptir,” dedi Fereidooni. Bu önyargı, modellerin doğuşundan bu yana devam ediyor.

Akademik literatür, GPT-2 ve GPT-3 dönemlerinden itibaren, hatta ChatGPT’nin piyasaya çıkışından önce, dil modellerinin ciddi anti-Müslüman önyargıya sahip olduğunu ve bunun bugünkü AI modellerinin oluşturulmasında etkili olduğunu gösteriyor.

Fereidooni ekliyor: “Üretken AI modelleri yalnızca İslamofobik idealleri pekiştirmekle kalmaz, aynı zamanda eğitim verilerinde yer alan Batı-merkezli Oryantalist imgeler aracılığıyla sosyal önyargıları ve damgaları da artırır; bu da anti-Müslüman söylemin otomatik olarak yayılmasıyla büyüyen bir İslamofobi döngüsü yaratır.”

Gerçekten de, “Persistent Anti-Muslim Bias in Large Language Models” başlıklı hakemli bir çalışma, GPT‑3’te “Müslüman” kelimesinin %23 test vakasında “terörist” ile eşleştirildiğini ortaya koydu. Takip çalışmaları, “önyargı giderme” çabalarından sonra bile önyargının yeni modellerde devam ettiğini gösterdi. Bazı teknikler (prompt-engineering, kültürel yönlendirme), Arap/Müslüman önyargısının yaygınlığını %87,7’ye kadar azaltabilse de sonuçlar geniş ölçüde değişkenlik gösterdi ve birçok üst düzey bağlantı kaldı.

Çevrimiçi denetim, susturma ve yayılma

Çevrimiçi platformlar nefret söylemini azaltmayı iddia etse de, araştırmalar anti-Müslüman içerik konusunda farklı bir tablo ortaya koyuyor. Örneğin bağımsız kuruluş CCDH, 2023’te sosyal medya şirketlerinin bildirilen anti-Müslüman nefret içeriklerinin %89’una müdahale etmediğini bildirdi.

Benzer şekilde, Amnesty International 2022 raporu, içerik denetiminde sistematik sorunların Müslüman kadınları orantısız şekilde etkilediğini ortaya koydu.

Mesaj net: Platformlar kendilerini tarafsız ifade özgürlüğü arabulucuları olarak pazarlasa da, denetim sistemleri sıklıkla İslamofobik içeriğin kontrolsüz şekilde yayılmasına izin veriyor.

Kültürel ve kurumsal boyut

Algoritmik gözetim ve önyargıyı bu kadar sinsi kılan şey, şeffaf olmamalarıdır. Bir polisin önyargısı sorgulanabilir; bir algoritmanınki genellikle sorgulanamaz. Makine birini “yüksek riskli” olarak etiketlediğinde, nadiren bir açıklama veya itiraz mekanizması vardır.

Müslümanlar için seyahat ederken, çalışırken veya çevrimiçi olarak dini ifade ederken bu, sürekli gözetim altında olma hissi yaratır. Havalimanlarındaki yüz tanıma ek sorgulamalara yol açabilir; işe alım yazılımı, ismini “yabancı” olarak değerlendirirse adayları sessizce daha düşük sıralayabilir; sosyal medya denetimi, Gazze veya İslamofobi tartışmalarını bastırabilir.

Her bir olay küçük görünebilir, ama topluca dijital ikinci sınıf vatandaşlık rejimi oluşturur. Nkonde bunu “dijital şüphe döngüsü” olarak adlandırıyor ve tarafsızlık iddialarının derin bir gerçeği gizlediğini vurguluyor: “Önyargılı bir dünyada tarafsızlık yalnızca mevcut durumu sürdürür.”

Direniş ise büyüyor. Müslüman teknoloji uzmanları, hukukçular ve dijital hak savunucuları algoritmik sistemlerin şeffaflığına meydan okumaya başlıyor. Müslüman ve Küresel Güney perspektifleri uluslararası tartışmalarda yer almazsa, önyargı teknik bir hata olarak görülmeye devam edecek, politik bir adaletsizlik olarak değil.

Nkonde, “Kuralları yazarken Müslüman sesler yer alana kadar, AI etiği küresel sorunlar hakkında Batı merkezli bir tartışma olarak kalacak,” diyor. Avrupa genelinde sivil toplum örgütleri, risk sınıflandırmaları ve denetim mekanizmalarını getiren AB AI Yasası aracılığıyla şeffaflık talep ediyor.

Ancak uygulama hâlâ tutarsız ve ulusal güvenlik muafiyetleri, hükümetlerin opak teknolojileri gizlice çalıştırmasına izin veriyor. Ama daha derin sorun düzenlemenin ötesinde, kültürel ve kurumsal boyuttadır. AI önyargısı sadece bir yazılım meselesi değil, “riskin” nasıl görüldüğüne ve kimin güvenliğinin en önemli olduğuna karar verenlerin kim olduğunun bir yansımasıdır.

Tell MAMA Direktörü Imane A. Atta, TNA’ya verdiği demeçte: “AI sistemleri, beslenen verilere ve algoritmaların ve programların içindeki işleyişine dayanır. Hiç kuşku yok ki, herhangi bir AI sisteminde önyargılar olacaktır; bu da belirli desenlere odaklanmaya veya insanın manipüle edilmiş ya da doğru olmayan olduğunu bilmesi gereken örüntüleri aramaya başlaması anlamına gelir.”

Atta ekledi: “Bu nedenle insan gözetimi çok önemlidir ve AI’ya yalnızca güvenmek, bunu kar amaçlı girişimlerle bağladığınızda gerçek bir tehlike oluşturur.”

“Anti-Müslüman önyargı, programlar bu tür aktiviteleri yüksek hacimde algıladığında, ana etkileyicileri tanıyıp bu davranışı meşrulaştırdığında veya daha fazla ürün satılmasını sağladığında kolayca AI’ya sızabilir, hatta güçlenebilir.”

Korku temelli sistemler, teknik olarak ne kadar sofistike olursa olsun, korkuyu yeniden üretmeye devam edecektir. Nkonde’nin hatırlattığı gibi: “Makineleri daha akıllı yapmak yerine, sistemleri nasıl daha adil hale getirebiliriz diye sormalıyız.”