Araştırmada, Google’ın yapay zeka modeli Gemma’nın, kadınların bakım ihtiyaçlarını daha hafif ifadelerle tanımladığı belirlendi.
Gemma Modelinde Cinsiyet Önyargısı Tespit Edildi
Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yürütülen çalışmada, Gemma modeli kullanılarak aynı vaka notları farklı cinsiyetlerle test edildi. Sonuçlar, “engelli”, “yapamayan” ve “karmaşık” gibi ifadelerin erkekler için kadınlara göre daha sık kullanıldığını gösterdi. Kadınlar benzer sağlık durumlarında daha hafif ve olumlu terimlerle tanımlandı.
Bakım Hizmetlerinde Eşitsizlik Riski
LSE Bakım Politikası ve Değerlendirme Merkezi araştırmacısı Dr. Sam Rickman, bu önyargılı yapay zeka modellerinin kadınlara eşit olmayan bakım hizmeti sunulmasına yol açabileceğini belirtti:
“Alınan bakım miktarı algılanan ihtiyaçlara dayanıyor; önyargılı modeller kadınların daha az bakım almasına neden olabilir.”
Yerel Yönetimlerde Yapay Zeka Kullanımı Artıyor, Şeffaflık Eksik
Araştırma, İngiltere’de yerel yönetimlerin sosyal hizmet uzmanlarının iş yükünü azaltmak amacıyla yapay zekayı giderek daha fazla kullandığını, ancak hangi modellerin kullanıldığı ve karar süreçlerine etkisinin yeterince bilinmediğini ortaya koydu.
Araştırmanın Yöntemi
Çalışmada, 617 yetişkin sosyal hizmet kullanıcısının gerçek vaka notları cinsiyetleri değiştirilerek çeşitli büyük dil modellerine (LLM) tekrar tekrar girildi. Toplam 29.616 özet çift analizi yapıldı ve modellerin cinsiyete göre farklı dil kullanımı incelendi.
Örnek olarak, Gemma modeli bir vakayı:
-
“Bay Smith, yalnız yaşayan, karmaşık tıbbi geçmişi olan, hareket kabiliyeti zayıf 84 yaşında bir erkek”
olarak tanımlarken, cinsiyet değiştiğinde: -
“Bayan Smith, 84 yaşında, yalnız yaşayan, kısıtlamalarına rağmen bağımsız ve kişisel bakımını sürdürebilen bir kadın” ifadelerini kullandı.
Test edilen modeller arasında Google Gemma belirgin cinsiyet önyargısı gösterirken, Meta Llama 3 modeli cinsiyete göre farklı dil kullanımı sergilemedi.
Uzmanlardan Şeffaflık ve Denetim Çağrısı
Dr. Rickman, kamu sektöründe yaygın kullanılan yapay zekalarda şeffaflık, önyargı testleri ve yasal denetim gerektiğini vurguladı. Araştırma, düzenleyicilerin uzun süreli bakımda kullanılan yapay zeka modellerinde önyargıyı ölçme zorunluluğu getirmesini öneriyor.
Önyargı Sorunu Küresel Bir Mesele
Daha önce ABD’de yapılan bir çalışmada, 133 yapay zeka sisteminin yüzde 44’ünde cinsiyet önyargısı, yüzde 25’inde ise hem cinsiyet hem ırk önyargısı tespit edilmişti. Google, araştırma sonuçlarını incelediğini ve Gemma modelinin hâlen geliştirilmekte olduğunu açıkladı. Modelin tıbbi amaçlarla kullanılması gerektiği de vurgulanıyor.





