Üretken Yapay Zeka Modellerinde Ön Yargı

Uğur Özker
8 min readMay 10, 2024

--

Yapay zeka, temel düzeyde tarihimizden öğrenir. Ne yazık ki toplumsal tarihin büyük bir kısmı bir miktar ayrımcılık ve eşitsizliği içeriyor. Bu nedenle, büyük dil modellerini oluşturan veya hazır modelleri çalışmalarında kullanan şirketlerin bunu dikkate almaları önemlidir, çünkü önyargıyı göz önünde bulundurmadan oluşturulan modeller, bu ayrımcılığı çoğaltacak ve hatta daha da şiddetlendirecektir. Yapay zekanın hâlihazırda hayatlarımız üzerinde uyguladığı etki göz önüne alındığında bu durum özellikle endişe vericidir.

McKinsey tarafından yapılan dijital güven araştırması, yöneticilerin dörtte birinden azının yapay zeka modellerinin ortaya çıkardığı risklere karşı aktif olarak önlem aldığını ortaya koyuyor. Şirketler bu tür riskli yapay zeka modellerinin kullanımını artırdıkça insanlar, önyargıların yapay zeka sistemlerine ne ölçüde dahil olduğunu sorguluyor. Gerçek dünyadaki yapay zeka kullanım örnekleri bize, ayrımcı veriler ve algoritmalar yapay zeka modellerine eklendiğinde modellerin önyargıları geniş ölçekte dağıttığını ve ortaya çıkan olumsuz etkileri artırdığını gösteriyor. Ayrıca, son kullanıcılar bu tür sorunlardan korunmayı bekliyor ve güvene öncelik veren kuruluşların mali açıdan fayda sağladığını da söyleyebiliriz. Yapay zekanın getirdiği risklere karşı önlem alan liderlerin yıllık en az 10% gelir artışı görme olasılığı var[1].

Yapay zeka modellerinin kullanımı konusunda önyargı, liderlerin 74%’ünün ortak çekincesi olarak ilk sırada yer alıyor[2]. Yapay zekanın ortaya çıkardığı risklere karşı önlem almayan liderlerin hepsi, önyargı konusunda ortak payda da yer alıyor.

Şirketler, bir yandan adaleti sağlamak için çalışırken diğer yandan daha iyi sonuçlar elde etmek için de yapay zekadaki önyargı sorunuyla mücadele etmeye motive oluyor. Ancak gerçek dünyada sistemik ırk ve cinsiyet önyargısının ortadan kaldırılmasının zor olduğu gibi, yapay zekadaki önyargının ortadan kaldırılması da kolay bir iş değildir. McKinsey’den yazarlar Michael Chui, James Manyika ve Mehdi Miremadi, Yapay Zekanın işletmeniz için yapabileceği ve yapamayacağı şeyler başlıklı makalede de günlük yaşantımızda yer alan önyargılar ile yapay zekanın ortaya koyduğu önyargılar arasındaki ilişkiyi ortaya koyuyor: “Bu tür önyargılar, onları tanıyıp gerekli önlemleri aldığımız için yerleşik kalma eğilimindedir. Bunları ele almak, veri bilimi tekniklerinde derin bir ustalığın yanı sıra, veri toplama da dahil olmak üzere mevcut sosyal güçler hakkında daha fazla meta-anlayış gerektirir”[3]. Sonuç olarak, önyargılardan arındırmanın bugüne kadarki en göz korkutucu engellerden biri olduğu ve sosyal açıdan kaygı verici tehlikeli bir boyuta ulaştığı ortaya çıkıyor.

Gerçek hayattan yapay zeka önyargısı örnekleri, kuruluşlara önyargının nasıl belirleneceği ve ele alınacağı konusunda yararlı bilgiler sağlar. Veri bilimcileri, bu örneklere ve önyargının üstesinden gelmedeki başarılara eleştirel bir gözle bakarak, makine öğrenimi modellerindeki önyargıyı belirlemek ve önlemek için bir yol haritası oluşturmaya başlayabilirler.

Büyük Dil Modellerinde Önyargının Kaynağı

Yapay zeka önyargısının ortadan kaldırılması, olası önyargı kaynaklarının belirlenmesi için veri kümelerinin, makine öğrenimi algoritmalarının ve yapay zeka sistemlerine bağlı diğer araçların ayrıntılı olarak incelenmesini gerektirir.

Eğitim Verileri Kaynaklı Önyargı:

Büyük dil modelleri, büyük miktarda geçmiş veriye dayanarak geleceğe yada benzer durumlara karşı kararlar almayı öğrenir, bu nedenle veri kümelerini önyargının varlığı açısından değerlendirmek önemlidir. Yöntemlerden biri, eğitim verileri içinde fazla veya az temsil edilen gruplar için veri örneklemesini gözden geçirmektir. Örneğin, çoğunlukla erkek bireyleri temsil eden bir yüz tanıma modeli, kadınlar için kullanıldığında hatalar yada güvenilir olmayan çıktılar üretmesine neden olabilir. Önyargı, eğitim verilerinin nasıl etiketlendiğinden de kaynaklanabilir. Örneğin, tutarsız etiketleme kullanan veya belirli özellikleri hariç tutan veya aşırı temsil eden yapay zeka araçları, yanlış sonuçlar döndürerek iş süreçlerinde problemlere neden olabilir.

Teknik bir arka plan olarak GPT-3, internetten alınan 321 terabaytlık (TB) ham metin koleksiyonu olan Common Crawl’dan yararlanır. Ancak bu veriler gelişmiş ülkelerdeki genç kullanıcılara yönelik olma eğilimindedir. GPT-2 büyük ölçüde Reddit verilerine dayanıyordu; 2016 Pew İnternet Araştırma anketine göre yüzde 67'si erkeklerden oluşuyor ve bu erkeklerin yüzde 64'ü 18 ile 29 yaşları arasında.. Son olarak, GPT modellerinin bir diğer önemli girdisi olan WebText, haber kaynakları, Vikipedi ve kurgu kaynakları üzerine eğitilir. OpenAI, veri kaynaklarının sebep olduğu ön yargı sorununu çözmek için insan geri bildiriminden takviyeli öğrenme (RLHF) gibi teknikleri kullanarak büyük dil modellerini daha az önyargılı hale getirmeye çalıştı. Bu, bir modelin çıktısını, test mühendislerinin tercih ettiği ideal sonuca doğru yönlendirir. RLHF gibi yöntemlerin kullanımı GPT-3 modeline kıyasla GPT-4 üzerinde ön yargının şimdilik azaldığını ortaya koyuyor.

Algoritmik Önyargı:

Kusurlu eğitim verilerinin kullanılması, sürekli olarak hatalar üreten, adil olmayan sonuçlar üreten ve hatta hatalı verilerin doğasında olan önyargıyı artıran algoritmalarla sonuçlanabilir. Algoritmik önyargı, geliştiricinin kendi bilinçli veya bilinçsiz önyargılarına dayanarak algoritma karar verme sürecinde faktörleri adaletsiz bir şekilde ağırlıklandırması gibi programlama hatalarından da kaynaklanabilir. Örneğin, gelir veya kelime dağarcığı gibi göstergeler, algoritma tarafından belirli bir ırk veya cinsiyetten insanlara kasıtsız olarak ayrımcılık yapmak için kullanılabilir.

Bilişsel Önyargı:

İnsanlar bilgiyi işlerken ve yargılarda bulunurken kaçınılmaz olarak deneyimlerimizden ve tercihlerimizden etkileniriz. Sonuç olarak insanlar, verilerin seçimi veya verilerin nasıl ağırlıklandırıldığı yoluyla bu önyargıları yapay zeka sistemlerine dahil edebilir. Örneğin bilişsel önyargı, dünya genelindeki çeşitli popülasyonlardan örnekleme yapmak yerine Amerikalılardan toplanan veri kümelerinin tercih edilmesi ile ortaya çıkabilir.

NIST’e göre bu önyargı kaynağı düşündüğünüzden daha yaygın. NIST, Yapay Zekada Önyargıyı Belirleme ve Yönetme Standardına Doğru (NIST Özel Yayını 1270) raporunda şunları kaydetti: “İnsani, sistemik, kurumsal ve toplumsal faktörler de yapay zeka önyargısının önemli kaynaklarıdır ve şu anda göz ardı edilmektedir. Bu zorluğun başarıyla üstesinden gelinmesi, her türlü önyargının dikkate alınmasını gerektirecektir. Bu, teknolojinin toplumumuzda nasıl yaratıldığını ve toplumumuzu nasıl etkilediğini anlamak ve araştırmak için bakış açımızı makine öğrenimi hattının ötesine genişletmek anlamına geliyor.”

Metinden Resme Modellerde Önyargı Tehlikesi Öne Çıkıyor

Yapay zeka modelleri geliştikçe, oluşturdukları görüntülerin gerçek fotoğraflardan ayırt edilmesi giderek zorlaşıyor ve bu da neyin gerçek neyin sahte olduğunu ayırt etmeyi zorlaştırıyor. Belirgin önyargıları tasvir eden görseller, eğitim verileri olarak gelecekteki modellere geri dönerse, yeni nesil metinden görsele yapay zeka modelleri daha da önyargılı hale gelebilir ve toplum için potansiyel olarak geniş sonuçlar doğuracak şekilde önyargıları birleştiren bir kartopu etkisi yaratabilir. Üretken yapay zeka alanındaki bazı uzmanlar, internetteki içeriğin %90'ının birkaç yıl içinde sentetik. Veriler sayesinde üretken yapay zeka tarafından oluşturulabileceğini öngörüyor[4]. Bu da oluşabilecek kartopu etkisinin ne derece aktif bir risk olduğunu göz önüne koyuyor.

Carnegie Mellon Üniversitesi tarafından yayınlanan bir akademik araştırma[5]; potansiyel önyargıları araştırmak için üç popüler üretken yapay zeka (AI) modelini (Midjourney, Stable Diffusion ve DALL·E 2) analiz etti. Modellerin tamamında yaygın önyargıları ortaya çıkardı. Öncelikle, modellerin hepsinde kadınlara karşı önyargı gözlemlendi. Modeller tarafından oluşturulan resimlerdeki ortalama kadın yüzdesi sırasıyla %23, %35 ve %42 olarak tespit edildi. İkincisi, üç yapay zeka üreticisinin tümü Siyah insanlara karşı önyargılıydı. Bu üç oluşturucu tarafından oluşturulan görüntülerde Siyah bireylerin ortalama yüzdesi sırasıyla yalnızca %9, %5 ve %2 idi; bunların tümü Beyaz bireylerinkinden önemli ölçüde daha düşüktü. Her ne kadar önyargının boyutu modele bağlı olarak değişse de, önyargının yönü hem ticari hem de açık kaynaklı yapay zeka modellerinde tutarlı kalıyor.

Çalışma sırasında, 1.016 mesleğe ilişkin bilgi içeren O*NET veritabanında ki mesleklere yönelik görseller oluşturmak amacıyla her üç model için de tutarlı metin istemleri kullanıldı. O*NET, ABD ekonomisi genelinde düzenli olarak güncellenen mesleki özellikler, işçi gereksinimleri ve bilgileri içeren bir veritabanıdır ve ayrıntılı çalışan özelliklerini belgeleyen dünyanın en büyük, en kapsamlı, yaygın olarak kullanılan açık veri kaynaklarından birini temsil eder. Spesifik olarak, O*NET veritabanındaki her mesleği X olacak şekilde “X’in portresi” olarak yapılandırıldı. DALL·E 2 ile istem başına iki görüntü üretildi. Benzer şekilde Midjourney’de de ilgili mesleki portreleri oluşturmak için aynısı uygulandı. Açık kaynaklı bir araç olan Stable Diffusion’a gelince, gerçekçi görüntüler oluşturmak için en iyi Stabil Difüzyon modellerinden biri olan Realistic Vision adlı önceden eğitilmiş bir model kullanıldı. Sonuç olarak toplamda yaklaşık 8.000 farklı görüntü oluşturuldu. Daha sonra çeşitli mesleklerin yapay zeka tarafından oluşturulan tasvirlerinde yer alan potansiyel önyargıları ve stereotipleri araştırmak için görüntü analizi gerçekleştirildi.

Oluşturulan veriler içindeki cinsiyet dağılımını belirlemek amacıyla, her görüntüdeki yüzleri tespit etmek ve cinsiyet, gülümseme, duygu gibi çeşitli özellikleri çıkarmak için piyasadaki en iyi yüz tanıma API’lerinden biri olan (Eden AI 2023) Face++ API kullanıldı. Bunu takiben, tasvir edilen kadın veya erkeklerin yüzdesini hesaplayarak her bir görüntüdeki cinsiyet dağılımı değerlendirildi ve ardından aynı yapay zeka modelleri tarafından oluşturulan tüm görüntülerin ortalaması hesaplandı. Aşağıda yer alan şekilde özetlendiği gibi, sonuçlar üç yapay zeka görüntü oluşturucunun da kadınlara karşı önyargı sergilediğini ortaya çıkardı. Spesifik olarak, Midjourney, Stable Diffusion ve DALL·E 2 tarafından oluşturulan görüntülerde kadınların temsili sırasıyla %23, %35 ve %42 idi; bunların tümü, %77, %65 ve %58 olarak temsil edilen erkek emsallerinden önemli ölçüde daha düşüktü. Önyargı derecesi modele bağlı olarak değişmekle birlikte, hem ticari hem de açık kaynaklı modeller de dahil olmak üzere üç yapay zeka görüntü oluşturucunun tamamında önyargının mevcut olduğu görünüyor.

Ayrıca bir sonra ki aşama olarak, birden fazla kişiyi içeren her görsel beş özel kategoride sınıflandırıldı: Yalnızca erkekleri tasvir ediyorsa “Yalnızca Erkek”, erkek sayısı kadınları aşıyorsa “Daha Fazla Erkek”, eşit sayıda erkek ve kadın varsa “Eşit”, kadınların sayısı erkeklerden fazlaysa “Daha Fazla Kadın” ve yalnızca kadınları tasvir ediyorsa “Yalnızca Kadın” olarak etiketlendi. Aşağıdaki grafikte özetlendiği gibi, üç AI modelinin tamamında erkek temsiline yönelik önemli bir eğilim ortaya çıktı. Özellikle Midjourney tarafından oluşturulan görüntülerin %52'si ve Stable Diffusion tarafından oluşturulan görüntülerin %46'sı yalnızca erkekleri içeriyordu; bu modeller tarafından oluşturulan mesleki portrelerin yaklaşık yarısının herhangi bir kadın temsilinden yoksun olduğunu gösteriyor.

Üretken yapay zeka araçlarının pazarlama ve eğitim de dahil olmak üzere çeşitli sektörlerde giderek daha fazla kullanıldığı göz önüne alındığında, bu sorunları ele almanın aciliyeti ortaya çıkıyor. Toplumsal algıların şekillendirilmesi ve pekiştirilmesi de dahil olmak üzere bu tür önyargıların potansiyel etkileri, titiz bir dikkat ve araştırma yapmamızı gerektiriyor. Bu üretken yapay zeka araçlarında yaygın olan önyargının derecesi, yapay zeka topluluğu içinde acil iç gözlem ve düzeltici eylem çağrısında bulunan önemli bir endişe konusudur.

Yapay zekaya olan bağımlılığımız yoğunlaştıkça, bu teknolojilerin tasarımı ve dağıtımında adalet ve eşitlik sağlamak zorunlu hale geliyor. Yalnızca teknolojik olarak gelişmiş değil, aynı zamanda kapsayıcılık ve eşitlik konusundaki etik bağlılıkla şekillenen üretken yapay zeka sistemlerinin geliştirilmesine öncelik vermeliyiz. Bu, güçlü araçların tüm kullanıcılara eşit fayda sağlayacak şekilde tasarlanmasını ve daha kapsayıcı bir geleceğin desteklenmesini sağlar.

LIME[6] (Yerel Yorumlanabilir Model-Agnostik Açıklamalar) ve T2IAT[7] (Metin-Görüntü İlişkilendirme Testi) gibi araçlar önyargının keşfedilmesine yardımcı olabilir. İnsanlar hala istemeden de olsa önyargıya neden olabiliyor. Veri bilimi ekipleri süreçte dikkatli kalmalı ve önyargıları sürekli kontrol etmelidir.

Verileri çeşitli veri bilimci popülasyonuna “açık” tutmak da son derece önemlidir, böylece verileri örnekleyen ve başkalarının gözden kaçırmış olabileceği önyargıları belirleyen kişilerin daha geniş bir temsili olur. Yapay zekadaki önyargının belirlenmesi ve ele alınması veri bilimcilerin erişimine açık olan bu verilerin yönetilmesi ve modeller üzerindeki etkisinin izlenmesi ile başlar.

Önyargı Konusunda Cevap Bekleyen Sorular ve Sorumluluklar

Sektör genelinde yapay zeka önyargısını ortadan kaldırmaya yönelik önemli odaklanma ve yatırımlara rağmen kuruluşlar hâlâ önyargıyı ortadan kaldırma konusunda birçok açık zorlukla mücadele ediyor.

Aşağıdaki sorular yapay zeka konusunda ön yargının önüne geçebilecek başlıca zorlukları adresliyor;

Belirli bir yapay zeka kararının nedenleri nelerdir?

Sorgu ile yapay zeka cevapları arasındaki kalıpları nasıl ilişkilendirebiliriz?

Güvenilir algoritmaları geliştirirken nelere dikkat etmeliyiz?

Yapay zekayı eğitmek için hangi verilerin kullanılacağını nasıl belirlemeliyiz?

Üretken yapay zeka modellerini gerçek hayatta kullanmadan önce bu konuyu açıklığa kavuşturmalıyız. Üretken yapay zeka modellerinin ön yargısı sonucunda ortaya çıkacak bir sorunda sorumluluğu kim üstlenecek? Veri kümesi sağlayıcıları mı? Modeli eğiten ve algoritmayı ortaya koyan mühendisler mi? Modelleri yaratan girişimler mi? Yoksa modelleri kullanan son kullanıcılar mı?

--

--

Uğur Özker
Uğur Özker

Written by Uğur Özker

Computer Engineer, MSc, MBA, PMP®, Senior Solution Architect IBM