ABD merkezli Wired dergisi, Google, Microsoft ve Perplexity gibi şirketlerin yapay zeka sistemlerinin ırkçı içerikleri yaygınlaştırdığını ortaya koyan bir araştırmaya yer verdi.
Araştırmaya göre, bu şirketlerin yapay zeka sistemleri, beyazların genetik üstünlüğünü savunan bilim dışı verilere dayalı yanıtlar üretiyor. İngiltere merkezli “Hope Not Hate” grubunun araştırmacısı Patrik Hermansson’ın çalışmaları da bu iddiaları destekliyor.
Hermansson’ın araştırmasında, Google’ın “AI Overviews” özelliğinin, ırkçı eski veri setlerine dayalı sonuçlar verdiği görüldü. Benzer şekilde, Microsoft Copilot ve Perplexity gibi sistemlerin de benzer içerikleri kullandığı tespit edildi.
Bilişim uzmanı Tolga Mürtezaoğlu, yapay zekanın öğrenme sürecindeki temel sorunlardan kaynaklanan önyargılı davranışlar sergilediğini vurguluyor. Mürtezaoğlu’na göre, bu teknoloji genellikle öğrendiği önyargıları yansıtıyor ve tarafsız değil.
Mürtezaoğlu, yapay zekanın siyahi kadınları tanıyamaması gibi örneklerle bu sorunu açıklıyor. Ayrıca, yapay zeka sistemlerinin yanlış bilgileri doğru gibi algılaması ve hatta “halüsinasyon” görmesi de büyük tehlikelere işaret ediyor.
Mürtezaoğlu’na göre, algoritmik adalet için girişimler çok önemli. Ancak yapay zekanın yanlılık sorunu, gelecekte daha büyük güvenlik problemlerine yol açabilir. Bu nedenle teknolojinin gelişimi etik, adalet ve şeffaflık ilkelerine dayandırılmalıdır.
Tolga Mürtezaoğlu’nun uyarıları, yapay zekanın güvenli ve önyargısız çalışabilmesi için etik denetimin önemini vurguluyor. Yanlış bilgilerle eğitilen yapay zeka sistemlerinin, toplumda ciddi güven sorunlarına neden olabileceği açıkça görülüyor.
Reklam & İşbirliği: [email protected]