İçindekiler
Wired Dergisi Yapay Zeka ve Irkçılık İlişkisini İnceledi
ABD merkezli Wired dergisi, Google, Microsoft ve Perplexity gibi şirketlerin yapay zeka sistemlerinin ırkçı içerikleri yaygınlaştırdığını ortaya koyan bir araştırmaya yer verdi.
Yapay Zeka Sistemlerinin Etkisi ve İddialar
Araştırmaya göre, bu şirketlerin yapay zeka sistemleri, beyazların genetik üstünlüğünü savunan bilim dışı verilere dayalı yanıtlar üretiyor. İngiltere merkezli “Hope Not Hate” grubunun araştırmacısı Patrik Hermansson’ın çalışmaları da bu iddiaları destekliyor.
Örnekler ve Tespitler
Hermansson’ın araştırmasında, Google’ın “AI Overviews” özelliğinin, ırkçı eski veri setlerine dayalı sonuçlar verdiği görüldü. Benzer şekilde, Microsoft Copilot ve Perplexity gibi sistemlerin de benzer içerikleri kullandığı tespit edildi.
Yapay Zeka ve Önyargılı Davranışlar
Bilişim uzmanı Tolga Mürtezaoğlu, yapay zekanın öğrenme sürecindeki temel sorunlardan kaynaklanan önyargılı davranışlar sergilediğini vurguluyor. Mürtezaoğlu’na göre, bu teknoloji genellikle öğrendiği önyargıları yansıtıyor ve tarafsız değil.
Örnekler ve Tehlikeler
Mürtezaoğlu, yapay zekanın siyahi kadınları tanıyamaması gibi örneklerle bu sorunu açıklıyor. Ayrıca, yapay zeka sistemlerinin yanlış bilgileri doğru gibi algılaması ve hatta “halüsinasyon” görmesi de büyük tehlikelere işaret ediyor.
Algoritmik Adalet ve Gelecek
Mürtezaoğlu’na göre, algoritmik adalet için girişimler çok önemli. Ancak yapay zekanın yanlılık sorunu, gelecekte daha büyük güvenlik problemlerine yol açabilir. Bu nedenle teknolojinin gelişimi etik, adalet ve şeffaflık ilkelerine dayandırılmalıdır.
Sonuç
Tolga Mürtezaoğlu’nun uyarıları, yapay zekanın güvenli ve önyargısız çalışabilmesi için etik denetimin önemini vurguluyor. Yanlış bilgilerle eğitilen yapay zeka sistemlerinin, toplumda ciddi güven sorunlarına neden olabileceği açıkça görülüyor.