İçeriğe geç

Yapay Zekanın Laneti: Amazon’un Objektiflik Hayali Nasıl Kabusa Dönüştü?

Yıl: 2014. İnsan Kaynakları dünyası için umut verici bir dönemin başlangıcıydı. Teknoloji devi Amazon’un Seattle’daki ofisinde, İnsan Kaynakları profesyonelleri ve makine öğrenimi uzmanları, işe alımı kökten değiştirecek bir araç üzerinde çalışıyordu. Amaç, özgeçmişleri saniyeler içinde tarayan, en iyi adayları 1’den 5 yıldıza kadar puanlayan ve insan önyargısından tamamen arındırılmış kusursuz bir Yapay Zeka (AI) motoru inşa etmekti.

Bu yazılım bir İnsan Kaynakları profesyonelinin “Kutsal Kasesi” olacaktı: Hız, verimlilik ve tam objektiflik vaadi. Ancak bu parlak vizyonun altında, sistemin geleceği değil, geçmişin hatalarını öğrendiği karanlık bir sır yatıyordu.

Verilerin Fısıltısı: Geçmişin Gölgesi Geleceği Nasıl Kararttı?

Amazon, AI modelini eğitmek için son on yılda şirkete sunulan on binlerce özgeçmişten oluşan devasa bir veri seti kullandı. Mantık basitti: Geçmişte kimler başarılı olduysa, sistem de gelecekte benzer örüntülere sahip adayları bulacaktı. Ancak bu verilerde kritik bir sorun vardı:

  1. Tarihsel Çarpıklık: Özellikle yazılım geliştirme, mühendislik ve veri bilimci pozisyonları, sektör genelinde olduğu gibi Amazon’da da erkek adayların ezici üstünlüğüne sahipti. Kadın adayların sayısı bu pozisyonlarda çok düşüktü.

  2. AI’ın “Hata” Çıkarımı: Algoritma, insan gibi düşünmedi; sadece matematiksel bir ilişki kurdu. Başarılı olanların büyük çoğunluğunun erkek olduğunu görünce, erkek olmayı bir başarı faktörü olarak kodladı.

Algoritma bir anda, objektif bir tarayıcıdan, geçmişteki önyargıları otomatize eden bir araca dönüştü.

Şok Eden Keşif: “Kadın” Kelimesine Verilen Ceza Puanı

2015 yılına gelindiğinde, sistemi test eden programcılar şok edici bir gerçeği fark ettiler. AI modelinin ürettiği puanlama sonuçları, kadın adaylara karşı sistematik bir ayrımcılık gösteriyordu. Önyargı, yalnızca sonuçlarda kalmadı, kelime bazında somutlaştı:

  • Anahtar Kelime Cezası: Özgeçmişlerde “kadınlar” kelimesinin geçtiği her türlü ifadeye (Örneğin, üniversitede bir “kadınlar teknik kulübünün başkanı” olmak) algoritma otomatik olarak ceza puanı uyguluyordu.

  • Eğitim Dezavantajı: Yalnızca kadın öğrencileri kabul eden kolejlerden gelen mezunlar, sistem tarafından daha düşük puanlarla değerlendiriliyordu.

Amazon’un makine öğrenimi uzmanları, modeli kurtarmak için yoğun çaba harcadılar. Algoritmanın “kadın” kelimesini görmezden gelmesini sağlamaya çalıştılar. Ancak sorun, basit bir kelime filtresinden çok daha derindi; önyargı, modelin temeline, verilerin genetik koduna işlemişti. Mühendisler, algoritmanın tarafsız çalıştığına dair hiçbir zaman tam bir garanti veremediler.

📉 Projenin Çöküşü ve GIGO’nun Zaferi

Amazon, sorunun çözülemez olduğunu kabul ederek 2018 yılında bu deneysel projeyi rafa kaldırdı. Bu vaka, Yapay Zekanın işe alım süreçlerindeki potansiyelini kaybetmediğini, ancak veri kalitesinin mutlak belirleyici olduğunu gösterdi.

Bu durum, bilgisayar bilimlerinin temel ilkesi olan “Garbage In, Garbage Out (GIGO)”nun en net ve maliyetli İK örneği olarak tarihe geçti:

Sisteme çöp (tarihsel önyargılarla dolu yetersiz veri) girerseniz, çıktı olarak çöp (önyargılı ve hatalı sonuçlar) alırsınız.

💡 İK Liderleri İçin Alınması Gereken Stratejik Dersler

Amazon’un bu hikayesi, günümüzde AI destekli işe alım teknolojilerini düşünen her İK profesyoneli için bir uyandırma çağrısıdır:

  1. Önyargıların Otomasyonu: AI, insan önyargılarını ortadan kaldırmaz; yalnızca onları büyük bir hızla otomatize eder ve görünmez kılar. Verilerinizin geçmişteki hatalarınızın bir yansıması olduğunu unutmayın.

  2. Veri Çeşitliliği Yatırımı: AI modelini eğitmeye başlamadan önce, mevcut verilerinizdeki tarihsel adaletsizlikleri ve dengesizlikleri tespit etmek ve düzeltmek için büyük zaman ve kaynak ayırın. Modelinizi, hedeflediğiniz çeşitliliğe sahip, dengeli veri setleri üzerinde eğitin.

  3. İnsan Gözetimi Esastır: İK’nın geleceği, Yapay Zekanın eleme yapması değil, insan yargısını güçlendirmesi üzerine kurulmalıdır. AI, yetenekleri önceliklendirebilir, ancak nihai yetenek kararı, etik gözetim ve insani değerlendirme ile verilmelidir.

  4. Sürekli Etik Denetim (Algorithmic Audit): Modeliniz devredeyken bile, çıktılarının düzenli olarak cinsiyet, etnik köken ve diğer demografik faktörler açısından adil olup olmadığını denetleyin. Herhangi bir eşitsizlik tespit edilirse, sistemi hemen durduracak bir “Kill Switch” (acil kapatma mekanizması) planınız olmalıdır.

Amazon vakası, AI’ın mükemmel bir çözüm değil, yalnızca bir ayna olduğunu gösterdi. İK liderleri olarak görevimiz, bu aynaya baktığımızda şirketimizin gelecekteki ideallerini değil, geçmişteki hatalarını görmediğimizden emin olmaktır. GIGO’yu GIIO (Good Input, Good Output – İyi Girdi, İyi Çıktı) prensibine dönüştürmek, İK’nın etik sorumluluğudur.