Yapay Zeka Halüsinasyonu Nedir?

Yapay zeka halüsinasyonu, başta büyük dil modelleri (LLM) olmak üzere üretken yapay zeka sistemlerinin gerçekte var olmayan, hatalı veya doğrulanmamış bilgileri yüksek özgüvenle üretmesi durumudur. İnsan psikolojisindeki halüsinasyon kavramından esinlenerek kullanılan bu terim, modelin yanlış bilgiyi doğruymuş gibi sunmasını ifade eder. Özellikle ChatGPT, Gemini ve Claude gibi yaygın kullanılan üretken modellerde gözlemlenen bu sorun, yapay zekanın güvenilirliğini doğrudan etkileyen temel problemlerden biridir.

Buradaki kritik nokta, modellerin gerçek anlamda "bilgiye sahip" olmaması, bunun yerine istatistiksel kalıplara dayalı olasılıksal tahmin mekanizmasıyla çalışmasıdır. Büyük dil modelleri, kendilerine verilen girdiye göre bir sonraki en olası kelimeyi tahmin eder. Ancak bu süreçte içerik doğruluğunu denetleyen içsel bir doğruluk filtresi bulunmaz. Bu nedenle model, belirsizlik durumlarında boşlukları mantıklı görünen ancak yanlış bilgilerle doldurabilir.

yapay zeka, halüsinasyon, robotlar, yapay zeka niçin uyduruyor
Yapay zeka halüsinasyonu üretim temelli bir hatadır.

Önemli Ayrım

İnsan halüsinasyonu algısal bir bozulma iken, yapay zeka halüsinasyonu üretim temelli bir hatadır. Model bir şey “görmez” veya “duymaz”; yalnızca olasılıksal metin üretir. Bu nedenle teknik olarak bir üretim yanlışı veya “uydurma üretim” olarak değerlendirilir.

Akademik literatürde yapay zeka halüsinasyonu, “gerçekle desteklenmeyen fakat tutarlı görünen içerik üretimi” şeklinde tanımlanır. Bu durum kimi zaman tamamen uydurma bir kaynak, kimi zaman yanlış tarih, kimi zaman da hiç var olmayan bir bilimsel çalışmanın referans gösterilmesi biçiminde ortaya çıkabilir.

Halüsinasyon Kavramının Evrimi

Halüsinasyon terimi yapay zekada ilk olarak bilgisayar görüsü alanında kullanılmıştır. Özellikle düşük çözünürlüklü görüntülerden yüksek çözünürlüklü detay üretme süreçlerinde “face hallucination” gibi kavramlar olumlu bir bağlamda değerlendirilmiştir. Burada amaç, eksik veriyi tahmine dayalı olarak tamamlamaktı.

Zamanla istatistiksel makine çevirisi ve doğal dil işleme alanlarında model çıktılarının gerçeğe uymayan kısımları için de aynı terim kullanılmaya başlanmıştır. 2020’li yıllarda büyük dil modellerinin yaygınlaşmasıyla birlikte ise halüsinasyon, olumsuz ve riskli bir teknik sorun olarak küresel ölçekte tartışılmaya başlanmıştır.

Üretken yapay zekanın yaygınlaşmasıyla birlikte kamuoyunda görünür hale gelen bu sorun, özellikle sohbet botlarının yanlış bilgi üretmesiyle daha fazla dikkat çekmiştir. Böylece halüsinasyon, teknik bir detay olmaktan çıkarak etik, hukuki ve toplumsal bir tartışma başlığına dönüşmüştür.

Halüsinasyon Neden Oluşur?

Yapay zeka halüsinasyonlarının ortaya çıkmasında birden fazla teknik ve yapısal faktör rol oynar. Bu faktörler model mimarisi, eğitim verisi kalitesi ve eğitim süreçleriyle doğrudan ilişkilidir. Bu konuda teknik bir çerçeve sunan Why Language Models Hallucinate başlıklı değerlendirme, dil modellerinin tahmin odaklı yapısına dikkat çekmektedir.