Halüsinasyon
Halüsinasyon, bir LLM'in gerçekte doğru olmayan bilgileri güvenle ve inandırıcı biçimde sunması olgusudur.
Duz Turkce Aciklama
LLM'ler, eğitim verilerindeki kalıpları taklit ederek metin üretir. Bu süreç bazen modeli var olmayan kitaplar, makaleler veya kişiler üretmeye, gerçek sayıları ya da tarihleri yanlış aktarmaya ya da tamamen uydurmaya sevk edebilir. Model bunu güvenle ifade ettiğinden kullanıcının yanlışı fark etmesi zorlaşır. Halüsinasyon, tüm LLM'lerin temel sorunundan biridir ve araştırmacılar bunu azaltmak için RLHF, RAG ve gerçeklik doğrulama gibi teknikler geliştirmektedir.
Nerede Kullanilir?
Yapay zeka güvenliği, doğruluk değerlendirmesi ve kurumsal AI benimseme tartışmalarında kritik bir konu olarak ele alınır. Tıp, hukuk ve finans gibi yüksek riskli alanlarda halüsinasyonların etkileri özellikle önemlidir.
Ornek
Bir avukat, AI asistanının önerdiği emsal kararların birçoğunun gerçekte var olmayan davalar olduğunu keşfedince halüsinasyon sorunuyla yüz yüze geldi.