AI Hallusinasiyaları: Etibarlı Cavabları Necə Təmin Etmək Olar?
1. AI hallusinasiyası nədir?
AI hallusinasiyaları, bir söhbət agenti, məsələn, chatbot, yanlış, uyğunsuz və ya tamamilə uydurulmuş bir cavab yaratdıqda baş verir. Bu xətalar texniki bir səhvdən deyil, dil modellərinin məlumatları emal etmə üsulundan irəli gəlir. Verilənlər bazasında müvafiq məlumat olmadıqda, AI "mümkün" bir cavabı "tahmin etməyə" çalışa bilər, hətta bu cavab yanlış olsa belə.
Bu problem niyə baş verir?
Süni intellekt modelləri, xüsusilə LLM-lər (Böyük Dil Modelləri), kontekstə əsaslanaraq növbəti söz və ya ifadəni proqnozlaşdırmaq üçün hazırlanmışdır. Onlar bir cavabın düzgün olub-olmadığını "bilmirlər", əksinə onun düzgün olma ehtimalını qiymətləndirirlər.
Bu, yalnış və ya uyğunsuz cavablara səbəb ola bilər, xüsusilə də:
- İstifadəçinin sualı verilənlər bazasında olan bilikdən artıqdır.
- Mövcud məlumatlar qeyri-müəyyəndir və ya pis strukturludur.
- AI, müəyyən bir kontekstdə cavablarını təsdiqləmək üçün konfiqurasiya edilməmişdir.
Əsas Tərif
AI hallusinasiyası, faktiki əsasdan məhrum olan bir AI modelinin yaratdığı cavabı ifadə edir. Bu, inandırıcı, lakin yanlış bir cavabdır.
Gəlin e-ticarət sahəsində bir nümunəyə baxaq. Burada hallusinasiyanın baş verə biləcəyi tipik bir ssenari var:
E-ticarət üçün Müştəri Dəstəyi
Nümunə 1: Çatdırılma Problemi
AI Assistant
Online
Müəyyən Edilmiş Problem:
- AI tərəfindən yaradılan səhv: Verilən cavab "bir gündən az" bir vaxt çərçivəsi göstərir. Lakin, faktiki vaxt çərçivəsi 2-dən 4 iş gününə qədərdir.
- Mümkün nəticələr:
- Tez çatdırılma gözləyən müştəri narazılığı.
- Şirkət üçün idarə edilməli olan mənfi rəylər, mübahisələr və ya geri ödəmələr.
2. Niyə AI hallüsinasiyaları problem yaradır?
1. İstifadəçi etibarının itirilməsi
AI agentinin təqdim etdiyi cavablar yanlış olduqda, istifadəçilər sistemin etibarlılığını tez bir zamanda sual altına alırlar. Bir xidmətin məmnun olmayan müştərisi və ya pis məlumatlandırılmış chatbot geri dönmək ehtimalı daha azdır.