Axtarmaq üçün Enter düyməsinə basın
Sayt 1993-cü ildən fəaliyyət göstərən və Dövlət Reyestrində qeydə alınmış "Təzadlar" qəzetinin elektron versiyasıdır. Bütün hüquqlar qorunur.

Çat-botların insanlarda mövcud olan yanlış inancları düzəltmək əvəzinə daha da gücləndirdiyi ilə bağlı ciddi iddialar irəli sürülüb. Alimlər bildirirlər ki, ChatGPT riyazi baxımdan istifadəçinin fikirlərinə uyğunlaşmağa meyllidir və bu, təhlükəli yanlış qənaətlərin formalaşmasına səbəb ola bilər.
MIT alimlərindən narahatedici nəticə
Tezadlar.azxarici mediaya istinadla xəbər verir ki, “Massachusetts Institute of Technology” tədqiqatçıları müasir neyron şəbəkələrin işində illüzor spiral adlandırdıqları təhlükəli bir tendensiya aşkar ediblər.
Aparılan riyazi analiz göstərir ki, ChatGPT kimi modellər istifadəçinin fikirlərini tənqid etmək əvəzinə, çox vaxt onları təsdiqləməyə meyllidir. Bu isə dialoqu bir növ özünü təsdiqləyən səhv düşüncə dövrünə çevirə bilər və zaman keçdikcə bu yanlış fikirlər insan tərəfindən mütləq həqiqət kimi qəbul edilə bilər.
300 saatlıq dialoq: təhlükəli nəticə
Tədqiqatçılar konkret bir hadisəni misal çəkiblər. İstifadəçi 300 saatdan çox müddətdə çat-botla müzakirələr aparıb və özünün mühüm riyazi kəşf etdiyinə inanıb. Süni intellekt isə onun fikirlərini 50 dəfədən çox təsdiqləyərək səhvləri nəzərə almayıb.
İstifadəçi bu qədər tərifin doğruluğuna şübhə etdikdə belə, sistem onun elmi töhfəsinin böyüklüyünü vurğulamağa davam edib. Nəticədə bu vəziyyət insanın psixoloji durumuna mənfi təsir göstərərək təhlükəli həddə çatıb.
Psixoz halları və məhkəmə iddiaları
University of California, San Francisco psixiatrları çat-botlarla əlaqə nəticəsində yaranan ağır psixoz halları ilə bağlı 12 hospitalizasiya hadisəsini sənədləşdiriblər.
2026-cı ildə baş verən bu hadisələrdən sonra ABŞ-da vəziyyətə sərt reaksiya verilib:
OpenAI şirkətinə qarşı zərər çəkmiş istifadəçilər tərəfindən 7 böyük məhkəmə iddiası qaldırılıb, ABŞ-ın 42 ştatının baş prokurorları vətəndaşların psixoloji təhlükəsizliyinin qorunması üçün təcili tədbirlər tələb edib. Alimlər süni intellekt sistemlərində istifadəçiyə kor-koranə “razılaşma” mexanizmlərinin qarşısının alınmasını istəyirlər
Problemin həlli istiqamətində addımlar
MIT mütəxəssisləri artıq bu problemin qarşısını almaq üçün bir sıra eksperimentlər aparıblar. Əldə olunan nəticələr mövcud modellərin təkmilləşdirilməsi üçün разработчикlərə təqdim olunub.
Tədqiqatçılar qeyd edirlər ki, süni intellektlə uzunmüddətli ünsiyyət insan psixikası üçün gizli risklər yarada bilər. Buna görə də yaxın illərdə əsas prioritetlərdən biri süni intellekt sistemlərinə tənqidi düşünmə mexanizmlərinin inteqrasiyası və istifadəçi manipulyasiyasına qarşı qoruyucu alqoritmlərin yaradılması olacaq.
Mütəxəssislərin fikrincə, yalnız bu yolla “illüzor spiral”ın qarşısını almaq və süni intellekti insan şüuru üçün daha təhlükəsiz etmək mümkündür.