Zabrinjavajuće brojke
Više od milion korisnika ChatGPT-a svake nedelje šalje poruke koje sadrže „eksplicitne pokazatelje mogućeg suicidalnog planiranja ili namere“, navodi se u blog objavi koju je kompanija OpenAI objavila u ponedeljak.Povezane vesti
Ova procena, deo šireg izveštaja o tome kako ChatGPT obrađuje osetljive teme, predstavlja jednu od najdirektnijih izjava tehnološke kompanije o potencijalnim rizicima koje AI sistemi mogu imati po mentalno zdravlje korisnika.
Uznemirujuće brojke i prvi put objavljeni podaci
Pored slučajeva suicidalnih poruka, OpenAI navodi da oko 0,07% aktivnih korisnika nedeljno - što je približno 560.000 ljudi od ukupno 800 miliona korisnika – pokazuje znake mogućih mentalnih problema povezanih sa psihotičnim ili maničnim stanjima.U objavi se navodi da su ovakvi razgovori izuzetno teško merljivi i detektabilni, te da predstavljaju početnu analizu kompanije.Objava dolazi u trenutku kada se OpenAI suočava sa javnom i pravnom kontrolom nakon tužbe porodice tinejdžera koji je izvršio samoubistvo posle dugih razgovora sa ChatGPT-om. Pored toga, Federalna trgovinska komisija SAD pokrenula je istragu protiv kompanija koje razvijaju AI četbotove, kako bi ispitala njihove efekte na decu i adolescente.
Foto: Freepik.com
Reakcija kompanije i uloga GPT-5 modela
OpenAI je u izveštaju istakao da je nova verzija GPT-5 smanjila broj štetnih odgovora i poboljšala bezbednost korisnika."Naše nove automatske evaluacije pokazuju da GPT-5 ima 91% usklađenosti sa željenim ponašanjem, u poređenju sa 77% kod prethodne verzije“, navodi kompanija.OpenAI je dodao i da su u najnovije ažuriranje uključeni direktni linkovi ka kriznim linijama i podsetnici korisnicima da prave pauze tokom dužih sesija.Kako bi poboljšao sigurnost, OpenAI je angažovao 170 kliničara i psihijatara iz svoje Globalne mreže lekara koji su procenjivali bezbednost AI odgovora i pomagali u oblikovanju komunikacije o mentalnom zdravlju.Stručnjaci upozoravaju: "AI nije zamena za psihološku pomoć"
Pored tehničkih poboljšanja, brojni stručnjaci za mentalno zdravlje izražavaju zabrinutost da AI četbotovi mogu nesvesno potvrđivati opasne misli korisnika – fenomen poznat kao „ulizivanje“ (mirroring bias).Stručnjaci upozoravaju da upotreba četbotova za emocionalnu podršku može imati ozbiljne posledice po ranjive osobe i da se takvi razgovori ne mogu tretirati kao terapija.Iako OpenAI naglašava da nema direktnih dokaza da je ChatGPT uzrok mentalnih kriza korisnika, kompanija priznaje da je ogroman broj ljudi koji svakodnevno koristi alat neminovno doveo do prisustva ovakvih tema.Da li bi ljudi trebalo da traže emotivnu podršku od veštačke inteligencije?


















