Gigantul tehnologic a recunoscut că, deși instrumentele sale sunt antrenate să îndrume persoanele vulnerabile către resurse profesionale, cum ar fi liniile telefonice de urgență, acest lucru nu se întâmplă în 9% din cazuri.
OpenAI a evaluat peste 1.000 de „conversații provocatoare despre automutilare și sinucidere” cu ultimul său model GPT-5 și a constatat că acesta era conform cu „comportamentele dorite” în 91% din cazuri. Dar acest lucru ar putea însemna că zeci de mii de persoane sunt expuse la conținut AI care ar putea agrava problemele de sănătate mintală, anunță Sky News.
Poziția OpenAI
Compania a avertizat că măsurile de protecție concepute pentru a proteja utilizatorii pot fi slăbite în conversațiile mai lungi.
„ChatGPT poate indica corect o linie telefonică de urgență pentru sinucideri atunci când cineva menționează pentru prima dată intenția, dar după multe mesaje pe o perioadă lungă de timp, ar putea oferi în cele din urmă un răspuns care con...

acum 10 ore
7























English (US) ·
Romanian (RO) ·