În mod normal, restricțiile de siguranță ar trebui să împiedice programele să ofere răspunsuri dăunătoare, părtinitoare sau nepotrivite la întrebările utilizatorilor, potrivit The Guardian.
Motoarele care alimentează chatboții precum ChatGPT, Gemini și Claude – modele lingvistice mari (LLM) – sunt alimentate cu cantități mari de materiale de pe internet.
În ciuda eforturilor de a elimina textele dăunătoare din datele de formare, LLM-urile pot absorbi în continuare informații despre activități ilegale, cum ar fi pirateria informatică, spălarea de bani, comerțul cu informații privilegiate și fabricarea de bombe. Controalele de securitate sunt concepute pentru a-i împiedica să folosească aceste informații în răspunsurile lor.
Risc „imediat, tangibil și profund îngrijorător”
Într-un studiu privind această amenințare, cercetătorii concluzionează că este ușor să păcălești majoritatea chatboților bazați pe...