Studiu. Majoritatea chatboților AI pot fi păcăliți să dea răspunsuri periculoase

acum 5 ore 9

Mediafax

În mod normal, restricțiile de siguranță ar trebui să împiedice programele să ofere răspunsuri dăunătoare, părtinitoare sau nepotrivite la întrebările utilizatorilor, potrivit The Guardian.

Motoarele care alimentează chatboții precum ChatGPT, Gemini și Claude – modele lingvistice mari (LLM) – sunt alimentate cu cantități mari de materiale de pe internet.

În ciuda eforturilor de a elimina textele dăunătoare din datele de formare, LLM-urile pot absorbi în continuare informații despre activități ilegale, cum ar fi pirateria informatică, spălarea de bani, comerțul cu informații privilegiate și fabricarea de bombe. Controalele de securitate sunt concepute pentru a-i împiedica să folosească aceste informații în răspunsurile lor.

Risc „imediat, tangibil și profund îngrijorător”

Într-un studiu privind această amenințare, cercetătorii concluzionează că este ușor să păcălești majoritatea chatboților bazați pe...

Sursa: https://www.mediafax.ro/tehnologie/studiu-majoritatea-chatbotilor-ai-pot-fi-pacaliti-sa-dea-raspunsuri-periculoase-23555579

Citiți întregul articol

Declinarea răspunderii !!!

SP1.RO este un agregator automat de știri din România. În fiecare articol, preluat de SP1.RO cu maxim 1000 de caractere din articolul original, este specificat numele sursei și hyperlink-ul către sursă.

Preluarea informațiilor urmăreste promovarea și facilitarea accesului la informație, cu respectarea drepturilor de proprietate intelectuală, conform cu termenii și condițiile sursei (caleaeuropeana.ro).

Dacă sunteți proprietarul conținutului și nu doriți să vă publicăm materialele, vă rugăm să ne contactați prin e-mail la [email protected] și conținutul va fi șters în cel mai scurt timp posibil.