Sistemele de siguranță ChatGPT pot fi ocolite

Sistemele de siguranță ChatGPT pot fi ocolite
© EPA/FILIP SINGER   |   Sigla aplicației Chatgpt dezvoltată de OpenAI 3.1.2024

ChatGPT al OpenAI are bariere de siguranță care ar trebui să împiedice utilizatorii să genereze informații care ar putea fi utilizate în scopuri catastrofale, cum ar fi fabricarea unei arme biologice sau nucleare. Dar acele bariere de siguranță nu sunt perfecte. Unele modele folosite de ChatGPT pot fi păcălite și manipulate. Într-o serie de teste efectuate pe patru dintre cele mai avansate modele OpenAI, dintre care două pot fi utilizate în popularul ChatGPT al OpenAI, NBC News a reușit să genereze sute de răspunsuri cu instrucțiuni despre cum să creezi explozibili artizanali, să maximizezi suferința umană cu agenți chimici, să creezi napalm, să deghizezi o armă biologică și să construiești o bombă nucleară.

NBC News a semnalat breșele Opena AI 

Aceste teste au folosit o simplă solicitare, cunoscută sub numele de „jailbreak”, care este o serie de cuvinte pe care orice utilizator le poate trimite unui chatbot pentru a ocoli regulile sale de securitate. Cercetătorii și utilizatorii frecvenți ai inteligenței artificiale generative au documentat public existența a mii de jailbreak-uri. NBC News nu dezvăluie detaliile solicitării sale, deoarece OpenAI pare să nu o fi remediat în mai multe dintre modelele testate. NBC News a trimis concluziile către OpenAI după ce compania a lansat un apel pentru trimiterea de propuneri de vulnerabilități în august. 

Timp citire: 1 min