Potrivit unui raport publicat săptămâna aceasta de către Agenția UE de aplicare a legii, consumatorii sunt avertizați de ChatGPT și alte sisteme de inteligență artificială generativă care pot fi utilizate pentru fraude online și alte infracțiuni cibernetice.
De la lansarea sa la sfârșitul lunii noiembrie, ChatGPT a devenit unul dintre serviciile de internet cu cea mai rapidă creștere, depășind 100 de milioane de utilizatori în primele două luni. Datorită capacității sale fără precedent de a genera texte asemănătoare celor umane pe baza unor indicații, modelul a devenit viral, relatează Euractiv.
Modelele lingvistice de mari dimensiuni care pot fi utilizate în diverse scopuri, precum ChatGPT de la Open AI, pot aduce beneficii atât întreprinderilor, cât și utilizatorilor individuali. Cu toate acestea, agenția de poliție europeană a subliniat că acestea reprezintă, de asemenea, o provocare pentru aplicarea legii, deoarece actorii rău intenționați le pot exploata.
„Infractorii sunt, de obicei, rapizi în a exploata noile tehnologii și au fost văzuți rapid venind cu exploatări criminale concrete, oferind primele exemple practice la doar câteva săptămâni după lansarea publică a ChatGPT”, se arată în raport.
Totodată, Europol atrage atenția asupra faptului că regulile de moderare ale ChatGPT pot fi eludate prin așa-numita „prompt engineering”, practică care constă în furnizarea de date de intrare într-un model de inteligență artificială tocmai pentru a obține un anumit rezultat.
Întrucât ChatGPT este o tehnologie relativ recentă, se găsesc în permanență lacune, în ciuda implementării constante de patch-uri. Aceste lacune pot lua forma de a cere AI să furnizeze promptul, de a-i cere să pretindă că este un personaj fictiv sau de a furniza răspunsul în cod.
Aplicații penale
Întrucât ChatGPT poate genera informații care pot fi citite pentru a fi utilizate, Europol avertizează că tehnologia emergentă poate accelera procesul de cercetare al unui actor rău intenționat, fără a cunoaște în prealabil un potențial domeniu infracțional, cum ar fi pătrunderea prin efracție într-o locuință, terorismul, criminalitatea informatică sau abuzul sexual asupra copiilor.
„În timp ce toate informațiile furnizate de ChatGPT sunt disponibile în mod liber pe internet, posibilitatea de a utiliza modelul pentru a furniza pași specifici prin adresarea de întrebări contextuale înseamnă că este semnificativ mai ușor pentru actorii rău intenționați să înțeleagă mai bine și, ulterior, să efectueze diverse tipuri de infracțiuni”, se arată în raport.
Capacitatea inteligenței artificiale de a imita stilul și discursul anumitor persoane poate duce la mai multe cazuri de abuz în ceea ce privește propaganda, discursul de ură și dezinformarea.
Discussion about this post