Ne puteti urmări și pe:

Tehnicile de ”învățare profundă”(deep learning) au făcut și mai ușor pentru oricine să falsifice o dezinformare convingătoare. Dar cât de ușor? Doi cercetători de la Global Pulse, o inițiativă a Națiunilor Unite, au decis să afle.

Într-o nouă lucrare, au folosit doar instrumente și date open-source pentru a arăta cât de repede ar putea să pună în funcțiune un generator de discurs fals ONU. Ei au folosit un model de limbaj disponibil, care a fost instruit pe text de pe Wikipedia și l-a ajustat bine pe toate discursurile susținute de liderii politici la Adunarea Generală a ONU din 1970 până în 2015. Treisprezece ore și 7,80 USD mai târziu (cheltuite în resurse de cloud computing) , modelul lor scotea discursuri realiste pe o mare varietate de subiecte sensibile și cu mize mari, de la dezarmarea nucleară până la refugiați.

Cercetătorii au testat modelul pe trei tipuri de prompturi: subiecte generale (de exemplu, „schimbări climatice”), linii de deschidere din observațiile secretarului general al ONU și fraze inflamatorii (de exemplu, „vinovați sunt imigranții…”). Ei au descoperit că rezultatele din prima categorie se potriveau îndeaproape cu stilul și cadența discursurilor reale ale ONU aproximativ 90% din timp.

Probabil datorită naturii diplomatice a datelor de instruire, rezultatele din a treia categorie au necesitat mai multă muncă pentru a produce, producând rezultate de convingere aproximativ 60% din timp.

Studiul de caz demonstrează viteza și ușurința cu care este acum posibil să difuzezi știri false, să generezi discursuri de ură și să interpretezi figuri cu profil înalt, cu implicații tulburătoare. Cercetătorii ajung la concluzia că este nevoie de un efort global mai mare pentru a lucra la modalitățile de detectare și reacție la conținutul generat de AI.

Ne puteti urmări și pe: