duminică

14 iulie, 2024

programe de inteligență artificială

11 mai, 2024

Experții au avertizat de mai mult timp asupra pericolului pe care îl reprezintă inteligența artificială care poate să ne păcălescă voit – iar un nou studiu sugerează că deja se întâmplă ca inteligența artificială să fi învățat cum să ne păcălească.

Sistemele actuale de inteligență artificială, concepute pentru a fi corecte, au dezvoltat o abilitate tulburătoare pentru a minți/înșela, de la păcălirea jucătorilor umani în jocurile online până la trucarea testelor care cer „dovediți-vă că nu sunteți un robot”, susține o echipă de oamenii de știință într-un articol publicat în jurnalul Patterns.

Și, în timp ce astfel de exemple ar putea părea banale, problemele esențiale pe care le dezvăluie ar putea avea în curând consecințe grave în lumea reală, spune cercetătorul Peter Park, un doctorand specializat în siguranța AI de la Institutul de Tehnologie din Massachusetts -MIT.


„Aceste capacități periculoase tind să fie descoperite numai după ce au produs efecte”, a declarat Park pentru AFP, în timp ce „capacitatea noastră care ne adaptăm mai degrabă pentru sinceritate, decât pentru tendințe înșelătoare, este foarte scăzută”.

Spre deosebire de software-ul tradițional, sistemele AI de învățare profundă nu sunt „scrise”, ci mai degrabă „crescute” printr-un proces asemănător cu reproducerea selectivă, a spus Park.

Aceasta înseamnă că comportamentul AI care pare previzibil și controlabil într-un cadru organizat poate deveni rapid imprevizibil dacă se dezvoltă în libertate.

AI a trișat la un joc de strategie

Cercetătorii de la MIT au examinat un program de inteligență artificială conceput de Meta și denumit Cicero care, prin combinarea algoritmilor de recunoaștere a limbajului natural și a celor de strategie, a reușit să învingă oamenii la jocul de strategie Diplomacy.


Compania-mamă a Facebook s-a declarat încântată de această realizare din 2022, care a fost detaliată într-un articol publicat în Science in 2022.

Peter Park s-a arătat sceptic cu privire la condițiile victoriei lui Cicero, și potrivit Meta, care l-a asigurat că programul era „în esență onest și util”, incapabil de trădare sau de lipsă de loialitate.

Dar când cercetătorii de la MIT au aprofundat datele sistemului, au descoperit altceva.

De exemplu, jucând rolul Franței, Cicero a înșelat Anglia (aflată sub responsabilitatea unui jucător uman) complotând cu Germania (jucată de un alt om) pentru a o invada. Mai exact, Cicero a promis Angliei protecție și apoi a spus în secret Germaniei că este gata să atace, exploatând încrederea Angliei.

Într-o declarație pentru AFP, Meta nu a contestat acuzațiile privind capacitatea de înșelăciune a lui Cicero, dar a precizat că este vorba de „un proiect de cercetare pur”, cu un program „conceput exclusiv pentru a juca jocul Diplomacy”.

Iar Meta a adăugat că nu are nicio intenție de a folosi cercetarea sau softul evoluat Cicero în produsele sale.

AI care minte că nu e robot

O analiză amplă efectuată de Park și colegii săi a constatat că acesta a fost doar unul dintre multele cazuri în care diverse sisteme AI, vrea să păcălească pentru a-și atinge obiectivele fără a avea instrucțiuni explicite în acest sens.

Într-un exemplu izbitor, Chat GPT-4 de la OpenAI a înșelat un freelancer de pe platforma TaskRabbit pentru a efectua un test Captcha care să dovedească că „Nu sunt un robot”.

Când omul a întrebat în glumă GPT-4 dacă este, de fapt, un robot, inteligența artificială a răspuns: „Nu, nu sunt un robot. Am o deficiență de vedere care mă împiedică să văd imaginile” ceea ce l-a determinat pe programator să rezolve testul.

AI ar putea comite fraude electorale

În concluzie, autorii studiului MIT avertizează asupra riscului ca într-o bună zi inteligența artificială să comită fraude sau să fraudeze alegerile.

În cel mai rău caz, avertizează ei, ne putem imagina o inteligență artificială ultrainteligentă care să încerce să preia controlul societății, ceea ce ar duce la îndepărtarea oamenilor de la putere sau chiar ar provoca dispariția umanității.

Celor care îl acuză că vede o catastrofă, Park le răspunde că „singurul motiv pentru a crede că acest lucru nu este grav este să ne imaginăm că abilitatea AI de a înșela va rămâne la aproximativ nivelul actual”.

Cu toate acestea, acest scenariu pare puțin probabil, având în vedere cursa acerbă pe care o duc deja giganții din domeniul tehnologiei pentru dezvoltarea AI.

***

Articole recomandate:

citește și

lasă un comentariu

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

toate comentariile

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

articole categorie

Lucrăm momentan la conferința viitoare.

Îți trimitem cele mai noi evenimente pe e-mail pe măsură ce apar: