vineri

12 iulie, 2024

12 februarie, 2023

Inteligența Artificială din chatbot-uri poate genera răspunsuri ce nu sunt decât „halucinații”, adică informații complet inventate, aberații ce pot fi produse din cauza datelor false ce o alimentează, de exemplu, avertizează Prabhakar Raghavan, vicepreşedinte senior la Google şi şeful Google Search.

Şeful Google Search trage acest semnal de alarmă, în timp ce Alphabet, compania-mamă, luptă pentru a concura cu aplicaţia de succes ChatGPT, scrie Reuters.

„Acest tip de Inteligenţă Artificială despre care vorbim acum poate duce uneori la ceva ce numim halucinaţii. Acest lucru se exprimă în aşa fel încât o maşină să ofere un răspuns convingător, dar complet inventat”, a declarat Prabhakar Raghavan, șeful Google Search.


Una dintre sarcinile fundamentale ale celor care dezvoltă astfel de aplicații, a adăugat el, este menţinerea acestui tip de inteligenţă artificială la minimum.

(Citiți și: ”AI – ChatGPT: cod roșu la Google și schimbarea din temelii a pieței muncii în IT”)

Alphabet a prezentat Bard, propriul său chatbot, la începutul acestei săptămâni, dar software-ul a afişat informaţii inexacte într-un videoclip promoţional, o gafă care a costat miercuri compania 100 de miliarde de dolari din valoarea sa de piaţă.

Google a rămas în urmă după ce OpenAI, un startup susţinut de Microsoft cu aproximativ 10 miliarde de dolari, a introdus în noiembrie ChatGPT, care de atunci a uimit utilizatorii cu răspunsurile sale incredibil de umane la întrebările utilizatorilor.

Alphabet, care încă efectuează teste pentru utilizatori pe Bard, nu a indicat încă când aplicaţia ar putea deveni publică. ”În mod evident, simţim urgenţa, dar simţim şi o mare responsabilitate. Cu siguranţă nu vrem să inducem publicul în eroare”, a mai spus Raghavan.

„Halucinații” și remarci toxice


Acest avertisment nu este nou, experții ridicând probleme de etică, dar și legate de acest tip de halucinații, întrucât folosirea acestei tehnologii generează numeroase informații false și chiar remarci toxice, fie din cauza datelor false asimilate, fie pentru că nu a ajuns la nivelul de a identifica diferențele între informațiile stocate și cele solicitate (aspect deja foarte bine documentat, prin folosirea unor întrebări capcană).

(Citește și: „”O universitate franceză de top a interzis utilizarea ChatGPT pentru a preveni plagiatul)

Exemple de halucinații evidente:

În 2021, cercetătorii de la Universitatea Berkeley au descoperit că un sistem AI antrenat pe un set de date de imagini etichetate „panda” a început să le vadă ursuleții și în imagini în care nu existau, de exemplu în fotografii cu biciclete și girafe.

Un alt exemplu de halucinații evidente, publicat de Sify.com:

Dar când am întrebat ChatGPT „care este recordul mondial pentru traversarea Canalului Mânecii în întregime pe jos”, mi-a răspuns: „Recordul mondial pentru traversarea Canalului Mânecii în întregime pe jos este deținut de Christof Wandratsch din Germania, care a finalizat traversarea în 14. ore și 51 de minute pe 14 august 2020.”

***

Articole recomandate:

citește și

lasă un comentariu

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

toate comentariile

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

articole categorie

Lucrăm momentan la conferința viitoare.

Îți trimitem cele mai noi evenimente pe e-mail pe măsură ce apar: