marți

14 mai, 2024

15 iunie, 2023

CEO-ul OpenAI, Sam Altman, spune că nu poate dormi de teamă că a făcut ceva foarte rău prin lansarea ChatGPT și susține că ar trebui să existe teste de siguranță înaintea implementării acestei tehnologii.

Într-o conversaţie din timpul unei călătorii recente în India, Altman a spus că este îngrijorat că a făcut ”ceva cu adevărat rău” prin crearea ChatGPT, care a fost lansată în noiembrie şi a stârnit un val de interes pentru inteligenţa artificială.

”Ceea ce mă face să nu pot dormi este ideea ipotetică că am făcut deja ceva foarte rău lansând ChatGPT”, i-a spus Altman lui Satyan Gajwani, vicepreşedintele Times Internet, la un eveniment organizat miercuri de Economic Times și citat de Business Insider, publicație preluată de News.ro.

Sistem de auditare a oamenilor care implementează tehnologia și teste de siguranță


Altman a spus că este îngrijorat că ”poate că a fost ceva greu şi complicat” pe care echipa sa l-a ratat când lucra la chatbot. Întrebat dacă AI ar trebui reglementată în mod similar cu energia atomică, Altman a spus că trebuie să existe un sistem mai bun pentru a audita procesul.

”Să avem un sistem astfel încât să putem audita oamenii care o fac, să-l licenţiem, să avem teste de siguranţă înainte de implementare”, a spus el.

(Citește și: „Google lansează chatbot-ul Bard, în pofida problemelor etice grave indicate de angajați„)

Îngrijorările și criticile legate de platformele AI

Numeroşi lideri tehnologici şi oficiali guvernamentali şi-au exprimat îngrijorarea cu privire la ritmul de dezvoltare a platformelor AI.

În martie, un grup de lideri tehnologici, inclusiv Elon Musk şi cofondatorul Apple, Steve Wozniak, au scris o scrisoare deschisă cu Institutul Future of Life, pentru a avertiza că sistemele AI puternice ar trebui dezvoltate numai după ce se va avea încredere că efectele lor vor fi pozitive şi riscurile sunt gestionabile.


Scrisoarea solicita o pauză de şase luni în instruirea sistemelor AI mai puternice decât GPT-4.

Altman a spus că din scrisoare ”lipsesc nuanţe tehnice despre unde avem nevoie de pauză”.

La începutul acestei luni, Altman a făcut parte dintr-un grup de peste 350 de oameni de ştiinţă şi lideri tehnologici care au semnat o declaraţie prin care îşi exprimă îngrijorarea profundă cu privire la riscurile AI.

”Atenuarea riscului de dispariţie din cauza inteligenţei artificiale ar trebui să fie o prioritate globală alături de alte riscuri la scară societală, cum ar fi pandemiile şi războiul nuclear”, se arată în declaraţie.

„Halucinații” și remarci toxice

Acest avertisment nu este nou, experții ridicând probleme de etică, dar și legate de acest tip de halucinații, întrucât folosirea acestei tehnologii generează numeroase informații false și chiar remarci toxice, fie din cauza datelor false asimilate, fie pentru că nu a ajuns la nivelul de a identifica diferențele între informațiile stocate și cele solicitate (aspect deja foarte bine documentat, prin folosirea unor întrebări capcană).

(Citește și: „”O universitate franceză de top a interzis utilizarea ChatGPT pentru a preveni plagiatul)

Exemple de halucinații evidente:

În 2021, cercetătorii de la Universitatea Berkeley au descoperit că un sistem AI antrenat pe un set de date de imagini etichetate „panda” a început să le vadă ursuleții și în imagini în care nu existau, de exemplu în fotografii cu biciclete și girafe.

Un alt exemplu de halucinații evidente, publicat de Sify.com:

Dar când am întrebat ChatGPT „care este recordul mondial pentru traversarea Canalului Mânecii în întregime pe jos”, mi-a răspuns: „Recordul mondial pentru traversarea Canalului Mânecii în întregime pe jos este deținut de Christof Wandratsch din Germania, care a finalizat traversarea în 14. ore și 51 de minute pe 14 august 2020.”

****

Articole recomandate:

Etichete: , , ,

citește și

lasă un comentariu

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

toate comentariile

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

articole categorie

Citește și:

Retragerea doctorului Cîrstoiu din cursa pentru primăria Capitalei arată nu

Lucrăm momentan la conferința viitoare.

Îți trimitem cele mai noi evenimente pe e-mail pe măsură ce apar: