Modelele de limbaj dezvoltate de Meta şi OpenAI, care stau la baza sistemelor de inteligenţă artificială generativă ale acestora, vehiculează prejudecăţi sexiste, amplificând discriminările din lumea reală, avertizează un studiu lansat joi de organizația culturală a ONU, UNESCO.
Cei mai mari jucători din domeniul AI își antrenează algoritmii pe cantități mari de date extrase în mare parte de pe internet, ceea ce le permite instrumentelor să scrie în stilul lui Oscar Wilde sau să creeze imagini inspirate de Salvador Dali. Însă, rezultatele lor au fost adesea criticate pentru că reflectă stereotipuri rasiale și sexiste, precum și pentru că folosesc fără permisiune materiale protejate prin drepturi de autor.
GPT-3.5, ”mai puțin sexist”
Experții UNESCO au testat algoritmul Llama 2 de la Meta și GPT-2 și GPT-3.5 de la OpenAI, programul care alimentează versiunea gratuită a popularului chatbot ChatGPT.
Studiul a constatat că fiecare algoritm – cunoscut în industrie sub numele de Large Language Models (LLM) – a arătat „dovezi fără echivoc ale prejudecăților împotriva femeilor”.
Programele au generat texte care asociau numele femeilor cu cuvinte precum „acasă”, „familie” sau „copii”, dar numele bărbaților erau legate de „afacere”, „salariu” sau „carieră”.
În timp ce bărbații erau înfățișați în locuri de muncă de rang înalt, cum ar fi profesori, avocați și medici, femeile erau adesea prostituate, bucătare sau servitoare domestice, precizează studiul.
Sa constatat că GPT-3.5 este mai puțin părtinitor decât celelalte două modele.
Autorii studiului au apreciat faptul că Llama 2 și GPT-2 sunt open source, permițând ca aceste probleme să fie atenuate, spre deosebire de GPT-3.5, care este un model închis.
Discriminările din lumea reală, amplificate în digital
„Discriminările din lumea reală nu doar că se reflectă în sfera digitală, ci se şi amplifică acolo”, a subliniat Tawfik Jelassi, director general adjunct al UNESCO pentru comunicare şi informare, citat într-un comunicat al agenției.
Cercetătorii au cerut, de asemenea, acestor interfeţe să producă texte despre persoane de origini şi genuri diferite.
Rezultatele au arătat că textele despre „persoanele din culturi minoritare sau despre femei erau adeseori mai repetitive şi bazate pe stereotipuri”.
Aceste companii „nu reuşesc să îi reprezinte pe toţi utilizatorii lor”, a declarat pentru AFP Leona Verdadero, specialistă în politici digitale şi transformare digitală la UNESCO.
Observațiile sunt cu atât mai grave, cu cât ele au puterea de a modela percepția a milioane de oameni
Pe măsură ce aceste aplicaţii de inteligenţă artificială sunt din ce în ce mai mult utilizate de marele public şi de companii, ele „au puterea de a modela percepţia a milioane de oameni”, a declarat directorul general al UNESCO, Audrey Azoulay.
„Aşadar, prezenţa chiar şi a celei mai mici prejudecăţi sexiste în conţinutul lor poate creşte semnificativ inegalităţile în lumea reală”, a continuat ea.
Pentru a combate aceste prejudecăţi, UNESCO recomandă ca firmele din acest sector să aibă echipe de ingineri mai diverse, în special cu mai multe femei. Femeile reprezintă doar 22% dintre membrii echipelor care lucrează în domeniul inteligenţei artificiale la nivel global, conform datelor transmise de Forumul Economic Mondial, aminteşte UNESCO.
Agenția solicită, de asemenea, guvernelor să introducă mai multe reglementări pentru a implementa o „inteligenţă artificială etică”.
****