marți

16 iulie, 2024

27 august, 2023

Dezvoltarea rapidă a inteligenţei artificiale (AI) riscă să reproducă greşelile făcute de industria tehnologică la începutul erei reţelelor de socializare, a avertizat vineri preşedintele Microsoft, Brad Smith, la un forum de afaceri la New Delhi.

Industria tehnologică „devenise puţin prea euforică cu privire la toate lucrurile bune pe care social media urma să le aducă lumii – şi erau multe – fără să se gândească la riscuri”, a spus Smith la B20 (Business 20), care reuneşte jucători din sectorul privat timp de trei zile, înainte de G20.

„Trebuie să fim cu mintea limpede, trebuie să fim entuziasmaţi de posibilităţile care ni se oferă, dar în acelaşi timp trebuie să ne gândim la dezavantaje, chiar să ne îngrijorăm. Şi trebuie să construim măsurile de protecţie de la început”, a avertizat el, potrivit AFP, citată de Agerpres.


AI provoacă o îngrijorare tot mai mare în întreaga lume, deoarece această tehnologie poate fi utilizată în scopuri rele. La fel ca în cazul video-urilor „deepfake” care îi fac pe oameni să spună lucruri pe care nu le-au spus.

Tehnologia, care promite să revoluţioneze o gamă largă de profesii, stârneşte, de asemenea, în rândul multor lucrători teama că profesia lor se va transforma sau va dispărea.

Conform unui studiu publicat luni de ONU, inteligenţa artificială este mai probabil să creeze locuri de muncă decât să le distrugă, dar va duce la potenţiale schimbări în calitatea locurilor de muncă, inclusiv intensitatea muncii şi autonomia.

Studiul subliniază, de asemenea, că efectele acestei noi tehnologii variază considerabil în funcţie de ocupaţii şi domenii, femeile fiind mai predispuse decât bărbaţii să aibă munca afectată.


Potrivit preşedintelui Microsoft, publicul doreşte să se asigure că „această nouă tehnologie rămâne sub control uman”

****

Articole recomandate:

citește și

lasă un comentariu

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

toate comentariile

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

articole categorie

Lucrăm momentan la conferința viitoare.

Îți trimitem cele mai noi evenimente pe e-mail pe măsură ce apar: