marți

23 aprilie, 2024

1 aprilie, 2024

Un nou instrument de la OpenAI care poate genera o clonă convingătoare a vocii oricui folosind doar 15 secunde de sunet înregistrat a fost considerat prea riscant pentru lansare generală. Compania, scrie The Guardian, încearcă astfel să minimizeze amenințarea de dezinformare dăunătoare într-un an cu alegeri în toată lumea.

Voice Engine a fost dezvoltat pentru prima dată în 2022, iar o versiune inițială a fost folosită pentru funcția de transformare a textului în vorbire încorporată în ChatGPT, instrumentul AI principal al organizației.

Dar puterea reală a acestui instrument nu a fost niciodată dezvăluită public, în parte din cauza abordării „prevăzătoare” pe care OpenAI o adoptă înainte de a-l lansa pe o scară mai largă.


„Sperăm să începem un dialog cu privire la desfășurarea responsabilă a vocilor sintetice și la modul în care societatea se poate adapta la aceste noi capabilități. Pe baza acestor conversații și a rezultatelor acestor teste la scară mică, vom lua o decizie mai informată despre dacă și cum să implementăm această tehnologie”, a transmis OpenAI într-o postare pe blogul companiei.

Instrument folosit de parteneri selectați de OpenAI

În postarea sa, compania a împărtășit exemple de utilizări ale tehnologiei de către diverși parteneri cărora li s-a oferit acces la ea pentru a construi propriile aplicații și produse.

Firma de tehnologie educațională Age of Learning îl foloseștem de exemplu, pentru a genera dublarea filmelor. Cercetătorii de la Norman Prince Neurosciences Institute din Rhode Island au folosit un clip de 15 secunde a unei tinere care făcea o prezentare la un proiect școlar pentru a „restaura vocea” pe care ea o pierduse din cauza unei tumori cerebrale vasculare.

„Alegăm să previzualăm, dar să nu lansăm pe scară largă această tehnologie în acest moment”, a spus OpenAI, pentru a „întări reziliența societății împotriva provocărilor aduse de modele generative din ce în ce mai convingătoare”.


OpenAI explorează în acest moment „politici de protejare a utilizării vocilor persoanelor în IA” și de „educare a publicului în înțelegerea capacităților și limitărilor tehnologiilor AI, inclusiv a posibilității de conținut AI înșelător”.

***

Articole recomandate:

citește și

lasă un comentariu

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

toate comentariile

Faci un comentariu sau dai un răspuns?

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

articole categorie

Citește și:

Acest text se adresează în primul rând tinerilor, adică celor

Lucrăm momentan la conferința viitoare.

Îți trimitem cele mai noi evenimente pe e-mail pe măsură ce apar: