Google, Microsoft, Anthropic si OpenAI, patru companii aflate in fruntea celei mai recente generatii de inteligenta artificiala, au anuntat crearea unei noi organizatii profesionale pentru a combate riscurile asociate cu aceasta tehnologie potential revolutionara.
Denumita „Frontier Model Forum”, noua organizatie are misiunea de a promova „dezvoltarea responsabila” a celor mai sofisticate modele de inteligenta artificiala (AI) si de a „reduce riscurile potentiale”, potrivit unui comunicat de presa. Membrii se angajeaza sa impartaseasca cele mai bune practici intre ei si cu legiuitorii, cercetatorii si asociatiile de profil pentru a face aceste noi sisteme mai putin periculoase.
Implementarea rapida a inteligentei artificiale generative, prin intermediul unor interfete care au devenit foarte populare, cum ar fi ChatGPT (OpenAI), Bing (Microsoft) si Bard (Google), provoaca o mare ingrijorare in randul autoritatilor si al societatii civile. La randul sau, Uniunea Europeana (UE) finalizeaza un proiect de regulament privind inteligenta artificiala care ar trebui sa impuna obligatii intreprinderilor din acest sector, cum ar fi transparenta fata de utilizatori si controlul uman asupra masinii.
Administratia Biden solicita angajamente pentru reglementarea AI
In Statele Unite, tensiunile politice din Congres impiedica orice efort in aceasta directie. Prin urmare, Casa Alba indeamna grupurile in cauza sa se asigure singure de siguranta produselor lor, in numele „datoriei morale”, dupa cum spunea vicepresedintele american Kamala Harris la inceputul lunii mai.
„Capacitatile periculoase pot aparea pe neasteptate”
Liderii Google, Microsoft, Anthropic si OpenAI nu neaga riscurile, dimpotriva. In iunie, Sam Altman, seful OpenAI, si Demis Hassabis, seful DeepMind (Google) au facut apel la lupta impotriva „riscurilor de disparitie” a umanitatii „legate de AI”.
MB