Codul elaborat prin consensul membrilor G7 nu are caracter obligatoriu
Liderii din Grupul celor Șapte (G7) au stabilit luni un acord cu privire la un set de norme pentru firmele implicate în dezvoltarea tehnologiilor avansate de inteligență artificială, conform unui document oficial al grupului. Acest cadru va servi drept punct de reper pentru modul în care economiile majore administrează domeniul inteligenței artificiale, cu accent pe îngrijorările legate de protecția datelor și amenințările la adresa securității.
Codul de conduită, de natură voluntară, va susține principiile unei guvernanțe responsabile la nivel global în domeniul inteligenței artificiale. Liderii G7 au invitat companiile care se ocupă de dezvoltarea sistemelor avansate de inteligență artificială să se angajeze să respecte acest Cod internațional de conduită, iar numele primilor semnatari vor fi anunțate într-un viitor apropiat, conform unui comunicat emis de Comisia Europeană.
Așa-numitul “Proces Hiroshima” a demarat în cursul lunii mai
Liderii din Grupul celor Șapte (G7), compus din Canada, Franța, Germania, Italia, Japonia, Marea Britanie și Statele Unite, alături de Uniunea Europeană, au inițiat acest proces în luna mai, prin intermediul unui forum ministerial cunoscut sub numele de “Procesul Hiroshima“.
Documentul G7 specifică că, : “Codul în 11 puncte urmărește promovarea utilizării sigure și fiabile a inteligenței artificiale la nivel global și va furniza îndrumări cu caracter voluntar pentru organizațiile implicate în dezvoltarea sistemelor avansate de inteligență artificială, inclusiv modele fundamentale de ultimă generație și sisteme avansate de inteligență artificială“.

Codul impune firmelor să adopte măsuri corespunzătoare pentru identificarea, evaluarea și reducerea riscurilor pe tot parcursul ciclului de viață al inteligenței artificiale, precum și pentru a trata incidentele și modelele de utilizare abuzivă. Aceste companii sunt obligate să publice rapoarte publice care să evidențieze capabilitățile, limitările și potențialele utilizări abuzive ale sistemelor de inteligență artificială, și, în plus, să investească în soluții puternice de securitate.