Noi norme și măsuri menite să transforme Europa în polul mondial al unei inteligenței artificiale

0
437

Comisia propus  ieri, noi norme și măsuri menite să transforme Europa în polul mondial al unei inteligenței artificiale (IA) de încredere. Îmbinarea primului cadru juridic privind IA cu un nou plan coordonat cu statele membre va garanta siguranța și drepturile fundamentale ale cetățenilor și ale întreprinderilor, consolidând totodată adoptarea IA, precum și investițiile și inovarea în domeniul IA în întreaga UE.

Această abordare va fi completată de noile reglementări privind echipamentele tehnice, care, prin adaptarea normelor de siguranță, urmăresc să sporească încrederea utilizatorilor în noua generație versatilă de produse.

Margrethe Vestager, vicepreședinta executivă pentru o Europă pregătită pentru era digitală, a declarat: „În ceea ce privește inteligența artificială, încrederea constituie o necesitate absolută, nu un element opțional. Odată cu adoptarea acestor norme de referință, UE va impulsiona elaborarea unor noi reguli la nivel mondial care să asigure că inteligența artificială este de încredere. Prin definirea standardelor, putem să deschidem calea către o tehnologie etică în întreaga lume și să ne asigurăm că UE își menține competitivitatea pe termen lung. Adaptate exigențelor viitorului și favorabile inovării, normele noastre vor interveni în cazurile în care este strict necesar: atunci când sunt în joc siguranța și drepturile fundamentale ale cetățenilor UE.”

Comisarul pentru piața internă, Thierry Breton, a declarat: „Inteligența artificială reprezintă un mijloc, nu un scop în sine. Este prezentă în viața noastră de zeci de ani, însă în momentul de față a atins noi capacități, alimentate de puterea de procesare, oferind un potențial imens în domenii foarte diverse, cum ar sănătatea, transporturile, energia, agricultura, turismul sau securitatea cibernetică. Totodată, inteligența artificială implică o serie de riscuri. Propunerile prezentate astăzi au ca obiect să consolideze poziția Europei în calitate de pol mondial al excelenței în domeniul inteligenței artificiale, de la laborator la piață, să asigure faptul că, în Europa, inteligența artificială respectă valorile și normele noastre și să valorifice potențialul inteligenței artificiale pentru utilizare industrială.”

Datorită noului Regulament privind IA, europenii vor putea avea încredere în oportunitățile pe care le oferă IA.Normele proporționale și flexibile vor aborda riscurile specifice pe care le prezintă sistemele de IA și vor stabili cele mai înalte standarde pe plan mondial. Planul coordonat prezintă schimbările de politică și investițiile necesare la nivelul statelor membre pentru a consolida poziția de lider a Europei în dezvoltarea unei IA centrate pe factorul uman, durabile, sigure, favorabile incluziunii și de încredere.

Abordarea europeană privind o IA de încredere

Noile norme vor fi aplicate direct în același mod în toate statele membre, pe baza unei definiții a IA adaptate exigențelor viitorului, și urmează o abordare bazată pe riscuri:

Risc inacceptabil: Vor fi interzise sistemele de IA considerate o amenințare clară la adresa siguranței, a mijloacelor de subzistență și a drepturilor persoanelor. Printre acestea se numără sistemele sau aplicațiile de IA care manipulează comportamentul uman pentru a împiedica utilizatorii să își exercite liberul arbitru (de exemplu, jucării care utilizează asistența vocală încurajând un comportament periculos din partea minorilor) și sistemele care permit guvernelor să efectueze o evaluare a comportamentului social („social scoring”).

Risc ridicat: Sunt considerate ca prezentând un grad ridicat de risc sistemele în care tehnologia IA este utilizată în:

  • infrastructurile critice (de exemplu, transporturile), care ar putea pune în pericol viața și sănătatea cetățenilor;
    • formarea educațională sau profesională, care poate determina accesul la educație și traiectoria profesională a unei persoane (de exemplu, sistemul de notare utilizat în cadrul examenelor);
    • componentele de siguranță ale produselor (de exemplu, o aplicație a IA utilizată în chirurgia robotică);
    • ocuparea forței de muncă, gestionarea lucrătorilor și accesul la activități independente (de exemplu, software de selecție a CV-urilor pentru procedurile de recrutare);
    • serviciile publice și private esențiale (de exemplu, evaluarea bonității care îi împiedică pe cetățeni să aibă posibilitatea de a obține un împrumut);
    • activitatea de asigurare a respectării legii care poate aduce atingere drepturilor fundamentale ale cetățenilor (de exemplu, evaluarea fiabilității probelor);
    • gestionarea migrației, a azilului și a controlului la frontiere (de exemplu, verificarea autenticității documentelor de călătorie);
    • administrarea justiției și procesele democratice (de exemplu, aplicarea legii în cazul unui set concret de date factuale).

    Înainte de a putea fi introduse pe piață, sistemele de IA care prezintă un grad ridicat de risc vor face obiectul unor obligații stricte, astfel încât să se asigure următoarele:

    • sisteme adecvate de evaluare și reducere a riscurilor;
    • calitatea ridicată a seturilor de date care alimentează sistemul, pentru a se reduce la minimum riscurile și rezultatele discriminatorii;
    • înregistrarea activității pentru a asigura trasabilitatea rezultatelor;
      • documentația detaliată care să furnizeze toate informațiile necesare privind sistemul și scopul acestuia, pentru ca autoritățile să poată evalua conformitatea sistemului în cauză;
      • informații clare și adecvate pentru utilizatori;
      • măsuri care să garanteze o supraveghere umană corespunzătoare, în vederea reducerii la minimum a riscului;
      • un nivel ridicat de robustețe, securitate și precizie.

      În special, se consideră că toate sistemele de identificare biometrică la distanță prezintă un grad ridicat de risc și fac obiectul unor cerințe stricte. În principiu, este interzisă utilizarea lor în timp real în spații accesibile publicului în scopuri de asigurare a respectării legii. Sunt prevăzute câteva excepții limitate, strict definite și reglementate (cum ar fi utilizarea în cazurile în care este strict necesar pentru a căuta un copil dispărut, pentru a preveni o amenințare teroristă specifică și iminentă sau pentru a detecta, a localiza, a identifica sau a urmări în justiție persoane care au comis ori sunt suspectate că au comis infracțiuni grave). O astfel de utilizare este condiționată de obținerea unei autorizații din partea unui organism judiciar sau a unui alt organism independent și de termene adecvate, de acoperirea geografică și de bazele de date în care se efectuează căutări.

      Risc limitat, și anume sistemele de IA care fac obiectul unor obligații specifice în materie de transparență: Atunci când utilizează sisteme de IA, cum ar fi roboții de chat, utilizatorii ar trebui să fie conștienți de faptul că interacționează cu un aparat, astfel încât să aibă posibilitatea de a lua o decizie în cunoștință de cauză: fie să folosească în continuare respectivul sistem de IA, fie să renunțe la serviciile acestuia.

    • Risc minim: Propunerea legislativă permite utilizarea gratuită a unor aplicații cum ar fi jocurile video bazate pe IA sau filtrele antispam. Marea majoritate a sistemelor de IA se încadrează în această categorie. Proiectul de regulament nu intervine aici, întrucât aceste sisteme de IA prezintă doar un grad de risc minim sau nu prezintă niciun risc pentru drepturile sau siguranța cetățenilor.

      În ceea ce privește guvernanța, Comisia propune ca autoritățile naționale competente de supraveghere a pieței să asigure respectarea noilor norme. Instituirea Comitetului european pentru inteligența artificială va facilita punerea în aplicare a noilor norme și va stimula elaborarea de standarde în domeniul IA. În plus, se propun coduri de conduită voluntare pentru sistemele de IA care nu prezintă un grad ridicat de risc, precum și spații de testare în materie de reglementare pentru a facilita inovarea responsabilă.

      Abordarea europeană privind excelența în domeniul IA

      Coordonarea va consolida poziția de lider a Europei în ceea ce privește o IA centrată pe factorul uman, durabilă, sigură, favorabilă incluziunii și de încredere. Pentru a rămâne competitivă la nivel mondial, Comisia se angajează să promoveze inovarea în dezvoltarea și utilizarea tehnologiei IA în toate sectoarele, în toate statele membre.

      Publicat pentru prima dată în 2018, cu scopul de a defini măsuri și instrumente de finanțare pentru dezvoltarea și adoptarea IA, Planul coordonat privind IA a permis dezvoltarea unor strategii naționale dinamice și acordarea de finanțare din partea UE pentru parteneriatele public-privat și pentru rețelele de cercetare și inovare. Actualizarea cuprinzătoare a Planului coordonat propune măsuri comune concrete de colaborare, care să asigure că toate eforturile sunt aliniate la Strategia europeană privind IA și la Pactul verde european, ținând seama totodată de noile provocări generate de pandemia de COVID-19. Actualizarea menționată prezintă o viziune de accelerare a investițiilor în domeniul IA, care poate contribui la redresare.