Propunerea de Regulament european în domeniul IA, formulată de Comisia Europeană în aprilie 2021, are drept scop crearea cadrului juridic armonizat pentru reglementarea unui ecosistem de încredere în care să funcționeze tehnologiile bazate pe IA. Regulamentul se asigură că IA este un instrument pentru oameni, centrat pe oameni, cu încrederea că tehnologiile sunt utilizate în mod sigur, cu respectarea drepturilor și libertăților fundamentale ale oamenilor.
În același timp, propunerea de reglementare răspunde nevoii de a asigura buna funcționare a pieței interne a acestor sisteme în continuă și rapidă dezvoltare, de a încuraja inovarea în domeniu și de a evita fragmentarea pieței, mai ale în condițiile obiectivului UE de a deveni lider mondial în dezvoltarea inteligenței artificiale sigure, de încredere și etice.
Standardele vor juca un rol cheie în implementarea viitoarei reglementări în țările UE, mai ales că reglementarea este una orizontală, bazată pe riscuri, pe modelul Noului Cadru Legislativ (NLF), în care asigurarea conformității cu standardele armonizate aplicabile prezumă respectarea cerințelor esențiale generale ale reglementării.
Elementul de bază pentru funcționarea tehnologiilor bazate pe IA îl reprezintă datele. IA colectează, analizează și acționează pe baza datelor, din acest motiv propunerea de Regulament prevede practici adecvate de guvernanță și gestionare a datelor, care urmează să fie stabilite prin standarde. Acuratețea, caracterul complet al datelor și reprezentativitatea acestora, precum și modelele de interpretare introduse sunt definitorii pentru decizii/reacții cât mai corecte ale unor astfel de tehnologii.
Pentru evitarea unor modele de interpretare greșită sau părtinitoare a datelor, Regulamentul prevede obligativitatea unor măsuri de antrenament, validare și testare a sistemelor, ce vor fi aplicate de furnizorii sistemelor de IA și de organismele de evaluare a conformității. În mod sigur, și acestea vor trebui standardizate.
La nivel internațional, mai exact în cadrul comitetului tehnic comun ISO/IEC JTC 1, subcomitetul 42, sunt în
desfășurare activități de elaborare a peste 80 de documente de standardizare în domeniul sistemelor de IA. Printre acestea se regăsește și proiectul ISO/IEC 42001 cu privire la sistemul de management al IA, document ce prezintă un interes considerabil, mai ales că acesta este elaborat pentru a fi utilizat în activitatea de evaluare și certificare a conformității. Este în mod general agreat faptul că modalitățile tradiționale de evaluare a conformității, prin testare și certificare, pot și vor asigura un anumit nivel de încredere în introducerea sistemelor de IA pe piață și, din acest motiv, sunt luate în considerare.
Standardele europene ce vor fi elaborate de către cele trei organizații de standardizare CEN, CENELEC și ETSI în sprijinul acestui Regulament vor aborda managementul riscurilor în aplicarea sistemelor ce conțin IA, calitatea și gestionarea datelor, ținerea evidențelor, transparența și acuratețea introducerii datelor, supravegherea umană, securitatea cibernetică și monitorizarea sistemelor post-introducere pe piață.
- Mai mult decât atât, standardele vor defini proceduri și metodologii de validare pentru evaluarea gradului în care sistemele bazate de IA sunt conforme cu scopurile declarate și intenționate. Pornind de la abordarea bazată pe risc, propunerea de reglementare împarte tehnologiile de IA în:
- Cele care prezintă riscuri inacceptabile și care sunt interzise – cele de natură a afecta drepturi și libertăți fundamentale ale oamenilor;
- Cele care prezintă riscuri ridicate și care vor trebui să respecte condiții reglementate;
- Cele care prezintă riscuri minime (acceptate) sau nu prezintă riscuri și pentru care este obligatorie transparența în utilizare.
Transformările economice și sociale pe care le implică tehnologiile bazate pe IA sunt infinite. Crucială este încrederea pe care trebuie să o dezvolte aceste sisteme în rândul utilizatorilor, iar pentru dezvoltarea și consolidarea încrederii sunt necesare existența și respectarea unor reguli.
Ținând cont de diversitatea domeniilor în care funcționează deja IA – medicină, spațiu, aplicații militare, infrastructuri critice etc, dar și implicațiile pe care le poate avea, stabilirea regulilor, prin reglementări naționale sau standarde regionale ori internaționale, necesită colaborarea specialiștilor din diverse domenii. Sunt necesare atât principii generale după care să funcționeze IA, cât și reguli specifice fiecărui sector care utilizează sisteme bazate pe IA. Particularitățile fiecărui sector pot fi identificate prin câteva studii de caz.
Sectorul sănătății
Dezvoltarea tehnologiilor care utilizează IA are o viteză foarte mare în acest sector datorită programelor de cercetare-dezvoltare finanțate atât fonduri publice, cât și private. Spre exemplu, sisteme de IA în dermatologie, radiologie, genetică interpretează date și stabilesc, într-o mare măsură, diagnosticul pacientului. Această practică curentă are mai multe implicații:
- Nevoia de a introduce date despre pacienți, de a întreține și securiza aceste baze de date, pentru a nu permite scurgeri ori utilizări incorecte ale datelor pacienților. Sunt o mulțime de situații în care datele pacienților nu se înregistrează într-un sistem centralizat, sunt necesare resurse suplimentare pentru constituirea și menținerea acestor baze de date, dar și utilizarea lor cu respectarea caracterului privat, a confidențialității.
- Cui aparține responsabilitatea stabilirii diagnosticului și a tratamentului atunci când IA este implicată în proces? Este oare responsabilitatea exclusivă a medicului sau poate fi reținută și responsabilitatea dezvoltatorului de soft? Sunt necesare reguli clare, dar și instruirea continuă a cadrelor medicale, a studenților la medicină asupra tehnologiilor de IA, crescând, astfel, încrederea în utilizarea lor.
- Există și multe probleme etice pe care le ridică utilizarea tehnologiilor de IA, de aceea pacienții trebuie să fie informați, de fiecare dată, când în analiza și interpretarea datelor lor sunt utilizate sisteme ce presupun IA. De asemenea pacienților trebui să li se comunice ce poate și ce nu poate face IA, pentru a fi în cunoștință de cauză atunci când află un diagnostic ori un tratament.
Pe perioada pandemiei s-a constatat o creștere substanțială în utilizarea sistemelor de IA în acest sector, iar această tendință se va menține, cel puțin pe partea de supraveghere a pacienților. Este necesară reglementarea acestei utilizări, clarificarea problemelor etice pe care le ridică și abordarea riscurilor pe care le implică.
Chiar dacă este vizat sectorul medical, reglementarea utilizării IA nu poate fi doar problema autorităților din domeniul sănătății. Este necesară o colaborare între diverse specialități – ingineri, medici, juriști, sociologi, etc pentru stabilirea unor reguli coordonate, care să țină seama de toate implicațiile.
Tehnologia cu senzori
Senzorii se folosesc în foarte multe domenii – monitorizări climatice, rețele critice, clădiri etc. Sunt o multitudine de sisteme și tehnologii implementate în diferite domenii care nu pot funcționa fără senzori. Problema se pune atunci când acestor tehnologii li se adaugă inteligența artificială, astfel încât informația este preluată și analizată de IA, iar pe baza acestei analize și interpretări sunt determinate anumite acțiuni.
Un exemplu în acest sens îl reprezintă camerele de luat vederi. În perioada recentei pandemii, acestea au fost utilizate la scară largă pentru detectarea (prin senzori) a temperaturii corpului, pentru identificarea și atenționarea persoanelor care nu poartă corect masca sau nu o poartă deloc etc. Au existat opinii potrivit cărora această utilizare a fost abuzivă, încălcând unele drepturi și ridicând unele probleme de etică.
Utilizarea camerelor de supraveghere comportă întotdeauna anumite riscuri legate, mai degrabă, de contextul sau locul de unde sunt preluate imaginile. Standardele aplicabile prevăd că utilizarea camerelor video trebuie să aibă în vedere întotdeauna întrebuințarea preconizată a dispozitivului. Există însă și posibilitatea utilizării neintenționate (nepreconizate) a camerelor de supraveghere, fie că imaginile sunt luate într-un aeroport sau într-o școală, de exemplu.
Utilizarea neintenționată a camerelor cu senzori poate avea rezultate pozitive – prevenirea unor infracțiuni sau comportamente ori analizarea acestora după ce s-au întâmplat. Aceasta poate avea, însă, și efecte negative, atunci când sunt înregistrate anumite relații, comportamente sociale, care țin de viața privată.
Toate părțile interesate trebuie să fie informate că există posibilitatea unei utilizări neintenționate a camerelor cu senzori, iar Comisia Electrotehnică Internațională – IEC – evaluează, prin noile standarde, impactul unei astfel de utilizări neintenționate sau nepreconizate, mai ales în situația în care intervin tehnologii bazate pe IA. Standardizarea abordează, astfel, atât aspecte tehnice, de funcționalitate, cât și evaluări ale impactului utilizării unor astfel de tehnologii bazate, în mod evident, pe senzori.
Marile companii acordă o importanță deosebită impactului utilizării de către consumatori a dispozitivelor introduse pe piață și se preocupă să prevadă în contracte limite și condiții de utilizare. Este nevoie însă de stabilirea unor cerințe și recomandări standardizate, la nivel global, pentru creșterea încrederii în utilizarea corectă și etică a tehnologiilor bazate de IA.
Roboți și coboți
În primul rând, ce sunt coboții? Cobotul este un robot de tip colaborativ, care lucrează cot la cot cu oamenii și este implicat într-o multitudine de operațiuni (ex: servește în cafenele, face curățenie în spitale etc.). Introducerea roboților în procesele industriale este un proces inerent dezvoltării și transformării digitale.
Beneficiile introducerii roboților în diverse activități sunt foarte mari. Vorbim despre eficiență, cost și randament al muncii. Un robot poate munci fără întrerupere, poate ridica greutăți mari, poate realiza activități riscante, poate desfășura activități repetitive, fără a se plictisi. Pentru societate, introducerea într-o măsură tot mai mare a roboților (sau a coboților) poate rezolva gradual problema îmbătrânirii populației sau a lipsei forței de muncă în anumite domenii. Aceasta poate genera însă, alte probleme sociale, cum ar fi o izolare a oamenilor între oameni.
În mod cert, introducerea roboților cu inteligență artificială poate crea diverse probleme într-o societate nepregătită, dar și riscuri în utilizare. Spre exemplu, societatea asiatică este mult mai deschisă în acceptarea coboților decât restul lumii. Multe asemenea tehnologii sunt deja implementate și funcționează în întreprinderi din China, Coreea de Sud sau Japonia. O mare parte din oameni au rețineri în ceea ce privește roboții cu aparență umanoidă, declarând că s-ar simți mai confortabil dacă cobotul de lângă ei ar avea altă înfățișare decât cea apropiată de cea a omului.
Învățând din practicile/acțiunile oamenilor în diverse domenii, inteligența artificială poate interpreta anumite date într-un mod părtinitor sau discriminatoriu, poate acționa/reacționa pe principiul recompensei sau al beneficiului, acțiune pe care o putem observa și la oameni. Toate aceste posibile comportamente reprezintă, de fapt, niște riscuri care trebuie conștientizate și reglementate, iar decizia dacă riscul va fi abordat prin reglementare sau prin standardizare, depinde de intensitatea și consecințele riscului identificat.
Legiferarea este totuși un proces încet, iar dezvoltarea tehnologică este un proces rapid. Aici standardizarea poate umple golul și poate furniza, în timp util, instrumente pentru încurajarea inovării, dar și pentru acoperirea riscurilor în utilizare. Activitatea de standardizare în domeniu este în plină desfășurare la nivel internațional. Proiectele de standarde aflate în elaborare vizează:
- terminologia în domeniu,
- arhitectura și procesele ce țin de Big Data și calitatea datelor,
- managementul riscurilor, moduri de evaluare a calității sistemelor de IA, metode de testare,
- seturi de îngrijorări sociale și etice date de utilizarea IA etc.
Participarea europenilor în această activitate este critică pentru convenirea, în mod colaborativ, a limitelor și practicilor utilizării inteligenței artificiale. Nivelul internațional al stabilirii acestor lucruri este cel mai potrivit tocmai pentru că spațiul virtual în care operează IA nu are limitele granițelor terestre.
Rezoluția Parlamentului European din 12 februarie 2019, referitoare la o politică industrială europeană cuprinzătoare în domeniul inteligenței artificiale și al roboticii, prevede că: ”… este necesară promovarea și elaborarea în continuare a unor standarde comune pentru robotică și IA și acestea ar trebui să facă parte din prioritățile Uniunii; documentul invită Comisia ca, în cooperare cu organismele de standardizare ale UE, să continue să colaboreze proactiv cu organismele de standardizare internaționale pentru îmbunătățirea calității standardelor în acest domeniu.”