Aleksandr Sergheevici Pușkin nr. 8, sector 1, București, C.P. 011996
(+4) 0745 007 311
ArticoleJanuary 30, 20250

Inteligența Artificială și GDPR: Cum se asigură protecția datelor personale în era algoritmilor?

Inteligența artificială (IA) a devenit o tehnologie omniprezentă, utilizată în tot mai multe domenii, de la marketing și sănătate, până la recrutare și servicii financiare. Cu toate acestea, utilizarea pe scară largă a IA ridică numeroase întrebări legate de confidențialitatea și protecția datelor personale. Regulamentul General privind Protecția Datelor (GDPR), un standard european recunoscut la nivel global, joacă un rol esențial în asigurarea că dezvoltarea și aplicarea tehnologiilor bazate pe IA respectă drepturile fundamentale ale persoanelor vizate.

Într-o eră în care algoritmii pot prelucra cantități uriașe de informații într-un timp record, provocarea principală este găsirea unui echilibru între inovație și respectarea normelor legale. Cum pot companiile să utilizeze IA fără a încălca GDPR? Ce drepturi au persoanele ale căror date sunt prelucrate?

Prelucrarea datelor personale prin inteligență artificială (IA) trebuie să fie fundamentată pe un temei legal, cu respectarea articolului 6 din Regulamentul 679/2016, cum ar fi consimțământul explicit, interesul legitim sau executarea unui contract. De exemplu, dacă un sistem AI este utilizat pentru personalizarea ofertelor de marketing, utilizatorul trebuie informat clar despre modul în care sunt folosite datele sale și trebuie să-și dea acordul explicit în acest scop.

Antrenarea modelelor IA implică adesea utilizarea unor volume mari de date personale, ceea ce ridică probleme privind confidențialitatea. Potrivit dispozițiilor articolului 9 din GDPR este interzisă utilizarea datelor sensibile (cum ar fi cele privind sănătatea, originea etnică sau opiniile politice) fără un temei juridic valid. Totodată, anonimizarea datelor este esențială pentru reducerea riscurilor. Concret, dacă o companie dezvoltă un model de recunoaștere facială și utilizează imagini dintr-o bază de date publică, iar acestea includ date personale identificabile, compania trebuie să anonimizeze sau să obțină consimțământul persoanelor.

Astfel, companiile care utilizează IA au obligația să efectueze evaluări ale impactului asupra protecției datelor (DPIA), conform articolului 35 GDPR și să implementeze măsuri de siguranță adecvate pentru protejarea datelor personale. Auditul algoritmilor este esențial pentru a identifica eventualele erori care pot duce la rezultate discriminatorii.

IA aduce și provocări legate de respectarea drepturilor persoanelor vizate, drepturi menționate la articolele 15-21 din Regulament. Persoanele vizate trebuie să aibă acces la informații clare despre modul în care datele lor sunt prelucrate și să poată solicita ștergerea datelor din sistemele IA. Mai mult, deciziile automate care au un impact semnificativ, spre exemplu refuzarea unui credit, necesită intervenția umană pentru a asigura corectitudinea.

Conformarea cu GDPR impune costuri suplimentare pentru dezvoltarea tehnologiilor IA, cum ar fi proiectarea unor sisteme care să minimizeze colectarea datelor (Privacy by Default) și integrarea protecției datelor încă din faza de proiectare (Privacy by Design). De asemenea, companiile trebuie să documenteze și să demonstreze conformitatea. Această problemă intervine în cazul întreprinderilor care dezvoltă aplicații bazate pe IA, fiind necesar să proiecteze funcționalități care să colecteze doar datele strict necesare pentru obiectivele sale.

În practică există numeroase sancțiuni aplicate întreprinderilor pentru utilizarea nepotrivită a sistemelor de inteligență artificială, utilizând date biometrice pentru identificare facială care se încadrează ca risc inacceptabil potrivit Legii care reglementează IA. Sistemele de monitorizare biometrică în timp real în locuri publice sunt interzise, deoarece pot afecta semnificativ drepturile și libertățile fundamentale ale indivizilor. Evaluarea comportamentului cetățenilor pentru stabilirea unui scor social, care influențează accesul acestora la diverse servicii publice sau private, poate fi o practică problematică.

Astfel, “Regulamentul privind Inteligența Artificială” (AI Act) vine să completeze GDPR, stabilind reguli clare pentru utilizarea IA în UE. AI Act clasifică aplicațiile IA în funcție de riscuri și introduce cerințe stricte pentru sistemele de “risc ridicat” în care se încadrează recunoașterea facială utilizată de către autorități, sistemele IA în domeniul medical sau cele de recrutare automatizate, care vor trebui să respecte atât GDPR, cât și cerințele AI Act.

Pentru mai multe informații sau orice întrebări suplimentare, vă rugăm să nu ezitați să ne contactați:

➡ Telefon: (+4) 031 426 0745
📧 Email: office@grecupartners.ro

Suntem aici pentru a vă ajuta și pentru a oferi suportul nostru legal la toate situațiile dumneavoastră.
Așteptăm cu nerăbdare să discutăm cu dumneavoastră.

Avocat Mihaela Murariu

Versiunea în engleză și spaniolă a acestui articol.

Leave a Reply

Your email address will not be published. Required fields are marked *

error: Conținut protejat!!