ZF IT Generation

ZF IT Generation. Monica Stătescu, partener Filip & Company, către companii: Instruiţi-vă angajaţii cu privire la soluţiile AI folosite în cadrul organizaţiei pentru a nu introduce şi divulga date sensibile, confidenţiale ale companiei

9 mai 2024 Autor: Ioana Nita

♦ „O altă avertizare: să fim atenţi cum folosim conţinutul generat de AI şi să ştim că, cel puţin la momentul acesta, nu este al nostru. Nu avem drepturi de autor asupra lui.“

Companiile trebuie să fie atente la modul în care angajaţii folosesc soluţiile AI (bazate pe tehnologia inteligenţei artificiale) şi să le facă traininguri legate de utilizarea lor pentru a nu dezvălui date sensibile din organizaţie, în condiţiile în care multe persoane vor să îşi uşureze munca cu ajutorul inteligenţei artificiale, însă trebuie să fie în acelaşi timp conştiente şi de riscurile juridice la care se expun pe ei şi compania pentru care lucrează, atrage atenţia Monica Stătescu, partener în cadrul casei de avocatură Filip & Company.

„Este foarte important ca organizaţiile care vor să utilizeze sisteme de AI să le facă traininguri angajaţilor care le şi folosesc, apropo de ce informaţii introduc în sistem - să nu fie informaţii protejate de drepturi de autor şi să nu fie informaţii confidenţiale, să nu fie informaţii care încalcă regle­mentările privind datele cu caracter personal. Au fost situaţii de genul acesta pentru că există foarte mult entuziasm cu privire la AI, toată lumea vrea să-şi simplifice viaţa, este de înţeles, însă au fost situaţii în care din atât de mult entuziasm s-au introdus inclusiv informaţii confi­denţiale ale companiei. Sunt oameni care au folosit AI ca să obţină nişte strategii de business, ca să obţină nişte idei cu privire la felul în care doresc să-şi gestioneze o anumită operaţiune şi, făcând asta, au introdus informaţii care erau confidenţiale pentru compania respectivă. Şi odată ce le-au introdus, intră în modelul  inteligenţe artificiale şi nu mai sunt ale noastre“, a spus ea în cadrul emisiunii ZF IT Generation.

A apărut deja şi conceptul de „shadow AI“, care se referă la faptul că angajaţii firmelor nu folosesc soluţiile AI în scopurile aprobate de companie.

„O să dau un exemplu clar, poate extrem, dar să ne gândim dacă angajaţii unei clinici medicale se apucă să folosescă ChatGPT sau eu ştiu ce alt sistem ca să dea răspunsuri pacienţilor, pentru că le este mai uşor decât să stea să se gândească, bagă acolo nişte simptome, şi încearcă să dea un răspuns. Au fost cazuri, nu neapărat în zona medicală, dar sunt cazuri de genul acesta în care sistemele AI sunt folosite astfel, deturnându-le de la scopul lor în ideea că este mai uşor să folosim AI-ul pentru lucrurile astea. De aceea este foarte important ca la nivel de angajator să există o politică, să există un screening, să există nişte metode de a se asigura că sistemele AI pe care le foloseşte compania sunt folosite conform scopului lor şi nu sunt deturnate. Pentru că la momentul acesta este destul de uşor să foloseşti AI-ul în multe feluri care nu sunt neapărat conforme şi cu interesul companiei,  cu etica şi cu moralitatea şi cu legislaţia“, a punctat Monica Stătescu.

Totodată, şi la nivel individual, de persoană fizică, există riscuri din punct de vedere legal atunci când se utilizează tehnologia inteligenţei artificiale pentru diferite scopuri care nu sunt doar personale.

„Sunt destul de multe riscuri care vin din zona juridică, mai ales prin prisma faptului că este un instrument foarte nou, nu există reglementare specifică şi sunt foarte multe capcane mai mici sau mai mari de care nu suntem conştienţi fiind foarte mult prinşi de beneficiile acestor produse. Este foarte important să fim conştienţi de unde vin datele pe care le colectează şi le foloseşte sistemul de inteligenţă artificială, pentru că unele dintre ele este posibil să fie protejate de drepturi de autori. În SUA, de exemplu, există deja litigii pe subiectul acesta. OpenAI, compania care a creat ChatGPT, are ea însăşi un litigiu, cel puţin unul pe subiectul acesta. Autorii unei cărţi au spus că ChatGPT le-a făcut rezumatul cărţii scrise de ei, fără să aibă dreptul să o facă“, a precizat ea, atrăgând atenţia faptului că deşi sistemele AI au nevoie de cât mai multe date pentru a fi cu adevărat utile, este foarte important de unde se preiau acele date şi dacă pot fi folosite, dacă nu cumva sunt protejate.

„Şi tot ce înseamnă operă literară, spre exemplu, şi opere video şi audio ş.a.m.d., este foarte posibil să fie protejate de drepturi de autori. Şi atunci nu putem să-i dăm sistemului AI instrucţiuni care să ducă la folosirea unor opere care sunt protejate, noi neavând dreptul să utilizăm acele opere. Acum şi asta este o chestiune de nuanţă, pentru că sunt şi opere care sunt în domeniul public, fiindcă a trecut termenul lor de protecţie şi atunci pot fi folosite fără nicio problemă. Există şi nişte excepţii în lege. Spre exemplu, există excepţia pentru <<text and data mining>>, cum îi spune în engleză, adică este permisă extragerea de texte, extragerea de date atunci când sunt făcute în anumite limite, în măsura în care titularul de drepturi nu a refuzat această permisiune în mod expres. Deci, în principiu, s-ar putea extrage, să spunem, nişte fragmente, nişte părţi din opere, fără a folosi opera în totalitate.

Dar de fiecare dată este foarte important să fim la curent şi să analizăm şi să fim conştienţi de faptul că există riscul ca sistemul nostru AI să folosească informaţii, date şi opere protejate şi există riscul să ne trezim cu un litigiu ca cel cu care se confrântă OpenAI.“

În plus, nici în ceea ce priveşte conţinutul generat de sistemele AI lucrurile nu stau mai simplu din punct de vedere juridic, fiindcă nici soluţia AI şi nici cei care introduc prompturile nu au şi drepturile de autor ale conţinutului generat astfel.

„Este recunoscut şi la nivel european şi din câte ştiu există jurisprudenţă şi în SUA, în sensul în care operele sau lucrările generate de inteligenţă artificială nu pot fi protejate prin dreptul de autor, adică nu se recunoaşte dreptul de autor inteligenţei artificiale care le-a creat. Nu se recunoaşte nici dreptul de autor al persoanei fizice care a dat prompturile, pentru că prompturile în sine sunt nişte idei, sunt nişte ghidaje, nu reprezintă opera în sine. Şi atunci există această dilemă care există acum: <<ok, folosim inteligenţă artificială, se foloseşte pe scară largă, în SUA se foloseşte foarte mult şi în filme, opere, video, audio ş.a.m.d., dar nu avem un cadru care să ne spună ok, şi al cui este rezultatul?>>. Pare să nu fie al nimănui, aşa cum arată lucrurile, ceea ce înseamnă că este cumva în domeniul public şi oricine poate să folosească rezultatul respectiv.“

 

 

O campanie Ziarul Financiar Partener: BCR