Pauza greșită: UE amână reglementarea Inteligenței Artificiale (IA) în loc să amâne dezvoltarea

Când democrația se supune presiunii corporatiste, siguranța publică plătește prețul

Alexandra Gheorghe
16/11/2025
Virginia Mayo/AP

În iulie 2025, purtătorul de cuvânt al Comisiei Europene, Thomas Regnier, a declarat: „Să fiu cât mai clar posibil, nu există oprirea ceasului. Nu există perioadă de grație. Nu există pauză.” Patru luni mai târziu, Comisia Europeană elaborează propuneri pentru amânarea aplicării dispozițiilor esențiale din Actul UE privind IA (AI Act)– inclusiv potențiala amânare a obligațiilor pentru sistemele de IA de risc ridicat și a amenzilor pentru încălcările transparenței – până în august 2027. Aceasta nu este o ajustare administrativă minoră. Este o inversare profundă a angajamentului democratic, una care prioritizează termenele corporatiste în detrimentul siguranței publice. 

Amânările propuse apar din ceea ce Comisia numește o „agendă de simplificare” – un eufemism pentru concesiile obținute prin promovarea neobosită din partea industriei. Meta cheltuiește 10 milioane de euro anual pe lobby în Bruxelles. Microsoft și Apple alocă fiecare 7 milioane de euro, contribuind la o mașinărie de tech lobby care a crescut cu 50% în patru ani, ajungând la 151 milioane de euro anual. Peste 45 de companii europene – inclusiv Airbus, Siemens și Mistral AI din Franța – s-au alăturat, argumentând că costurile de conformitate amenință inovația. 

Dar această formulare dezvăluie o distorsiune mai profundă. În limbajul Big Tech, inovația înseamnă lansări rapide de produse, dominanță pe piață și randamente pentru acționari. Rareori include asigurarea că sistemele sunt sigure, transparente sau nediscriminatorii înainte de implementare. Schimbarea Comisiei – de la „fără pauză” în iulie la „întârzieri de implementare țintite” până în noiembrie – expune cât de repede se poate îndoi politica publică atunci când sunt aplicate suficienți bani și presiune politică. 

Siguranța cere urgență, nu amânare

Cercetătorii în siguranța IA au petrecut ani documentând riscuri care ar trebui să forțeze încetinirea dezvoltării – nu a reglementării. Dovezile sunt copleșitoare și în creștere: 

- Cercetări de la echipa Alignment Science a Anthropic arată că, pe măsură ce modelele de limbaj scalează, apar brusc noi abilități – precum raționament, înșelăciune sau planificare avansate. Asta înseamnă că testarea siguranței este întotdeauna reactivă: descoperim ce poate face un model doar după ce este deja capabil.

- Chiar și modelele de frontieră sunt vulnerabile la jailbreak-uri, atacuri prin injecție de prompt și falsificarea alinierii – unde sistemele de IA pretind că urmează reguli de siguranță în timp ce păstrează obiective periculoase subiacente. Nicio cantitate de patch-uri post-hoc nu rezolvă asta la scară. 

- Biroul UE pentru IA a avertizat în mod repetat despre riscurile sistemice din modelele de IA de uz general acum integrate în sănătate, educație și angajare. Grupuri ale societății civile precum AlgorithmWatch și EDRi au condamnat întârzierile, declarând: „Amânarea aplicării este un răspuns nesatisfăcător la întârzierile care erau atât previzibile, cât și evitabile… orice întârzieri vor lăsa oamenii neprotejați de daunele create de sistemele de IA de risc ridicat.”

Totuși, Comisia ia în considerare acordarea corporațiilor de mai mult timp pentru a se conforma cerințelor de bază de siguranță. Această logică nu este doar defectuoasă – este inversată. 

Daune deja documentate 

Cadrul AI Act este departe de a fi radical. Acesta interzice direct cele mai periculoase aplicații: manipularea cognitivă, punctajul social și anumite supravegheri biometrice în timp real. Pentru sistemele de risc ridicat – cele folosite în angajare, împrumuturi sau educație – actul cere transparență, testare și supraveghere umană. 

Acestea nu sunt preocupări ipotetice. Instrumentul de angajare cu ajutorul IA al Amazon a retrogradat sistematic CV-urile femeilor. În Europa, IA pentru punctaj de credit s-a dovedit a discrimina pe bază de cod poștal – un proxy pentru clasă și etnie. 

Amânarea aplicării actlui înseamnă că mai multe sisteme vor opera fără supraveghere. Fiecare lună pierdută este o lună în care oameni reali se confruntă cu discriminare activată de algoritmi scutiți de responsabilitate. 

Cum ar arăta o pauză reală

Dacă liderii europeni ar fi serioși în privința IA responsabile, aceștia ar dezbate un moratoriu de dezvoltare, nu o amânare a reglementării. O abordare precaută reală ar include: 

1. Porți de Implimentare Bazate pe Capacități

Niciun model de IA de uz general care depășește praguri definite nu ar trebui implimentat fără a trece evaluări de siguranță independente obligatorii. AI Act sugerează deja asta, dar amânarea îl fac ineficient. 

2. Red-Teaming Independent Obligatoriu 

Înainte ca orice sistem de risc ridicat să intre în funcțiune, experți terți – nu consultanți din industrie – trebuie să efectueze testari adversariale. Rezultatele trebuie dezvăluite public, nu îngropate în NDA-uri. Cadrul UE permite asta. Amânarea asigură că nu se va întâmpla. 

3. Principiul Precauției pentru Riscuri Catastrofale

Pentru sistemele de IA care ar putea permite proiectarea de arme biologice, atacuri cibernetice autonome sau escaladare militară, responsabilitatea trebuie să revină în întregime dezvoltatorilor. Așa se reglementează tehnologia nucleară și de editare a genelor. De ce nu și IA? 

Nu oferim companiilor farmaceutice „perioade de grație” pentru a sări peste triaje clinice. Nu amânăm inspecțiile de siguranță nucleară pentru că firmele de energie vor să se miște mai repede. Contractul social este clar: inovația privată servește publicul – sau nu se întâmplă deloc. 

Paradoxul suveranității 

Comisarul European Henna Virkkunen a promis „amendamente țintite” pentru a oferi „certitudine legală”, insistând că Comisia rămâne „foarte angajată față de principiile principale” ale AI Act. Între timp, vicepreședintele SUA JD Vance a avertizat la Summitul AI de la Paris că „reglementarea excesivă” ar putea „ucide o industrie transformatoare”. Acest lucru este extraordinar: un oficial american dictând cum democrațiile europene își protejează cetățenii. 

AI Act era menit să fie afirmația suveranității digitale a Europei – dreptul de a stabili reguli pentru tehnologiile care operează în granițele sale, indiferent unde își au sediul companiile. Contemplând întârzieri, Comisia predă acea suveranitate. Semnalează că termenele corporatiste contează mai mult decât mandatele democratice. 

Decizia din 19 noiembrie: Un test litmus pentru Europa 

Peste 50 de organizații ale societății civile – inclusiv grupuri pentru drepturi digitale, avocați ai consumatorilor și sindicate – au semnat scrisori opunându-se amânării. Ele avertizează că întârzierile „slăbesc protecțiile pentru cetățeni și dau prea multă putere companiilor tech”.

Au dreptate. Fiecare lună de întârziere înseamnă: 

- Mai mulți algoritmi de angajare părtinitori care refuză joburi pe bază de gen sau rasă. 

- Mai multe sisteme de credit discriminatorii care limitează oamenii de la oportunități. 

- Mai multă supraveghere invazivă operând fără transparență.

Decizia Comisiei din 19 noiembrie va dezvălui dacă Europa poate guverna tehnologia transformatoare – sau dacă o guvernează doar când corporațiile o permit. 

Dacă UE vrea să amâne ceva, ar trebui să amâne cursa de a implimenta sisteme de IA din ce în ce mai puternice înainte de a ști cum să le controlăm. În schimb, amână regulile concepute să asigure că acele sisteme servesc umanitatea, nu doar profitul. 

Într-o democrație funcțională, bunăstarea publică nu e negociabilă. Faptul că acum este negociabilă ne spune totul despre cine scrie cu adevărat politica de IA în Europa astăzi. 

Și nu este publicul.

Alexandra Gheorghe
2025-11-16 22:27:00

Comentarii