UE este mai puțin interesată să construiască cea mai puternică inteligență artificială și mai mult să controleze modul în care aceasta se integrează în societate.

Pe 27 ianuarie 2026, Comisia Europeană a lansat proceduri oficiale în temeiul Legii privind piețele digitale (DMA), prin care solicită companiei Google să își deschidă sistemul de operare Android și anumite date cheie dezvoltatorilor de inteligență artificială și motoarelor de căutare rivale care operează în Europa, pentru a asigura o concurență loială. Comisia Europeană a acordat companiei Google șase luni pentru a elimina barierele tehnice care împiedică asistenții de inteligență artificială rivali să funcționeze în mod corect pe dispozitivele Android. În paralel, Google trebuie să acorde, de asemenea, altor furnizori de motoare de căutare acces la datele de căutare de bază. (1 )

Această intervenție nu se referă în primul rând la performanța tehnologică, ci la concentrarea puterii. Uniunea Europeană (UE) urmărește să abordeze una dintre principalele provocări cu care se confruntă inteligența artificială în prezent: integrarea IA în societate fără a submina valorile democratice.

Inteligența artificială în imaginația colectivă: o lungă istorie a controlului uman

Când privim istoria dezvoltării inteligenței artificiale în imaginarul colectiv, trebuie să ne întoarcem cu mult înainte de epoca noastră. Ideea de inteligență artificială poate fi găsită deja în secolul al XVIII-lea, în Imperiul Otoman, cu Turcul Mecanic: o mașină prezentată ca un om capabil să joace șah la un nivel excepțional și să învingă toți adversarii cu care se confrunta. Acest lucru demonstrează că ideea unei mașini capabile să depășească inteligența umană există în imaginarul colectiv de foarte mult timp. În cele din urmă, s-a dezvăluit că în spatele mașinii se ascundea un operator uman.

Totuși, acest exemplu rămâne extrem de relevant, deoarece ilustrează o realitate fundamentală ce se aplică și în cazul inteligenței artificiale contemporane. În spatele fiecărei mașini inteligente se află actori umani care o proiectează, o operează și o întrețin. Fără cantitățile masive de date furnizate de oameni, sistemele de inteligență artificială nu pot funcționa, învăța sau evolua. Prin urmare, IA nu poate deveni o adevărată amenințare conceptuală sau existențială de una singură; ea rămâne profund dependentă de intervenția, intențiile și controlul uman.

Din acest motiv, reglementarea piețelor de inteligență artificială este esențială. Fără cadre de reglementare eficiente, sectorul IA riscă să evolueze spre monopolizare, în care un număr mic de actori dominanți controlează infrastructurile tehnologice și accesul la date. Într-un astfel de scenariu, datele, ca resursă centrală a inteligenței artificiale, ar fi concentrate în mâinile câtorva entități private.

Inteligența artificială a apărut inițial ca o întrebare filosofică și teoretică înainte de a deveni una tehnică.

Abordarea de reglementare a Uniunii Europene presupune implicit că adevăratul pericol al inteligenței artificiale nu constă în performanța sa tehnică, ci în puterea pe care o poate dobândi în cadrul sistemelor umane. Această presupunere reflectă în mod direct întrebarea filosofică fundamentală ridicată la mijlocul secolului al XX-lea: pot mașinile să gândească și, dacă da, în ce condiții ar trebui să li se acorde autoritate decizională?

Când examinăm adevăratele origini ale mașinilor gânditoare, suntem conduși la contextul intelectual european. În anii 1950, Alan Turing a fost primul care a pus explicit întrebarea „Pot mașinile să gândească?” , în articolul său „Mașini de calcul și inteligență” . Importanța acestei întrebări constă în problemele de putere și dominație: numai dacă mașinile posedă o capacitate decizională reală pot deveni un pericol conceptual. Altfel, inteligența artificială rămâne doar o imitație a modului de gândire uman.

Dacă luăm în considerare contextul istoric în care a apărut inteligența artificială, devine clar că dezvoltarea sa a fost strâns legată de nevoile militare. Începând cu anii 1950, armata Statelor Unite a finanțat cercetări în domeniul traducerii automate, în special în scopul traducerii și decodării textelor sovietice în timpul Războiului Rece. Scopul era creșterea puterii militare prin controlul proceselor informaționale și decizionale ale statelor adverse, mai degrabă decât concentrarea doar pe eficiența tehnică. În acest fel, inteligența artificială a fost întotdeauna asociată cu supravegherea, dominația strategică și utilizarea managementului cunoștințelor ca instrument de putere.

În timp ce Statele Unite continuă să-și consolideze dominația în domeniul inteligenței artificiale prin controlul asupra infrastructurii și platformelor globale, Uniunea Europeană a ales o cale distinct diferită. În loc să concureze pentru supremația tehnologică, UE s-a poziționat ca o putere normativă, axată pe integrarea IA într-un cadru de valori democratice, drepturi ale omului și echitate a pieței. Legea privind inteligența artificială, adoptată în iunie 2024 , este un exemplu excelent pentru primul cadru de reglementare cuprinzător al IA din lume. Aceasta asigură că IA este sigură, transparentă și aliniată cu drepturile fundamentale. Această abordare legislativă împarte sistemele de IA în categorii de risc, de la minim la inacceptabil, și stabilește obligații în consecință.

Totuși, acest angajament față de o guvernanță etică dezvăluie și dilema strategică a Europei. Concentrându-se pe reglementare mai degrabă decât pe putere, UE își recunoaște decalajul tehnologic față de SUA și China. Deși există prevederi pentru spații de testare a inovației și sprijin pentru startup-uri, dependența Europei de furnizorii americani de cloud și de infrastructura de inteligență artificială împiedică o adevărată suveranitate digitală.

Scris de

Modelați conversația

Aveți ceva de adăugat la această poveste? Aveți idei pentru interviuri sau unghiuri pe care ar trebui să le explorăm? Anunțați-ne dacă doriți să scrieți o continuare, un contrapunct sau să împărtășiți o poveste similară.