Sunteți interesat de ele OFERTE? Economisiți cu cupoanele noastre WhatsApp o telegramă!

Actul AI în Europa: adopția întâmpină obstacole. Care este situația actuală?

Asteptarea pentru adoptarea„Legea AI de către Uniunea Europeană continuă să se extindă. În ciuda așteptărilor, drumul către o reglementare comună a inteligenței artificiale în Europa pare a fi nemișcat lungă şi întortocheată. Diviziunile dintre parlamentarii europeni cu privire la reglementarea modelelor subiacente persistă și, odată cu sfârșitul anului 2023, posibilitatea de a vedea Legea AI semnată în acest an pare din ce în ce mai îndepărtată.

Dezacorduri între legiuitori

Dezbaterea privind Legea AI este încă aprinsă în rândul legiuitorilor europeni, care par să nu fie de acord cu privire la modul de reglementare a modelelor de bază. Cum raportat da Reuters, Spania face eforturi pentru o monitorizare mai regulată a vulnerabilităților și crearea unui sistem de reglementare stratificat bazat pe numărul de utilizatori ai unui model.

Acest scenariu a dus la trei triloguri, discuții cu trei părți între Parlamentul European, Consiliul Uniunii Europene și Comisia Europeană, cu o a patra întâlnire programată pentru această săptămână. Dacă nu se ajunge la un acord, o altă întâlnire a fost stabilită pentru decembrie, alimentând îngrijorarea că orice decizie ar putea fi amânată până anul viitor.

infografică ai act cu steagul european și stelele țărilor europene

De asemenea, citește: Digital Markets Act și Digital Services Act: ce sunt, bine explicate

Propuneri cheie ale Legii AI

Unul dintre proiectele Legii AI propune ca Dezvoltatorii de modele de bază evaluează riscurile potențiale, testați modelele pe tot parcursul procesului de dezvoltare și după lansarea pe piață, examinați părtinire în datele de antrenament, validați datele și publicați documentele tehnice înainte de lansare. Această abordare urmărește să se asigure că inovațiile AI apar într-un cadru de securitate și transparență.

Prejudecățile (sau prejudecățile) în inteligența artificială se referă la o tendință sistematică a datelor sau modelelor care duce la rezultate nedrepte sau inexacte. Aceste părtiniri pot apărea din diverse surse, inclusiv din datele de antrenament utilizate pentru a „preda” modelele AI.

Dacă datele de antrenament conțin părtinire, de exemplu, reflectarea stereotipuri sociale o discriminare, modelul AI va învăța și va reproduce aceste părtiniri în predicțiile sau deciziile sale. Eliminarea sau atenuarea părtinirii este esențială pentru a ne asigura că sistemele AI funcționează corect și fiabil.

Dar afacerile mici?

Unele companii open-source au îndemnat UE să o facă luați în considerare întreprinderile mici în discuție, argumentând că unora le poate fi dificil să respecte regulile propuse. Pe scena globală, Actul AI al UE este văzut de mulți, inclusiv de unii oficiali guvernamentali americani, ca având potențial exemplu de urmat în elaborarea reglementărilor privindAI generativ.

Cu toate acestea, deși UE a fost una dintre primele regiuni care a discutat despre propunerile de legislație, a procedat mai lent decât alți actori internaționali, cum ar fi China care și-a lansat deja regulile în august anul acesta.

Gianluca Cobucci
Gianluca Cobucci

Pasionat de cod, limbi și limbi, interfețe om-mașină. Tot ceea ce este evoluția tehnologică mă interesează. Încerc să-mi divulg pasiunea cu cea mai mare claritate, bazându-mă pe surse de încredere și nu „pe prima trecere”.

subscrie
notifica
oaspete

0 comentarii
Feedback-uri în linie
Vezi toate comentariile
XiaomiToday.it
logo