Sunteți interesat de ele OFERTE? Economisiți cu cupoanele noastre WhatsApp o telegramă!

OpenAI creează o echipă pentru riscurile „catastrofale” ale AI. De aceea ne preocupă

OpenAI, o companie acum în fruntea domeniului inteligenței artificiale, recent a anunțat crearea unei noi echipe cu sarcina specifică de să evalueze și să atenueze riscurile potențial catastrofale asociate cu tehnologiile avansate legate de IA. Această mișcare evidențiază importanța tot mai mare a abordării în mod proactiv a provocărilor și pericolelor pe care modelele generative le pot aduce. Evident, acolo unde nu sunt monitorizați corespunzător.

Identificarea riscurilor de către OpenAI

Pe măsură ce inteligența artificială evoluează rapid, apar noi riscuri care ar putea avea un impact grav la scară globală. Pentru aceasta, noua echipă de pregătire OpenAI se va dedica a urmări, evalua, prevăd e pentru a proteja împotriva acestor probleme potențiale. Printre riscurile identificate se numără: amenințări nuclear, o temă care evidențiază urgența acțiunii responsabile în domeniul IA.

Pe lângă amenințările nucleare, echipa se va concentra și pe pericolele legate de substanțe chimice, biologice și radiologice, precum și pe ffenomen de auto-replicare a inteligenței artificiale, sau capacitatea unui sistem de inteligență artificială de a se replica în mod autonom. Alte domenii de interes includ capacitatea AI de a înșela oamenii și amenințări toate securitate cibernetică.

Beneficiile și provocările AI avansate

OpenAI recunoaște că modelele AI de frontieră, cele care depășesc capacitățile celor mai avansate modele existente, au potențialul de a folosește întreaga umanitate. Și nu, contrar a ceea ce crezi tu,Inteligența artificială nu este aici pentru a ne fura locurile de muncă ci mai degrabă să-l creeze.

Cu toate acestea, cu o mare putere, vine și o mare responsabilitate. Prin urmare, este esențial să se dezvolte politici informat despre riscuri, care vă permit evaluează și monitorizează modelele AI, pentru a se asigura că beneficiile depășesc riscurile asociate.

openai oferă recompense pentru găsirea erorilor în chatgpt

De asemenea, citește: DeepMind are soluția pentru a preveni riscurile AI

Conducerea acestei noi echipe i-a fost încredințată Alexandru Madry, o figură de frunte în domeniul învățării automate. Momentan în concediu de la el rolul de director al Centrul MIT pentru învățare automată implementabilă, Înţelept va coordona eforturile de dezvoltare și menținere a unei politici de dezvoltare bazată pe riscuri.

Spre o prioritate globală

CEO-ul OpenAI, Sam Altman, nu este nou la preocupările cu privire la riscurile potențial catastrofale ale IA. El a sugerat că tratarea tehnologiilor AI ar trebui să fie pluată la fel de în serios ca cea a armelor nucleare, subliniind necesitatea unui efort colectiv de atenuare a riscurilor de extincție asociate cu IA. Această nouă echipă reprezintă un pas concret către realizarea acestei viziuni, evidențiind angajamentul OpenAI de a contribui la a managementul responsabil al inteligenței artificiale.

Gianluca Cobucci
Gianluca Cobucci

Pasionat de cod, limbi și limbi, interfețe om-mașină. Tot ceea ce este evoluția tehnologică mă interesează. Încerc să-mi divulg pasiunea cu cea mai mare claritate, bazându-mă pe surse de încredere și nu „pe prima trecere”.

subscrie
notifica
oaspete

0 comentarii
Feedback-uri în linie
Vezi toate comentariile
XiaomiToday.it
logo