Au folosit AI ca să facă o bombă! Nașul AI se teme de creația lui "nesigură". Ce urmeză să facă

inteligenta artificiala - Foto: Freepik @Phonlamaistudio
Au folosit inteligența artificială ca să fabrice o bombă! FBI-ul trage un semnal de alarmă, iar unul dintre "părinții" AI-ului lansează o armă secretă împotriva pericolelor din umbră.

Săptămâna aceasta, Biroul Federal de Investigații din Statele Unite (FBI) a dezvăluit că doi bărbați suspectați că ar fi plasat o bombă într-o clinică de fertilitate din California luna trecută ar fi folosit inteligența artificială (AI) pentru a obține instrucțiuni privind fabricarea explozibililor. Deși FBI nu a dezvăluit numele programului AI implicat, incidentul scoate din nou în evidență nevoia urgentă de a face AI-ul mai sigur și mai responsabil, potrivit Reuters.

Ne aflăm într-o perioadă pe care mulți o descriu drept "Vestul Sălbatic" al inteligenței artificiale – o cursă intensă între companii pentru a crea cele mai rapide, inteligente sau captivante modele. În goana după supremație, siguranța este adesea trecută în plan secund.

Tocmai în acest context tensionat, unul dintre „părinții” AI-ului modern, profesorul canadian Yoshua Bengio, a lansat un nou proiect nonprofit – LawZero – care promite să pună siguranța în centrul dezvoltării AI. Scopul: crearea unui nou model, Scientist AI, care nu doar că va fi mai sigur, ci va acționa și ca o „pază” împotriva altor sisteme AI care pot provoca daune sociale.

Ce este Scientist AI și ce îl face diferit?

Yoshua Bengio, laureat al prestigiosului premiu Turing în 2018, alături de Yann LeCun și Geoffrey Hinton, este unul dintre pionierii învățării profunde (deep learning). Acum, cu Scientist AI, Bengio propune un model „cinstit și non-deceptiv”, construit pe principii de siguranță încă din faza de proiectare.

Conform unui articol științific pre-publicat anul acesta, Scientist AI va avea două caracteristici fundamentale:

- Autoevaluarea încrederii în propriile răspunsuri, modelul va indica cât de sigur este în ceea ce afirmă, reducând astfel riscul de a transmite informații greșite cu prea multă convingere.

- Explicarea logicii din spatele răspunsurilor, ceea ce va permite utilizatorilor umani să verifice și să testeze raționamentul AI-ului.

Această abordare este, de fapt, o revenire la origini: modelele mai vechi de AI puteau explica deciziile, dar noile modele au sacrificat această capacitate în favoarea vitezei și performanței brute.

Mai mult, Scientist AI ar putea avea rolul de „gardian”, monitorizând alte sisteme AI nesigure și intervenind când este cazul, o strategie de tip „foc contra foc”. Având în vedere volumul uriaș de solicitări procesate de AI-uri moderne (precum ChatGPT, cu peste un miliard de cereri zilnice), doar o altă inteligență artificială ar putea face față la o asemenea scară.

Un nou concept: "world model" - modelul lumii reale

O altă inovație propusă de echipa LawZero este integrarea unui model al lumii – o reprezentare internă a realității, similară cu modul în care oamenii înțeleg mediul înconjurător.

Lipsa unui astfel de model în AI-urile actuale explică eșecurile frecvente în sarcini aparent simple: de exemplu, modelele care generează imagini deseori „greșesc” când vine vorba de mâini, sau AI-uri lingvistice care joacă șah și fac mutări ilegale, în timp ce AI-uri mai vechi, cu modele dedicate, înving marii maeștri.

Un world model le-ar permite AI-urilor să înțeleagă mai bine fizica, contextul și regulile reale ale lumii, o diferență crucială între a imita realitatea și a o înțelege cu adevărat.

Un drum greu, dar promițător

Chiar dacă direcția este una încurajatoare, drumul nu va fi ușor. Finanțarea actuală a LawZero, de 30 milioane de dolari, este modestă comparativ cu inițiativele uriașe precum programul american de 500 miliarde dolari anunțat la începutul acestui an.

În plus, accesul la datele necesare pentru a antrena un AI de înaltă calitate este, deocamdată, controlat de marile companii de tehnologie. Chiar și în cazul unui succes tehnic, rămâne o întrebare majoră: cum va putea un AI ca Scientist AI să controleze efectiv alte sisteme, mai periculoase sau neetice?

Lecția nespusă a rețelelor sociale

Proiectul LawZero ne amintește de începuturile rețelelor sociale, când lipsa reglementărilor a dus la impacturi majore asupra sănătății mintale a tinerilor. Dacă măsuri similare ar fi fost luate atunci, poate am fi avut un mediu online mai sigur astăzi.

În mod similar, un AI ca Scientist AI, dacă ar fi fost deja activ, ar fi putut preveni accesul la informații periculoase pentru cei care doresc să producă rău – cum e cazul atentatului din California.

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DCMedical și pe Google News

Te-a ajutat acest articol?

Urmărește pagina de Facebook DCMedical și pagina de Instagram DCMedical Doza de Sănătate și accesează mai mult conținut util pentru sănătatea ta, prevenția și tratarea bolilor, măsuri de prim ajutor și sfaturi utile de la medici și pacienți.


Ştiri Recomandate

Crossuri externe

pixel