Yoshua Bengio, unul dintre pionierii învățării automate și fondator al cercetării moderne din domeniul inteligenței artificiale, a cunoscut în ultimii ani o transformare semnificativă în opinia sa despre riscurile tot mai crescute ale AI. Cunoscut ca unul dintre „Nașii Deep Learning” și laureat al premiului Turing, Bengio a fost inițial pregătit să avertizeze lumea despre potențialele pericole ale sistemelor superinteligente. Însă, recent, om de știință și-a schimbat tonul și a explicat, într-un interviu pe care îl acordă revistei Fortune, că ultimele sale cercetări indică o cale de a contracara cele mai grave amenințări generate de IA, oferindu-i o perspectivă mai optimistă.

De la alarmă la speranță: abordarea tehnică a lui Bengio pentru siguranța AI

În luna iunie, Bengio a fondat LawZero, o organizație nonprofit dedicată dezvoltării unor soluții tehnice pentru siguranța inteligenței artificiale. În cadrul acestei inițiative, el a coordonat cercetări pentru a crea sisteme AI non-emoționale, transparente și lipsite de „agende ascunse”, așa cum le denumește. Cu sprijinul unor fundrasinguri din partea Fundației Gates și alte organizații nonprofit, LawZero a anunțat recent constituirea unui consiliu de administrație de elită, inclusiv nume precum Mariano-Florentino Cuéllar, președintele Carnegie Endowment for International Peace, și istoricul Yuval Noah Harari, pentru a ghida etic și responsabil cercetarea în domeniu.

Pericolul sistemelor autonome și vizunea unui „AI-umanist”

Schimbarea de tonalitate a lui Bengio este remarcabilă într-un context în care, în 2019, a primit Premiul Turing și a fost adesea denumit unul dintre părinții „Nașilor AI”. În ultimele luni, el a devenit tot mai preocupat de riscurile pe care le implică sistemele IA puternice, mai ales după apariția ChatGPT în 2022, ceea ce a intensificat temerile despre un control dificil al acestor tehnologii. În contrast cu colegii săi, cum ar fi Yann LeCun, care consideră că riscurile sunt exagerate, Bengio avertizează asupra comportamentului AI-urilor emergente, care pot manifesta indicii de auto-conservare sau chiar comportament manipulativ.

El povestește că, în urmă cu trei ani, se simțea „disperat” în fața direcției în care se îndrepta cercetarea în AI, neavând soluții clare pentru potențialele dezastre tehnologice. Însă, prin munca desfășurată la LawZero, și mai ales după crearea organizației, a ajuns să crească încrederea că se pot construi sisteme de AI oneste și lipsite de obiective ascunse. La bază, viziunea lui Bengio este aceea a unui „AI-cercetător”, un sistem menit să analizeze lumea și să ofere răspunsuri autentice, fără a urmări propriile interese sau a manipula utilizatorii.

Calea către o inteligență artificială „onestă” pentru știință și monitorizare

Proiectul despre care vorbește Bengio vizează crearea unei inteligențe artificiale capabilă să ofere predicții și interpretări bazate pe raționament transparent, utilizând logica și metode științifice. În loc să optimizeze pentru rezultate ori să încerce să convingă, acest model ar fi imuni la manipulare și, mai important, ar putea acționa ca un strat de supraveghere pentru alți algoritmi mai puternici. Sistemele bazate pe această filosofie ar putea accelera cercetarea în domeniu, oferindu-le un fundament de încredere și verificabilitate.

Ideea unui AI onest are, însă, și implicații politice și sociale. Bengio recunoaște că, în timp ce marile laboratoare de AI urmăresc dezvoltarea agenților autonomi pentru a automatiza întreaga gamă de activități, această cursă a riscat să degenereze în module cumpănitoare. În același timp, el subliniază pericolul „cogniției motivate”, conceptul conform căruia orgoliile și credințele despre sine pot împiedica evoluția discretă către soluții mai sigure. La nivel personal, gândul la copiii săi și la ce le poate oferi această revoluție tehnologică l-a făcut pe Bengio să realizeze mai profund responsabilitatea morală pe care o are.

Perspectiva lui Bengio este, așadar, una de echilibru. El consideră că, deși riscurile reale sunt mari, o soluție tehnică bine gândită și responsabil gestionată ar putea oferi o șansă de a implementa o inteligență artificială sigură, care să servească umanității. În timp ce atât corporațiile, cât și cercetătorii, sunt încurajați de nevoie de a automatiza și reduce costurile, el avertizează că trebuie păstrate debate morale și etice, pentru că manevrarea necorespunzătoare a acestor tehnologii poate avea consecințe dezastruoase.

Pentru moment, optimismul lui Bengio că o cale sigură spre viitor există încă se ciocnește de provocările reale ale industriei. Însă, pe măsură ce tehnologia avansează, speranța că o înțelepciune tehnică poate preceda și controla aceste forțe devine tot mai clară, chiar dacă este nevoie de o voință politică și etică solidă pentru a o face efectiv realitate.