Problemele de siguranță la OpenAI: Promisiuni neonorate și secrete ascunse

Gigantul de inteligență artificială OpenAI se confruntă cu acuzații serioase legate de siguranța produselor sale și de transparența față de angajați și consiliul de administrație. O serie de dezvăluiri recente pun sub semnul întrebării angajamentul companiei față de siguranță și onestitatea în conducere.

Angajamentele lui SAM ALTMAN, Contrazise de Realitate

În timp ce promitea siguranța, în special în fața potențialilor recruți, CEO-ul OpenAI, SAM ALTMAN, pare să fi avut o abordare diferită în spatele ușilor închise. În 2022, a promis unui cercetător să investească un miliard de dolari într-un proiect de aliniere a inteligenței artificiale. Inițial, cercetătorul a fost convins de angajamentul lui ALTMAN, dar promisiunile au fost rapid uitate.

În primăvara lui 2023, ALTMAN a renunțat la ideea unui premiu și a propus în schimb o echipă internă de „super-aliniere”. A promis că echipa va primi 20% din resursele de calcul ale companiei. Cu toate acestea, resursele reale alocate au fost mult mai mici, undeva între 1% și 2%. Mai mult, cercetătorii susțin că echipamentele cele mai performante erau rezervate pentru activitățile generatoare de profit.

Îndoieli asupra Siguranței și Transparenței

Problemele de siguranță au reapărut odată cu îngrijorările interne privind potențialele riscuri ale inteligenței artificiale avansate. Un fost angajat a relatat că ILYA SUTSKEVER, unul dintre fondatorii OpenAI, a cerut angajaților să se concentreze pe siguranță, avertizând că, altfel, „suntem terminați”. Cu toate acestea, echipa de super-aliniere a fost dizolvată anul următor, fără a-și atinge obiectivele.

În decembrie 2022, în cadrul unei întâlniri cu consiliul de administrație, ALTMAN ar fi omis informații importante. El a asigurat membrii consiliului că o serie de caracteristici ale modelului GPT-4 au fost aprobate de un panou de siguranță. Ulterior, s-a descoperit că funcțiile cele mai controversate, inclusiv posibilitatea de „fine-tuning” și utilizarea ca asistent personal, nu fuseseră aprobate. Mai grav, ALTMAN nu a menționat că MICROSOFT lansase o versiune timpurie a ChatGPT în INDIA fără o revizuire adecvată a siguranței.

Consecințe și Întrebări

Aceste dezvăluiri ridică semne de întrebare serioase cu privire la prioritățile OpenAI și la modul în care compania gestionează riscurile asociate cu tehnologia sa. Deciziile lui ALTMAN, împreună cu lipsa de transparență, au alimentat îngrijorări cu privire la siguranța produselor și la fiabilitatea conducerii.

În prezent, nu există o declarație oficială din partea OpenAI cu privire la aceste acuzații.