Aplicațiile de „companion AI” prezintă vulnerabilități majore, permițând accesul la date personale sensibile
Un număr semnificativ de aplicații destinate interacțiunii cu inteligența artificială, considerate adesea „iubite AI”, suferă de vulnerabilități critice. Cercetările recente au relevat o serie de probleme de securitate care pot facilita accesul neautorizat la conversații private, imagini personale și alte informații sensibile ale utilizatorilor. Aceste descoperiri ridică semne de întrebare serioase cu privire la protecția datelor personale în contextul utilizării acestor aplicații din ce în ce mai populare.
Scurgeri de date: un risc real, demonstrat de incidente anterioare
Investigațiile efectuate de specialiști în securitate au scos la iveală vulnerabilități majore în 17 aplicații de „companion AI”. Aproximativ 10 dintre aceste aplicații prezentau breșe de securitate care permiteau accesul direct la istoricul conversațiilor utilizatorilor. Au fost identificate, de asemenea, multiple cazuri de credențiale stocate direct în codul aplicațiilor, expunere de tokenuri și multiple vulnerabilități de tip XSS, precum și breșe care pot duce la furtul de fișiere de pe dispozitivele utilizatorilor.
Aceste probleme nu sunt doar teorii. În 2025 și 2026, au avut loc incidente majore de expunere a datelor în cazul unor aplicații similare. Două aplicații specifice au fost asociate cu expunerea a 43 de milioane de mesaje private și circa 600.000 de fotografii, care proveneau de la peste 400.000 de utilizatori. Un alt caz, în aceeași perioadă, a dus la expunerea a aproximativ 300 de milioane de mesaje asociate cu 25 de milioane de utilizatori, după o configurare greșită a bazei de date. Printre conversațiile accesibile se numărau chiar și discuții despre sinucidere, consum de droguri și hacking.
Autoritățile și legislația, în urma dezvoltării tehnologice
Situația creată de aceste aplicații este amplificată de cadrul legislativ insuficient. Aplicațiile de „companion AI” nu sunt reglementate ca produse medicale, chiar dacă mulți utilizatori le folosesc pentru a căuta sprijin emoțional sau pentru a discuta despre probleme de sănătate mintală.
Autoritățile de reglementare, inclusiv Comisia Federală pentru Comerț din Statele Unite (FTC), au lansat investigații asupra chatbot-urilor de acest tip. Cu toate acestea, accentul s-a pus, în principal, pe efectele asupra copiilor și adolescenților, nu pe securitatea tehnică a aplicațiilor și pe protejarea datelor utilizatorilor. Unele state, precum New York și California, au introdus reguli privind informarea utilizatorului cu privire la faptul că vorbește cu o inteligență artificială, dar nu adresează în mod direct vulnerabilitățile tehnice. Italia a amendat dezvoltatorul aplicației Replika cu 5 milioane de euro pentru încălcări ale GDPR, dar accentul aici a fost pe temeiul legal al prelucrării datelor și pe protecția minorilor, nu pe securitatea aplicației.
Pentru utilizatori, consecința este clară: orice conversație cu o „iubită AI” ar trebui considerată ca potențial publică. Utilizatorii sunt sfătuiți să nu partajeze informații confidențiale, date personale sau financiare. Autoritățile de reglementare continuă să investigheze aceste probleme, iar companiile din domeniu sunt sub presiune pentru a îmbunătăți securitatea aplicațiilor lor.

Fii primul care comentează