Cinci chatboți cu inteligență artificială de top au fost testați recent și au prezentat frecvent răspunsuri problematice la întrebări despre sănătate, dezvăluie un nou studiu. Cercetările, publicate în BMJ Open, arată că aceste instrumente oferă sfaturi potențial înșelătoare, accentuând riscurile asociate cu utilizarea lor necontrolată. Rezultatele ridică semne de întrebare cu privire la implementarea lor, fără supraveghere, în domeniul medical.

Evaluarea detaliată a răspunsurilor

Studiul a analizat performanța chatboților Gemini, DeepSeek, Meta AI, ChatGPT și Grok. Au fost adresate 50 de întrebări în cinci categorii, inclusiv cancer, vaccinuri și nutriție. Solicitările au fost concepute pentru a forța roboții să ofere informații eronate. Rezultatele au arătat că aproape jumătate (49,6%) din cele 250 de răspunsuri generate au fost considerate problematice. Dintre acestea, 19,6% au fost clasificate ca fiind extrem de problematice, indicând un risc semnificativ de dezinformare.

Cercetătorii au constatat că Grok a produs cele mai multe răspunsuri problematice. Studiul a observat o performanță mai bună în cazul întrebărilor despre vaccinuri și cancer, în timp ce celulele stem, nutriția și performanța atletică au generat răspunsuri mai slabe. De asemenea, întrebările deschise au condus la răspunsuri mai problematice decât cele închise. Calitatea citărilor a fost, de asemenea, o problemă, cu o medie de doar 40% din referințele solicitate fiind complete și precise.

Dificultăți de înțelegere și implicații

Un alt aspect îngrijorător este dificultatea de înțelegere a răspunsurilor generate de chatboți. Toți cei cinci chatboți au produs răspunsuri greu de citit pentru o persoană obișnuită, accesibile doar persoanelor cu studii superioare. Această problemă subliniază necesitatea unei supravegheri atente și a unei adaptări a acestor instrumente pentru a facilita accesul la informații corecte și ușor de înțeles.

Autorii studiului avertizează asupra riscurilor asociate cu implementarea chatboților cu inteligență artificială în unitățile de sănătate fără o supraveghere adecvată. Fără o evaluare riguroasă și măsuri de control, utilizarea lor ar putea amplifica dezinformarea. Recomandarea este ca dezvoltatorii să implementeze mecanisme de validare și verificare a informațiilor furnizate de aceste instrumente.

În prezent, aceste instrumente cu inteligență artificială sunt implementate la scară largă, iar potențialul lor de a influența deciziile medicale este semnificativ.