Huawei a dezvoltat o versiune a sistemului de inteligență artificială DeepSeek, concentrată pe siguranță, declarând că este „aproape 100% eficientă” în prevenirea discuțiilor pe teme politice sensibile. Această evoluție reflectă tendința industriei chineze de a adapta modelele AI în conformitate cu reglementările stricte privind libertatea de exprimare din China.

Modelul ajustat, denumit DeepSeek-R1-Safe, a fost antrenat folosind cipurile Ascend AI de la Huawei pe baza modelului open-source R1, dezvoltat de startup-ul local DeepSeek. Parteneriatul cu Universitatea Zhejiang, înființată de fondatorul DeepSeek, a ajutat la dezvoltarea acestui model, deși compania nu a indicat implicarea directă a startup-ului în proiect.

Lansarea în ianuarie a modelelelor R1 și V3 a reprezentat un moment important pentru industria AI din China, alertând comunitatea globală și investitorii internaționali. Modelele modificate, precum Ernie Bot al Baidu, sunt programate să refuze discuțiile pe subiecte politice sensibile, reflectând politicile guvernamentale.

Testele efectuate de Huawei arată că DeepSeek-R1-Safe este „aproape 100% eficient” în a se apăra de conținut dăunător sau ilegal, cu o rată de succes de 83% în privința siguranței generale. Totuși, eficiența scade atunci când scenariile includ provocări complexe, ca jocuri de rol sau codare criptată, reducându-se la 40%.

Huawei organizează anual o conferință la Shanghai, unde a prezentat planurile pentru cipurile și capacitățile de calcul ale viitorului. Acest eveniment marchează o transparență limitată a eforturilor de cercetare și dezvoltare în domeniul AI și cipurilor.

În contextul în care China continuă să adapteze și să implementeze modele AI în societate, respectând reglementările interne, monitorizarea evoluțiilor rămâne esențială pentru sectorul tehnologic global. A fi la curent cu aceste schimbări ajută la înțelegerea direcției în care se îndreaptă inteligența artificială, atât în China, cât și pe plan internațional.