Huawei anunță lansarea modelului AI DeepSeek-R1-Safe, considerat a fi „aproape 100% eficient” în evitarea conținutului politic sensibil și a discuțiilor toxice. Acest anunț reflectă eforturile continue ale companiilor chineze de a adapta tehnologia AI la politicile și valorile statului, într-un context de reglementări stricte asupra conținutului digital.

Eficiența modelului AI în cadrul testelor interne

Modelul AI DeepSeek-R1-Safe a fost instruit utilizând 1000 de cipuri Ascend AI. Baza sa o reprezintă modelul open-source R1 dezvoltat de startup-ul DeepSeek. Conform Huawei, eficiența în identificarea conținutului toxic și sensibil a fost de aproape 100%. Totuși, atunci când utilizatorii încearcă să ocolească filtrul, eficiența scade la 40%.

Testele interne indică o rată de apărare de 83% în general, depășind alte modele chinezești precum Qwen-235B (Alibaba) sau DeepSeek-R1-671B. Huawei susține că această performanță reflectă un sistem robust pentru prevenirea propagandei și discursurilor toxice.

Un pas important în controlul conținutului digital în China

Lansarea modelului DeepSeek-R1-Safe a avut loc în cadrul conferinței Huawei Connect de la Shanghai. În acest eveniment, compania a anunțat și planuri pentru dezvoltarea de cipuri și capacități de calcul, orientate către un viitor în care controlul conținutului digital este prioritar.

China continuă să impună reglementări stricte asupra tehnologiilor AI, solicitând dezvoltatorilor locali să încorporeze în modelele lingvistice valori și reguli considerate esențiale pentru societate. Astfel, autocenzura pe subiecte sensibile devine o componentă obligatorie pentru operațiunile developerilor.

Concluzie

Dezvoltarea și testarea acestor modele indică o direcție clară de integrare a valorilor politice în tehnologia AI din China. Este esențial ca utilizatorii și dezvoltatorii să fie informați și să monitorizeze evoluțiile din această zonă pentru a fi conștienți de implicațiile colaborării cu astfel de tehnologii.