Potrivit companiei, modelul ar fi „aproape 100% eficient” în evitarea discuțiilor pe teme politice sensibile și conținut dăunător.
Modelul AI DeepSeek-R1-Safe dezvoltat de Huawei a fost instruit cu ajutorul a 1000 de cipuri Ascend AI și se bazează pe modelul open-source R1 al startup-ului chinez DeepSeek. Huawei a colaborat în acest demers cu Universitatea Zhejiang, o instituție de prestigiu, însă fondatorul DeepSeek, Liang Wenfeng, nu a fost implicat în proiect, iar compania nu a emis un punct de vedere oficial până în prezent, titrează Reuters.
Potrivit testelor interne, modelul AI DeepSeek-R1-Safe dezvoltat de Huawei a atins o eficiență de aproape 100% în identificarea și blocarea discursurilor toxice, incitărilor la activități ilegale și a conținutului politic sensibil. Totuși, eficiența a scăzut la 40% atunci când utilizatorii au încercat să ocolească filtrele prin jocuri de rol, scenarii sau mesaje criptate.
Huawei susține că rata generală de apărare în materie de siguranță a modelului este de 83%, depășind performanțele altor modele chinezești de top, precum Qwen-235B (dezvoltat de Alibaba) sau DeepSeek-R1-671B.
Modelul AI DeepSeek-R1-Safe dezvoltat de Huawei reflectă eforturile continue ale companiilor chineze de a adapta tehnologia AI la valorile și politicile promovate de stat. Lansarea acestuia a avut loc în cadrul conferinței anuale Huawei Connect de la Shanghai, unde compania a anunțat și noi direcții privind dezvoltarea de cipuri și capacități de calcul.
China continuă să reglementeze strict modul în care AI este implementată, impunând dezvoltatorilor locali să integreze în modelele lingvistice valori considerate esențiale pentru societatea chineză, inclusiv autocenzura pe subiecte sensibile.