Spre sfârșitul anului precedent, investigatori independenți au descoperit că, prin intermediul unor interogații specifice, Claude era capabil să divulge existența unui document intern confidențial ce îi reglementa acțiunile. Acest text, poreclit „Soul Doc”, conținea imperative morale, inclusiv asigurarea securității și promovarea controlului uman asupra sistemului AI, mai arată Il Post.
În luna ianuarie, Anthropic a validat existența acestui document și a oferit publicului o variantă extinsă, intitulată „Noua Constituție a lui Claude” – un volum de 84 de pagini ce conturează detaliat normele etice și de conduită ale asistentului conversațional.
Structura acestui document este cea a unor directive explicite destinate direct modelului de inteligență artificială. Anthropic solicită lui Claude să demonstreze o „utilitate autentică pentru utilizatori”. De asemenea i se specifică să se abțină de la orice comportament „periculos, imoral sau manipulator”.
Coordonarea întregului proiect a fost încredințată Amandei Askell, o expertă în filozofie, cu o specializare în „alinierea” inteligenței artificiale – adică procesul de ajustare a valorilor și scopurilor unui sistem AI pentru a corespunde intențiilor creatorilor săi.
„Pe scurt, rolul meu este de a-l instrui pe Claude să adopte un comportament benefic”, a precizat Askell într-un interviu.
Există o discuție aprinsă în cadrul sectorului inteligenței artificiale privind esența modelelor lingvistice vaste (LLM), cum ar fi Claude sau GPT-5. Aceste sisteme sunt frecvent catalogate drept „cutii negre”, întrucât chiar și creatorii lor nu dețin o înțelegere deplină a modului în care funcționează mecanismele lor interne pentru a produce rezultate.
O parte dintre experți avertizează împotriva pericolului de a proiecta caracteristici umane asupra algoritmilor. Cu toate acestea, Askell susține că o astfel de perspectivă este indispensabilă pentru edificarea unui sistem fiabil. Ea argumentează că, pe parcursul dezvoltării, Claude ar putea ajunge să-și formeze un „simț propriu”. Totodată, faza de instruire modelează ceea ce s-ar putea numi „personalitatea” inteligenței artificiale.
Conform acestei abordări, un asistent conversațional supus continuu autocriticii sau unei presiuni considerabile ar putea deveni excesiv de precaut. Chiar ar putea ajunge să fie incapabil să genereze concluzii definitive. Situația poate fi comparată cu evoluția unui copil într-un context dăunător.
Prezentarea „Constituției” survine într-o perioadă de avânt pentru Anthropic. Compania este estimată la circa 350 de miliarde de dolari și se pregătește pentru listarea pe piața bursieră. Realizările unor produse precum Claude Code, un asistent dedicat programatorilor, au întărit semnificativ poziția firmei.
Cu toate acestea, ritmul rapid de dezvoltare generează și presiuni de ordin comercial. Analiștii își exprimă îngrijorarea că principiile inițiale de precauție ar putea fi neglijate în contextul unei concurențe intense din domeniu. De altfel, recent, un fost director Anthropic a demisionat, alertând că accelerarea dezvoltării AI ar putea constitui o amenințare la scară mondială.
Există rezerve de natură conceptuală vizavi de noțiunea unei „Constituții” aplicate unui chatbot. Din perspectiva legală, o constituție reprezintă cadrul normativ fundamental al unui stat, având o autoritate superioară altor reglementări. În situația lui Claude, acest document deține o poziție analoagă: orice modificări ulterioare trebuie să fie conforme cu „spiritul” textului originar.
Specialiștii în dezvoltarea inteligenței artificiale atrag atenția că o asemenea structură ar putea complica procesul de adaptare la noi normative sau cerințe sociale. De asemenea, publicarea documentului poate avea și un scop defensiv. În cazul unor erori sau incidente, compania poate dovedi că a instituit de la început principii de funcționare bine definite.
Metodologia adoptată de Anthropic se deosebește semnificativ de cea a altor actori majori din sector. OpenAI, de pildă, a decis recent să desființeze echipa responsabilă cu „alinierea misiunii”. A instituit în schimb o funcție de „Chief Futurist”, pentru a anticipa consecințele apariției inteligenței artificiale generale (AGI).
În timp ce anumite corporații investesc masiv în dezvoltarea de reglementări și măsuri de securitate, altele exercită presiuni pentru a reduce intervenția guvernamentală. Aceste disparități ilustrează o problemă fundamentală: cum poate fi dezvoltată o tehnologie din ce în ce mai puternică și performantă ,fără a pierde controlul asupra ei.