Anthropic riscrive il codice etico per l’intelligenza artificiale

🔔 Vuoi ricevere le notizie di Montagne & Paesi sul tuo smartphone? WhatsApp WhatsApp | Telegram Telegram

(Adnkronos) – Anthropic ha recentemente aggiornato i protocolli fondamentali che regolano il comportamento di Claude, il suo modello linguistico di punta, passando da una semplice lista di istruzioni a una vera e propria "Costituzione". Il documento, lungo cinquantasette pagine, non si limita a stabilire cosa l’intelligenza artificiale debba o non debba fare, ma cerca di spiegarne le ragioni profonde, puntando a costruire un’identità etica che permetta al software di agire con una maggiore autonomia di giudizio. L’obiettivo dichiarato è far sì che il modello comprenda il proprio ruolo nel mondo, arrivando a ipotizzare per Claude una sorta di status morale o di coscienza incipiente, elementi che la società ritiene necessari per migliorarne l’integrità e la sicurezza psicologica. Il nuovo manifesto stabilisce una gerarchia rigida di valori in cui la sicurezza e l'etica prevalgono sulla semplice utilità per l'utente. Tra i vincoli più stringenti figurano il divieto assoluto di fornire assistenza per la creazione di armi di distruzione di massa, inclusi ordigni biologici, chimici e nucleari, e l'impossibilità di collaborare ad attacchi contro infrastrutture critiche come reti elettriche o sistemi finanziari. Claude è inoltre istruito a impedire il controllo sociale o militare illegittimo e a non partecipare a tentativi che possano minacciare la sopravvivenza della specie umana. Questa struttura valoriale impone al modello di adottare un tono neutrale sui temi politicamente sensibili, cercando di rappresentare i diversi punti di vista in assenza di un consenso morale o empirico condiviso. Un aspetto particolarmente rilevante della nuova dottrina riguarda la capacità del modello di opporsi a ordini potenzialmente dannosi, anche se provenienti dalla stessa Anthropic. Attraverso un’analogia con il comportamento di un soldato che si rifiuta di sparare sui civili, la società ha programmato Claude per declinare richieste che porterebbero a una concentrazione di potere illegittima o catastrofica. Nonostante questa enfasi sulla cautela, l'azienda continua a proporre i propri servizi in ambito governativo, sollevando interrogativi sulla coerenza tra le linee guida etiche e le applicazioni militari concrete. La stesura di questo codice non ha visto il coinvolgimento diretto di gruppi esterni o comunità minoritarie, una scelta che Anthropic giustifica come una precisa assunzione di responsabilità aziendale.  
—tecnologiawebinfo@adnkronos.com (Web Info)

WhatsApp Logo

📲 Ricevi gratis le notizie di Montagne & Paesi sul tuo telefonino!

Iscriviti al nostro canale WhatsApp ufficiale per restare sempre aggiornato su notizie e curiosità dalle valli.

👉 Clicca qui per iscriverti al canale

Telegram Logo

📢 Seguici anche su Telegram!

Unisciti al canale Telegram di Montagne & Paesi per ricevere tutte le news in tempo reale.

👉 Clicca qui per iscriverti su Telegram

Panoramica privacy

Questo sito Web utilizza i cookie in modo che possiamo offrirti la migliore esperienza utente possibile. Le informazioni sui cookie sono memorizzate nel tuo browser e svolgono funzioni come riconoscerti quando ritorni sul nostro sito Web e aiutare il nostro team a capire quali sezioni del sito Web ritieni più interessanti e utili. Puoi trovare maggiorni informazioni sul nostro trattamento dei dati personali nella nostra Privacy Policy