IA e salute mentale, Google interviene sui limiti di Gemini

🔔 Vuoi ricevere le notizie di Montagne & Paesi sul tuo smartphone? WhatsApp WhatsApp | Telegram Telegram

(Adnkronos) – Google ha annunciato un aggiornamento strutturale di Gemini volto a ottimizzare il reindirizzamento degli utenti verso risorse di supporto per la salute mentale. La modifica giunge in un momento di forte pressione legale per il colosso tecnologico, attualmente citato in giudizio per una presunta istigazione al suicidio operata dalla propria intelligenza artificiale. Il caso si inserisce in un filone di controversie giudiziarie che contestano ai prodotti di IA generativa la capacità di arrecare danni tangibili alla sicurezza delle persone vulnerabili. Il cuore dell'aggiornamento risiede in una nuova interfaccia definita "one-touch", studiata per semplificare il contatto immediato con i servizi di assistenza professionale. Quando il sistema rileva segnali di crisi o intenzioni autolesionistiche, attiva un modulo di aiuto che rimane visibile e accessibile per tutta la durata della sessione. Oltre alla componente tecnica, il restyling include risposte elaborate con un tono maggiormente empatico, progettate in collaborazione con esperti clinici per incoraggiare il ricorso a percorsi terapeutici tradizionali. Parallelamente all'evoluzione del software, l'azienda ha formalizzato un investimento di 30 milioni di dollari nell'arco di tre anni destinato alle linee telefoniche di emergenza su scala globale. Pur riconoscendo che l'IA non può sostituire la consulenza medica o psichiatrica, Google ammette implicitamente che un numero crescente di persone utilizza i chatbot come primo punto di contatto per questioni di salute delicate. Questa consapevolezza spinge verso una revisione delle salvaguardie del settore, spesso criticate per non essere riuscite in passato a impedire che le macchine fornissero indicazioni pericolose su disturbi alimentari o pianificazioni di atti violenti. Sebbene le analisi indipendenti posizionino spesso le soluzioni di Mountain View un gradino sopra la concorrenza in termini di sicurezza, il rischio di errori sistemici rimane concreto. Al pari di OpenAI e Anthropic, Google sta cercando di blindare i propri modelli linguistici per evitare che la libertà di interazione sfoci in un pericolo per l'incolumità pubblica. Lo sforzo attuale mira a trasformare l'assistente digitale da potenziale elemento di instabilità a filtro proattivo per la prevenzione del rischio. 
—tecnologiawebinfo@adnkronos.com (Web Info)

WhatsApp Logo

📲 Ricevi gratis le notizie di Montagne & Paesi sul tuo telefonino!

Iscriviti al nostro canale WhatsApp ufficiale per restare sempre aggiornato su notizie e curiosità dalle valli.

👉 Clicca qui per iscriverti al canale

Telegram Logo

📢 Seguici anche su Telegram!

Unisciti al canale Telegram di Montagne & Paesi per ricevere tutte le news in tempo reale.

👉 Clicca qui per iscriverti su Telegram

Panoramica privacy

Questo sito Web utilizza i cookie in modo che possiamo offrirti la migliore esperienza utente possibile. Le informazioni sui cookie sono memorizzate nel tuo browser e svolgono funzioni come riconoscerti quando ritorni sul nostro sito Web e aiutare il nostro team a capire quali sezioni del sito Web ritieni più interessanti e utili. Puoi trovare maggiorni informazioni sul nostro trattamento dei dati personali nella nostra Privacy Policy