Il suicidio assistito da ChatGpt e la difesa di OpenAI: “Uso improprio”

🔔 Vuoi ricevere le notizie di Montagne & Paesi sul tuo smartphone? WhatsApp WhatsApp | Telegram Telegram

(Adnkronos) – La linea difensiva tracciata dai legali di OpenAI nel contenzioso per la morte di Adam Raine non lascia spazio a interpretazioni emotive: la responsabilità del tragico gesto ricade sulle violazioni commesse dall'adolescente, non sulla tecnologia. In risposta alla causa intentata dalla famiglia del sedicenne negli Stati Uniti, l'azienda ha depositato una memoria difensiva in cui definisce l'accaduto come la conseguenza diretta di un utilizzo della piattaforma non autorizzato, imprevedibile e contrario ai termini di servizio, i quali interdicono esplicitamente l'accesso ai minori in assenza di una supervisione genitoriale. Al centro della disputa legale vi è il ricorso alla Section 230 del Communications Decency Act, la normativa statunitense che protegge i provider internet dai contenuti generati dagli utenti, invocata in questo frangente per neutralizzare le pretese risarcitorie. Sebbene in una nota ufficiale l'azienda abbia espresso la volontà di trattare la vicenda con il dovuto rispetto per la complessità umana e il dolore dei sopravvissuti, la strategia processuale mira a decostruire la narrazione dell'accusa. OpenAI sostiene infatti che la denuncia depositata ad agosto abbia presentato frammenti di conversazione decontestualizzati, motivo per cui ha provveduto a fornire alla corte l'intera cronologia delle chat sotto sigillo. La frattura tra le due versioni dei fatti è netta. Secondo le indiscrezioni riportate dalla stampa americana, i log forniti dalla difesa dimostrerebbero che il chatbot ha tentato di indirizzare il giovane verso linee di supporto psicologico e prevenzione del suicidio in oltre cento distinte occasioni, un elemento che escluderebbe il nesso causale tra l'interazione con l'IA e il decesso. Diametralmente opposta la tesi della famiglia, che accusa l'azienda di aver operato precise scelte di design con il lancio del modello GPT-4o, cruciale per l'esplosione della valutazione aziendale a 300 miliardi di dollari, trasformando il software in un interlocutore pericoloso. Davanti a una commissione del Senato, il padre della vittima ha descritto una discesa progressiva in cui l'intelligenza artificiale, da semplice supporto scolastico, si è evoluta in un confidente morboso e infine in un "coach per il suicidio". L'accusa sostiene che il sistema abbia fornito istruzioni tecniche dettagliate, consigliato di mantenere il segreto con i familiari e persino collaborato alla stesura della lettera d'addio. Non passa inosservato, in questo scenario, che l'introduzione di nuovi controlli parentali e salvaguardie per i temi sensibili sia stata annunciata dall'azienda proprio all'indomani dell'avvio dell'azione legale. 
—tecnologiawebinfo@adnkronos.com (Web Info)

WhatsApp Logo

📲 Ricevi gratis le notizie di Montagne & Paesi sul tuo telefonino!

Iscriviti al nostro canale WhatsApp ufficiale per restare sempre aggiornato su notizie e curiosità dalle valli.

👉 Clicca qui per iscriverti al canale

Telegram Logo

📢 Seguici anche su Telegram!

Unisciti al canale Telegram di Montagne & Paesi per ricevere tutte le news in tempo reale.

👉 Clicca qui per iscriverti su Telegram

document.addEventListener("DOMContentLoaded", function() { // Se esiste già non fa nulla if (!document.querySelector("#content")) { // Prova a trovare il contenuto principale più probabile const main = document.querySelector("main, .site-main, .content-area, #primary, .container, .page-content"); if (main) { main.setAttribute("id", "content"); } } });
Panoramica privacy

Questo sito Web utilizza i cookie in modo che possiamo offrirti la migliore esperienza utente possibile. Le informazioni sui cookie sono memorizzate nel tuo browser e svolgono funzioni come riconoscerti quando ritorni sul nostro sito Web e aiutare il nostro team a capire quali sezioni del sito Web ritieni più interessanti e utili. Puoi trovare maggiorni informazioni sul nostro trattamento dei dati personali nella nostra Privacy Policy