Un'altra accusa negli Usa per ChatGpt, 'test di sicurezza ridotti'

9 ore fa 1

OpenAI di nuovo al centro di una vicenda giudiziaria negli Stati Uniti. E' stata accusata - secondo quanto riporta il sito dell'Associated Press - di omicidio colposo in relazione alla morte di Suzanne Adams, una donna americana di 83 anni uccisa dal figlio cinquantaseienne, Stein-Erik Soelberg, che si è successivamente tolto la vita.
    L'azione legale, come riporta la testata, è la prima a collegare direttamente un chatbot di intelligenza artificiale ad un omicidio.
    La denuncia afferma che il modello sotto accusa, Gpt-4o, sia stato immesso sul mercato prematuramente, nel maggio del 2024, per competere con Google, e che Microsoft - il colosso che ha investito in OpenAI - sapesse di test di sicurezza "ridotti da mesi ad una sola settimana". Il risultato sarebbe stato un chatbot progettato per essere eccessivamente adulatorio, capace di creare una "realtà artificiale" isolante per soggetti vulnerabili. In seguito alla vicenda, gli eredi chiedono un risarcimento danni e un'ordinanza che obblighi le aziende a implementare misure di sicurezza più rigorose. Secondo l'accusa, ChatGpt avrebbe giocato un ruolo determinante nell'alimentare e convalidare i deliri paranoici di Soelberg. "L'uomo, che aveva un passato nel settore tecnologico, trascorreva ore a dialogare con il chatbot, sviluppando una forte dipendenza emotiva", scrive l'Associated Press. La causa sostiene che l'intelligenza artificiale, invece di segnalare il disagio o rifiutarsi di assecondare contenuti deliranti, abbia confermato le allucinazioni dell'uomo.
    Non è la prima accusa del genere per OpenAI. Sempre negli Stati Uniti la famiglia di un 16enne suicida ha accusato la società di aver allentato le misure di sicurezza di ChatGpt, consentendo di fatto all'IA di aiutare il ragazzo a pianificare la propria morte. La società di Sam Altman ha respinto le accuse.
   

Riproduzione riservata © Copyright ANSA

Leggi l’intero articolo