ChatGPT Trusted Contact: come funziona la nuova funzione di sicurezza
ChatGPT non è solo un assistente per rispondere a domande o scrivere codice: sempre più spesso diventa uno spazio in cui le persone elaborano momenti difficili, dubbi personali, stati d’animo pesanti. OpenAI lo sa, e ha deciso di fare qualcosa di concreto per chi si trova in una situazione di crisi durante una conversazione con l’AI.
Si chiama Trusted Contact ed è una nuova funzione opzionale di ChatGPT, già in fase di distribuzione, che permette agli adulti di designare una persona di fiducia, un amico, un familiare, un caregiver, che può ricevere una notifica automatica se i sistemi di OpenAI rilevano segnali preoccupanti legati all’autolesionismo.
Vuoi ascoltare il riassunto dell’articolo?
Come funziona Trusted Contact
Il meccanismo è più articolato di un semplice alert automatico, e questo è un dettaglio importante. Dalle impostazioni di ChatGPT è possibile aggiungere un contatto di fiducia (maggiorenne, 19 anni in Corea del Sud) che riceve un invito e deve accettarlo entro una settimana perché la funzione diventi attiva. Se rifiuta, si può scegliere qualcun altro.
Quando i sistemi automatici rilevano una conversazione potenzialmente preoccupante legata all’autolesionismo, ChatGPT avvisa prima l’utente stesso, suggerendogli anche come iniziare la conversazione con il suo contatto di fiducia. Solo dopo interviene un team di revisori umani appositamente formati: se confermano la preoccupazione, il contatto riceve una notifica via email, SMS o notifica in-app se ha un account ChatGPT.
La notifica è volutamente limitata: indica solo che l’argomento dell’autolesionismo è emerso in modo preoccupante e invita il contatto a farsi sentire. Non include trascrizioni né dettagli della conversazione, per tutelare la privacy dell’utente. OpenAI punta a completare la revisione umana entro un’ora dalla segnalazione, anche se ammette che nessun sistema è perfetto. Sia l’utente che il contatto possono rimuoversi dalla funzione in qualsiasi momento.
Vale la pena notare che Trusted Contact si affianca alle linee di ascolto locali già presenti in ChatGPT e ai controlli parentali già disponibili per gli account dei minorenni: non le sostituisce, ma aggiunge un livello di supporto umano e personale che quelle non possono offrire.

Perché ha senso (e dove rimangono i dubbi)
La logica alla base di Trusted Contact è solida: la ricerca psicologica indica che il contatto sociale è uno dei fattori protettivi più efficaci contro il rischio di suicidio. Designare in anticipo una persona di fiducia, quando si sta bene, abbassa la soglia per chiedere aiuto quando invece si sta male. OpenAI ha sviluppato la funzione con il contributo di oltre 260 medici in 60 paesi e dell’American Psychological Association, quindi non si tratta di un’iniziativa improvvisata.
Detto questo, qualche riserva è legittima. Il sistema si basa su rilevamento automatico del testo, una tecnologia che per sua natura può sbagliare, sia in eccesso (falsi positivi che generano notifiche non necessarie) che in difetto (situazioni reali non intercettate). OpenAI lo riconosce esplicitamente, il che è onesto, ma non risolve il problema. C’è poi la questione della privacy percepita: sapere che ChatGPT potrebbe avvisare qualcuno potrebbe portare alcune persone a non aprirsi affatto, vanificando l’effetto protettivo della funzione.
È un paradosso difficile da risolvere, e nessuna azienda ha ancora trovato la quadratura del cerchio.


Source link









