Instagram avvisa i genitori se i figli cercano temi legati al suicidio
Quando un figlio adolescente passa molto tempo su Instagram, capire cosa stia vivendo davvero non risulta sempre immediato. Per questo Meta sta introducendo un nuovo sistema di notifiche pensato per segnalare ai genitori alcuni segnali di possibile disagio.
Nel mirino finiscono in particolare le ricerche legate a suicidio e autolesionismo, temi che la piattaforma già tratta con regole specifiche. Il nuovo meccanismo punta a coinvolgere in modo più diretto la famiglia, offrendo strumenti e risorse per affrontare conversazioni che spesso risultano complesse.
Vuoi ascoltare il riassunto dell’articolo?
Come funzionano le nuove notifiche di Instagram

Nelle prossime settimane Instagram inizierà a inviare un avviso ai genitori che hanno attivato la supervisione dell’account dei figli adolescenti. La notifica scatterà quando un ragazzo tenterà ripetutamente, in un breve intervallo di tempo, di cercare termini collegati a suicidio o autolesionismo.
Il sistema considera sia parole chiave esplicite, come “suicidio” o “autolesionismo”, sia frasi che indicano l’intenzione di farsi del male. Non si tratta quindi di un singolo episodio isolato, ma di una sequenza di ricerche ravvicinate che fa scattare il criterio definito da Meta.
Gli avvisi arriveranno ai genitori tramite e-mail, SMS o WhatsApp, a seconda dei contatti disponibili, oltre che come notifica all’interno dell’app di Instagram. Toccando la notifica si aprirà un messaggio a schermo intero che spiega che l’adolescente ha tentato più volte di cercare contenuti collegati a suicidio o autolesionismo in un breve lasso di tempo.
All’interno di questo messaggio i genitori troveranno anche risorse sviluppate con il contributo di esperti, pensate per aiutarli ad affrontare una conversazione delicata con i figli. L’obiettivo dichiarato consiste nel fornire indicazioni concrete su come parlare di questi temi senza improvvisare e senza minimizzare eventuali segnali.
Queste notifiche saranno disponibili inizialmente per chi utilizza gli strumenti di supervisione di Instagram in Stati Uniti, Regno Unito, Australia e Canada. Meta prevede di estendere la funzione ad altri Paesi nel corso dell’anno, senza indicare ancora una data precisa per ogni area.
Il criterio scelto da Meta e il ruolo degli esperti

Meta dichiara di voler mettere i genitori nelle condizioni di intervenire quando le ricerche dei figli suggeriscono un possibile bisogno di supporto, evitando però un flusso eccessivo di segnalazioni.
Un numero troppo alto di avvisi rischierebbe infatti di ridurne l’efficacia.
Per definire la soglia che fa scattare la notifica, l’azienda ha analizzato le modalità di ricerca su Instagram e si è confrontata con il proprio Suicide and Self-Harm Advisory Group, un gruppo di esperti che segue le politiche su suicidio e autolesionismo. Da questo lavoro è nato un criterio basato su più ricerche in un arco di tempo ristretto, con un approccio descritto come orientato alla cautela.
Meta riconosce che, con questa impostazione, in alcuni casi i genitori potrebbero ricevere un avviso anche senza un motivo concreto di preoccupazione. L’azienda considera però questa scelta preferibile nella fase attuale e afferma che continuerà a monitorare l’impatto della misura, ascoltando il riscontro di famiglie ed esperti per eventuali aggiustamenti.
Le altre misure di sicurezza già attive su Instagram

Meta ricorda che la maggior parte degli adolescenti non cerca contenuti legati a suicidio o autolesionismo su Instagram. Quando ciò accade, le policy della piattaforma prevedono già il blocco di queste ricerche e il reindirizzamento verso risorse e linee di aiuto dedicate.
La società dichiara di applicare politiche specifiche contro i contenuti che incoraggiano o normalizzano suicidio e autolesionismo. Allo stesso tempo, consente alle persone di condividere il proprio vissuto su questi temi, ma nasconde tali contenuti agli utenti adolescenti, anche se provengono da profili che seguono abitualmente.
Quando una ricerca contiene termini chiaramente collegati a suicidio o autolesionismo, Instagram non mostra risultati e propone invece collegamenti a servizi di supporto e a realtà locali in grado di offrire aiuto. Se la ricerca esprime più in generale un forte disagio psicologico, la piattaforma mostra comunque strumenti e contatti utili.
Nei casi in cui emergono elementi che fanno temere un rischio imminente per l’incolumità di una persona, Meta afferma di attivare i servizi di emergenza. Secondo l’azienda, questo tipo di intervento ha già contribuito nel tempo a salvare vite, anche se non vengono forniti numeri o dettagli aggiuntivi.
Cosa cambia con l’intelligenza artificiale
Meta segnala che molti adolescenti cercano informazioni o supporto su temi delicati anche attraverso i propri sistemi di intelligenza artificiale.
L’azienda sostiene di aver già progettato queste AI per offrire risposte adeguate ai più giovani e per proporre, quando necessario, risorse di aiuto dedicate.
Su questa base, Meta sta sviluppando notifiche analoghe a quelle delle ricerche su Instagram anche per alcune esperienze che coinvolgono l’AI. L’idea consiste nell’informare i genitori quando i figli adolescenti tentano di avviare con l’intelligenza artificiale conversazioni legate a suicidio o autolesionismo.


Si tratta di un ambito che la società definisce bisognoso di particolare attenzione e responsabilità. Meta prevede di continuare a lavorare su questo fronte e di condividere ulteriori aggiornamenti nei prossimi mesi, senza entrare per ora nei dettagli operativi.
Nel complesso, queste novità mostrano come la gestione del benessere mentale online stia diventando un terreno sempre più strutturato, in cui piattaforme, famiglie ed esperti si trovano a collaborare per interpretare segnali spesso sottili ma potenzialmente decisivi.
Source link







