Instagram introduce un nuovo strumento di tutela per gli adolescenti e le loro famiglie. La piattaforma ha lanciato una funzione che avvisa i genitori quando i figli minorenni effettuano ricerche ripetute su temi sensibili, come suicidio e autolesionismo. La novità è già attiva negli Stati Uniti, nel Regno Unito, in Australia e in Canada e dovrebbe essere estesa entro l’anno ad altri Paesi, tra cui l’Italia.
La misura si inserisce in un contesto internazionale in cui cresce il dibattito sui limiti di accesso ai social per i minori. L’Australia ha recentemente introdotto il divieto per gli under 16, mentre in Francia è stato approvato un disegno di legge che punta a vietare l’uso dei social ai minori di 15 anni. In Italia sono state presentate proposte simili in Parlamento.
La novità di Instagram consiste in un sistema di notifica proattiva rivolto ai genitori, che si attiva non al primo tentativo di ricerca, ma in presenza di ricerche ripetute su parole chiave considerate critiche. Si tratta, secondo gli osservatori, di un cambio di approccio rispetto al passato: finora le piattaforme si erano limitate a bloccare determinati contenuti o a mostrare risorse di supporto, senza coinvolgere direttamente le famiglie.
Le notifiche verranno inviate tramite e-mail, sms o WhatsApp, in base ai contatti associati all’account, oltre a comparire all’interno dell’app. Una volta aperto l’avviso, i genitori accederanno a una sezione dedicata con linee guida e indicazioni elaborate con il contributo di esperti, pensate per aiutare ad affrontare il tema con i figli in modo consapevole.
Il sistema punta a intercettare segnali di disagio prima che si trasformino in situazioni più gravi, cercando un equilibrio tra protezione e rispetto dell’autonomia adolescenziale. L’alert scatta solo dopo ricerche reiterate, elemento che secondo gli analisti suggerisce la volontà di evitare una sorveglianza invasiva e di intervenire solo in presenza di potenziali indicatori di sofferenza reale.
Il tema si intreccia con lo sviluppo dell’intelligenza artificiale. Meta sta lavorando a notifiche analoghe anche per alcune interazioni con il chatbot Meta AI. L’obiettivo è informare i genitori qualora gli adolescenti tentino di avviare conversazioni legate a suicidio o autolesionismo attraverso l’assistente virtuale.
L’estensione degli alert alle chat con l’intelligenza artificiale riflette l’evoluzione delle abitudini digitali dei più giovani, che sempre più spesso si rivolgono ai chatbot per cercare risposte o confidare difficoltà personali. Negli Stati Uniti, tuttavia, il tema è al centro di contenziosi giudiziari: diverse azioni legali accusano alcune aziende tecnologiche di aver sviluppato strumenti potenzialmente coinvolgenti o privi di adeguate misure di protezione per i minori.
La nuova funzione di Instagram si colloca quindi in un quadro complesso, tra richieste di maggiore regolamentazione e tentativi delle piattaforme di rafforzare gli strumenti di sicurezza interna. Il confronto tra tutela dei minori, responsabilità delle aziende tecnologiche e diritto all’autonomia digitale resta aperto, mentre i social network cercano soluzioni per rispondere alle preoccupazioni delle famiglie e delle istituzioni.