Categories: Tecnologia

ChatGPT introduce il contatto fidato: l’AI avvisa chi può aiutarti in situazioni di rischio

Quando ChatGPT intercetta segnali preoccupanti, come pensieri suicidi o comportamenti autolesionisti, può ora allertare una persona di fiducia scelta dall’utente. Si chiama “trusted contact” ed è la nuova funzione che l’intelligenza artificiale ha appena introdotto per affrontare temi delicati. Non è una novità assoluta: già esisteva per gli adolescenti, ma ora viene estesa anche agli adulti. Può essere un familiare, un amico o chiunque si prenda cura del benessere della persona. L’aggiornamento sarà disponibile in tutto il mondo, seppur con un lancio graduale paese per paese.

Trusted contact: un passo avanti nella sicurezza di ChatGPT

Il trusted contact si inserisce tra le nuove precauzioni adottate da OpenAI per proteggere chi usa ChatGPT. È una risposta concreta alle preoccupazioni nate da alcuni fatti di cronaca e controversie legali, dove incidenti tragici sono stati legati, anche se non completamente, a un uso inadeguato dell’intelligenza artificiale. Con questo strumento, OpenAI vuole offrire un aiuto umano immediato e qualificato, quando l’AI riconosce segnali di crisi.

Il punto chiave è la fiducia: l’utente sceglie una persona di riferimento, consapevole che in situazioni delicate questa figura sarà contattata per intervenire. La tecnologia monitora le conversazioni, ma entra in gioco solo in casi precisi, evitando falsi allarmi. Questa novità fa parte di un più ampio sforzo di OpenAI per rendere più responsabili le risposte dell’intelligenza artificiale.

Come funziona il trusted contact per gli adulti

La funzione per indicare un trusted contact è riservata agli adulti, mentre i minori già dispongono di un meccanismo simile. Il sistema analizza i contenuti delle chat su ChatGPT, cercando segnali che possano far pensare a uno stato di crisi o a un’emergenza psicologica. Al superamento di questa soglia, viene inviato un avviso alla persona di fiducia designata.

La scelta del contatto è libera: un parente stretto, un amico di lunga data o un caregiver. È fondamentale che sia qualcuno vicino all’utente, in modo che l’intervento sia rapido e mirato. Il trusted contact non può leggere le conversazioni, ma riceve solo la notifica del possibile rischio, per attivarsi concretamente sul piano umano e pratico.

La diffusione della funzione avverrà gradualmente in tutto il mondo, dando priorità ai mercati dove serve di più, sempre rispettando le regole sulla privacy e la sicurezza adottate da OpenAI. Tutto viene gestito nel pieno rispetto delle leggi vigenti sulla protezione dei dati personali.

Aspetti legali e sociali della nuova misura di OpenAI

L’introduzione del trusted contact nasce non solo da motivi tecnici, ma anche da un contesto sociale e normativo complesso. Negli ultimi tempi, diversi casi di cronaca hanno mostrato come l’interazione con chatbot possa diventare un problema, soprattutto per chi è vulnerabile sul piano psicologico. Nel 2024 sono aumentate le cause legali in cui OpenAI e altre aziende del settore sono state chiamate a rispondere per fatti tragici collegati a un uso scorretto dell’intelligenza artificiale.

Con questa mossa, l’azienda americana vuole ridurre la propria esposizione legale inserendo un sistema che integra un supporto umano attivabile in caso di allerta. Grazie al trusted contact, responsabilità e aiuto diventano condivisi: l’intelligenza artificiale resta uno strumento di analisi e segnalazione, mentre l’intervento concreto passa a persone reali, vicine all’utente.

Dal punto di vista sociale, questa novità risponde a un bisogno crescente di assistenza immediata nelle situazioni di disagio mentale, soprattutto in un’epoca in cui le relazioni digitali spesso sostituiscono i contatti diretti. Potrebbe anche aprire la strada a nuove idee per migliorare le interfacce tra uomo e macchina, puntando sempre più alla tutela e al benessere.

Questa soluzione si inserisce in un quadro più ampio di responsabilità digitale, sottolineando l’importanza di progettare e gestire le AI con attenzione alla sicurezza psicologica degli utenti. OpenAI punta così a rafforzare la fiducia nel proprio prodotto, proponendo un modello che unisce intelligenza artificiale e supporto umano nei momenti più critici.

Redazione

Recent Posts

Torta Fragole e Cioccolato Bianco: Ricetta Facile e Golosa per un Dolce Perfetto

Quando fragole e cioccolato bianco si incontrano in una torta, il risultato è un equilibrio…

29 minuti ago

OnePlus Nord CE6 Lite: smartphone economico con tante rinunce, scopri prezzo e caratteristiche

In India, OnePlus ha appena presentato la nuova famiglia Nord CE6, e la sorpresa è…

20 ore ago

Mercato tablet 2026: Apple domina, Samsung fatica a tenere il passo

Apple non lascia scampo nel mercato tablet nemmeno nei primi mesi del 2026. Il dato…

21 ore ago

Mini Cheesecake con Frutta Secca e Cioccolato: Ricetta Facile e Golosa per Dolci Perfetti

Basta un quarto d’ora in cucina per sfornare un dolce che conquista al primo sguardo.…

2 giorni ago

iPhone Ultra: il primo pieghevole Apple con design rivoluzionario dentro e fuori

Apple sta per rivoluzionare il concetto di smartphone pieghevole. A sentire le ultime voci, il…

2 giorni ago

Tesla Model 3 a meno di 25.000 euro: come il Canada aggira i dazi e offre il prezzo migliore

In Canada, una Tesla Model 3 Premium con trazione posteriore e un’autonomia di 463 chilometri…

2 giorni ago