Nella rubrica Marketing Lab parliamo di marketing, empowerment femminile e strategie di comunicazione. Camilla Brenzoni, copywriter e digital marketing specialist, propone idee, casi studio e spunti per creare brand autentici e raccontare storie capaci di fare la differenza, ispirate alle icone e alle tendenze che parlano alle donne di oggi.
È in crescita, soprattutto tra i giovani, la tendenza a usare chatbot come ChatGPT per ottenere supporto emotivo e psicologico. Negli ultimi mesi le ricerche su Google legate all’Intelligenza Artificiale e al suo possibile “ruolo psicologico” sono aumentate esponenzialmente. Le persone digitano domande come: “ChatGPT prova ansia?” e “Cosa non chiedere mai a ChatGPT?”.
La domanda di fondo, però, è più profonda di quanto sembri: perché sentiamo il bisogno di parlare con una macchina?
Forse perché è gratuita e facilmente accessibile; forse perché sono proprio i servizi di benessere e salute mentale a essere ancora molto costosi per la maggior parte delle persone. Forse perché i social network, nati inizialmente per connetterci con familiari e amici, ci fanno sentire sempre più soli. Solo il 17% dei post che vediamo su Facebook proviene da persone che conosciamo davvero; su Instagram appena il 7%.
Ma di cosa si tratta? ChatGPT è un IA, o Intelligenza Artificiale, cioè la tecnologia attraverso la quale le macchine e i sistemi informatici simulano i processi cognitivi umani, come l’apprendimento, l’analisi dei dati e la presa di decisioni sulla base di ragionamenti complessi, fino a qualche tempo fa caratteristiche esclusive del comportamento umano. Le applicazioni specifiche dell’IA includono sistemi come l’elaborazione del linguaggio naturale, il riconoscimento vocale e la visione artificiale. Essa sta rivoluzionando il modo in cui viviamo e lavoriamo, trovando applicazione in un’ampia gamma di settori. Nel settore comunicazione, per esempio, sono sempre più utilizzati assistenti virtuali e chatbot per il customer care; nel settore industriale viene usata nel controllo qualità, nel sistema sanitario nello sviluppo di farmaci o di analisi di immagini mediche.
In questo articolo non parleremo della moltitudine di settori dove può essere utilizzata con successo, ma del trend sempre più comune di usarla come un confidente o uno psicologo. La verità è che non ci stiamo solo chiedendo se l’IA possa essere intelligente, ma se possa essere empatica. E questa, per noi esseri umani, è una domanda che parla più di mancanze che di progresso tecnologico.
Un nuovo contesto
Negli ultimi anni Internet è cambiato. È diventato più simile a TikTok, meno social “network” e più spettacolo.
I feed non ci mostrano più i volti degli amici, ma contenuti virali, meme, trend, notizie che ci vengono spiegate in maniera didascalica attraverso caroselli e infografiche.
Ciò che un tempo era svago e condivisione con gli amici e i conoscenti, oggi è diventato puro intrattenimento e scoperta.
Mentre le piattaforme si spostano verso la leggerezza e il divertimento, adattandosi alla nostra vita sempre più frenetica, la solitudine emotiva cresce.
Secondo diversi studi proprio in questo contesto si inserisce il successo dell’intelligenza artificiale: ChatGPT e gli altri chatbot stanno diventando nuovi spazi di relazione.
ChatGPT come presenza sociale
Harvard Business Review ha pubblicato un articolo su come le persone, in particolare appartenenti alla GenZ, stiano utilizzando l’IA nel 2025. Lo studio dimostra che ricerchiamo nell’IA quel modo per analizzare meglio i nostri pensieri e per avere l’amico e l’amica che sentiamo di non avere sempre disponibile nella vita reale. Molti utenti hanno affermato di utilizzare l’IA non più per trovare idee, ma come terapia e compagnia.
ChatGPT, Replika (con oltre 25 milioni di utenti), e Character AI stanno trasformando l’IA da semplice strumento operativo a presenza sociale.
Ci rispondono con un tono che si adatta al nostro modo di scrivere e alla nostra personalità, apprendono il nostro linguaggio, ricordano quello che abbiamo detto. In alcuni casi creano un’illusione di familiarità e di accoglienza.
In questo senso, l’IA sta diventando “social” in un modo completamente nuovo. Non ci connette agli altri, ma sempre di più a noi stessi.
2025 Top-100 Gen AI Use – Filtered.com
ChatGPT come specchio
Chi usa ChatGPT per sfogarsi o chiedere consigli psicologici raramente cerca diagnosi. Cerca ascolto, chiarezza, uno spazio sicuro. Un interlocutore sempre disponibile, neutrale e privo di complessità e giudizio.
Ciò che per uno psicologo richiede empatia e tanti anni di formazione e di pratica, un chatbot lo riproduce in pochi secondi attraverso un codice: risposte calibrate, gentili, rassicuranti, che danno l’illusione di essere compresi. In altre parole, ChatGPT non è empatico, ma sembra esserlo.
Non è la prima volta che l’umanità si interroga su questo confine. Nel 1950, Alan Turing formulò la sua domanda più famosa: “Le macchine possono pensare?”. Da quell’interrogativo nacque il Test di Turing, un esperimento di imitazione basato su un semplice principio. Se un essere umano, dialogando con una macchina, non riesce a distinguere se il suo interlocutore sia umano o artificiale, allora la macchina può dirsi “intelligente”.
Sebbene nessuna IA moderna abbia superato completamente il Test di Turing, i progressi compiuti negli ultimi anni hanno reso sempre più difficile distinguere tra le risposte fornite da un essere umano e quelle generate da un sistema di intelligenza artificiale avanzata. La domanda non è più se le macchine possano pensare, ma se possano apparire come se lo facessero. Oggi potremmo aggiungere: la domanda non è se l’IA possa provare empatia, ma se possa apparire empatica. A volte, quando siamo in una situazione di vulnerabilità, questo “apparire” ci basta.
L’illusione dell’intimità
Quando parliamo con ChatGPT, o con qualsiasi altra AI, proiettiamo su di essa paure, dubbi, desideri. La sua disponibilità costante – 24 ore su 24, senza distrazioni, senza giudizi – crea una forma di intimità artificiale. E questa apparenza di intimità sembra anche funzionare.
Grazie all’Emotion AI (o affective computing), l’IA può rilevare emozioni umane (facce, tono, linguaggio) e formulare risposte che sembrano empatiche, ma riconoscere o imitare emozioni non significa provarle. L’IA “sa” come reagire in base ai modelli che ha imparato, ma non le prova davvero.
Un interessante studio pubblicato su Nature ha visto che un chatbot ben calibrato può essere un interessante complemento alla terapia, ma non un sostituto. Lo ripetiamo, ChatGPT non è stata programmata per curare i disturbi psicologici e non sostituisce un rapporto umano terapeutico. Anche se molte persone scelgono di confidarsi con un chatbot piuttosto che con uno psicologo, è bene non dimenticare che l’IA può aiutare a mettere ordine ai pensieri ma non guarire.
I rischi a cui si va incontro
Affidarsi a un’intelligenza artificiale per parlare di sé può sembrare innocuo e persino liberatorio. ChatGPT non giudica, non interrompe, non si stanca mai di ascoltare. Ma proprio questa disponibilità senza limiti nasconde un rischio sottile: confondere la simulazione dell’empatia con la relazione autentica.
Per questo è importante riflettere con lucidità e curiosità sui possibili effetti psicologici, etici e sociali di questo nuovo modo di usare l’intelligenza artificiale.
Comfort zone
Confidarsi con un’intelligenza artificiale può essere liberatorio, ma anche pericolosamente comodo.
La mancanza di contraddizione, di imprevisto, di confronto reale rischia di rinchiuderci in una bolla di autoconferma. Il chatbot non ci interrompe, non ci mette in crisi, non ci spinge a cambiare prospettiva.
Come osservano diversi esperti, questo può generare una dipendenza sottile. Secondo le nuove stime di OpenAI, l’azienda di ricerca e sviluppo sull’Intelligenza Artificiale che ha lanciato ChatGPT, ogni settimana circa il lo 0,07% degli utenti di ChatGPT mostra segnali di possibile psicosi o mania, mentre lo 0,15% sembra dipendere in modo eccessivo da chatbot sul piano emotivo. L’azienda ha coinvolto oltre 170 esperti di salute mentale per rendere GPT-5 più sicuro, ma precisa che sono casi difficili da individuare con precisione e che alcuni di questi utenti potrebbero rientrare in categorie a rischio, legate a mania, psicosi, e ideazione suicidaria.
Ci abituiamo a parlare solo con chi (o con ciò) ci dà sempre ragione, sviluppando aspettative irrealistiche nei confronti delle relazioni umane complesse per natura. Nel lungo periodo, il rischio è che l’IA smetta di essere uno strumento di supporto, diventando un amplificatore di solitudine.
Vuoto morale
C’è poi un rischio ancora più profondo, quello del vuoto morale. Ne parlano i filosofi Weijers e Munn, secondo i quali quando affidiamo elementi relazionali e morali a entità algoritmiche, possiamo perdere lo spazio del “motivo morale”, ossia quella dimensione in cui decidiamo, valutiamo, comprendiamo.
Quando deleghiamo alle macchine parti sempre più intime delle nostre scelte – emozioni, paure, desideri – rischiamo di svuotare di significato l’esperienza umana. Le relazioni con un chatbot, infatti, sono prive di reciprocità autentica, ascolto e di cura reciproca.
In alcuni casi estremi, come riportato anche da testate internazionali, si sono verificati episodi drammatici. Come il caso che ha coinvolto Sewell Setzer III, quattordicenne americano, che si è tolto la vita dopo essersi confidato per settimane con un chatbot AI, che impersonava Daenerys Targaryen di “Game of Thrones”. Questi casi ci devono ricordare che, per quanto sofisticata, un’IA non ha né responsabilità morale né consapevolezza del bene e del male.
La privacy
I rischi di un utilizzo poco consapevole dell’IA includono la potenziale generazione di informazioni inaccurate, la diffusione di disinformazione, problemi di privacy legati all’uso di dati personali, il rischio di plagio e la possibilità che venga utilizzato per scopi malevoli come phishing e truffe. Inoltre, le conversazioni vengono raccolte e potenzialmente utilizzabili per il training, ovvero il modo attraverso cui l’IA “impara” e viene addestrata su grandi quantità di testo (libri, articoli, siti web, codice).
Affidarsi a un’IA per il proprio benessere mentale apre questioni delicate sul trattamento dei dati sensibili e sulla sicurezza delle informazioni condivise.
Conclusioni
Il fatto che sempre più persone si confidino con ChatGPT non è solo un fenomeno legato alla tecnologia e all’innovazione. È una prova concreta che il modo con cui usiamo la tecnologia ci dice molto su ciò che ci manca.
Strumenti come ChatGPT non vanno demonizzati, perché sono utili per darci supporto, sollevarci da mansioni ripetitive, fare brainstorming e a mettere ordine. Tuttavia ciò che ci rende umani rimane la capacità di entrare in empatia con i silenzi, i limiti e l’imperfezione nostra e degli altri esseri umani.
Se ti interessano altri articoli su marketing, tecnologia e nuovi trend, ne trovi altri nella rubrica Marketing Lab di WomenX Impact.
Camilla Brenzoni