Nel mondo digitale basta poco per trasformare una piattaforma in un caso globale. A volte è una nuova funzione, altre volte un errore di comunicazione. Questa volta è stata una decisione strategica.
Negli ultimi giorni sui social è esploso il fenomeno “Cancel ChatGPT”, un movimento nato dopo la notizia dell’accordo tra OpenAI e il Dipartimento della Difesa degli Stati Uniti per l’utilizzo dei modelli di intelligenza artificiale in reti militari classificate.
La reazione degli utenti è stata immediata.
Secondo diverse piattaforme di monitoraggio delle app, le disinstallazioni di ChatGPT sono aumentate fino al 295% in un solo giorno, mentre le recensioni negative sull’App Store sono cresciute del 775% nel giro di un weekend. Parallelamente, il chatbot concorrente Claude, sviluppato da Anthropic, è balzato al primo posto tra le app gratuite negli Stati Uniti e ha registrato un aumento dei download fino all’88%.
Ma la vera domanda non è tecnologica.
È di marketing.
Quando l’etica diventa brand reputation
OpenAI ha costruito negli anni un posizionamento molto chiaro: tecnologia avanzata al servizio dell’umanità. Una narrativa potente, che ha contribuito alla crescita rapidissima di ChatGPT e alla sua diffusione globale.
L’annuncio dell’accordo con il Pentagono ha però incrinato quella percezione. Non tanto per la collaborazione con il settore militare — pratica comune per molte aziende tecnologiche — quanto per la distanza tra immagine pubblica e decisioni strategiche.
Nel marketing questo fenomeno ha un nome preciso: brand dissonance.
Quando ciò che un’azienda dice di essere e ciò che fa sembrano divergere, il pubblico reagisce.
Nel caso di ChatGPT, la reazione è stata amplificata dalla natura stessa dei social: in poche ore sono nati thread su Reddit, hashtag su X e guide online che spiegavano passo dopo passo come esportare le conversazioni e cancellare l’account.
Il movimento #QuitGPT ha superato rapidamente milioni di interazioni.
Il caso Claude: quando la reputazione diventa strategia
Mentre OpenAI affrontava la tempesta mediatica, il principale beneficiario della situazione è stato Anthropic, l’azienda che sviluppa Claude.
Il CEO Dario Amodei aveva infatti dichiarato di aver rifiutato alcune condizioni proposte dal Dipartimento della Difesa statunitense, citando possibili rischi legati a sorveglianza di massa e armi autonome basate su AI.
Questa posizione ha trasformato Claude, quasi da un giorno all’altro, in un simbolo di “AI più etica”.
Nel marketing digitale si tratta di un classico effetto di mercato: quando un brand entra in crisi reputazionale, il pubblico non smette semplicemente di usarlo.
Cerca un’alternativa che rappresenti i valori opposti.
Ed è esattamente ciò che è accaduto.
Il vero tema: fiducia
Al di là delle polemiche, il caso ChatGPT–Claude racconta qualcosa di molto più profondo sull’economia dell’intelligenza artificiale.
L’AI non è solo una tecnologia. È una relazione di fiducia.
Milioni di persone usano questi strumenti per scrivere, studiare, lavorare, programmare o prendere decisioni. Nel tempo, i chatbot accumulano informazioni su abitudini, preferenze, stile di scrittura e processi mentali degli utenti.
Quando un servizio raggiunge questo livello di integrazione nella vita quotidiana, ogni scelta strategica dell’azienda diventa automaticamente una questione di reputazione pubblica.
Per questo motivo la crisi di immagine di ChatGPT non riguarda soltanto OpenAI. È il primo vero esempio di “reputational shock” nell’economia dell’AI generativa.
Tra indignazione social e realtà
Va però detto che le proteste online non sempre riflettono l’intero mercato. L’indignazione digitale tende spesso a essere amplificata dagli algoritmi delle piattaforme social, dove i contenuti più polarizzanti ottengono maggiore visibilità.
Molti utenti continuano infatti a utilizzare ChatGPT quotidianamente, e OpenAI resta una delle aziende più influenti nel settore dell’intelligenza artificiale.
Tuttavia il segnale è chiaro.
Per la prima volta nella breve storia dell’AI generativa, gli utenti non stanno scegliendo un chatbot solo per le sue capacità tecniche, ma anche per le sue implicazioni etiche e politiche.
Il marketing dell’AI è appena iniziato
Il caso “Cancel ChatGPT” mostra come il futuro dell’intelligenza artificiale non sarà determinato soltanto da algoritmi più potenti.
Sarà determinato da tre fattori:
fiducia
reputazione
narrazione pubblica
In altre parole, il vero campo di battaglia dell’AI non è solo tecnologico.
È comunicativo.
E nel mercato digitale di oggi, dove milioni di utenti possono cambiare piattaforma in pochi minuti, una decisione aziendale può trasformarsi — nel giro di una notte — in un movimento globale.