L'IA è "solo intrattenimento": il disclaimer di Microsoft che vale miliardi

Microsoft definisce Copilot "solo per intrattenimento" nei suoi termini d'uso, mentre il mondo investe trilioni nell'IA. Scopri cosa significa davvero per chi usa questi strumenti

AINEWS

@persona.fra

5/4/20266 min leggere

L'intelligenza artificiale sta trainando l'economia mondiale come nessuna tecnologia prima d'ora. Nella prima metà del 2025, gli investimenti in data center e infrastrutture AI hanno contribuito all'80% dell'aumento della domanda privata interna negli Stati Uniti, secondo S&P Global (1) rispetto al semestre precedente. Senza questa spinta, diversi economisti stimano che il PIL americano sarebbe cresciuto a malapena dello 0,1% annuo (2). Non è una rivoluzione annunciata: è già in corso, con cifre che si contano in centinaia di miliardi di dollari ogni anno.

E nel mezzo di tutto questo, Microsoft, una delle aziende che sta investendo di più su questo fronte, con 80 miliardi di dollari solo nel 2025 in data center dedicati all'IA (3), ha tranquillamente scritto nei termini d'uso del suo prodotto di punta, Microsoft Copilot, la seguente frase, in grassetto e in maiuscolo: "Copilot is for entertainment purposes only" (4).

La stessa dicitura usata dai cartomanti per non finire in tribunale.

Il mondo scommette sull'IA

Capire come funziona davvero il mercato dell'IA richiede di tenere insieme due piani che di solito vengono raccontati separatamente. Il primo è quello degli annunci e delle promesse: rivoluzioni industriali, automazione del lavoro, salti di produttività, modelli che "ragionano meglio di un premio Nobel" (sono parole di Dario Amodei di Anthropic, non nostre). Il secondo è quello legale, dove le stesse aziende si proteggono da qualsiasi responsabilità nel momento in cui le cose vanno storte.

L'errore più comune è pensare che questi due piani siano contraddittori. In realtà, sono perfettamente coerenti dal punto di vista aziendale. Vendi qualcosa come il futuro, ma nei termini d'uso scrivi che non garantisci nulla. Il problema nasce quando un'azienda o un professionista costruisce processi critici su uno strumento che il suo stesso produttore definisce "solo per intrattenimento".

Il caso Copilot è esemplare, ma non isolato. OpenAI, Google e Anthropic hanno tutti clausole simili nei loro termini di servizio: le IA possono sbagliarsi, l'utente è responsabile di verificare gli output, nessuna garanzia di accuratezza (5). La differenza è che nessuna di queste aziende ha usato la formula "entertainment purposes only", che è tecnicamente identica a quella che trovate sul sito tarot.com, nella sezione legale dedicata alle letture dei tarocchi online (6).

Fun fact: la dicitura "for entertainment purposes only" ha una lunga storia nel settore dell'intrattenimento para-psicologico americano, dove è diventata lo standard per proteggere sensitivi e veggenti da cause legali. Vedere Microsoft usare lo stesso approccio per un prodotto che sta integrando in Windows, Outlook, Excel e Teams è, a dir poco, una scelta stilistica notevole.

Quanto costa davvero fidarsi ciecamente

La domanda non è retorica. Ha una risposta numerica.

Secondo un'indagine EY del 2025 sulla Responsible AI, il 99% delle organizzazioni ha dichiarato di aver subito perdite finanziarie legate a rischi dell'IA. Di queste, il 64% ha perso oltre un milione di dollari. La media conservativa si attesta sui 4,4 milioni di dollari per azienda (7).

I modelli più avanzati mostrano tassi di allucinazione tra il 15% e il 52% nelle applicazioni commerciali (7). Reuters, a febbraio 2026, ha confermato che anche i modelli di OpenAI e Google mostrano tassi di allucinazione del 15-20% su query complesse (8). Tradotto in parole povere: un output su cinque potrebbe essere sbagliato.

Il 71% dei CEO e C-suite intervistati dalla Financial Times ha dichiarato di essere riluttante a scalare l'uso dell'IA senza prima risolvere il problema delle allucinazioni (8). Eppure le stesse aziende continuano ad adottarle, spesso senza processi di verifica adeguati.

Il caso Copilot parla chiaro anche sui numeri di adozione: solo il 3,3% degli utenti Microsoft 365 che hanno accesso a Copilot Chat lo ha effettivamente acquistato. Su circa 450 milioni di licenze attive, i sottoscrittori paganti sono 15 milioni. Il Net Promoter Score sull'accuratezza di Copilot era a -24.1 a settembre 2025. E il 44,2% degli utenti che hanno smesso di usarlo ha indicato come motivo principale la sfiducia nelle risposte (4).

Quindi: tutti investono, pochi la usano davvero, e chi la usa spesso non si fida. E Microsoft risponde scrivendo "solo intrattenimento" nei termini legali, salvo poi fare marcia indietro quando la stampa lo scopre, dichiarando che quella dicitura è "legacy language" rimasta dai tempi di Bing Chat e che verrà aggiornata presto (5).

Tre cose da fare adesso, senza drammatizzare

Non stiamo dicendo che l'IA sia inutile o che bisogna smettere di usarla. Ormai è ovunque, e non si può dare la colpa allo strumento ma a chi ha la responsabilità di utilizzarlo. Stiamo dicendo che c'è un gap enorme tra come viene venduta e come funziona davvero, e che quel gap ha un costo concreto.

Prima cosa. Tratta ogni output di un'IA come tratteresti un documento scritto da un tirocinante brillante ma inesperto: utile come punto di partenza, mai come prodotto finito. La differenza tra chi usa l'IA bene e chi la usa male non è nel prompt perfetto, è il processo di verifica dopo, che ti porterà a migliorare il prompt successivo, così come il prossimo output e così via.

Seconda cosa. Prima di integrare uno strumento IA in un processo critico (legale, finanziario, medico, editoriale), leggi i termini d'uso. Davvero. Non per trovare il disclaimer "entertainment only", ma per capire cosa l'azienda garantisce e cosa no, chi è responsabile degli errori e dove finiscono i tuoi dati.

Terza cosa. Non costruire l'intero funnel di lavoro su un singolo strumento IA. La diversificazione non vale solo per gli investimenti finanziari. Se il tuo processo dipende interamente da un modello che domani potrebbe allucinare, aggiornare i termini o cambiare comportamento, stai costruendo su sabbia quell’attività che può durare meno di una risacca.

Il problema non si risolve da solo. Anzi, più l'IA viene integrata nei processi, più gli errori si amplificano invece di ridursi. L'IA non perdona i buchi nei processi, li scala. Tendono ad ampliarsi e a produrre danni maggiori col tempo se non vengono sistemati quanto prima.

a pink pepsi cola machine sitting next to a neon sign
a pink pepsi cola machine sitting next to a neon sign

Il coraggio di leggere quello che c'è scritto

Tenersi aggiornati, sì. È faticoso, è noioso, a volte è frustrante. Ogni settimana esce una nuova ricerca, un nuovo modello, un nuovo caso studio che dimostra o smentisce quello della settimana prima. Sappiamo benissimo quanto sia difficile stare al passo, soprattutto quando hai un'azienda da mandare avanti e il marketing è uno dei venti problemi che devi risolvere ogni mattina.

Ma la cosa interessante è che la maggior parte dei tuoi concorrenti non legge queste cose. Non sa che Copilot si è autodefinito "solo intrattenimento". Non sa che il 99% delle aziende ha avuto perdite finanziarie legate all'IA. Non sa che un output su cinque può essere sbagliato. E continuerà a usare l'IA alla cieca, costruendo su fondamenta che non ha mai verificato.

Quella è la finestra di vantaggio. Non nell'usare l'IA meglio degli altri: nell'usarla con più consapevolezza degli altri.

La nota ironica, modo in cui voglio chiudere questa riflessione, è che tra Lisbona e Barcellona ho imparato a leggere i tarocchi. Quindi mi vien da dire che se sei arrivato fino a qui, mi congratulo con te per avermi dedicato parte del tuo tempo

Io ti dico di diffidare sempre e non fidarti mai di nessuno, cosa che già sai. Verifica qualsiasi cosa e dubita anche delle tue sicurezze.

Sarebbe bello sentirci per una chiamata, né per leggere il futuro, né per parlare di business. Parliamo di quello che ci piace fare e di come questo ci rende felici, non che ci intrattiene… per quello c’è l’IA

Ti è piaciuto l'articolo?

Facci sapere cosa ne pensi: siamo sempre disponibili a fare due chiacchiere e, se ci fosse la possibilità di collaborare, ne saremmo felicissimi

Fonti

  1. S&P Global (2025) - Data Center Investments Are Increasingly Moving The Macro Needle https://press.spglobal.com/2025-11-05-S-P-Global-Research-Reveals-Data-Center-Investments-Moving-The-U-S-Macro-Needle

  2. AI Data Analytics Network (2025) - Data center investment drives US economy growth https://www.aidataanalytics.network/data-science-ai/news-trends/data-center-investment-drives-us-economy-growth

  3. Empirix Partners (2025) - The Trillion Dollar Horizon: Inside 2025's AI Infrastructure Investments https://empirixpartners.com/the-trillion-dollar-horizon/

  4. The Next Web (2026) - Microsoft's own ToS calls Copilot 'entertainment only' amid adoption slump https://thenextweb.com/news/microsoft-copilot-entertainment-only-disclaimer-adoption

  5. TechCrunch (2026) - Copilot is 'for entertainment purposes only,' according to Microsoft's terms of use https://techcrunch.com/2026/04/05/copilot-is-for-entertainment-purposes-only-according-to-microsofts-terms-of-service/

  6. Tarot - Copyright and Legal Information https://www.tarot.com/legal

  7. EY (2025) - How can responsible AI bridge the gap between investment and impact? https://www.ey.com/en_gl/insights/ai/how-can-responsible-ai-bridge-the-gap-between-investment-and-impact

  8. AI Daily (2026) - AI Hallucinations Top User Concerns Over Job Losses https://www.ai-daily.news/articles/ai-hallucinations-top-user-concerns-over-job-losses-in-2026