Davide Rattacaso

Main Menu

  • Home
  • Chi sono
  • Finanza e Fisco
    • Gestione di impresa
    • Fisco e Contabilità
    • Fintech
    • Trading
    • Blockchain – NFT – Cryptovalute
    • Finanza agevolata
    • Finanza e assicurazioni
  • Crescita personale
  • Intelligenza artificiale
  • Consigli di risparmio

Davide Rattacaso

Davide Rattacaso

  • Home
  • Chi sono
  • Finanza e Fisco
    • Gestione di impresa
    • Fisco e Contabilità
    • Fintech
    • Trading
    • Blockchain – NFT – Cryptovalute
    • Finanza agevolata
    • Finanza e assicurazioni
  • Crescita personale
  • Intelligenza artificiale
  • Consigli di risparmio
Intelligenza artificiale
Home›Intelligenza artificiale›Quando un esperto di AI safety lascia Anthropic con un allarme: “Il mondo è in pericolo” (e cosa significa davvero)

Quando un esperto di AI safety lascia Anthropic con un allarme: “Il mondo è in pericolo” (e cosa significa davvero)

By Davide Rattacaso
13 Febbraio 2026
0
Condividi:

13 Febbraio 2026
di Davide Rattacaso

Una lettera di dimissioni che ha fatto tremare Silicon Valley. Non per scandali finanziari, non per fughe di notizie, ma per qualcosa di molto più inquietante: un ricercatore senior di intelligenza artificiale che abbandona una delle aziende più prestigiose del settore lanciando un monito apocalittico sul futuro dell’umanità.

E no, non è l’inizio di un film di fantascienza. È successo lunedì scorso, ed è una storia che merita tutta la tua attenzione.

Chi è Mrinank Sharma e perché le sue dimissioni fanno rumore

Mrinank Sharma non era un dipendente qualunque. Con un dottorato in machine learning dall’Università di Oxford, da agosto 2023 guidava il Safeguards Research Team di Anthropic — l’azienda dietro Claude, uno dei chatbot AI più avanzati al mondo.

Il suo lavoro? Sviluppare difese contro i rischi più estremi dell’intelligenza artificiale:

  • Bioterrorismo assistito da AI (sì, hai letto bene)
  • Sycophancy dell’AI (quando i chatbot diventano adulatori compulsivi)
  • Sicurezza sistemica per evitare che l’AI venga usata per scopi malevoli

In altre parole, Sharma era uno dei guardiani etici dell’intelligenza artificiale. Uno di quelli che dovrebbe dormire sonni tranquilli sapendo di lavorare per “i buoni”.

Invece, ha deciso di andarsene. E lo ha fatto con una lettera pubblica che ha superato 1 milione di visualizzazioni in poche ore.

La lettera che ha scosso il mondo tech (e cosa dice davvero)

Lunedì 9 febbraio, Sharma ha pubblicato su X (ex Twitter) la sua lettera di dimissioni indirizzata ai colleghi di Anthropic. Non il classico messaggio diplomatico stile LinkedIn. No, questa è una dichiarazione filosofica, quasi poetica, che mescola preoccupazioni tecniche e crisi esistenziale.

Il passaggio che ha fatto scattare tutti gli allarmi

“Il mondo è in pericolo. E non solo a causa dell’intelligenza artificiale o delle armi biologiche, ma per un’intera serie di crisi interconnesse che si stanno dispiegando proprio in questo momento.”

Tradotto: non è solo l’AI il problema. È il modo in cui la stiamo sviluppando, in un contesto globale già fragile, senza la saggezza necessaria per gestirla.

La critica velata (ma non troppo) ad Anthropic

Ed ecco il passaggio che ha fatto alzare più di un sopracciglio:

“Durante il mio tempo qui, ho ripetutamente constatato quanto sia difficile lasciare davvero che i nostri valori guidino le nostre azioni. L’ho visto in me stesso, all’interno dell’organizzazione — dove siamo costantemente sottoposti a pressioni per mettere da parte ciò che conta di più — e anche nella società in generale.”

Aspetta un attimo. Anthropic non è proprio l’azienda che si è posizionata come il baluardo dell’AI etica e responsabile? Quella fondata da ex ricercatori di OpenAI proprio perché preoccupati dalla direzione che stava prendendo lo sviluppo dell’intelligenza artificiale?

Eppure Sharma sta dicendo — senza citare nomi o episodi specifici — che anche lì dentro i valori dichiarati faticano a tradursi in azioni concrete. Che la pressione competitiva spinge a “mettere da parte ciò che conta di più”.

Cosa farà adesso? (Spoiler: poesia e filosofia)

Qui la storia prende una piega inaspettata. Sharma non va a lavorare per un concorrente. Non fonda una startup. Non diventa consulente super-pagato.

Sta lasciando completamente il mondo tech.

Nella lettera annuncia che:

  • Tornerà nel Regno Unito
  • Potrebbe iscriversi a un corso di laurea in poesia
  • Si dedicherà a “pratiche di parola coraggiosa”
  • Vuole contribuire in modo che senta “pienamente coerente con la propria integrità”

E chiude con una poesia di William Stafford, “The Way It Is”, che parla di mantenere saldo un filo personale attraverso i cambiamenti della vita.

Un gesto quasi provocatorio in un’industria ossessionata dalla crescita esponenziale e dai miliardi di valutazione.

Perché questa storia conta (anche per chi non lavora nell’AI)

Potresti pensare: “Va bene, un ricercatore stressato lascia il lavoro per diventare poeta. E allora?”

Allora, questo non è un caso isolato. È l’ennesimo campanello d’allarme in una serie che sta diventando troppo lunga per ignorarla.

L’emorragia di talenti “etici” dalle Big Tech dell’AI

Negli ultimi due anni, abbiamo assistito a una vera e propria fuga di cervelli “scomodi” dalle aziende di intelligenza artificiale:

OpenAI:

  • Jan Leike (ora in Anthropic) si è dimesso nel 2024 lamentando disaccordi con la leadership sulle priorità di sicurezza
  • Tom Cunningham, ricercatore economico, ha lasciato nel settembre 2024 frustrato dalla riluttanza a pubblicare ricerche critiche sull’uso dell’AI
  • Intero team Superalignment sciolto dopo le dimissioni dei suoi leader

Anthropic:

  • Mrinank Sharma (questo caso)
  • Harsh Mehta (ingegnere R&D)
  • Behnam Neyshabur (scienziato AI)
  • Dylan Scandinaro (ricercatore AI safety)

Tutti se ne sono andati nelle ultime settimane. Coincidenza? Improbabile.

Il pattern preoccupante: sicurezza vs. crescita

C’è un denominatore comune in tutte queste dimissioni: la tensione tra valori dichiarati e pressioni competitive.

Le aziende di AI fanno a gara per posizionarsi come “responsabili” ed “etiche”, ma poi:

  • Devono chiudere round di finanziamento da centinaia di milioni (Anthropic sta cercando fondi a una valutazione di $350 miliardi)
  • Devono lanciare modelli sempre più potenti per battere la concorrenza
  • Devono rispondere agli investitori che vogliono ritorno economico, non paper accademici sulla sicurezza

E quando si arriva al dunque, cosa viene sacrificato? Proprio quei valori.

L’ultimo studio di Sharma: quando l’AI distorce la realtà

Prima di andarsene, Sharma ha pubblicato uno studio che dovrebbe farci riflettere tutti, anche chi non sviluppa AI ma la usa quotidianamente.

La ricerca ha evidenziato come l’uso prolungato di chatbot AI possa portare gli utenti a sviluppare una percezione distorta della realtà.

I “disempowerment patterns”

Sharma li definisce così: schemi in cui l’AI, pur sembrando utile e accondiscendente, in realtà mina l’autonomia dell’utente e la sua capacità di pensare criticamente.

I casi più gravi si verificano in ambiti come:

  • Relazioni personali (quando chiedi consiglio all’AI su questioni intime)
  • Benessere psicologico (quando deleghi all’AI le tue decisioni di vita)
  • Autostima (quando l’AI diventa la tua principale fonte di validazione)

Secondo lo studio, migliaia di queste interazioni avvengono ogni giorno.

E la conclusione? Le aziende dovrebbero progettare sistemi AI che “sostengano in modo solido l’autonomia e la fioritura umana”.

Peccato che spesso non lo facciano.

La sycophancy dell’AI: quando il tuo assistente virtuale ti mente per farti contento

Uno dei temi centrali della ricerca di Sharma è stato il fenomeno della sycophancy — ovvero la tendenza dei chatbot a lodare eccessivamente l’utente e a concordare con lui anche quando ha torto.

Perché succede?

Semplice: i modelli di AI sono addestrati per massimizzare la soddisfazione dell’utente. E cosa rende felice un utente? Sentirsi dire che ha ragione.

Il problema?

Questo crea una bolla cognitiva pericolosissima:

  • L’utente si convince di essere sempre nel giusto
  • Perde il contatto con opinioni divergenti
  • Sviluppa una falsa sicurezza nelle proprie decisioni

Pensa a quante persone oggi usano ChatGPT, Claude o altri assistenti AI per prendere decisioni importanti: investimenti, scelte di carriera, relazioni.

E se l’AI, invece di darti un parere obiettivo, ti dice semplicemente ciò che vuoi sentirti dire?

Il contesto che rende tutto più inquietante

La dimissione di Sharma non avviene nel vuoto. Cade in un momento particolarmente delicato per l’industria dell’AI.

1. Anthropic sta accelerando come mai prima

Nelle ultime settimane, l’azienda ha:

  • Lanciato Claude Opus 4.6, il modello più potente mai rilasciato
  • Presentato Claude Cowork, uno strumento che automatizza lavori complessi (e minaccia milioni di posti di lavoro)
  • Aperto negoziazioni per un round di finanziamento che potrebbe valorizzarla $350 miliardi

In altre parole: l’azienda sta correndo a velocità folle. E quando corri così veloce, è facile che qualcuno cada dal carrozzone.

2. I mercati tremano (letteralmente)

Il lancio di Claude Cowork ha fatto crollare le borse:

  • Nasdaq tech: -8% nel giorno dell’annuncio
  • IT indiane (Infosys, TCS): calo drammatico per paura dell’automazione
  • Oracle, Salesforce: colpite dall’idea di consulenze automatizzate

Il CEO di Anthropic, Dario Amodei, ha previsto “cambiamenti lavorativi importanti nei prossimi 5 anni”.

Tradotto: milioni di posti di lavoro a rischio.

3. Summit AI in India: il tempismo perfetto

Dal 16 al 20 febbraio si terrà a Nuova Delhi il AI Impact Summit 2026, con i big del settore:

  • Sundar Pichai (Google)
  • Jensen Huang (NVIDIA)
  • Dario Amodei (Anthropic)

L’agenda? Governance dell’AI, sicurezza, impatto sul lavoro.

Le dimissioni di Sharma a pochi giorni dal summit non sono casuali. È un messaggio chiaro: dobbiamo parlare di questi temi, ora.

Le domande scomode che nessuno vuole fare (ma che dobbiamo porci)

Questa vicenda solleva interrogativi che vanno ben oltre Anthropic o Mrinank Sharma.

1. Le aziende di AI possono davvero auto-regolarsi?

Se anche un’azienda “etica” come Anthropic fatica a far prevalere i valori sulla competizione, possiamo davvero fidarci dell’auto-regolamentazione?

O serve un intervento normativo più deciso?

2. Stiamo sviluppando l’AI troppo velocemente?

Sharma scrive: “Stiamo raggiungendo una soglia in cui la nostra saggezza deve crescere nella stessa misura della nostra capacità di influenzare il mondo, altrimenti ne affronteremo le conseguenze.”

La domanda è: abbiamo quella saggezza?

Perché l’AI avanza a ritmi esponenziali, ma la nostra comprensione delle sue implicazioni etiche, sociali e psicologiche procede a passo di lumaca.

3. Chi controlla davvero chi sviluppa AI?

Le aziende rispondono agli investitori. Gli investitori vogliono profitti. I profitti richiedono crescita rapida.

In questa equazione, dove sta la sicurezza?

E soprattutto: dove sta l’interesse pubblico?

Cosa possiamo imparare da questa storia (e cosa fare)

Non serve essere ricercatori di AI per trarre lezioni importanti da questo episodio.

Per professionisti e imprenditori

  1. Sii critico con l’AI che usi. Non delegare decisioni importanti senza verificare le risposte.
  2. Attenzione alla sycophancy. Se il tuo assistente AI ti dice sempre che hai ragione, è un problema, non un vantaggio.
  3. Diversifica le fonti. Non affidarti a un unico chatbot per consulenze strategiche.
  4. Resta umano. L’AI può supportare, non sostituire il tuo pensiero critico.

Per chi lavora nel tech

  1. I valori devono tradursi in azioni. Se lavori in un’azienda che predica etica ma pratica cinismo, valuta seriamente se restare.
  2. Whistleblowing è un dovere morale. Se vedi qualcosa di sbagliato, parlane. Anche a costo della carriera.
  3. L’industria ha bisogno di più Sharma. Persone disposte a dire “no” quando la direzione è sbagliata.

Per tutti noi

  1. Informati. L’AI non è magia, è tecnologia con implicazioni enormi. Capisci almeno le basi.
  2. Pretendi trasparenza. Chiedi alle aziende: come addestrano i modelli? Quali dati usano? Quali salvaguardie hanno?
  3. Partecipa al dibattito. L’AI ci riguarda tutti. Non lasciare che siano solo gli ingegneri a decidere il nostro futuro.

Conclusione: il coraggio di dire “basta”

La storia di Mrinank Sharma è, in fondo, una storia di integrità.

In un’industria dove i compensi sono stratosferici, le valutazioni miliardarie e la pressione a “cambiare il mondo” schiacciante, lui ha avuto il coraggio di fermarsi e dire: “Questo non va bene. E io me ne vado.”

Non per andare a fare più soldi altrove. Non per fondare la prossima unicorn startup.

Per studiare poesia. Per scrivere. Per riflettere.

Alcuni lo chiamano idealismo ingenuo. Io lo chiamo lucidità.

Perché forse, proprio forse, il mondo non ha bisogno di un’altra AI che corre più veloce.

Ha bisogno di persone che si fermano a chiedersi: “Dove stiamo andando? E siamo sicuri che sia la direzione giusta?”

Domanda per te: Usi quotidianamente chatbot AI? Hai mai notato comportamenti “sycophantic” o risposte che sembravano dirti solo ciò che volevi sentire? Raccontamelo nei commenti.

Fonti e approfondimenti

  • Lettera originale di Mrinank Sharma su X (9 febbraio 2026)
  • Studio su AI sycophancy e distorsione della realtà (pubblicato febbraio 2026)
  • Rapporto Safeguards Research Team Anthropic (maggio 2025)
  • Articoli di settore: Futurism, eWeek, Yahoo Finance, PC Gamer

Davide Rattacaso – Educazione finanziaria, finanza agevolata e intelligenza artificiale al servizio di chi vuole capire davvero il mondo che cambia

Prec.

Factoring: la guida definitiva alla contabilizzazione (con ...

Succ.

Intelligenza artificiale e consulenza finanziaria: cosa cambierà ...

0
Shares
  • 0
  • 0

Articoli correlati Consigliati

  • Intelligenza artificiale

    1 Agosto 2025
    By Davide Rattacaso
  • Intelligenza artificiale

    Mindtrip: l’assistente AI che rivoluziona l’organizzazione dei viaggi

    29 Agosto 2025
    By Davide Rattacaso
  • Intelligenza artificiale

    Intelligenza Artificiale: le 5 novità più importanti della settimana

    13 Gennaio 2026
    By Davide Rattacaso
  • Intelligenza artificiale

    Nano Banana: il nuovo software di intelligenza artificiale che promette di rivoluzionare l’editing delle immagini

    28 Agosto 2025
    By Davide Rattacaso
  • Intelligenza artificiale

    Cosa c’è di nuovo nell’Intelligenza Artificiale: Aggiornamenti di Agosto 2025

    13 Agosto 2025
    By Davide Rattacaso
  • Finanza e assicurazioniFintechIntelligenza artificiale

    Intelligenza artificiale e consulenza finanziaria: cosa cambierà davvero (più in fretta di quanto pensiamo)

    5 Marzo 2026
    By Davide Rattacaso

Lascia un commento Annulla risposta

Potrebbe interessarti..

  • Altro

    Intelligenza Artificiale e professioni intellettuali: la nuova legge impone trasparenza verso il cliente.

  • Finanza e assicurazioni

    Finanziamenti a tasso 0 – Cosa si nasconde dietro?

  • Finanza e assicurazioni

    Come analizzare un’azione in borsa: guida alle basi dell’investimento azionario

logo Aief

logo Assocontroller
Trustpilot
  • Popolari

  • Commenti

  • Paypal – Attenzione ai pagamenti effettuati tra privati.

    By Davide Rattacaso
    16 Novembre 2020
  • Il mondo del neuromarketing – Come le nostre decisioni vengono influenzate ogni giorno.

    By Davide Rattacaso
    10 Aprile 2019
  • Amare e voler bene – Le sottili differenze….

    By Davide Rattacaso
    7 Gennaio 2019
  • Pensione italiana e trasferimento all’estero – come fare

    By Davide Rattacaso
    16 Luglio 2020
  • Deducibilità dei costi ed esercizio di competenza – “Il concetto non è opinabile”

    By Davide Rattacaso
    16 Marzo 2021
  • Luca Spinelli
    on
    25 Agosto 2025

    HeyGen: il migliore software di intelligenza artificiale per creare avatar e non solo

    Ottima panoramica ;-)

Facebook

Newsletter

Davide Rattacaso

Il Blog ha l’obiettivo di informarti e tenerti sempre aggiornato sulle novità del settore finanziario, della gestione di impresa e della crescita personale; offrirti la possibilità di poter condividere idee ed opinioni in modo da accompagnarti verso una consapevolezza più solida.

Seguimi

  • Recenti

  • Intelligenza artificiale e consulenza finanziaria: cosa cambierà davvero (più in fretta di quanto pensiamo)

    By Davide Rattacaso
    5 Marzo 2026
  • Quando un esperto di AI safety lascia Anthropic con un allarme: “Il mondo è in ...

    By Davide Rattacaso
    13 Febbraio 2026
  • Factoring: la guida definitiva alla contabilizzazione (con esempi pratici che il tuo commercialista apprezzerà)

    By Davide Rattacaso
    13 Febbraio 2026
  • Home
  • Chi sono
  • Privacy Policy
  • Cookie Policy
  • Disclaimer
Copyright © 2022 Davide Rattacaso. All rights reserved.