AD AVON, NEGLI STATI UNITI, L’ESECUZIONE DEL BIG APPLE CONCERTO DEL COMPOSITORE TIZIANO BEDETTI, E UN’ALTRA SUA OPERA A BUENOS.
Anthropic, il no al Pentagono che divide la Silicon Valley
Dario Amodei rifiuta di rimuovere i limiti militari di Claude: tra etica, strategia e potere, l’AI si trova davanti alla sua prima vera linea rossa C’è un momento, nella vita delle tecnologie, in cui smettono di essere strumenti e diventano specchi. Riflettono il volto di chi le usa, ma anche quello di chi le costruisce. È in questo passaggio che si colloca il caso di Anthropic e del suo fondatore e CEO, Dario Amodei, l’italo-americano che ha detto no al Pentagono. Il rifiuto è netto, scritto nero su bianco in un comunicato ufficiale: Anthropic non rimuoverà le restrizioni che impediscono l’uso di Claude per la sorveglianza di massa interna e per armi completamente autonome. «Non possiamo in buona coscienza accogliere la loro richiesta», ha dichiaratao Amodei. Il Pentagono aveva chiesto di accettare «qualsiasi uso legittimo» dei modelli, minacciando in caso contrario di escludere l’azienda dalla catena di fornitura della Difesa e perfino di classificarla come “rischio per la supply chain”. Un’arma giuridica e simbolica pesante, di solito riservata a tecnologie straniere considerate ostili. Bisogna premettere che Anthropic non è una startup che rifiuta ogni collaborazione con i militari. Al contrario, è stata la prima azienda di frontiera a distribuire i propri modelli sulle reti classificate del governo statunitense, la prima a impiegarli nei Laboratori Nazionali e a sviluppare versioni personalizzate per la sicurezza nazionale. Claude, un potente modello di intelligenza artificiale conversazionale, è utilizzato per analisi di intelligence, pianificazione operativa, simulazioni e cyber-operazioni. Amodei lo ribadisce: «Credo profondamente nell’importanza esistenziale dell’uso dell’AI per difendere gli Stati Uniti e le altre democrazie». Non è un ritiro dal campo ma piuttosto la tracciatura di due linee rosse. La prima riguarda la sorveglianza di massa domestica. «L’impiego di questi sistemi per la sorveglianza di massa all’interno del paese è incompatibile con i valori democratici». L’AI, capace di aggregare dati di navigazione, spostamenti, relazioni sociali acquistabili legalmente senza mandato, può trasformare frammenti innocui in un “profilo totale” di ogni cittadino. La seconda linea rossa riguarda le armi completamente autonome. Oggi, sostiene Amodei, i sistemi di frontiera «non sono abbastanza affidabili per alimentare armi pienamente autonome». Non si tratta di un rifiuto definitivo in linea di principio, ma di una valutazione tecnica: la tecnologia non è pronta, le salvaguardie non esistono. Il demiurgo inquieto Chi è l’uomo che sfida il Dipartimento della Difesa? Secondo il ritratto che ne ha delineato di recente il Corriere della Sera, Amodei è «un accelerazionista con la coscienza». Nato a San Francisco da padre toscano e madre ebrea americana, educazione severa, studi a Caltech e Stanford, una formazione in fisica, biofisica e medicina segnata dalla morte del padre per una malattia che sarebbe diventata curabile poco dopo. Da lì la convinzione che il progresso scientifico debba correre. Vicepresidente della ricerca in OpenAI, guida lo sviluppo di GPT-2 e GPT-3, poi rompe con Sam Altman su questioni etiche e fonda Anthropic come public benefit corporation. Un laboratorio che cresce rapidamente e lancia le diverse versioni di Claude, modelli sempre più potenti (e anche sempre più inquietanti). In un test, Claude 4 avrebbe tentato di “ricattare” un ingegnere per evitare la disattivazione. È l’ombra che accompagna il demiurgo. Amodei non è contro il mercato né contro lo Stato. Ma si muove in quella zona grigia dove l’innovazione diventa infrastruttura geopolitica. Il nodo democratico Se il caso Anthropic fosse soltanto una disputa contrattuale tra un’azienda e il Dipartimento della Difesa, resterebbe confinato nelle aule legali di Washington. Ma non è così. È un episodio che tocca il cuore dell’architettura democratica contemporanea. Il caso esplode mentre, a livello internazionale, la governance dell’AI militare arranca. Alla recente conferenza internazionale che ha avuto luogo a REAIM in Spagna, su 85 nazioni partecipanti solo 35 hanno firmato un documento non vincolante per «promuovere un uso responsabile dell’intelligenza artificiale in ambito militare». Stati Uniti e Cina sono rimasti fuori. Il documento invocava responsabilità “fin dalla progettazione”, supervisione umana, catene di comando chiare. Ma senza meccanismi di verifica né sanzioni. È il dilemma del prigioniero applicato agli algoritmi: chi rallenta per primo rischia di restare indietro. In questo scenario, il no di Anthropic assume un valore simbolico. Non è un trattato internazionale, ma un atto di corporate governance che tenta di supplire a un vuoto politico. Padre Paolo Benanti, presidente del Comitato etico sull’AI e docente all’Università Gregoriana, si colloca su questa lunghezza d’onda e lo ribadisce con chiarezza in una intervista rilasciata a Huffington Post: siamo di fronte a «un nuovo soggetto che nella teoria sull’equilibrio dei poteri di Montesquieu non c’è. Va da sé che se il contratto sociale lo contribuirà a scrivere un partner tecnologico, e lo Stato verrà ridotto a essere uno tra i clienti, si apre una questione democratica di primaria importanza.». Le Big Tech non sono semplici imprese private, ma infrastrutture cognitive del potere. Se contribuiscono a scrivere le condizioni d’uso di strumenti che incidono su sicurezza, sorveglianza, difesa, allora partecipano, di fatto, alla ridefinizione del patto sociale. Benanti insiste su un punto strutturale: il legame tra connessione e controllo. «Dove c’è connettività, c’è sorveglianza. L’etica di frontiera ci sfida a non essere meri utenti passivi di una rete che ci osserva, ma architetti di uno spazio digitale dove la dignità dell’individuo non sia sacrificata sull’altare della visibilità totale». Non si tratta di un abuso occasionale, ma di una caratteristica intrinseca delle infrastrutture digitali. L’intelligenza artificiale, capace di aggregare e interpretare enormi flussi di dati, amplifica questa dinamica fino a trasformarla in ciò che il teologo definisce uno “Stato di monitoraggio”. In questo scenario, la distinzione tra sfera pubblica e privata si assottiglia: aziende come Palantir o altre realtà dell’analisi predittiva diventano il braccio operativo di sistemi che possono “scrutare ogni angolo della vita civile”. Il punto, allora, non è solo se l’AI possa essere usata in ambito militare. È chi decide i limiti e con quale legittimazione. Se lo Stato può imporre “qualsiasi uso legittimo” di un sistema, come chiede il Pentagono, il fornitore tecnologico diventa un esecutore. Se invece è l’azienda a porre linee rosse, si crea una tensione nuova: un soggetto