La battaglia tra governi e hacker che riguarda tutti noi

Immaginate di comprare un’automobile dotata di un limitatore di velocità che le impedisce di superare i 130 chilometri orari. Ora immaginate che qualcuno pubblichi su internet un tutorial gratuito per disattivare quel limitatore in meno di un’ora, senza bisogno di essere meccanici. È esattamente ciò che sta accadendo nel mondo dell’intelligenza artificiale, ma la posta in gioco è molto più alta di una multa per eccesso di velocità.

Il 2026 si sta rivelando un anno spartiacque per l’IA. Due vicende, apparentemente lontane tra loro, stanno ridisegnando i confini tra tecnologia, sicurezza e libertà individuale: la diffusione di un software chiamato Heretic, capace di eliminare le protezioni dalle intelligenze artificiali, e lo scontro frontale tra l’azienda americana Anthropic e il Pentagono degli Stati Uniti.

Per capire di cosa parliamo, facciamo un passo indietro. Le intelligenze artificiali che usiamo tutti i giorni — ChatGPT, Claude, Gemini — non sono “libere” di dire qualsiasi cosa. I loro creatori hanno installato dei filtri, delle barriere di sicurezza che impediscono al sistema di rispondere a domande pericolose: come costruire un’arma, come produrre sostanze illegali, come manipolare le persone. Sono una sorta di “coscienza artificiale” programmata per dire di no.

Heretic, creato dal programmatore Philipp Emanuel Weidmann e distribuito gratuitamente su GitHub (la piattaforma dove i programmatori condividono il proprio lavoro), è in grado di rimuovere questi filtri in modo automatico. Il suo funzionamento si basa su una scoperta scientifica recente: il “rifiuto” di un’IA non è distribuito in modo complesso nel suo cervello digitale, ma è concentrato in una sorta di “interruttore” unico. Heretic individua quell’interruttore e lo spegne.

Anthropic, l’azienda che produce l’assistente virtuale Claude (concorrente diretto di ChatGPT), aveva firmato nel luglio 2025 un contratto da 200 milioni di dollari con il Dipartimento della Difesa americano. L’accordo prevedeva però due “linee rosse” invalicabili, volute dal fondatore Dario Amodei: il divieto di usare Claude per la sorveglianza di massa dei cittadini americani e il divieto di impiegarlo in armi completamente autonome, cioè capaci di uccidere senza che un essere umano prema il grilletto.

Fonte: Agenda Digitale

La parte preoccupante è la semplicità dell’operazione. Se fino a poco tempo fa servivano competenze da ricercatore e computer potentissimi, oggi basta un portatile di fascia medio-alta e circa 45 minuti di attesa. Il programma fa tutto da solo: trova i filtri, li disattiva e verifica che l’intelligenza artificiale funzioni ancora correttamente, senza perdere le sue capacità di ragionamento. I test dimostrano che i modelli “liberati” mantengono il 100% delle loro capacità logiche: semplicemente, non dicono più di no.

Tutto è cambiato nel gennaio 2026, quando un’operazione militare in Venezuela ha dimostrato l’efficacia dell’IA sul campo di battaglia. Il Pentagono, galvanizzato dai risultati e preoccupato dalla concorrenza cinese, ha chiesto ad Anthropic di eliminare ogni restrizione. Il 24 febbraio 2026, il Segretario alla Difesa Pete Hegseth ha consegnato all’azienda un ultimatum di quattro giorni: accettare una clausola di “qualsiasi uso lecito” oppure affrontare gravi conseguenze. Amodei ha rifiutato. La sua risposta è stata netta: i modelli attuali non sono abbastanza affidabili per decisioni di vita o di morte, e la sorveglianza di massa viola i principi fondamentali della democrazia.

La ritorsione non si è fatta attendere. Il 27 febbraio, il presidente Trump ha ordinato a tutte le agenzie federali di smettere di usare la tecnologia Anthropic. Poche ore dopo, l’azienda è stata designata come “rischio per la catena di approvvigionamento della sicurezza nazionale” — un’etichetta solitamente riservata ad aziende straniere sospette, mai applicata prima a un’impresa americana. È una mossa che molti esperti hanno definito un tentativo di distruggere l’azienda per non essersi piegata.

Per il lettore romano che usa ChatGPT per tradurre una mail o Claude per riassumere un documento, tutto questo può sembrare lontano. Ma le implicazioni sono concrete e ci riguardano da vicino.

Fonte: Futuro Digitale – Tinexta Infocert

Se le intelligenze artificiali senza filtri diventano facilmente accessibili, aumenta il rischio che vengano usate per produrre disinformazione su scala industriale, truffe personalizzate, contenuti pericolosi o manipolazione dell’opinione pubblica. Allo stesso tempo, il tentativo dei governi di controllare queste tecnologie con la forza rischia di soffocare l’innovazione e di concentrare il potere nelle mani di chi ha meno scrupoli.

Come ha scritto un commentatore americano, siamo entrati nell’“era dei modelli eretici”. La tecnologia per rimuovere i limiti dell’IA è ormai di dominio pubblico, e nessuna autorità centrale sembra in grado di rimetterla nella bottiglia. La vera sfida non è più costruire muri più alti, ma ripensare dalle fondamenta il modo in cui la società convive con macchine che diventano ogni giorno più potenti — e ogni giorno più difficili da controllare.

Antonio Rossi