Skip to content

intelligenza artificiale germania

Aggiungi Startmag.it

alle tue fonti preferite su Google

IA, come va la partita della sovranità digitale

Chi c'era e che cosa si è detto all'evento “AI Italia. L’AI tra innovazione e sovranità digitale”, organizzato da Engineering su iniziativa della vicepresidente del Senato Licia Ronzulli. 

 

Al Senato l’intelligenza artificiale incontra la politica: non solo innovazione, ma controllo, autonomia e sovranità digitale. Questo è il senso emerso con chiarezza nella Sala Zuccari di Palazzo Giustiniani, dove ieri pomeriggio si è tenuto l’evento “AI Italia. L’AI tra innovazione e sovranità digitale”, organizzato da Engineering su iniziativa della vicepresidente del Senato Licia Ronzulli.

Non una semplice occasione di confronto, ma un passaggio politico e industriale insieme: definire una “via italiana” all’intelligenza artificiale capace di coniugare innovazione, controllo dei dati e autonomia strategica, evitando che il paese resti schiacciato tra modelli tecnologici sviluppati altrove.

SOVRANITÀ DIGITALE, TRA POLITICA E INDUSTRIA

Il convitato di pietra del dibattito è la dipendenza tecnologica. Oggi circa il 90% dei modelli di intelligenza artificiale nasce tra Stati Uniti e Cina, un dato che fotografa bene il rischio di marginalizzazione per l’Europa.

Il sottosegretario all’Editoria Alberto Barachini ha messo il tema su un piano esplicitamente politico: l’intelligenza artificiale è “un’innovazione potente e rivoluzionaria ma anche molto fragile”, e proprio per questo la sovranità digitale diventa “un tema democratico esponenziale”.

La fragilità riguarda innanzitutto il controllo dei dati e degli algoritmi. “Avere il possesso dei dati che distribuiamo ai sistemi di intelligenza artificiale è fondamentale”, ha sottolineato Barachini, aggiungendo che oggi gli strumenti sono in gran parte extraeuropei e che serve “investire di più, come paese e come Europa”.

Non è solo una questione economica. “Il controllo del sistema algoritmico può orientare l’informazione e anche il consenso”, ha avvertito, richiamando esplicitamente il legame tra tecnologia e processi democratici.

Da qui il giudizio positivo sull’iniziativa di Engineering: sviluppare AI in Italia, con norme europee e cloud nazionale, significa rafforzare cybersicurezza, pluralismo informativo e autonomia strategica.

DALL’AI “IN AFFITTO” ALL’AI COME ASSET

L’evento al Senato arriva all’indomani del lancio di IS-IA (Italy’s Sovereign Intelligence Architecture), l’architettura sviluppata da Engineering e costruita sul foundation model EngGPT 2.

Il passaggio non è formale: se il debutto pubblico aveva raccontato la tecnologia, qui il focus è su modello industriale e sistema paese.

IS-IA è infatti una piattaforma end-to-end che consente a imprese e pubblica amministrazione di governare l’intero ciclo di vita dell’intelligenza artificiale: dall’infrastruttura ai dati, fino all’orchestrazione nei processi.

Il punto chiave è superare la cosiddetta ‘IA in affitto’: applicazioni costruite sopra pochi modelli globali, uguali per tutti e quindi incapaci di generare vantaggio competitivo.

Non a caso, secondo stime di Gartner, la spesa mondiale per l’intelligenza artificiale è destinata a raggiungere i 3300 miliardi di dollari entro il 2027, ma gran parte del valore rischia di concentrarsi nelle mani di pochi grandi player.

In questo contesto, l’obiettivo è trasformare l’IA da commodity a capitale strategico, capace di generare valore cumulabile nel tempo.

BISIO: TRASPARENZA, SOSTENIBILITÀ E MERCATO

Il ceo di Engineering Aldo Bisio ha insistito su un concetto che attraversa tutto il progetto: la sovranità non è chiusura, ma governabilità.

“La via italiana è una via di governabilità dell’utilizzo di queste tecnologie, nella chiave della trasparenza, della sostenibilità e della protezione del know how”, ha spiegato.

Un passaggio che si lega a un altro punto centrale: la trasparenza come condizione per costruire fiducia. “Un sistema AI sovrano dichiara su quali dati è stato addestrato, i parametri che determinano i comportamenti e può essere ispezionato”, ha aggiunto il ceo.

Bisio ha poi chiarito che la scelta di sviluppare EngGPT 2 non è ideologica: “Non lo abbiamo costruito per una battaglia ideologica ma perché il mercato aveva bisogno di un modello che fosse sovrano dove serve, interoperabile con i grandi player e abbastanza efficiente da non costare un’enormità”.

Qui entra in gioco un altro elemento chiave: la sostenibilità. I grandi modelli linguistici sono energivori, mentre l’architettura adottata da Engineering consente di ridurre drasticamente i consumi, attivando solo le componenti necessarie.

Un aspetto che ha ricadute dirette anche sui costi: il training può essere fino a 10 volte più efficiente e i costi di inferenza ridotti tra il 50% e l’80% rispetto ai modelli tradizionali.

TRA AI ACT E COMPETITIVITÀ

Sul fronte normativo, il dibattito resta aperto ma meno ideologico di quanto spesso si pensi.

Fabio Momola – executive vice president Eng Digital – ha offerto una lettura pragmatica. “La normativa non ha mai bloccato l’evoluzione; è stata un freno solo per chi non si è posto nelle condizioni di sfruttarla per innovare meglio”.

Da qui la scelta di progettare un’architettura già conforme all’AI Act, trasformando un potenziale vincolo in un vantaggio competitivo.

Momola ha anche sottolineato un dato economico rilevante: grazie a questo approccio, la profittabilità delle soluzioni AI può essere raggiunta “nell’arco di massimo 12-18 mesi”.

“La sostenibilità è un problema fondamentale”, ha aggiunto, ricordando che alcuni modelli globali consumano in fase di training quanto decine di famiglie in un anno, mentre EngGPT 2 punta a riduzioni tra il 60% e l’80% nei consumi.

BUTTI: INVESTIMENTI, ENERGIA E COOPERAZIONE

Dal lato del governo, il sottosegretario alla presidenza del Consiglio con delega all’Innovazione tecnologica e alla transizione digitale Alessio Butti ha rivendicato il posizionamento italiano: “Siamo stabilmente sul podio in Europa per gli investimenti pubblici sull’intelligenza artificiale”.

Ma allo stesso tempo ha escluso derive autarchiche: “È pressoché impossibile pensare di essere autarchici”, ha detto, indicando nella cooperazione con partner affini una strada obbligata.

Il sottosegretario ha anche richiamato un tema spesso sottovalutato: quello energetico. L’AI, come il quantum e i data center, è una tecnologia energivora, e questo impone una riflessione strategica sulle fonti, inclusa – ha ricordato – la discussione sul nucleare di nuova generazione.

IL CASO ANTHROPIC-MYTHOS E IL NODO SICUREZZA

A fare da sfondo al dibattito, c’è il caso Anthropic-Mythos, richiamato da un paio di relatori.

Il modello più avanzato sviluppato dall’azienda americana è stato reso accessibile solo a un ristretto gruppo di organizzazioni – incluse agenzie governative – proprio per le sue capacità avanzate in ambito cybersecurity. Segno di quanto alcune tecnologie IA stiano diventando asset sensibili, se non strategici.

Non a caso, durante l’evento Andrea Billet, capo del Servizio certificazione e vigilanza dell’Agenzia per la cybersicurezza nazionale, ha osservato che “è molto più facile fare un ladro che un guardiano” dell’intelligenza artificiale, evidenziando lo squilibrio tra uso offensivo e difensivo di queste tecnologie.

Il messaggio è chiaro: senza capacità autonome, anche la sicurezza diventa dipendenza.

I NUMERI DI ENGINEERING E LA SCOMMESSA SULLA GENAI

Dietro la strategia sull’intelligenza artificiale c’è anche una traiettoria industriale solida.

Engineering ha chiuso il 2025 con ricavi pari a 1,76 miliardi di euro, in crescita del 2,5% su base annua, sostenuti soprattutto dallo spostamento verso segmenti a maggiore valore aggiunto come software proprietario e tecnologie digitali. L’Ebitda adjusted ha raggiunto 280,3 milioni di euro, mentre l’Ebit è salito a 135,9 milioni, con un incremento del 12,9%.

Il gruppo conta circa 14-15 mila dipendenti ed è presente in 21 paesi, con oltre 70 sedi tra Europa, America latina e Stati Uniti.

Numeri che spiegano perché la scommessa sulla GenAI non sia episodica, ma parte di una strategia industriale più ampia: intercettare la discontinuità tecnologica e trasformarla in crescita.

UNA TRAIETTORIA ANCORA APERTA

Alla fine della giornata, il quadro che emerge è quello di una partita ancora in corso.

La “via italiana” all’intelligenza artificiale non è un modello già definito, ma un equilibrio da costruire tra innovazione e controllo, apertura e autonomia, mercato e regolazione. Per evitare il rischio di “diventare una colonia digitale”, come ha detto la vicepresidente Ronzulli.

Torna su