skip to Main Content

Programma

Le tecnologie della memoria sono l’ultima frontiera dell’”imitation game”

L’appuntamento domenicale con l’approfondimento di Paola Liberace, coordinatrice scientifica dell’Istituto per la Cultura dell’Innovazione

I dati e la loro elaborazione insieme, in una sola memoria. Non si parla del cervello umano, ma di una innovativa architettura dei sistemi informatici, basata sul cosiddetto “in-memory computing”: il nuovo paradigma prevede che la conservazione delle informazioni e la loro elaborazione non siano più compito di due processori distinti e separati – come nell’architettura informatica tradizionale -, ma siano eseguiti in un’unica rete di memoria. Si tratta di un grande passo in avanti non solo dal punto di vista dell’architettura, ma anche da quello della sostenibilità: grazie al processo computazionale semplificato, infatti, il consumo di energia è decisamente minore rispetto a quello richiesto dallo schema precedente, in cui le informazioni andavano recuperate in separata sede per poi elaborarle.

Questa innovazione è decisiva ai fini dell’Intelligenza Artificiale, che per la consistente attività di elaborazione richiede processori a basso consumo energetico: in pole position nella realizzazione di chip di nuova generazione sono Intel, che per il suo “Optane” utilizza una tecnologia nota come PRAM (Phase Change Random Access Memory) e Samsung, che di recente ha presentato un nuovo chip per l’in-memory computing basato su MRAM (Magnetoresistive Random Access Memory). I ricercatori del Samsung Advanced Institute of Technology, come hanno spiegato in un articolo appena pubblicato su Nature, sono riusciti a unire benefici come velocità, durata e possibilità di produzione su larga scala con il risparmio energetico, finora precluso alla soluzione MRAM, intervenendo sull’architettura computazionale.

Al di là della soluzione che prevarrà sul mercato, la notizia dell’unione tra dati e calcoli in un’unica memoria tra ha un’importanza decisiva anche ai fini dell’intelligenza umana. Secondo quanto dichiarato dagli autori dell’articolo, infatti, la somiglianza tra il processo di elaborazione dell’in-memory computing e quello del cervello umano, in un futuro non remoto, potrebbe fungere da base per la realizzazione di reti neuronali biologiche – e quindi, di fatto, consentire alla nuova architettura di imitare l’attività del cervello stesso. O di sostituirsi ad esso? Già lo scorso anno, in un altro articolo sempre su Nature (nella versione Electronics) si parlava di “elettronica neuromorfica”, in grado di realizzare un vero e proprio “copia e incolla del cervello”: resta da capire fin dove si spingerà la nuova frontiera dell’”imitation game”.

Back To Top