skip to Main Content

Meta Intelligenza Artificiale

Non solo Meta. L’etica dell’IA non è più una priorità delle Big Tech?

Meta di Mark Zuckerberg non avrà più un team dedicato alla progettazione e all’utilizzo responsabile dell’intelligenza artificiale (IA). Ecco che fine faranno i dipendenti e come si stanno muovendo altri competitor come Microsoft, Anthropic, Google e OpenAI

 

Prometteva di rendere l’intelligenza artificiale (IA) una rivoluzione positiva per tutti ma ora Meta di Mark Zuckerberg ha smantellato il team della divisione Responsible AI, pensato apposta per garantire una progettazione e un utilizzo responsabile dell’IA basata su cinque pilastri tra cui responsabilità, trasparenza, sicurezza e privacy.

Niente licenziamenti, a quanto pare, ma ricollocamenti in altri gruppi all’interno dell’azienda, dove – secondo quanto riferito da Meta – continueranno a lavorare per prevenire i danni associati all’intelligenza artificiale.

CHE FINE FARÀ IL TEAM RESPONSIBLE AI DI META?

Secondo quanto dichiarato da un portavoce dell’azienda che possiede Facebook e Instagram, la maggior parte dei membri del team Responsible AI passerà all’IA generativa e “continuerà a sostenere gli sforzi trasversali di Meta per lo sviluppo e l’uso responsabile dell’intelligenza artificiale”, mentre altri si occuperanno di infrastrutture di IA.

L’azienda, riferisce il comunicato, intende avvicinare il personale allo sviluppo dei prodotti e delle tecnologie principali: “Continuiamo a dare priorità e a investire nello sviluppo sicuro e responsabile dell’IA e questi cambiamenti ci permetteranno di soddisfare le nostre esigenze future”.

LE AVVISAGLIE DELLO SMANTELLAMENTO

In realtà, ricorda The Verge citando Business Insider, il team aveva già subito una ristrutturazione con licenziamenti all’inizio dell’anno che avevano indebolito già molto la divisione.

Inoltre, stando a The Information, che ha dato per primo la notizia, il team – messo in piedi nel 2019 – “aveva poca autonomia e le sue iniziative dovevano passare attraverso lunghe negoziazioni con gli stakeholder prima di poter essere attuate”.

I PRODOTTI IA DI META

Lo scorso febbraio Meta ha annunciato il suo modello di linguaggio artificiale Llama – evoluto poi in Llama 2 – per una IA “più democratica” e in ottobre Meta ha iniziato a rilasciare strumenti di intelligenza artificiale generativa in grado di creare contenuti come sfondi di immagini e variazioni di testo scritto per tutti gli inserzionisti.

Il Responsible AI team doveva identificare i problemi relativi agli approcci all’addestramento dell’IA, tra cui il fatto che i modelli dell’azienda siano addestrati con informazioni adeguatamente diversificate, e prevenire o bloccare materiale non idoneo.

LICENZIAMENTI E RICOLLOCAMANTI IN META (E NON SOLO)

La decisione di Meta arriva alla fine di quello che Zuckerberg ha definito “l’anno dell’efficienza”, ovvero un anno fatto di licenziamenti, fusioni di team e ridistribuzioni all’interno dell’azienda.

In un momento in cui le autorità di regolamentazione di tutto il mondo si stanno muovendo per stabilire i confini dell’IA, garantirne la sicurezza è diventata una priorità dichiarata dei principali attori del settore. Microsoft, per esempio, dopo il licenziamento lo scorso marzo dell’intero team di etica e società dedicato all’IA (nell’ambito di un taglio di 10.000 dipendenti in totale), a luglio ha fatto retromarcia diventando uno dei fondatori insieme ad Anthropic, Google e OpenAI del gruppo industriale costituito specificamente per definire gli standard di sicurezza per i progressi dell’IA.

Back To Top