skip to Main Content

Intelligenza Artificiale

L’intelligenza artificiale farà fuori l’umanità? Cosa pensano Gates (Microsoft) e Schmidt (Google)

Sono numerosi i guru che lanciano pronostici catastrofici sull'IA. Ecco cosa pensano Bill Gates, storico fondatore di Microsoft ed Eric Schmidt, ex ceo di Google.

Se siamo fortunati l’intelligenza artificiale ammazzerà soltanto i modelli di business di alcune big tech che oggi reggono le sorti di Internet. Se non siamo fortunati, le intelligenze artificiali che stiamo iniziando a sguinzagliare faranno fuori direttamente noi umani. Queste, in soldoni, le tesi di due esperti di tecnologia a cui non dispiace sovente indossare le vesti del guru e lanciarsi in divinazioni da Cassandre che lamentano poi di non essere state ascoltate: Bill Gates, founder di Microsoft ed Eric Schmidt, ex ceo di Google.

L’INTELLIGENZA ARTIFICIALE AMMAZZERÀ LE BIG TECH?

Partiamo da quello che ha detto Gates, che pare sicuramente più centrato: durante un incontro organizzato da Goldman Sachs e SV Angel, il miliardario ha predetto che con le IA in campo: «Non andrete mai più su un sito di ricerca […], non andrete mai più su Amazon». Tutti noi avremo insomma un maggiordomo digitale che, grazie all’intelligenza artificiale, svolgerà tutte queste mansioni al posto nostro.

Che comunque non vuol dire morte certa per le due realtà menzionate, specie per il colosso dell’e-commerce. I nostri robo-attendenti, difatti, si collegheranno in nostra vece per farci la spesa, ma da qualche parte dovranno pur compare. Allo stesso modo il software per le ricerche integrato nei loro cervelloni elettronici potrebbe essere potenziato dalle piattaforme attuali, Google in primis.

CHI VINCE LA SFIDA DELL’IA PER GATES

Non contento, Gates si è lanciato pure in un’altra previsione: per lui l’attuale sfida dell’AI sarà vinta o da una startup oppure una Big Tech. Che è un po’ come dire che domani potrebbe piovere ma anche esserci il sole, ma tra le righe è cose se avesse detto che i soli competitor accreditati sono la startup OpenAI e la big Google. La prima è stata fondata pochi anni fa da Sam Altman e Elon Musk (che poi se ne è tirato fuori vendendo le proprie quote) ed è famosa in tutto il mondo per il successo di ChatGPT. Ricordiamo che in OpenAi Microsoft ha già investito oltre 11 miliardi di dollari per integrare la sua tecnologia nei propri prodotti e software.

Bill Gates ha poi fatto riferimento esplicito a un’altra startup, Inflection, fondata da un ex executive di DeepMind, Mustafa Suleyman, che avrebbe buone chance. Secondo lui il punto di singolarità, ovvero il momento in cui l’intelligenza artificiale supererà quella umana, non sarebbe così lontano e ciò comporterebbe la scomparsa di parecchi lavori/mansioni ripetitivi, che un robot o un software potrebbero svolgere in maniera più efficiente.

PER L’EX NUMERO 1 DI GOOGLE NON DOBBIAMO FARCI TROVARE IMPREPARATI

Ben più tragico il futuro immaginato da Eric Schmidt, ex ceo di Google, intervenuto al Ceo Council Summit del Wall Street Journal a Londra. Secondo Schmidt occorre anzitutto “essere pronti a sapere come fare in modo che queste cose non vengano utilizzate in modo improprio da persone malintenzionate”, perché c’è il rischio ipotetico che l’IA possa uccidere molte persone.

Non è la prima volta che il miliardario affronta la questione, ma non era mai stato tanto pessimista. A fine 2018, prima che ChatGpt dimostrasse insomma cosa fosse in grado di fare, aveva affrontato l’argomento derubricandolo a un rischio marginale: “Se si presentasse Terminator, lo staccheremmo”, aveva detto. “Se i robot killer dovessero iniziare, troveremmo un modo per fermarli”, il parere dell’ex numero 1 di Google. Come si vede, in entrambi i casi si focalizza sulla ‘exit strategy’ ovvero sulla necessità di sapere fin da subito come terminare programmi pericolosi.

CHI DIFFIDA DELL’IA

Con investimenti che, complessivamente, toccheranno tra i 100 e i 120 miliardi di dollari entro il 2026, secondo le stime di Bain & Company, il mercato che ruota attorno al machine learning crescerà del 16-18%. In particolare, le due aree che saranno più rilevanti nei prossimi tre anni sono quelle relative a Data Engineering e Intelligenza Artificiale, che avranno un peso rispettivamente del 35% e del 31% sugli investimenti totali. Anche Geoffrey Hinton, psicologo cognitivo e scienziato informatico britannico-canadese, considerato il “padrino dell’Intelligenza artificiale”, ha appena sbattuto dietro di sé le porte di Google per poter parlare liberamente dei rischi dell’IA. “Me ne sono andato per poter parlare dei suoi pericoli”, ha detto in un tweet.

IL MANIFESTO ANTI CHATGPT

Meno credibile Elon Musk, patron di Tesla ed ex investitore di OpenAi, che ha recentemente espresso timori sulle intelligenze artificiali aderendo al cosiddetto manifesto “anti ChatGPT”. «I sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di IA», si legge nel testo che prosegue con una serie di domande: «Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti».

La richiesta dei firmatari di quello che la stampa ha ribattezzato “manifesto degli anti ChatGpt” è di una pausa di almeno sei mesi di tutte le attività dei laboratori AI più potenti di GPT-4: «Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria».

Gli appellanti aggiungono: «I laboratori di AI e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e attuare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti».

Nel 2019 Musk e il Founder di Alibaba, Jack Ma, erano stati i protagonisti di una chiacchierata in pubblico a Shanghai, durante la quale l’imprenditore sudafricano aveva espresso tutti i dubbi su foschi scenari futuri in cui l’AI sarà sempre più potente.

Ma poi proprio Musk ha iniziato a finanziare una sua startup al lavoro su algoritmi di IA puntualizzando che la sua intelligenza artificiale sarà affidabile e bonaria con la razza umana: “Un’intelligenza artificiale che si preoccupa di capire l’universo difficilmente annienterà gli esseri umani perché siamo una parte interessante dell’universo”.

Back To Top