skip to Main Content

Microsoft Giappone

Microsoft studia software da Black Mirror

Microsoft sta creando un software che riesca a simulare la personalità di un essere umano e consentire anche di parlare con chi è deceduto. Tutti i dettagli sul nuovo brevetto

 

Dalla realtà agli scenari alla “Transcendence” o “Black Mirror” è un attimo.

Microsoft vuole creare un software che riesca a simulare la personalità di un vero essere umano e consentire, per esempio, di parlare con qualcuno che non c’è più. Secondo il sito Ubergizmo, l’azienda di Redmond ha depositato un brevetto negli Stati Uniti per consentire ad un programma, un chatbot, di parlare come una persona vivente, copiando stili e schemi di comunicazione.

I chatbot sono software già utilizzati dalle aziende come risposta automatica e assistenza ai clienti.

Il programma attingerebbe alle informazioni private, ai dati sociali, al materiale relativo ad una data persona accessibile tramite Pc, smartphone e social network. Il brevetto, se mai dunque venisse applicato, implicherebbe anche problemi di protezione di dati personali.

IL BREVETTO DEPOSITATO DA MICROSOFT

Microsoft ha depositato dunque un brevetto per uno strumento di intelligenza artificiale che replicherebbe una persona in modo che possa ancora “prendere parte” alle conversazioni dopo la sua morte.

Oltre alla componente audio, verrebbe creata una rappresentazione 2D o 3D della persona “utilizzando immagini, informazioni di profondità e dati video associati alla persona specifica”.

COSA FAREBBE IL CHATBOT

Il brevetto afferma che il chatbot “converserebbe e interagirebbe nella personalità di una persona specifica”. Sarebbe inoltre in grado di “corrispondere a un’entità passata o presente (come) un amico, un parente, una celebrità, un personaggio di fantasia o un personaggio storico”.

Inoltre il chatbot potrebbe essere accessibile tramite un’app per smartphone o tramite un altoparlante intelligente.

E LA PRIVACY?

Il chatbot sarebbe addestrato utilizzando video e registrazioni vocali, oltre a lettere e post sui social media. Il brevetto, se mai dunque venisse applicato, implicherebbe anche problemi di protezione di dati personali.

PERCHÉ IL PRECEDENTE TAY È STATO “SPENTO”

È un’idea in qualche modo già messa in campo da Microsoft circa cinque anni fa quando ha lanciato Tay, un chatbot per Twitter che doveva simulare una teenager.

Un esperimento di Intelligenza artificiale che aveva come obiettivo quello di avviare e sostenere conversazioni con i millennial. Ma l’esperimento è durato solo poche ore, un lasso di tempo in cui Tay ha imparato il razzismo, a inneggiare a Hitler e a fare avance agli interlocutori. A quel punto è stata spenta.

Il rilascio di un brevetto non significa comunque che un prodotto arriverà sul mercato e non è noto se Microsoft abbia intenzione di rilasciarlo.

Back To Top