La disseminazione della discordia e' gia' ampiamente in atto; l'automazione di tali operazioni potrebbe spingere gli sforzi di disinformazione verso nuove vette che potrebbero sfociare anche in situazioni reali di follia collettiva.
— Fabio Vanorio (@FabioVanorio) August 3, 2019
Con un ridotto input, GPT-2 può continuare il testo nello stesso stile iniziale. In alcuni casi, il testo che il software genera è indistinguibile da quello scritto da un essere umano.
— Fabio Vanorio (@FabioVanorio) August 3, 2019
Se un prompt descrive un fake event, tipo un falso o inesatto articolo di cronaca, GPT-2 può sintetizzare ulteriori dettagli e citazioni in modo da rendere "real" il "fake event" iniziale.
— Fabio Vanorio (@FabioVanorio) August 3, 2019
Foreign Affairs ha utilizzato la versione pubblica del GPT-2 per generare articoli sul sequestro di una nave nordcoreana poiche' quasi il 90% degli americani vedono la Corea del Nord in modo negativo.
— Fabio Vanorio (@FabioVanorio) August 3, 2019
La fake news e' stata cosi' impostata: GPT-2 ha scalato la produzione di articoli rrivando a 3 testi che continuano dai primi due paragrafi di un articolo del NYT sul sequestro di una nave nordcoreana); umani avrebbero scritto i led; GPT-2 avrebbe scritto il testo finale.
— Fabio Vanorio (@FabioVanorio) August 3, 2019
Il 72% degli intervistati che ha letto un articolo sintetizzato l'ha considerato credibile, rispetto all'83% che ha giudicato credibile l'articolo originale del NYT.
— Fabio Vanorio (@FabioVanorio) August 3, 2019
Man mano che la tecnologia per la produzione di tali testi sintetici migliora, la disinformazione diventerà più economica, più diffusa e più automatizzata, ed le persone riterranno plausibile tutto ciò che leggono.
— Fabio Vanorio (@FabioVanorio) August 3, 2019
Fonte: https://t.co/bs8U72mCT9
— Fabio Vanorio (@FabioVanorio) August 3, 2019