DeepFakes: Les médias parlent de politique alors que le public s'intéresse à la pornographie – xnxx

[Social_share_button]

Mappatura facciale del video di Barack Obama come parte della creazione di un video "deep fake". (Foto AP)

"Deep Fakes" è esploso nella coscienza pubblica nel mese di dicembre 2017 con l'aumento di pornografia costruita dall'IA in cui sono stati inseriti volti celebrità in video pornografici. Un utente di Reddit, intitolato "deepfakes", ha pubblicato una serie di video che hanno inaugurato una nuova era di pensiero sull'impatto dell'intelligenza artificiale e la sua transizione dal laboratorio al mondo reale e ci hanno dato il nome di questo nuovo tipo di realtà artificiale costruita numericamente. Dopo questo breve scoppio iniziale, sembra che abbiamo perso in gran parte interesse per l'idea di "falsi fittizi" semplicemente integrando il flusso incessante di avanzamenti di IA, dalle macchine senza conducente agli algoritmi di riconoscimento facciale Nel complesso, i media si sono concentrati sui potenziali impatti elettorali di gravi falsificazioni, mentre il pubblico si è concentrato su pornogr

La cronologia qui sotto mostra l'interesse totale degli Stati Uniti nella ricerca delle quattro espressioni inglesi "deep fake", "deep fake", "deepfake" e "deepfakes" dal mese di novembre 1er 2017er utilizzando Google tendenze. è chiaro che le versioni a una sola parola "deepfake" e "deepfakes" dominano l'interesse della ricerca, "deepfakes" è il più popolare a causa della sua selezione come nome utente Reddit della persona che ha reso popolare il suo uso contemporaneo, mentre "deepfake"

Interesse di ricerca americano per le quattro espressioni inglesi "deep fake", "deep fake", "deepfake" e "deepfakes" dal 1 November 2017er utilizzando Google Trends Kalev Leetaru

Su scala globale, la tendenza è ancora più sorprendente, il termine inglese "deepfake" ha più di tre volte il volume di ricerca degli altri termini.

Interesse di ricerca globale per le quattro espressioni inglesi "deep fake", "deep fakes, deepfake" e "deepfakes" dal mese di novembre 1er 2017 su Google Trends Kalev Leetaru

Un utente di Reddit, chiamato "deepfakes", ha introdotto il mondo della pornografia basata sull'intelligenza artificiale. tradizionale a dicembre 2017 quando pubblica una serie di video pornografici che sostituiscono i volti degli artisti di quelli di personaggi famosi famosi.

Dopo aver generato un breve ronzio, il termine ha effettivamente preso il volo a febbraio 2018 mentre stavano iniziando video simili inondazione Internet mentre gli strumenti e le tecniche necessarie erano ampiamente disponibili. L'alluvione è diventata così grande che i principali siti Web sono stati costretti a vietare divieti generali sui video e inizia a eliminarli.

Al contrario, il servizio pubblico di Jordan Peele in aprile 2018 annuncio posando come ex presidente Barack Obama ha ricevuto un urto quasi impercettibile nell'interesse della ricerca, come evidenziato dalle cronologie di cui sopra.

Sembra che l'idea della pornografia celebrità sia molto più interessante per il pubblico della minaccia distopica dei capi di stato

Alla fine di 2018, Scarlett Johansson ha avanzato la conclusione deprimente che i falsi profondi erano qui per rimanere e che "cercare di proteggersi da Internet e dalla sua depravazione è una causa persa". È interessante notare che, nella sua frase introduttiva, il Washington Post identificato falsi contraffatti come video "in cui i volti delle donne sono inseriti in video espliciti", ricorda. Siamo arrivati ​​a capire come il termine sia stato associato agli aspetti più oscuri della cultura di Internet.

Primo esempio conosciuto di un grande canale TV diffondente un video falsificato e falsificato, in cui c'era il volto del presidente Trump

L'ondata più recente di interesse è quella della settimana di 27 di gennaio 2019 in cui un video virale Virale della testa di Steve Buscemi sul corpo di Jennifer Lawrence ha mostrato quanto i video fossero stranamente realistici e realistici.

È chiaro che l'interesse pubblico si è concentrato sulla pornografia a scapito della politica per quanto riguarda le potenziali applicazioni della contraffazione profonda. In effetti, quasi tutti i termini di ricerca più comunemente associati a profonde falsificazioni sono legati alla pornografia.

I media sono stati tanto affascinati dalle applicazioni pornografiche di profonde falsificazioni, ma hanno dedicato tanto alle sue ramificazioni politiche. . Informazioni su 42% di intervistati ha menzionato le proprie applicazioni pornografiche nella propria copertura di notizie online nelle lingue 65 monitorate come parte del progetto GDELT mentre 48% ha menzionato il suo potenziale utilizzo in politica. Insieme, i due soggetti hanno rappresentato 72% della copertura finta-in-profondità, che mostra quanto bene hanno definito la nostra conversazione sociale intorno a immagini generate dall'intelligenza artificiale.

A differenza delle ricerche sul Web, quando si tratta della copertura globale delle notizie online, è il plurale. la forma che ha dominato, con "deepfakes" che rappresentano il 0,43% di copertura nello stesso periodo, rispetto a 0,34% per "deepfake". Come per le ricerche sul Web, le varianti di una singola parola hanno ricevuto molta più attenzione delle versioni frasali, con "profonde falsificazioni" che hanno ottenuto la copertura di 0,15% e "falsificazioni profonde" di 0,14%.

Mese dopo mese, i media hanno parlato sempre più di gravi falsificazioni, ma il soggetto è ancora estremamente stanco. Il suo apice è stato raggiunto in agosto 2018 quando Tumblr vietato finta pornografia profonda e primi risultati Cominciarono ad emergere dagli sforzi della DARPA per combatterli mentre le compagnie tecnologiche combattevano il gioco del gatto e del topo. rimozione & nbsp; i video stanno migliorando rapidamente.

Sommario mensile della percentuale giornaliera di copertura di notizie online in tutto il mondo che menziona le contraffazioni profonde monitorate dal progetto GDELT Kalev Leetaru

La cronologia sottostante mostra lo stesso grafico, ma è suddivisa in copertura degli impatti pornografici delle contraffazioni profonde in relazione al suo impatto politico. La pornografia ha dominato la conversazione profonda fino ad aprile 2018 con il video Peele, dopo di che la copertura mediatica si è sempre più concentrata sul potenziale impatto politico di profonde falsificazioni.

Sommario mensile della percentuale giornaliera di copertura di notizie online in tutto il mondo che menziona falsificazioni profonde Contesto della pornografia o della politica monitorata dal progetto GDELT Kalev Leetaru

In sintesi, il pubblico sembra concentrato sull'applicazione di immagini create dall'IA per creare materiale pornografico senza molto interesse per i nostri sistemi democratici. D'altra parte, i media hanno condiviso il loro tempo equamente tra pornografia e politica, con un crescente spostamento verso la politica che non si riflette nelle ricerche web del pubblico. Sembra che il riconoscimento da parte dei media della crescente minaccia di profonda interferenza politica non sia ancora accompagnato da un calcolo pubblico.

Alla fine, è chiaro che i tecnologi hanno ancora molto da fare per ridefinire il discorso pubblico sulle false imitazioni. verso le sue applicazioni più pericolose per indebolire la democrazia stessa.

">

Mappatura facciale del video di Barack Obama come parte della creazione di un video del tipo "deep fake". (Foto AP)

"A dicembre 2017, il pubblico è stato spinto nella coscienza pubblica con l'aumento di pornografia costruita dall'IA in cui sono stati inseriti volti celebrità in video pornografici. Un utente di Reddit chiamato "deepfakes" ha rilasciato una serie di video di nuova era che riflettono l'impatto dell'intelligenza artificiale e la sua transizione dal laboratorio al mondo reale e ci ha dato il nome di questo nuovo tipo di realtà artificiale costruita digitalmente . Non c'è stato alcun interesse nell'idea di "falsificazione profonda", il soggetto che si fonde nel flusso infinito di progressi dell'IA, dalle auto senza conducente agli algoritmi di riconoscimento facciale. Nel complesso, i media si sono concentrati sulle potenziali conseguenze elettorali di gravi falsificazioni, mentre il pubblico si concentrava sulla pornografia.

La cronologia qui sotto mostra l'interesse totale degli Stati Uniti nella ricerca delle quattro espressioni inglesi "deep fake", "deep fakes", "deepfake" e "deepfakes" dal 1er November 2017 su Google Trends. è chiaro che le versioni a una sola parola "deepfake" e "deepfakes" dominano l'interesse della ricerca, "deepfakes" è il più popolare a causa della sua selezione come nome utente Reddit della persona che ha reso popolare il suo uso contemporaneo, mentre "deepfake"

Interesse di ricerca americano per le quattro espressioni inglesi "deep fake", "deep fake", "deepfake" e "deepfakes" dal 1 November 2017er utilizzando Google Trends Kalev Leetaru [19659027] In tutto il mondo, la tendenza è ancora più chiara, il termine inglese "deepfake" ha più di tre volte il volume di ricerca di altri termini.

Interesse di ricerca globale per le quattro espressioni inglesi "deep fake", "deep fakes", "deepfake" e "deepfakes" dal mese di novembre 1er 2017 su Google Trends Kalev Leetaru

Un utente di Reddit, chiamato "deepfakes", ha introdotto il mondo della pornografia basata sull'intelligenza artificiale corrente principale a dicembre 2017, quando pubblica una serie di video pornografici che sostituiscono i volti degli artisti di quelli di personaggi famosi famosi

Dopo aver generato un breve ronzio, il termine decolla a febbraio 2018. mentre stavano iniziando video simili inondazione Internet, gli strumenti e le tecniche necessari diventano ampiamente disponibili. L'alluvione è diventata così grande che i principali siti Web sono stati costretti a vietare divieti generali sui video e inizia a eliminarli.

Al contrario, il servizio pubblico di Jordan Peele in aprile 2018 annuncio posando come ex presidente Barack Obama ha ricevuto un urto quasi impercettibile nell'interesse della ricerca, come evidenziato dalle cronologie di cui sopra.

Sembra che l'idea della pornografia celebrità sia molto più interessante per il pubblico della minaccia distopica dei capi di stato

Alla fine di 2018, Scarlett Johansson ha avanzato la conclusione deprimente che i falsi profondi erano qui per rimanere e che "cercare di proteggersi da Internet e dalla sua depravazione è una causa persa". È interessante notare che, nella sua frase introduttiva, il Washington Post identificato falsi contraffatti come video "in cui i volti delle donne sono inseriti in video espliciti", ricorda. Siamo arrivati ​​a capire come il termine sia stato associato agli aspetti più oscuri della cultura di Internet.

Primo esempio conosciuto di un grande canale TV diffondente un video falsificato e falsificato, in cui c'era il volto del presidente Trump

L'ondata più recente di interesse è quella della settimana di 27 di gennaio 2019 in cui un video virale Virale della testa di Steve Buscemi sul corpo di Jennifer Lawrence ha mostrato quanto i video fossero stranamente realistici e realistici.

È chiaro che l'interesse pubblico si è concentrato sulla pornografia a scapito della politica per quanto riguarda le potenziali applicazioni della contraffazione profonda. In effetti, quasi tutti i termini di ricerca più comunemente associati a profonde falsificazioni sono legati alla pornografia

I media sono stati ugualmente affascinati dalle applicazioni pornografiche di profonde falsificazioni, ma hanno dedicato così tanto tempo alle sue ramificazioni politiche. Informazioni su 42% di intervistati ha menzionato le proprie applicazioni pornografiche nella propria copertura di notizie online nelle lingue 65 monitorate come parte del progetto GDELT mentre 48% ha menzionato il suo potenziale utilizzo in politica. Insieme, i due soggetti hanno rappresentato 72% della copertura finta-in-profondità, che mostra quanto bene hanno definito la nostra conversazione sociale intorno a immagini generate dall'intelligenza artificiale.

A differenza delle ricerche sul Web, quando si tratta della copertura globale delle notizie online, è il plurale. la forma che ha dominato, con "deepfakes" che rappresentano il 0,43% di copertura nello stesso periodo, rispetto a 0,34% per "deepfake". Come per le ricerche sul Web, le varianti di una singola parola hanno ricevuto molta più attenzione delle versioni frasali, con "profonde falsificazioni" che hanno ottenuto la copertura di 0,15% e "falsificazioni profonde" di 0,14%.

Mese dopo mese, i media hanno parlato sempre più di gravi falsificazioni, ma il soggetto è ancora estremamente stanco. Il suo apice è stato raggiunto in agosto 2018 quando Tumblr vietato finta pornografia profonda e primi risultati Cominciarono ad emergere dagli sforzi della DARPA per combatterli mentre le compagnie tecnologiche combattevano il gioco del gatto e del topo. rimozione i video stanno migliorando rapidamente.

Sommario mensile della percentuale giornaliera di copertura di notizie online in tutto il mondo che menziona le contraffazioni profonde monitorate dal progetto GDELT Kalev Leetaru

Il calendario seguente mostra lo stesso grafico, ma diviso in copertura degli impatti pornografici di profonde falsificazioni in relazione al suo impatto politico. La pornografia ha dominato la conversazione profonda fino ad aprile 2018 con il video Peele, dopo di che la copertura mediatica si è sempre più concentrata sul potenziale impatto politico di profonde falsificazioni.

Sommario mensile della percentuale giornaliera di copertura di informazioni online in tutto il mondo che menziona falsificazioni profonde Contesto della pornografia o della politica monitorata dal progetto GDELT Kalev Leetaru

In sintesi, il pubblico sembra concentrato sull'applicazione di immagini create dall'IA per creare materiale pornografico senza molto interesse per i nostri sistemi democratici. D'altra parte, i media hanno condiviso il loro tempo equamente tra pornografia e politica, con un crescente spostamento verso la politica che non si riflette nelle ricerche web del pubblico. Sembra che il riconoscimento da parte dei media della crescente minaccia di profonda interferenza politica non sia ancora accompagnato da un calcolo pubblico.

Alla fine, è chiaro che i tecnologi hanno ancora molto da fare per ridefinire il discorso pubblico sulle false imitazioni. verso le sue applicazioni più pericolose per indebolire la democrazia stessa.

Questo articolo è apparso per primo https://www.forbes.com/sites/kalevleetaru/2019/03/16/deepfakes-the-media-talks-politics-while-the-public-is-interested-in-pornography/