Med vsemi strašljivimi močmi interneta je zmožnost prevaranja ničesar, ki ne bo ničesar, najbolj strah. Clickbait, fotografirane fotografije in lažne novice so nekateri najhujši storilci kaznivih dejanj, v zadnjih letih pa se pojavlja tudi novo potencialno nevarno orodje, znano kot umetna inteligenca deepfake (AI).
Izraz deepfake se nanaša na ponarejene, računalniško ustvarjene video in avdio, ki jih je težko ločiti od pristne, nespremenjene vsebine. Je posneti film Photoshop.
Kako deluje AI deepfake AI?
Orodje se opira na tako imenovane generative adversarial network (GANs), tehniko, ki jo je leta 2014 izumil Ian Goodfellow, doktor znanosti. študent, ki zdaj dela v podjetju Apple, je poročal Popular Mechanics.
Algoritem GAN vključuje dve ločeni AI, in sicer tiste, ki ustvarjajo vsebino - recimo fotografije ljudi - in nasprotnika, ki poskuša uganiti, ali so slike resnične ali ponarejene, poroča Vox. Ustvarjanje AI se začne skoraj brez ideje o tem, kako ljudje izgledajo, kar pomeni, da lahko njegov partner zlahka razlikuje prave fotografije od lažnih. Toda sčasoma se vsaka vrsta AI postopoma izboljšuje in sčasoma ustvarjajoči AI začne proizvajati vsebino, ki je videti popolnoma živo.
Primeri globinskih ponaredkov
GAN so impresivno orodje in se ne uporabljajo vedno v zlonamerne namene. Leta 2018 je slika, ustvarjena z GAN, ki posnema nizozemski slog "Old Master" umetnikov, kot je Rembrandt van Rijn iz 17. stoletja, prodala v dražbeni hiši Christie za neverjetnih 432.500 dolarjev.
Istega leta se je deepfakes povzpel do razširjenega značaja, predvsem prek uporabnika Reddita, ki je prejel ime "deepfakes", je sporočil Vice. Tehnika GAN se je pogosto uporabljala za polaganje obrazov znanih osebnosti - med njimi Gal Gadot, Maisie Williams in Taylor Swift - na telesa igralk pornografskih filmov.
Drugi GAN so se naučili posneti posamezno sliko osebe in ustvariti dokaj realne nadomestne fotografije ali videoposnetke te osebe. V letu 2019 bi lahko globoka zgodba ustvarila grozljive, a realistične filme Mona Lisa, ki se na različnih položajih premikajo in smehljajo.
Deepfakes lahko spremeni tudi zvočno vsebino. Kot poroča The Verge v začetku letošnjega leta, lahko tehnika zlije nove besede v videoposnetek osebe, ki govori, tako da je videti, da so povedali nekaj, česar nikoli niso nameravali.
Enostavnost uporabe novega orodja ima lahko zastrašujoče posledice. Če kdorkoli in kjer koli lahko naredi realistične filme, ki prikazujejo slavne ali politične osebe, ki govorijo, premikajo in izgovarjajo besede, ki jih niso nikoli izrekle, so gledalci prisiljeni, da se bolj osredotočijo na vsebino na internetu. Kot primer, samo poslušajte opozorila predsednika Obame pred "izbrušeno" distopijsko prihodnostjo v tem videoposnetku iz oddaje Buzzfeed, ki ga je ustvaril s pomočjo deepfakea režiserja filma Jordana Peele.