LAŽNE VESTI su upravo postale još strašnije: SVAKI video i audio snimak može biti LAŽAN – VIDEO

Ilustracija

foto: pixabay.com

Rik Estli je zvezda osamdesetih. Njegova pesma “Never Gonna Give You Up” iz 1987. puštena je preko “Jutjuba” više od 330 miliona puta. Ali, u februaru prošle godine Estli je bio glavni junak jednog neobičnog eksperimenta, piše “Ekonomist”.

Pevač, koji i dalje izgleda, maltene, isto kao pre 30 godina, ponovo je otpevao svoju hit pesmu ali u neobičnom maniru. Zbrka tonova i njegovog glasa smenjuje se tokom tri i po minuta.

Međutim, Estli nije stvarno obradio svoju pesmu. Za to je zaslužan umetnik Mario Klingeman, koji je uz pomoć pametnog softvera dao plastičan primer generisanih medija, koji koriste brze i bazične tehnike.

Sofisticirana tehnologija je na ivici toga da postane sposobna da generiše kredibilni video i audio snimak bilo koga kako govori bilo šta.

Ovo je rezultat razvoja tehnike veštačke inteligencije (AI) zvane “učenje mašina”, koje omogućava proizvodnju slika i zvuka. Jedna određena postavka, poznata kao GAN, može se koristiti za pravljenje veštačkih fotografija koje izgledaju stvarno, dok se drugi deo istog softvera postavlja u opoziciju.

Taj deo gleda napravljene slike i određuje da li su stvarne, na osnovu sličnosti sa onima u bazi podataka za obuku. Tako proizvodni deo softvera uči na sopstvenim greškama. Trenutno generisane slike zahtevaju ogromnu količinu energije i prave se samo u niskoj rezoluciji. Trenutno.

Vizuelnim i audio-snimcima manipuliše se otkako postoje. Ali su stari lažnjaci napravljeni rezanjem komadića sa fotografskog negative i njegovom kombinacijom sa drugima kako bi se napravio svež otisak.

Nove tehnike su skroz drugačije, ističe “Ekonomist”. Dok preuređenje vizuelnih i audio-snimaka uz pomoć softvera zahteva veštinu, generativni softver može proizvoditi lažnjake automatski, samo na osnovu jednostavnih instrukcija.

Skoro NEPOGREŠIV: Kompjuterski program analizira lice i pogađa da li je osoba gej ili strejt

Tako napravljene slike mogu prevariti ljude, ali i kompjutere. Neki pikseli na slici izmenjenoj uz pomoć softvera neće odgovarati onom što bi očekivali u stvarnom svetu.

Zato što je za njihovo stvaranje potrebno ubediti deo softvera koji traže takve statističke anomalije u realnost napravljenog, generisane slike ne sadrže znakove krivotvorenja. Generisana slika je takođe konzistentna, odajući samo par znakova izmene.

Malo je verovatno da će takve krivotvorine uzrokovati štetu političarima ili drugim moćnim figurama, ocenjuje “Ekonomist”. Takav materijal se proučava u javnosti, pa će se lažnjaci identifikovati drugim sredstvima, na primer ispitivanjem okolnosti i njihovim poređenjem sa kretanjem osobe.

Takođe je verovatno da će mediji izaći sa podacima o vremenu, datumu i lokaciji kako bi dokazali istinitost snimljenog. Ali, lažnjake na nižem nivou je mnogo teže proveriti – učenik uradio nešto što nije trebao, ili nezadovoljni radnik opsovao šefa – takvi slučajevi ne potpadaju pod istu strogu proveru.

Bez tehnike da se dokaže verodostojnost snimljenog, pojedinci će se naći u poziciji da ničemu ne mogu da veruju, zaključuje “Ekonomist”.

(Skandalozno.rs, Izvor: blic.rs, The Economist)

Budite prvi sa komentarom na članku "LAŽNE VESTI su upravo postale još strašnije: SVAKI video i audio snimak može biti LAŽAN – VIDEO"

Ostavite komentar

Vaša email adresa neće biti objavljena.