LAŽNE VESTI su upravo postale još strašnije: SVAKI video i audio snimak može biti LAŽAN – VIDEO

Advertisement

Ilustracija

foto: pixabay.com

Rik Estli je zvezda osamdesetih. Njegova pesma “Never Gonna Give You Up” iz 1987. puštena je preko “Jutjuba” više od 330 miliona puta. Ali, u februaru prošle godine Estli je bio glavni junak jednog neobičnog eksperimenta, piše “Ekonomist”.

Pevač, koji i dalje izgleda, maltene, isto kao pre 30 godina, ponovo je otpevao svoju hit pesmu ali u neobičnom maniru. Zbrka tonova i njegovog glasa smenjuje se tokom tri i po minuta.

Međutim, Estli nije stvarno obradio svoju pesmu. Za to je zaslužan umetnik Mario Klingeman, koji je uz pomoć pametnog softvera dao plastičan primer generisanih medija, koji koriste brze i bazične tehnike.

[adsenseyu5]

Sofisticirana tehnologija je na ivici toga da postane sposobna da generiše kredibilni video i audio snimak bilo koga kako govori bilo šta.

Ovo je rezultat razvoja tehnike veštačke inteligencije (AI) zvane “učenje mašina”, koje omogućava proizvodnju slika i zvuka. Jedna određena postavka, poznata kao GAN, može se koristiti za pravljenje veštačkih fotografija koje izgledaju stvarno, dok se drugi deo istog softvera postavlja u opoziciju.

Taj deo gleda napravljene slike i određuje da li su stvarne, na osnovu sličnosti sa onima u bazi podataka za obuku. Tako proizvodni deo softvera uči na sopstvenim greškama. Trenutno generisane slike zahtevaju ogromnu količinu energije i prave se samo u niskoj rezoluciji. Trenutno.

Vizuelnim i audio-snimcima manipuliše se otkako postoje. Ali su stari lažnjaci napravljeni rezanjem komadića sa fotografskog negative i njegovom kombinacijom sa drugima kako bi se napravio svež otisak.

Nove tehnike su skroz drugačije, ističe “Ekonomist”. Dok preuređenje vizuelnih i audio-snimaka uz pomoć softvera zahteva veštinu, generativni softver može proizvoditi lažnjake automatski, samo na osnovu jednostavnih instrukcija.

Skoro NEPOGREŠIV: Kompjuterski program analizira lice i pogađa da li je osoba gej ili strejt

Tako napravljene slike mogu prevariti ljude, ali i kompjutere. Neki pikseli na slici izmenjenoj uz pomoć softvera neće odgovarati onom što bi očekivali u stvarnom svetu.

Zato što je za njihovo stvaranje potrebno ubediti deo softvera koji traže takve statističke anomalije u realnost napravljenog, generisane slike ne sadrže znakove krivotvorenja. Generisana slika je takođe konzistentna, odajući samo par znakova izmene.

[adsenseyu1]

Malo je verovatno da će takve krivotvorine uzrokovati štetu političarima ili drugim moćnim figurama, ocenjuje “Ekonomist”. Takav materijal se proučava u javnosti, pa će se lažnjaci identifikovati drugim sredstvima, na primer ispitivanjem okolnosti i njihovim poređenjem sa kretanjem osobe.

Takođe je verovatno da će mediji izaći sa podacima o vremenu, datumu i lokaciji kako bi dokazali istinitost snimljenog. Ali, lažnjake na nižem nivou je mnogo teže proveriti – učenik uradio nešto što nije trebao, ili nezadovoljni radnik opsovao šefa – takvi slučajevi ne potpadaju pod istu strogu proveru.

Bez tehnike da se dokaže verodostojnost snimljenog, pojedinci će se naći u poziciji da ničemu ne mogu da veruju, zaključuje “Ekonomist”.

(Skandalozno.rs, Izvor: blic.rs, The Economist)

[adsenseyu2]

Budite prvi sa komentarom na članku "LAŽNE VESTI su upravo postale još strašnije: SVAKI video i audio snimak može biti LAŽAN – VIDEO"

Ostavite komentar

Vaša email adresa neće biti objavljena.