DIPFEJK?! VESTACKA INTELIGENCIJA U SLUZBI ZDRAVLJA! DAKLE ZA I PROTIV TEHNOLOGIJE NIKAD U VECEM RASKORAKU! KORONA VIRUS- DA ILI NE?
Lažni video snimci napravljeni „dipfejk“ (deepfake) tehnologijom postaju sve češći i realnističniji, i postoje ozbiljni razlozi za zabrinutost.
Možda ste do sada na internetu već pogledali video snimak na kojem Barak Obama naziva Donalda Trampa „potpunom sramotom“, ili Marka Zukerberga kako se hvali da ima „potpunu kontrolu nad milijardama ukradenih podataka ljudi“? Ili možda video u kojem se Džon Snežni (John Snow) izvinjava zbog neslavnog završetka „Igre Prestola“? Ukoliko je odgovor potvrdan, bili ste žrtva „dipfejk“ trenda. Ono što je fotošop za fotografije, „dipfejk“ tehnologija jeste za video snimke. Radi se o formi veštačke inteligencije koja na postojeće video snimke ugrađuje tuđa lica. Ukoliko želite da stavite nečije reči u usta određenog političara, da glumite u omiljenom filmu ili da plešete kao profesionalac, sada postoji način da to falsifikujete.Više od 15.000 lažnih videa pronađeno je na internetu u septembru 2019, skoro duplo više u odnosu na početak godine. U ogromnom broju slučajeva (96%) u pitanju su pornografski video fajlovi, a 99 odsto lažnih, mapiranih lica bile su ženske javne ličnosti, ili porno zvezde. S obzirom na to da nove tehnologije omogućavaju čak i nekvalifikovanim osobama da uz pregršt dostupnih fotografija prave lažne video snimke, oni će se verovatno proširiti.
„Dipfejk“ tehnologija može stvoriti i veoma uverljive fotografije, kao i zvukove. Veoma verne imitacije glasova javnih ličnosti uveliko se koriste. Prošlog marta, šef britanskog ogranka jedne nemačke energetske kompanije uplatio je blizu 200.000 funti na račun u Mađarskoj, nakon što mu je telefonom tako naređeno od strane osobe koja je nedvosmisleno zvučala kao generalni direktor ove kompanije. U kompaniji tvrde da je u pitanju bio „dipfejk“ glas, ali dokazi još uvek nisu jasni. Slične zloupotrebe dešavale su se i posredstvom lažnih glasovnih poruka preko „WhatsApp-a“.
Potrebno je nekoliko koraka kako bi se napravio lažni video snimak. Postupak se svodi na enkodovanje velikog broja fotografija lica osobe koja se nalazi na originalnom video snimku, i lica osobe čije lice je potrebno postaviti na snimak. Enkoder pronalazi sličnosti i razlike između lica dveju osoba, i kompresuje ih. Potom na scenu stupa dekoder koji „rekonstruiše“ kompresovane slike, frejm po frejm, kako bi se napravio verodostojni i uverljivi falsifikat.
Drugi metod je korišćenje GAN mreže (Generative adversarial network) koja postavlja dva AI (veštačka inteligencija) algoritma da rade jedan protiv drugog. Prvi algoritam – generator, stvara šum u formi fotografije. Ovakva sintetička fotografija se dodaje čitavom nizu stvarnih slika - nekih poznatih ličnosti, recimo, koje se dodaju u drugi AI algoritam - diskriminator. U početku, sintetičke fotografije neće mnogo podsećati na lica, ali ako se ovaj postupak ponovi više puta, generator će početi da proizvodi potpuno realistična lica.Ko se bavi pravljenjem „dipfejk-ova“ ?Svi - od akademskih i industrijskih istraživača, do amatera entuzijasta i studija za vizualne efekte, kao i producenata pornografskog sadržaja. Čak se i vlade bave ovom tehnologijom, kao deo svojih mrežnih strategija za diskreditovanje politički nepodobnih pojedinaca ili grupa.Koliko je tehnički zahtevno?
Teško je napraviti dobar „dipfejk“ sadržaj na standardnom, kućnom računaru. Koriste se veoma moćni računari sa jakim grafičkim procesorima. Potrebna je, takođe, i stručnost, kao i iskustvo. Na raspolaganju je mnoštvo alata koji pomažu ljudima prilikom pravljenja „dipfejk-ova“, a mnoge firme nude svoje usluge kako bi to uradile umesto vas.Kako da prepoznate „dipfejk“?
Prepoznavanje falsifikovanih video snimaka postaje sve teže, jer tehnologija napreduje. Tokom 2018. godine američki istraživači su otkrili da lica rađena u „dipfejk“ tehnologiji ne trepću prirodno. To nije iznenađujuće, jer fotografije u ogromnom broju slučajeva prikazuju ljude otvorenih očiju, pa algoritmi nikada ne nauče da trepću. Međutim, i ovaj nedostatak se otklanja.Vlade, univerziteti i tehnološke firme finansiraju istraživanja kako bi prepoznali „dipfejk“ sadržaj. Prošlog meseca otpočelo je prvo takmičenje u otkrivanju „dipfejk-ova“, podržano od strane Facebook-a, Microsoft-a I Amazon-a. Uključuje istraživačke timove iz celog sveta koji se takmiče za nadmoć u otkrivanju lažnog sadržaja.„Dipfejk“ može predstavljati problem u zaista širokom spektru ljudskog delovanja. Ali, ironično, upravo je veštačka inteligencija i rešenje ovog problema. AI već pomaže u pronalaženju lažnih video zapisa, premda i dalje mnogi postojeći sistemi za detekciju imaju određene slabosti: deluju dobro kada su poznate ličnosti u pitanju, jer mogu da koriste javno dostupni materijal, ali se slabije pokazuju kod običnih ljudi. Firme uveliko rade na sistemima detekcije koji će imati zadatak da odmah alarmiraju i označe video kao lažan, čim ga prepoznaju.
Smrtonosni virus hara i Italijom, a ako dođe do naše zemlje, i vojni objekti mogu biti upotrebljeni za karantin. Naši građani ne treba da idu u severnu Italiju, ni đaci na ekskurzije
Sve i da se pojavi koronavirus u Srbiji, neće biti smak sveta jer smo
spremi da reagujemo. Razgovarao sam sa ministrom odbrane Aleksandrom
Vulinom - bolnice i kasarne, kao i neki privatni objekti biće obezbeđeni
za eventualni smeštaj zaraženih kronavirusom.
Najvažnije je da građani poštuju uputstva nadležnih, da ne paniče i da znaju da radimo sve što treba u dogovoru sa Svetskom zdravstvenom organizacijom (SZO) - rekao je juče za Kurir ministar zdravlja Zlatibor Lončar.
Sve je više virusa i bakterija koji su otporni na antibiotike, a najviše zbog neodgovornog uzimanja lekova, i lečenja bez asistencije stručnjaka. Jedan model mašinskog učenja bi to mogao da promeni, budući da je već identifikovao snažan lek koji uništava mnoge od bakterija koje su otporne na obične antibiotike.
Novi lek je identifikovala grupa eksperata Masačusetskog tehnološkog institute (MIT), a tokom laboratorijskih testiranja se pokazalo da antibiotik ubija mnoge od bakterija koje izazivaju neke od najozbiljnijih bolesti na svetu, uključujući i neke od lanaca koji su otporni na sve poznate antibiotike.Kompjuterski model koji je korišćen u projektu dizajniran je tako da može da skenira više od 100 miliona hemijskih komponenti, i to za samo nekoliko dana, te sa spiska izabere antibiotik koji se razlikuje od postojećih, zahvaljujući čemu može da uništava i one bakterije koje su u međuvremenu postale otporne.
Eksperti tvrde da se radi o veoma moćnom antibiotiku, a tokom istraživanja je otkriveno još nekoliko kandidata koji obećavaju i koji će uskoro biti testiran.
Mašinsko učenje zaslužno za ovaj uspeh korak je u budućnost, te brža istraživanja, budući da je ovakav način analiziranja različitih hemijskih sastojaka daleko efikasniji od tradicionalnih istraživanja, pa kraće traje i manje košta.
I TAKO! VERUJ U STA HOCES! VESTACKA INTELIGENCIJA POMAZE I ODMAZE! ZAVISI KAKO SE GLEDA! KAO I SVE NA OVOME SVETU! ILITI ISTINA NIKAD NIJE SAMO JEDNA! PA DOBRO DOSLI U JOS JEDNO LUDILO!
Lažni video snimci napravljeni „dipfejk“ (deepfake) tehnologijom postaju sve češći i realnističniji, i postoje ozbiljni razlozi za zabrinutost.
Možda ste do sada na internetu već pogledali video snimak na kojem Barak Obama naziva Donalda Trampa „potpunom sramotom“, ili Marka Zukerberga kako se hvali da ima „potpunu kontrolu nad milijardama ukradenih podataka ljudi“? Ili možda video u kojem se Džon Snežni (John Snow) izvinjava zbog neslavnog završetka „Igre Prestola“? Ukoliko je odgovor potvrdan, bili ste žrtva „dipfejk“ trenda. Ono što je fotošop za fotografije, „dipfejk“ tehnologija jeste za video snimke. Radi se o formi veštačke inteligencije koja na postojeće video snimke ugrađuje tuđa lica. Ukoliko želite da stavite nečije reči u usta određenog političara, da glumite u omiljenom filmu ili da plešete kao profesionalac, sada postoji način da to falsifikujete.Više od 15.000 lažnih videa pronađeno je na internetu u septembru 2019, skoro duplo više u odnosu na početak godine. U ogromnom broju slučajeva (96%) u pitanju su pornografski video fajlovi, a 99 odsto lažnih, mapiranih lica bile su ženske javne ličnosti, ili porno zvezde. S obzirom na to da nove tehnologije omogućavaju čak i nekvalifikovanim osobama da uz pregršt dostupnih fotografija prave lažne video snimke, oni će se verovatno proširiti.
„Dipfejk“ tehnologija može stvoriti i veoma uverljive fotografije, kao i zvukove. Veoma verne imitacije glasova javnih ličnosti uveliko se koriste. Prošlog marta, šef britanskog ogranka jedne nemačke energetske kompanije uplatio je blizu 200.000 funti na račun u Mađarskoj, nakon što mu je telefonom tako naređeno od strane osobe koja je nedvosmisleno zvučala kao generalni direktor ove kompanije. U kompaniji tvrde da je u pitanju bio „dipfejk“ glas, ali dokazi još uvek nisu jasni. Slične zloupotrebe dešavale su se i posredstvom lažnih glasovnih poruka preko „WhatsApp-a“.
Potrebno je nekoliko koraka kako bi se napravio lažni video snimak. Postupak se svodi na enkodovanje velikog broja fotografija lica osobe koja se nalazi na originalnom video snimku, i lica osobe čije lice je potrebno postaviti na snimak. Enkoder pronalazi sličnosti i razlike između lica dveju osoba, i kompresuje ih. Potom na scenu stupa dekoder koji „rekonstruiše“ kompresovane slike, frejm po frejm, kako bi se napravio verodostojni i uverljivi falsifikat.
Drugi metod je korišćenje GAN mreže (Generative adversarial network) koja postavlja dva AI (veštačka inteligencija) algoritma da rade jedan protiv drugog. Prvi algoritam – generator, stvara šum u formi fotografije. Ovakva sintetička fotografija se dodaje čitavom nizu stvarnih slika - nekih poznatih ličnosti, recimo, koje se dodaju u drugi AI algoritam - diskriminator. U početku, sintetičke fotografije neće mnogo podsećati na lica, ali ako se ovaj postupak ponovi više puta, generator će početi da proizvodi potpuno realistična lica.Ko se bavi pravljenjem „dipfejk-ova“ ?Svi - od akademskih i industrijskih istraživača, do amatera entuzijasta i studija za vizualne efekte, kao i producenata pornografskog sadržaja. Čak se i vlade bave ovom tehnologijom, kao deo svojih mrežnih strategija za diskreditovanje politički nepodobnih pojedinaca ili grupa.Koliko je tehnički zahtevno?
Teško je napraviti dobar „dipfejk“ sadržaj na standardnom, kućnom računaru. Koriste se veoma moćni računari sa jakim grafičkim procesorima. Potrebna je, takođe, i stručnost, kao i iskustvo. Na raspolaganju je mnoštvo alata koji pomažu ljudima prilikom pravljenja „dipfejk-ova“, a mnoge firme nude svoje usluge kako bi to uradile umesto vas.Kako da prepoznate „dipfejk“?
Prepoznavanje falsifikovanih video snimaka postaje sve teže, jer tehnologija napreduje. Tokom 2018. godine američki istraživači su otkrili da lica rađena u „dipfejk“ tehnologiji ne trepću prirodno. To nije iznenađujuće, jer fotografije u ogromnom broju slučajeva prikazuju ljude otvorenih očiju, pa algoritmi nikada ne nauče da trepću. Međutim, i ovaj nedostatak se otklanja.Vlade, univerziteti i tehnološke firme finansiraju istraživanja kako bi prepoznali „dipfejk“ sadržaj. Prošlog meseca otpočelo je prvo takmičenje u otkrivanju „dipfejk-ova“, podržano od strane Facebook-a, Microsoft-a I Amazon-a. Uključuje istraživačke timove iz celog sveta koji se takmiče za nadmoć u otkrivanju lažnog sadržaja.„Dipfejk“ može predstavljati problem u zaista širokom spektru ljudskog delovanja. Ali, ironično, upravo je veštačka inteligencija i rešenje ovog problema. AI već pomaže u pronalaženju lažnih video zapisa, premda i dalje mnogi postojeći sistemi za detekciju imaju određene slabosti: deluju dobro kada su poznate ličnosti u pitanju, jer mogu da koriste javno dostupni materijal, ali se slabije pokazuju kod običnih ljudi. Firme uveliko rade na sistemima detekcije koji će imati zadatak da odmah alarmiraju i označe video kao lažan, čim ga prepoznaju.
Smrtonosni virus hara i Italijom, a ako dođe do naše zemlje, i vojni objekti mogu biti upotrebljeni za karantin. Naši građani ne treba da idu u severnu Italiju, ni đaci na ekskurzije
Najvažnije je da građani poštuju uputstva nadležnih, da ne paniče i da znaju da radimo sve što treba u dogovoru sa Svetskom zdravstvenom organizacijom (SZO) - rekao je juče za Kurir ministar zdravlja Zlatibor Lončar.
Sve je više virusa i bakterija koji su otporni na antibiotike, a najviše zbog neodgovornog uzimanja lekova, i lečenja bez asistencije stručnjaka. Jedan model mašinskog učenja bi to mogao da promeni, budući da je već identifikovao snažan lek koji uništava mnoge od bakterija koje su otporne na obične antibiotike.
Novi lek je identifikovala grupa eksperata Masačusetskog tehnološkog institute (MIT), a tokom laboratorijskih testiranja se pokazalo da antibiotik ubija mnoge od bakterija koje izazivaju neke od najozbiljnijih bolesti na svetu, uključujući i neke od lanaca koji su otporni na sve poznate antibiotike.Kompjuterski model koji je korišćen u projektu dizajniran je tako da može da skenira više od 100 miliona hemijskih komponenti, i to za samo nekoliko dana, te sa spiska izabere antibiotik koji se razlikuje od postojećih, zahvaljujući čemu može da uništava i one bakterije koje su u međuvremenu postale otporne.
Eksperti tvrde da se radi o veoma moćnom antibiotiku, a tokom istraživanja je otkriveno još nekoliko kandidata koji obećavaju i koji će uskoro biti testiran.
Mašinsko učenje zaslužno za ovaj uspeh korak je u budućnost, te brža istraživanja, budući da je ovakav način analiziranja različitih hemijskih sastojaka daleko efikasniji od tradicionalnih istraživanja, pa kraće traje i manje košta.
I TAKO! VERUJ U STA HOCES! VESTACKA INTELIGENCIJA POMAZE I ODMAZE! ZAVISI KAKO SE GLEDA! KAO I SVE NA OVOME SVETU! ILITI ISTINA NIKAD NIJE SAMO JEDNA! PA DOBRO DOSLI U JOS JEDNO LUDILO!
Нема коментара :
Постави коментар