NE, NE RADI SE O ALI RADI SE O VESTACKOJ INTELIGENCIJI. KOLIKO DOBROG DONOSI TEHNOLOGIJA TOLIKO I LOSEG. KAKO NAUCNICI VIDE BUDUCNOST? KAKO JE JA VIDIM?
Svi postavljaju jedno pitanje: Šta nam budućnost donosi? Da li smo u
opasnosti da nas na našim poslovima veštačka inteligencija u potpunosti
zameni ili će ona „samo” postati naš dragoceni pomoćnik? Evo šta kažu
pouzdana istraživanja.
Budućnost je svetla za novu tehnologiju. Stručnjaci očekuju da će
veštačka inteligencija nastaviti da se razvija i usavršava, što će
dovesti do revolucionarnih promena u brojnim sektorima kao što su
zdravstvo, bankarstvo, auto-moto industrija, obrazovanje i mnogi drugi.
Praktično nijedan sektor neće ostati bez uticaja ove nove tehnologije.
Među najznačajnijim promenama koje će AI doneti u određene sektore su:
- mogućnost da se na osnovu digitalne narukvice postavi dijagnoza i preporuči adekvatni medicinski tretman;
- upravljanje novčanim fondovima kroz analizu velikog broja varijabli i omogućavanje bržeg donošenja odluka;
- unapređenje nacionalne sigurnosti kroz automatizovanje oružja za čiju upotrebu nisu neophodni ljudi;
- porast samovozećih automobila: predviđa se da će do 2025. godine
broj vozila koja imaju instaliranu AI tehnologiju porasti za 109%
- Uticaj AI na tržište rada
Sva ova predviđanja potvrđuju jedno: tržište rada značajno će se
izmeniti. Određena zanimanja i pozicije tako će u potpunosti preći u
ruke veštačke inteligencije, ali će istovremeno nastati veliki broj
novih pozicija koje će podrazumevati i primenu novih veština.
Izveštaj Svetskog ekonomskog foruma o budućnosti rada donosi podatke
koji govore da će AI poslovi biti najtraženiji u narednih pet godina. Na
to se nadovezuju predviđanja koja kažu da će u 2023. godini broj
pozicija za AI stručnjake porasti za neverovatnih 46%.
Drugim rečima, veštačka inteligencija neće zameniti ljude, ali će
njena primena od kandidata zahtevati da se obuče za obavljanje novih
poslova i rad na drugačijim pozicijama. Stoga bi svi oni koji žele da
imaju siguran posao u budućnosti trebalo da razmisle o usvajanju znanja i
veština za rad sa AI sistemima.
SVETSKI ekonomski forum
(NjEF) saopštio je da će u narednih pet godina veštačka inteligencija
zameniti ljude na 14 miliona radnih mesta u svetu. Na osnovu ankete u
kojoj je učestvovalo više od 800 kompanija, NjEF očekuje da će
poslodavci do 2027. godine otvoriti 69 miliona radnih mesta, dok će
ugasiti 83 miliona poslova.
Veštačka inteligencija uveliko ima primenu u medicini, poljoprivredi, a
koristi se čak i u pravosudnoj praksi, a njen razvoj će imati i
pozitivan i negativan uticaj na radna mesta, predviđaju stručnjaci
Svetskog ekonomskog foruma.
O tome da je taj problem prepoznat svedoči i to da je Evropska
komisija donela čitav niz akata kojim pokušava da reguliše ovu oblast,
pa i prava radnika. Tu bih izdvojio predlog Evropske regulativne uredbe
gde su prava radnika i primena veštačke inteligencije u toj oblasti
svrstani u visokorizične procese koji mogu da ugroze ljudsku slobodu,
prava i bezbednost – kaže Umeljić.
Postoje i procene investicione banke „Goldman Saks“ koje pokazuju da
bi veštačka inteligencija mogla da zameni 300 miliona poslova s punim
radnim vremenom.
Obrazovni sistem se mora prilagoditi ovim novim temama i moraju se
organizovati javne rasprave kako bi se ove teme približile građanima.
EVROPSKA unija će
verovatno ove godine postići dogovor koji će otvoriti put ka usvajaju
prvog velikog zakona o veštačkoj inteligenciji,Nije bilo razloga za oklevanje i čekanje na uvođenje zakona. To je
neophodno kako bi se ubrzalo uvođenje neophodnih promena u sve sisteme u
kojima će veštačka inteligencija imati ogroman uticaj.
Između ostalog, ona je navela da će biti uvedeno obavezno označavanje slika generisanih veštačkom inteligencijom. Veštačka inteligencija će biti dobar učitelj i moći će da se meri sa
ljudima u toj oblasti.
Četbotovi su napredovali ogromnom brzinom proteklih meseci, a mogu da
se takmiče i sa ljudima u određenim oblastima. Brzi napredak izazvao je
burne reakcije, od uzbuđenja zbog mogućnosti nove tehnologije do straha
od negativnih posledica. Danas su četbotovi izuzetno dobri u čitanju i pisanju, a ta
sposobnost će im omogućiti da pomažu učenicima da nauče ili unaprede
svoje veštine. Na početku ćemo biti iznenađeni koliko mogu da nam
pomognu u čitanju kao pomoćnici, ali i da daju savete kako da se
popravimo u pisanju.
Međutim, kako kaže, i dalje je teško naučiti četbotove da procenjuju
kvalitet i daju savete, jer profesori kada to rade moraju da gledaju
brojne elemente, poput strukture, jasnoće i drugih osobina.
To zahteva visok kognitivni proces, koji je teško integrisati u kodu.
IME mu je Abel, on je
robot-dete, on je emocionalni robot jer već neko vreme uči da prepoznaje
ljudske emocije i da stupa u kontakt sa sagovornikom rasuđivanjem i
razgovorom, tako što kamera koju poseduje skenira lice sagovornika kako
bi beležila emocije koje izlaze sa lica i iz otkucaja srca i tako - Abel
čita našu unutrašnjost.
Abel je stvoren u laboratoriji, oblikovan je kao 12. godišnji dečak i
proizvodi sve izraze lica, praveći ružno ili srećno, sarkastično ili
zadovoljno, on je u stanju da daje glas i lice. Da bi Abelu moglo da se
omogući da komunicira ugrađena je složena mešavina hardvera, posebno 42
servomotora nove generacije koji vode pokretanje glave, ruku i svakog
najsitnijeg detalja lica. Abel ima glavu, gornji deo tela, šake, ali pre
svega ima vizuelno-socijalni sistem percepcije koji vrši prepoznavanje
lica i procenjuje emocionalni izraz lica svog sagovornika.
Abelovi „roditelji“su kompanija koja se bavi softverom „Emotiva“,
specijalizovana za duboku tehnološku veštačku inteligenciju,
specijalizovana za prepoznavanje emocija i sarađuje sa Centrom „Enriko
Pjađo“ Univerziteta u Pizi na istraživanju, tako je nastao Abel,
humanoid koji je u stanju da se empatično odnosi sa pacijentima koji
boluju od neurorazvojnih i neurodegenerativnih poremećaja
Novo poglavlje u razvoju Abelovih mogućnosti jesu neuroni ogledala?
Neuroni ogledala predstavljaju klasu motornih neurona koja se nehotice
aktivira kada pojedinac izvrši radnju ali i kada posmatra istu radnju
koju izvode drugi subjekti. Oni su direktno zapaženi kod ljudi, majmuna i
ptica, a naziv proizilazi iz činjenice da oni „reflektuju“ istu radnju
koju obavljaju sami ili sa drugima.
Abel će takođe služiti u nezi adolescenata sa poremećajima u
ponašanju i kod starijih osoba sa demencijom ili Alchajmerom, bolestima
koje su u porastu u svetu. A saradnja sa Emotivom i Istraživačkim
centrom u Pizi ostaće stalna sa ciljem da se proširi na druge oblasti
istraživanja socijalne robotike u medicinskom kontekstu, kao što su
servisni roboti, roboti pratioci koji će nam – u budućnosti koja sada
nije daleka – pomoći u svakodnevnim akrtivnostima.Robot Abel je poslednja reč veštačke inteligencije. On je ljubazan,
gotovo pokoran, ali ostaju pitanja i izvesna protivljenja primene
veštačke inteligencije na raznim poljima i mogućnosti njene zloupotrebe,
pitajući se šta ako taj „slatki“ robot-dečkić koji će da drži za ruku
dedicu sa problemima postane agresivan, arogantan, grub tokom razgovora
jer nisu nametnuta ograničenja? I sa obrazloženjem: sada se sve odvija u
malim laboratorijama, ali loša veštačka inteligencija kakvu štetu može
da nanese? Da li će korišćenje novih tehnologija poboljšavati svet ili
će poslužiti za njegovo uništavanje?
VEŠTAČKA inteligencija
(VI) je opasna koliko i nuklearno oružje i za njenu kontrolu treba
uspostaviti međunarodne okvire i sporazume poput onih za upotrebu
atomskog arsenala, upozorio je nedavno direktor "Gugla" i prvi čovek
kompanije "Alfabet" Sundar Pičai.
Ko misli da je reč o preterivanju, treba da pročita tekst "Ukrajina:
živa laboratorija za VI ratovanje" koji su potpisali penzionisani
general-major Robin Fontes, bivša zamenica komandanta operacija u Sajber
komandi Vojske SAD i dr Jorit Kaming, jedan od direktora RAIN, globalne
istraživačke grupe koja se bavi povezivanjem vojnog sektora i VI.
- Kai-Fu Li, izvršni direktor kompanije "Sinovejšn venčers", nazvao
je sisteme oružja sa veštačkom inteligencijom "trećom revolucijom u
ratovanju", posle baruta i nuklearnog oružja. Da li se ta revolucija
odvija pred našim očima? Da li Ukrajina signalizira promenu karaktera
ratovanja? Još ne. Iako još nedostaje promena karaktera rata, verujemo
da je Ukrajina laboratorija u kojoj se stvara sledeći oblik ratovanja.
To nije laboratorija na marginama, već centar pozornice, nemilosrdni i
neviđeni napori da se fino podese, adaptiraju i poboljšaju sistemi sa VI
ili poboljšanim VI za trenutnu primenu... Svakog dana dok se sukob
nastavlja, a ljudska bića gube svoje živote na užasne načine, sistemi
veštačke inteligencije se obučavaju sa stvarnim podacima sa pravog
bojnog polja - ne da bi zaustavili patnju i okončali rat, već da bi
postali efikasniji u borbi u sledećem: ratu veštačke inteligencije -
zaključuju Fontes i Kaming.
U svetlu ovih predviđanja naivno deluje vest da je nemački umetnik
Boris Eldagsen prevario žiri tehnološkog giganta "Sonija" koji je
godišnju nagradu za fotografiju dodelio slici koju je on potpisao, a
sintetisala ju je veštačka inteligencija. Eldagsen je odbio nagradu uz
obrazloženje da je izveo prevaru samo da bi pokrenuo javnu debatu o
zloupotrebi VI, koja može da bude savršena tehnologija za kreiranje
obmana.
Ko misli da je falsifikovanje fotografije naivno, treba da se priseti
kako je Hitler 1939. obmanuo svet uoči napada na Poljsku. Nemački
vojnici su pobili poljske graničare, presvukli ih u nemačke uniforme, a
zatim njihova tela fotografisali sa nemačke strane graničnog prelaza. Ta
fotografija je upotrebljena kao "dokaz poljskog napada na Nemačku",
čije je javno mnjenje zahtevalo odmazdu, a svetska javnost nije imala
šta da prigovori. Tako je počeo Drugi svetski rat.
Skandal sa fotografijom kojim je obmanut japanski gigant se nije
slegao, a već je usledio novi, objavljivanje intervjua sa teško
povređenim vozačem Formule 1, legendarnim Mihailom Šumaherom, koji je
napravila VI, pomoću beskrajnog niza informacija sa interneta koje je
iskoristila da kreira što savršeniju obmanu. Pošto VI uspešno podržava i
pokretne slike i zvukove, neće biti iznenađenje da se uskoro pojave
falsifikovane video-izjave ljudi čija reč odlučuje o ratu i miru. Po
mišljenju prvog čoveka "Gugla" to je jedna od vodećih pretnji
današnjice.
- Među rizicima generativne veštačke inteligencije su lažni,
takozvani dipfejk video-snimci, u kojima pojedinci mogu biti prikazani
kako daju izjave koje zapravo nikad nisu dali. Takve zamke itekako
pokazuju potrebu za regulativom veštačke inteligencije. Moraju postojati
posledice za stvaranje dipfejk videa koji nanose štetu društvu. Svako
ko je neko vreme radio s veštačkom inteligencijom shvata da je to nešto
toliko drugačije i toliko duboko da bi nam bili potrebni društveni
propisi da razmislimo o tome kako da se prilagodimo. Još nemamo sve
odgovore, a tehnologija se brzo razvija. Dakle, drži li me to budnim
noću? Apsolutno - priznao je Pičai.
Priča o tome da li je veštačka inteligencija neophodna je
bespredmetana, jer se ona razvija od pedesetih godina prošlog veka, a
intenzivno od osamdesetih i uveliko se koristi u svakodnevnom životu, od
uređaja za navigaciju, internet - prevodilaca, industrije, medicine...
Najveći izazov je u stvari njena zloupotreba u kontroli globalnog javnog
mnjenja. Rat u Ukrajini pokazao je da se stavovi jedne zaraćene strane,
ovoga puta ruske, mogu ukloniti iz javnosti jednostavnom blokadom na
inetrnetu. Ukrajinska strana je čak najavila zabranu fotografisanja
nepreglednih grobalja njenih boraca, jer to šteti borbenom duhu i
zahtevima za još oružja od Zapada.
Organizacije koje se bave slobodom govora na internetu upozoravaju da
se neprestano uvećava cenzura na popularnim društvenim mrežama, gde o
istinitosti informacija i prikladniosti za objavljivanje sve češće
odlučuje veštačka inteligencija, jer navodno nema dovoljno zaposlenih da
obavljaju taj ogroman posao.- Sociološki posmatrano tehnologija je samo novi alat koji cenzuriše
sadržaj na osnovu određenog vrednosnog sistema, naravno sa političkom
podlogom, koji je neko ugradio u softver. Suštinsko pitanje je ko
"vaspitava" veštačku inteligenciju koja upravlja i tek će upravljati sve
brojnijim poslovima. Pitanje je da li će ovu tehnologiju kontrolisati
države ili karteli proizvođača VI, čime će nacionalne države bitno
izgubiti na značaju. Vrlo je nezahvalno u ovakvom vremenu previranja
predviđati društvena kretanja, ali sigurno je da će doći do gubitka
radnih mesta i do još nepravdenije raspodele društvenog bogatstva:
bogati će biti još bogatiji, a siromašni još siromašniji. Naravno da i
drugi delovi sveta spremaju tehnološki odgovor na zapadni projekat
veštačke inteligencije i moguće je da će ona ubrzati novu podelu sveta -
Najave korišćenja veštačke intiligencije u vojne svrhe do nivoa da
mašine same upravljaju sukobima naš sagovornik ne smatra verovatnim:
- Oni koji prave tehnologije ne prave ih tako da izgube kontrolu nad
njima. Ponavljam, pravo pitanje je ko će kontrolisati tu tehnologiju.
Cenzura takođe nije novost, vi već imate zapadni svet u kome sedam
kompanija kontroliše više od 90 odsto medija. Ne treba imati iluzija da
je ranije bilo bolje: istraživanja su, na primer, pokazala da je i u
Nemačkoj i u Britaniji tokom Velikog rata 90 odsto medija izveštavalo na
isti način. Današnja sutuacija, uključujući rat u Ukrajini, posledica
je želje SAD da zadrže globalnu dominaciju, ili bar da odlože neminovno
stvaranje multipolarnog sveta za bar 15 godina. Zbog toga u sledećih pet
do 10 godina treba očekivati dalja svetska previranja.
VEŠTAČKA inteligencija se razlikuje od klasičnog softvera po tome što
imitira biološke neuronske mreže, nervne sisteme živih bića. Veštačke
neuronske mreže su sistem sastavljen od veoma velikog broja jednostavnih
elemenata za obradu podataka, sposoban za prikupljanje, memorisanje i
korišćenje eksperimentalnog znanja. Postoje, objašnjavaju stručnjaci,
tri tipa obučavanja neuronskih mreža:
- Nadgledano obučavanje podrazumeva da se mreži daju ulazni podaci i
očekivani izlazni podaci. Prilikom obučavanja ocenjivanjem, mreži se ne
predstavljaju očekivani izlazni podaci, već joj se posle izvesnog
vremena, dok pokušava da izvrši zadatak, predstavlja ocena prethodnog
rada. Samoorganizacija, odnosno samoobuka, kada se mreži predstavljaju
isključivo ulazni podaci, a onda ona sama uči i donosi zaključke,
najbliži je veštačkom obliku života.
SEM Altman, izvršni
direktor kompanije koja je stvorila Chat GPT veruje da će tehnologija
zasnovana na veštačkoj inteligenciji preoblikovati društvo kakvo
poznajemo. Altman veruje da ta tehnologija dolazi sa stvarnim
opasnostima, ali može biti i "najveća tehnologija koju je čovečanstvo do
sada razvilo" koje će drastično poboljšati naše živote.
Mislim da bi ljudi trebalo da budu srećni što se mi pomalo plašimo ovoga - naveo je Altman.
Altman je bio naglasio da je kompaniji OpenAI potrebno da i
regulatori i društvo budu što je moguće više uključeni u uvođenje Chat
GPT-a i dodao da će povratne informacije pomoći da se odvrate
potencijalne negativne posledice koje bi tehnologija mogla imati po
čovečanstvo. Napominje da je u „redovnom kontaktu“ sa zvaničnicima
vlade.
- Posebno sam zabrinut da bi ovi modeli mogli da se koriste za
dezinformacije velikih razmera. Sada kada postaju sve bolji u pisanju
kompjuterskog koda, oni bi mogli da se koriste za ofanzivne sajber
napade - rekao je Altman.
Govoreći o Chat GPT 4, Altman kaže da najviše želi da upozori ljude o onome što nazivaju „problemom halucinacije“.
- Model će samouvereno iznositi stvari kao da su u potpunosti izmišljene činjenice - dodaje Altman.
Uobičajeni naučno-fantastični strah Altman ne deli.
- Ovo je alat koji je u velikoj meri pod kontrolom ljudi - naglasio je Altman.
Međutim, kaže da se plaši toga koji bi ljudi mogli da kontrolišu.
- Biće i drugih ljudi koji ne postavljaju neke od bezbednosnih
ograničenja koje smo postavili. Društvo, mislim, ima ograničeno vreme da
smisli kako da reaguje na to, kako da to reguliše, kako da se nosi sa
tim - upozorava Altman.
Prema njegovim rečima, pravi način razmišljanja o modelima koje kreiraju je mehanizam za rasuđivanje, a ne baza podataka
- Oni takođe mogu da deluju kao baza podataka, ali to zapravo nije
ono što je posebno kod njih – ono što želimo da urade je nešto što je
bliže sposobnosti rasuđivanja, a ne pamćenja - navodi Altman.
Ističe da Chat GPT neće dati uputstva kako napraviti bombu, ali da
OpenAI nije jedina kompanija koja se bavi razvojem jezičkih modela
zasnovanih na veštačkoj inteligenciji. Biće i drugih ljudi koji ne postavljaju neka od bezbednosnih ograničenja koja mi postavljamo na to - istakao je AltmAN.
AMERICKI PREDSEDNIK BAJDEN TRAZI DA SE NEDVOSMISLENO UTVRDI DA LI JE VESTACKA INTELIGENCIJA OPASNA. NAUCNICI KAO I UVEK SU PODELJENI. MOJE MISLJENJE JE DA IPAK TA VESTACKA INTELIGENCIJA NIJE NI BILA POTREBNA LJUDSKOJ VRSTI KOJOJ I OVAKO PREDVIDJAJU SKORI KRAJ POSTOJANJA. SAD OD SVIH SCENARIJA OVAJ JE ZAISTA BIZARAN - UNISTICE NAS ONO STO SMO STVORILI DA NAM POMOGNE?!