субота, 14. октобар 2023.

TERMINATOR I ABEL

 NE, NE RADI SE O ALI RADI SE O VESTACKOJ INTELIGENCIJI. KOLIKO DOBROG DONOSI TEHNOLOGIJA TOLIKO I LOSEG. KAKO NAUCNICI VIDE BUDUCNOST? KAKO JE JA VIDIM?

Svi postavljaju jedno pitanje: Šta nam budućnost donosi? Da li smo u opasnosti da nas na našim poslovima veštačka inteligencija u potpunosti zameni ili će ona „samo” postati naš dragoceni pomoćnik? Evo šta kažu pouzdana istraživanja.


Budućnost je svetla za novu tehnologiju. Stručnjaci očekuju da će veštačka inteligencija nastaviti da se razvija i usavršava, što će dovesti do revolucionarnih promena u brojnim sektorima kao što su zdravstvo, bankarstvo, auto-moto industrija, obrazovanje i mnogi drugi. Praktično nijedan sektor neće ostati bez uticaja ove nove tehnologije.

Među najznačajnijim promenama koje će AI doneti u određene sektore su:

  • mogućnost da se na osnovu digitalne narukvice postavi dijagnoza i preporuči adekvatni medicinski tretman;
  • upravljanje novčanim fondovima kroz analizu velikog broja varijabli i omogućavanje bržeg donošenja odluka;
  • unapređenje nacionalne sigurnosti kroz automatizovanje oružja za čiju upotrebu nisu neophodni ljudi;
  • porast samovozećih automobila: predviđa se da će do 2025. godine broj vozila koja imaju instaliranu AI tehnologiju porasti za 109%
  • Uticaj AI na tržište rada

Sva ova predviđanja potvrđuju jedno: tržište rada značajno će se izmeniti. Određena zanimanja i pozicije tako će u potpunosti preći u ruke veštačke inteligencije, ali će istovremeno nastati veliki broj novih pozicija koje će podrazumevati i primenu novih veština.

Izveštaj Svetskog ekonomskog foruma o budućnosti rada donosi podatke koji govore da će AI poslovi biti najtraženiji u narednih pet godina. Na to se nadovezuju predviđanja koja kažu da će u 2023. godini broj pozicija za AI stručnjake porasti za neverovatnih 46%.

Drugim rečima, veštačka inteligencija neće zameniti ljude, ali će njena primena od kandidata zahtevati da se obuče za obavljanje novih poslova i rad na drugačijim pozicijama. Stoga bi svi oni koji žele da imaju siguran posao u budućnosti trebalo da razmisle o usvajanju znanja i veština za rad sa AI sistemima.

SVETSKI ekonomski forum (NjEF) saopštio je da će u narednih pet godina veštačka inteligencija zameniti ljude na 14 miliona radnih mesta u svetu. Na osnovu ankete u kojoj je učestvovalo više od 800 kompanija, NjEF očekuje da će poslodavci do 2027. godine otvoriti 69 miliona radnih mesta, dok će ugasiti 83 miliona poslova. Veštačka inteligencija uveliko ima primenu u medicini, poljoprivredi, a koristi se čak i u pravosudnoj praksi, a njen razvoj će imati i pozitivan i negativan uticaj na radna mesta, predviđaju stručnjaci Svetskog ekonomskog foruma.

O tome da je taj problem prepoznat svedoči i to da je Evropska komisija donela čitav niz akata kojim pokušava da reguliše ovu oblast, pa i prava radnika. Tu bih izdvojio predlog Evropske regulativne uredbe gde su prava radnika i primena veštačke inteligencije u toj oblasti svrstani u visokorizične procese koji mogu da ugroze ljudsku slobodu, prava i bezbednost – kaže Umeljić.

Postoje i procene investicione banke „Goldman Saks“ koje pokazuju da bi veštačka inteligencija mogla da zameni 300 miliona poslova s punim radnim vremenom.

Obrazovni sistem se mora prilagoditi ovim novim temama i moraju se organizovati javne rasprave kako bi se ove teme približile građanima.

EVROPSKA unija će verovatno ove godine postići dogovor koji će otvoriti put ka usvajaju prvog velikog zakona o veštačkoj inteligenciji,Nije bilo razloga za oklevanje i čekanje na uvođenje zakona. To je neophodno kako bi se ubrzalo uvođenje neophodnih promena u sve sisteme u kojima će veštačka inteligencija imati ogroman uticaj.

Između ostalog, ona je navela da će biti uvedeno obavezno označavanje slika generisanih veštačkom inteligencijom. Veštačka inteligencija će biti dobar učitelj i moći će da se meri sa ljudima u toj oblasti. Četbotovi su napredovali ogromnom brzinom proteklih meseci, a mogu da se takmiče i sa ljudima u određenim oblastima. Brzi napredak izazvao je burne reakcije, od uzbuđenja zbog mogućnosti nove tehnologije do straha od negativnih posledica. Danas su četbotovi izuzetno dobri u čitanju i pisanju, a ta sposobnost će im omogućiti da pomažu učenicima da nauče ili unaprede svoje veštine. Na početku ćemo biti iznenađeni koliko mogu da nam pomognu u čitanju kao pomoćnici, ali i da daju savete kako da se popravimo u pisanju.

Međutim, kako kaže, i dalje je teško naučiti četbotove da procenjuju kvalitet i daju savete, jer profesori kada to rade moraju da gledaju brojne elemente, poput strukture, jasnoće i drugih osobina.

To zahteva visok kognitivni proces, koji je teško integrisati u kodu.

IME mu je Abel, on je robot-dete, on je emocionalni robot jer već neko vreme uči da prepoznaje ljudske emocije i da stupa u kontakt sa sagovornikom rasuđivanjem i razgovorom, tako što kamera koju poseduje skenira lice sagovornika kako bi beležila emocije koje izlaze sa lica i iz otkucaja srca i tako - Abel čita našu unutrašnjost.

Abel je stvoren u laboratoriji, oblikovan je kao 12. godišnji dečak i proizvodi sve izraze lica, praveći ružno ili srećno, sarkastično ili zadovoljno, on je u stanju da daje glas i lice. Da bi Abelu moglo da se omogući da komunicira ugrađena je  složena mešavina hardvera, posebno 42 servomotora nove generacije koji vode pokretanje glave, ruku i svakog najsitnijeg detalja lica. Abel ima glavu, gornji deo tela, šake, ali pre svega ima vizuelno-socijalni sistem percepcije koji vrši prepoznavanje lica i procenjuje emocionalni izraz lica svog sagovornika. 

Abelovi „roditelji“su kompanija koja se bavi softverom „Emotiva“, specijalizovana za duboku tehnološku veštačku inteligenciju, specijalizovana za prepoznavanje emocija i sarađuje sa Centrom „Enriko Pjađo“ Univerziteta u Pizi na istraživanju, tako je nastao Abel, humanoid koji je u stanju da se empatično odnosi sa pacijentima koji boluju od neurorazvojnih i neurodegenerativnih poremećaja

Novo poglavlje u razvoju Abelovih mogućnosti jesu neuroni ogledala? Neuroni ogledala predstavljaju klasu motornih neurona koja se nehotice aktivira kada pojedinac izvrši radnju ali i kada posmatra istu radnju koju izvode drugi subjekti. Oni su direktno zapaženi kod ljudi, majmuna i ptica, a naziv proizilazi iz činjenice da oni „reflektuju“ istu radnju koju obavljaju sami ili sa drugima.  

Abel će takođe služiti u nezi adolescenata sa poremećajima u ponašanju i kod starijih osoba sa demencijom ili Alchajmerom, bolestima koje su u porastu u svetu. A saradnja sa Emotivom i Istraživačkim centrom u Pizi ostaće stalna sa ciljem da se proširi na druge oblasti istraživanja socijalne robotike u medicinskom kontekstu, kao što su servisni roboti, roboti pratioci koji će nam – u budućnosti koja sada nije daleka – pomoći u svakodnevnim akrtivnostima.Robot Abel je poslednja reč veštačke inteligencije. On je ljubazan, gotovo pokoran, ali ostaju pitanja i izvesna protivljenja primene veštačke inteligencije na raznim poljima i mogućnosti njene zloupotrebe, pitajući se šta ako taj „slatki“ robot-dečkić koji će da drži za ruku dedicu sa problemima postane agresivan, arogantan, grub tokom razgovora jer nisu nametnuta ograničenja? I sa obrazloženjem: sada se sve odvija u malim laboratorijama, ali loša veštačka inteligencija kakvu štetu može da nanese? Da li će korišćenje novih tehnologija poboljšavati svet ili će poslužiti za njegovo uništavanje?

VEŠTAČKA inteligencija (VI) je opasna koliko i nuklearno oružje i za njenu kontrolu treba uspostaviti međunarodne okvire i sporazume poput onih za upotrebu atomskog arsenala, upozorio je nedavno direktor "Gugla" i prvi čovek kompanije "Alfabet" Sundar Pičai.

Ko misli da je reč o preterivanju, treba da pročita tekst "Ukrajina: živa laboratorija za VI ratovanje" koji su potpisali penzionisani general-major Robin Fontes, bivša zamenica komandanta operacija u Sajber komandi Vojske SAD i dr Jorit Kaming, jedan od direktora RAIN, globalne istraživačke grupe koja se bavi povezivanjem vojnog sektora i VI.

- Kai-Fu Li, izvršni direktor kompanije "Sinovejšn venčers", nazvao je sisteme oružja sa veštačkom inteligencijom "trećom revolucijom u ratovanju", posle baruta i nuklearnog oružja. Da li se ta revolucija odvija pred našim očima? Da li Ukrajina signalizira promenu karaktera ratovanja? Još ne. Iako još nedostaje promena karaktera rata, verujemo da je Ukrajina laboratorija u kojoj se stvara sledeći oblik ratovanja. To nije laboratorija na marginama, već centar pozornice, nemilosrdni i neviđeni napori da se fino podese, adaptiraju i poboljšaju sistemi sa VI ili poboljšanim VI za trenutnu primenu... Svakog dana dok se sukob nastavlja, a ljudska bića gube svoje živote na užasne načine, sistemi veštačke inteligencije se obučavaju sa stvarnim podacima sa pravog bojnog polja - ne da bi zaustavili patnju i okončali rat, već da bi postali efikasniji u borbi u sledećem: ratu veštačke inteligencije - zaključuju Fontes i Kaming.

U svetlu ovih predviđanja naivno deluje vest da je nemački umetnik Boris Eldagsen prevario žiri tehnološkog giganta "Sonija" koji je godišnju nagradu za fotografiju dodelio slici koju je on potpisao, a sintetisala ju je veštačka inteligencija. Eldagsen je odbio nagradu uz obrazloženje da je izveo prevaru samo da bi pokrenuo javnu debatu o zloupotrebi VI, koja može da bude savršena tehnologija za kreiranje obmana.

Ko misli da je falsifikovanje fotografije naivno, treba da se priseti kako je Hitler 1939. obmanuo svet uoči napada na Poljsku. Nemački vojnici su pobili poljske graničare, presvukli ih u nemačke uniforme, a zatim njihova tela fotografisali sa nemačke strane graničnog prelaza. Ta fotografija je upotrebljena kao "dokaz poljskog napada na Nemačku", čije je javno mnjenje zahtevalo odmazdu, a svetska javnost nije imala šta da prigovori. Tako je počeo Drugi svetski rat.

Skandal sa fotografijom kojim je obmanut japanski gigant se nije slegao, a već je usledio novi, objavljivanje intervjua sa teško povređenim vozačem Formule 1, legendarnim Mihailom Šumaherom, koji je napravila VI, pomoću beskrajnog niza informacija sa interneta koje je iskoristila da kreira što savršeniju obmanu. Pošto VI uspešno podržava i pokretne slike i zvukove, neće biti iznenađenje da se uskoro pojave falsifikovane video-izjave ljudi čija reč odlučuje o ratu i miru. Po mišljenju prvog čoveka "Gugla" to je jedna od vodećih pretnji današnjice.

- Među rizicima generativne veštačke inteligencije su lažni, takozvani dipfejk video-snimci, u kojima pojedinci mogu biti prikazani kako daju izjave koje zapravo nikad nisu dali. Takve zamke itekako pokazuju potrebu za regulativom veštačke inteligencije. Moraju postojati posledice za stvaranje dipfejk videa koji nanose štetu društvu. Svako ko je neko vreme radio s veštačkom inteligencijom shvata da je to nešto toliko drugačije i toliko duboko da bi nam bili potrebni društveni propisi da razmislimo o tome kako da se prilagodimo. Još nemamo sve odgovore, a tehnologija se brzo razvija. Dakle, drži li me to budnim noću? Apsolutno - priznao je Pičai.

Priča o tome da li je veštačka inteligencija neophodna je bespredmetana, jer se ona razvija od pedesetih godina prošlog veka, a intenzivno od osamdesetih i uveliko se koristi u svakodnevnom životu, od uređaja za navigaciju, internet - prevodilaca, industrije, medicine... Najveći izazov je u stvari njena zloupotreba u kontroli globalnog javnog mnjenja. Rat u Ukrajini pokazao je da se stavovi jedne zaraćene strane, ovoga puta ruske, mogu ukloniti iz javnosti jednostavnom blokadom na inetrnetu. Ukrajinska strana je čak najavila zabranu fotografisanja nepreglednih grobalja njenih boraca, jer to šteti borbenom duhu i zahtevima za još oružja od Zapada.

Organizacije koje se bave slobodom govora na internetu upozoravaju da se neprestano uvećava cenzura na popularnim društvenim mrežama, gde o istinitosti informacija i prikladniosti za objavljivanje sve češće odlučuje veštačka inteligencija, jer navodno nema dovoljno zaposlenih da obavljaju taj ogroman posao.- Sociološki posmatrano tehnologija je samo novi alat koji cenzuriše sadržaj na osnovu određenog vrednosnog sistema, naravno sa političkom podlogom, koji je neko ugradio u softver. Suštinsko pitanje je ko "vaspitava" veštačku inteligenciju koja upravlja i tek će upravljati sve brojnijim poslovima. Pitanje je da li će ovu tehnologiju kontrolisati države ili karteli proizvođača VI, čime će nacionalne države bitno izgubiti na značaju. Vrlo je nezahvalno u ovakvom vremenu previranja predviđati društvena kretanja, ali sigurno je da će doći do gubitka radnih mesta i do još nepravdenije raspodele društvenog bogatstva: bogati će biti još bogatiji, a siromašni još siromašniji. Naravno da i drugi delovi sveta spremaju tehnološki odgovor na zapadni projekat veštačke inteligencije i moguće je da će ona ubrzati novu podelu sveta -

Najave korišćenja veštačke intiligencije u vojne svrhe do nivoa da mašine same upravljaju sukobima naš sagovornik ne smatra verovatnim:

- Oni koji prave tehnologije ne prave ih tako da izgube kontrolu nad njima. Ponavljam, pravo pitanje je ko će kontrolisati tu tehnologiju. Cenzura takođe nije novost, vi već imate zapadni svet u kome sedam kompanija kontroliše više od 90 odsto medija. Ne treba imati iluzija da je ranije bilo bolje: istraživanja su, na primer, pokazala da je i u Nemačkoj i u Britaniji tokom Velikog rata 90 odsto medija izveštavalo na isti način. Današnja sutuacija, uključujući rat u Ukrajini, posledica je želje SAD da zadrže globalnu dominaciju, ili bar da odlože neminovno stvaranje multipolarnog sveta za bar 15 godina. Zbog toga u sledećih pet do 10 godina treba očekivati dalja svetska previranja.

VEŠTAČKA inteligencija se razlikuje od klasičnog softvera po tome što imitira biološke neuronske mreže, nervne sisteme živih bića. Veštačke neuronske mreže su sistem sastavljen od veoma velikog broja jednostavnih elemenata za obradu podataka, sposoban za prikupljanje, memorisanje i korišćenje eksperimentalnog znanja. Postoje, objašnjavaju stručnjaci, tri tipa obučavanja neuronskih mreža:

- Nadgledano obučavanje podrazumeva da se mreži daju ulazni podaci i očekivani izlazni podaci. Prilikom obučavanja ocenjivanjem, mreži se ne predstavljaju očekivani izlazni podaci, već joj se posle izvesnog vremena, dok pokušava da izvrši zadatak, predstavlja ocena prethodnog rada. Samoorganizacija, odnosno samoobuka, kada se mreži predstavljaju isključivo ulazni podaci, a onda ona sama uči i donosi zaključke, najbliži je veštačkom obliku života.

SEM Altman, izvršni direktor kompanije koja je stvorila Chat GPT veruje da će tehnologija zasnovana na veštačkoj inteligenciji preoblikovati društvo kakvo poznajemo. Altman veruje da ta tehnologija dolazi sa stvarnim opasnostima, ali može biti i "najveća tehnologija koju je čovečanstvo do sada razvilo" koje će drastično poboljšati naše živote. Mislim da bi ljudi trebalo da budu srećni što se mi pomalo plašimo ovoga - naveo je Altman.

Altman je bio naglasio da je kompaniji OpenAI potrebno da i regulatori i društvo budu što je moguće više uključeni u uvođenje Chat GPT-a i dodao da će povratne informacije pomoći da se odvrate potencijalne negativne posledice koje bi tehnologija mogla imati po čovečanstvo. Napominje da je u „redovnom kontaktu“ sa zvaničnicima vlade.

- Posebno sam zabrinut da bi ovi modeli mogli da se koriste za dezinformacije velikih razmera. Sada kada postaju sve bolji u pisanju kompjuterskog koda, oni bi mogli da se koriste za ofanzivne sajber napade - rekao je Altman.

Govoreći o Chat GPT 4, Altman kaže da najviše želi da upozori ljude o onome što nazivaju „problemom halucinacije“.

- Model će samouvereno iznositi stvari kao da su u potpunosti izmišljene činjenice - dodaje Altman.

Uobičajeni naučno-fantastični strah Altman ne deli.

- Ovo je alat koji je u velikoj meri pod kontrolom ljudi - naglasio je Altman.

Međutim, kaže da se plaši toga koji bi ljudi mogli da kontrolišu.

- Biće i drugih ljudi koji ne postavljaju neke od bezbednosnih ograničenja koje smo postavili. Društvo, mislim, ima ograničeno vreme da smisli kako da reaguje na to, kako da to reguliše, kako da se nosi sa tim - upozorava Altman.

Prema njegovim rečima, pravi način razmišljanja o modelima koje kreiraju je mehanizam za rasuđivanje, a ne baza podataka

- Oni takođe mogu da deluju kao baza podataka, ali to zapravo nije ono što je posebno kod njih – ono što želimo da urade je nešto što je bliže sposobnosti rasuđivanja, a ne pamćenja - navodi Altman.

Ističe da Chat GPT neće dati uputstva kako napraviti bombu, ali da OpenAI nije jedina kompanija koja se bavi razvojem jezičkih modela zasnovanih na veštačkoj inteligenciji. Biće i drugih ljudi koji ne postavljaju neka od bezbednosnih ograničenja koja mi postavljamo na to - istakao je AltmAN.

AMERICKI PREDSEDNIK BAJDEN TRAZI DA SE NEDVOSMISLENO UTVRDI DA LI JE VESTACKA INTELIGENCIJA OPASNA. NAUCNICI KAO I UVEK SU PODELJENI. MOJE MISLJENJE JE DA IPAK TA VESTACKA INTELIGENCIJA NIJE NI BILA POTREBNA LJUDSKOJ VRSTI KOJOJ I OVAKO PREDVIDJAJU SKORI KRAJ POSTOJANJA. SAD OD SVIH SCENARIJA OVAJ JE ZAISTA BIZARAN - UNISTICE NAS ONO STO SMO STVORILI DA NAM POMOGNE?!

Нема коментара :

Постави коментар