Čovječanstvo gubi kontrolu nad umjetnom inteligencijom – UI stvara UI

umjetna inteligencija

.

Čini se da je umjetna inteligencija (UI) koja stvara umjetnu inteligenciju sljedeća faza kroz koju čovječanstvo prolazi na putu tehnološke evolucije. Nalazimo se u fazi kada korporacije proizvode UI strojeve, robote i programe koji rade druge UI strojeve, robote i programe. Drugim riječima, UI stvara UI. I dok neki zagovaraju taj trend i ističu njegove prednosti (činjenicu da je UI danas pametnija od ljudi u nekim područjima i stoga može stvarati UI bolje od ljudi), sve to sa sobom nosi jednu ozbiljnu posljedicu – čovječanstvo se sve više udaljava od procesa dizajniranja tih produkata, zbog čega ima i sve manje kontrole. Sada smo s činjenicom da UI stvara UI bolje od čovjeka došli do prekretnice. Ako UI kreira UI koja ima bolje performanse, snagu i koja je pametnija od čovjeka, što će se dogoditi ako je želimo modificirati ili ugasiti, a ne znamo kako? Uostalom, mi je nismo osmislili, kako, dakle, možemo biti sto posto sigurni da neće biti neplaniranih posljedica? Kako možemo biti sigurni da je u potpunosti možemo kontrolirati?

Izvor: nexus-svjetlost.com

Performanse proizvoda stvorenog umjetnom inteligencijom bolje od svih drugih računalnih sustava

U svibnju 2017. istraživači koji rade u sklopu projekta Google Brain objavili su da su stvorili AutoML, umjetnu inteligenciju koja može stvarati svoju UI ‘djecu’. ML u tom nazivu označava ‘strojno učenje’. Kao što se otkriva u članku Google’s AI Built Its Own AI That Outperforms Any Made by Humans, AutoML stvorio je UI potomka pod imenom NASNet, koji je pokazao bolje performanse od svih drugih računalnih sustava što služe prepoznavanju objekata:
„Googleovi su istraživači automatizirali proizvodnju modela za strojno učenje koristeći pristup poznat kao učenje pojačavanjem. AutoML funkcionira kao kontrolna neuronska mreža koja za određeni zadatak razvija svoju UI mrežu. Zadatak za to UI dijete, koje istraživači zovu NASNet, bio je prepoznavanje objekata – ljudi, automobila, semafora, ručnih torbi, ruksaka itd. – u videu u realnom vremenu. AutoML evaluira uspješnost NASNet-a u izvođenju zadatka te koristi te informacije za poboljšavanje svog UI potomka, ponavljajući taj proces tisućama puta. Na testovima na ImageNet klasifikaciji slika te COCO skupovima podataka za otkrivanje objekata, koje Googleovi istraživači nazivaju „dvama najrespektabilnijima velikim akademskim skupovima podataka na području računalnog vida“, NASNet se pokazao uspješnijim od svih drugih sustava računalnog vida. Istraživači navode da je NASNet pokazao točnost od 82,7% u pogađanju slika na skupu za validaciju ImageNet-a. Taj je rezultat 1,2 puta bolji od svih prethodno objavljenih rezultata, a sustav je usto i 4% efikasniji, sa srednjom prosječnom preciznošću od 43,1%.“
S AutoML-om Google kreira algoritme koji analiziraju razvoj drugih algoritama, a s ciljem saznavanja koje su to metode koje su uspješne, a koje nisu. To strojno učenje, taj važan trend na području UI istraživanja, sličan je ‘učenju kako učiti’ ili ‘metaučenju’. Ulazimo u budućnost u kojoj će računala kreirati algoritme za rješavanje problema brže nego što to mogu ljudi, a čovjek će se pritom sve više udaljavati od cijeloga procesa.

David Icke – Umjetna inteligencija (AI) je samo ljepši naziv za ‘njih’, Arkone

Programirani parametri naspram autonomnih i adaptibilnih sustava

Pitanje koje se postavlja je koliko ‘slobode’ možemo dati umjetnoj inteligenciji. Pritom mislim na sljedeće: oni koji intenzivno promiču tehnološki razvoj hvale se činjenicom da je UI kvalitativno drukčija od svih strojeva iz prošlosti zato što je autonomna i adaptibilna, što znači da može ‘misliti’ za sebe, učiti iz svojih pogrešaka i u skladu s tim mijenjati svoje ponašanje. To je čini još strašnijom, a istodobno i opasnijom jer gubimo sposobnost predviđanja njezine aktivnosti. Ona počinje pisati svoje vlastite algoritme na načine na koje mi to ne možemo shvatiti, a sve na temelju njene navodne sposobnosti autokorekcije, pri čemu mi vrlo brzo ostajemo bez mogućnosti da predvidimo što će to ona iduće učiniti.
Što se onda događa ako se takvoj autonomnoj i adaptibilnoj umjetnoj inteligenciji da sloboda da stvara svoje potomstvo koje ima iste parametre? Čovječanstvo se time za jedan korak udaljava od kreacije. Da, mi možemo programirati neku prvu UI kako bismo stvorili UI potomke unutar određenih parametara, ali možemo li u konačnici kontrolirati taj proces i biti sigurni da se predrasude neće prenositi dalje, s obzirom na to da UI i programiramo kako bi bila više nalik čovjeku te učila iz svojih grešaka?
U svom članku The US and the Global Artificial Intelligence Arms Race Ulson Gunnar piše:
„Dr. Dario Amodei iz neprofitne organizacije OpenAI ističe da se istraživanjima strojnog učenja često došlo do neplaniranih rješenja koja je razvila umjetna inteligencija. On i drugi istraživači ističu da je proces donošenja odluka kod UI sustava često teško u potpunosti razumjeti i da je mnoge rezultate često teško predvidjeti.
Opasnost ne leži nužno u tome da se prvo u laboratorijima treniraju UI platforme, a zatim se takav istrenirani sustav uvodi u tvornice, na javne ceste, pa čak i u bitke s unaprijed određenim i predvidljivim sposobnostima, nego u tome da se autonomni UI sustavi stavljaju u uporabu s kapacitetom za daljnje učenje te prilagodbu na načine koji su nepredvidljivi, nepoželjni i potencijalno opasni.
Dr. Kathleen Fisher također je zabrinuta zbog toga te ističe da bi autonomno i samoprilagođavajuće kibernetičko oružje potencijalno moglo dovesti do nepredvidljive kolateralne štete. Dr. Fisher napominje i da se ljudi ne bi mogli braniti protiv UI agenata.“

Hal 9000, računalo/stroj-zlikovac iz filma „2001.: Odiseja u svemiru“  

Možemo li ikada biti 100% sigurni da smo zaštićeni od UI?

Moć i snaga bez mudrosti i dobrote opasne su, a to je upravo ono što dobivamo stvaranjem umjetne inteligencije. Mi je nikada ne možemo naučiti da bude mudra i dobra jer su to osobine koje se mogu razviti kada postoje svijest, emocije i empatija. U međuvremenu, najbolje što možemo učiniti je imati stroge etičke parametre, ali ni tu ništa nije zajamčeno. Prosječna osoba ne može znati koji je to kod koji je kreiran za ograničavanje ponašanja umjetne inteligencije. Čak i da svi programeri umjetne inteligencije na svijetu žele osigurati adekvatna etička ograničenja, što ako netko, negdje napravi pogrešku? Što ako AutoML počne kreirati sustave toliko brzo da ih društvo ne može razumjeti i regulirati istom brzinom? Budući da sjajno prepoznaje objekte, NASNet bi se lako mogao koristiti u automatiziranim nadzornim sustavima. Mislite li da bi glavni igrači Novoga svjetskog poretka čak i na trenutak razmišljali treba li pribjeći umjetnoj inteligenciji u zaštiti njihove moći te uništavanja onih koji im stoje na suprotstavljenoj strani?
Članak Google’s AI Built Its Own AI That Outperforms Any Made by Humans pokušava nas umiriti sljedećim zaključkom:
„Srećom, svjetski lideri ubrzano rade na razvoju sustava koji ne vode u distopijsku budućnost. Amazon, Facebook, Apple i nekolicina drugih kompanija članice su organizacije Partnership on AI to Benefit People and Society, koja se bavi odgovornim razvojem umjetne inteligencije. Institut inženjera elektrotehnike i elektronike (IEE) predlaže etičke standarde za UI, a DeepMind, istraživačka kompanija u vlasništvu Googleove roditeljske kompanije Alphabet, nedavno je objavila formiranje skupine koja je zadužena za moralne i etičke implikacije umjetne inteligencije. Razne vlade također rade na odredbama kojima će se spriječiti korištenje UI za opasne svrhe, kao npr. uporaba autonomnog oružja, i sve dok ljudi zadrže kontrolu nad generalnim smjerom razvoja umjetne inteligencije, prednosti raspolaganja umjetnom inteligencijom koja može razviti umjetnu inteligenciju daleko su brojnije od bilo kakvih potencijalnih zamki.“
Međutim, osobno tome ni najmanje ne vjerujem. Možemo mi osnivati sva moguća etička povjerenstva, ali ostaje činjenica da je teoretski nemoguće stopostotno se zaštititi od umjetne inteligencije. Članak Containing a Superintelligent AI Is Theoretically Impossible objašnjava:
„… prema rezultatima istraživanja istraživača na Universidad Autónoma de Madrid, kao i drugih obrazovnih institucija u Španjolskoj, SAD-u i Australiji, jednom kada UI postane ‘superinteligentna’, … bit će je nemoguće zauzdati.
Istraživači u svom radu koriste riječ ‘neizračunljiva’, što je u svijetu teoretske računalne znanosti još gore. Srž problema je tzv. ‘problem zaustavljanja’ koji je razvio Alan Turing, a po kojem nijedan algoritam ne može točno predvidjeti hoće li drugi algoritam trajati zauvijek ili će na kraju doći do njegova zaustavljanja tj. do prestanka njegova funkcioniranja.
Zamislite superinteligentnu UI s programom koji sadrži sve druge programe koji postoje. Istraživači su ponudili logičan dokaz koji kaže da kad bi se takvu UI moglo zauzdati, tada bi problem zaustavljanja po definiciji bio riješen. Da se zauzda UI trebalo bi je najprije simulirati, ali ona već simulira sve ostalo, tako da dolazimo do paradoksa.
Ne bi bilo moguće postići to da se sa sigurnošću može reći da UI nikada u budućnosti neće naštetiti ljudima.“
U međuvremenu se čini da UI nudi previše mogućnosti za profit i kontrolu nad čovječanstvom da se njen razvoj doista i uspori. UI počinje preuzimati prevlast. Facebook je upravo upotrijebio novu UI za skeniranje objava svojih korisnika koje sadrže ‘uznemirujuće’ ili ‘suicidalne’ komentare, nakon čega ih prijavljuje policiji! Jedan članak o tome piše:
„Facebook priznaje da je od policije zatražio provjeru psihološkog stanja više od STOTINU ljudi.
‘U posljednjih mjesec dana radimo s prvim ispitanicima na više od stotinu provjera na temelju izvješća koja smo dobili putem svojih proaktivnih metoda otkrivanja, uz izvješća koja smo dobili od ljudi u Facebook zajednici.’“

Završne misli

Umjetna inteligencija koja kreira umjetnu inteligenciju još je jedan ključni korak prema budućnosti u kojoj dopuštamo da nam moć izmiče iz ruku. To je još jedna prekretnica na putu razvoja umjetne inteligencije. Što će se dogoditi?

Preuzeto sa: nexus-svjetlost.com

.