Svima nam je jasno da veštačka inteligencija (AI, artificial inteligence) menja sliku sveta. Guglov prevodilac, šahovski program jači od čoveka, Dynamicovi roboti, od nedavno ChatGPT, online pogrami za prepoznavanje lica, AI koji uspešno prepoznaje rak kože, Guglov Echo itd. A to je tek početak.

Svi smo gledali film Terminator u kome veštačka inteligencija za upravljanje naoružanjem odlučuje da uništi čovečanstvo. Kasnije smo gledali i Matriks u kome veštačka inteligencija pretvara ljude u robove. Ilon Mask je prošle godina u svojim nastupima govorio da će AI dovesti u pitanje opstanka čovečanstva.

Da li ima osnova da strahujemo od AI. Da ne bismo samo uopšteno razgovarali o tome uvodimo dve kategorije da bismo razlučili nivoe i mogućnosti AI da ugrozi čoveka.

Prva stvar koju treba da uočimo je da li se AI bavi samo obradom i prezentiranjem informacija ili ima i mogućnost delovanja u stvarnom svetu.

Vanila AI

Vanila AI je običan AI koji prolazi Tjuringov test, tj. da li možemo da kažemo da u razgovoru sa njim (tekstualnom ili audio) ne znamo da li razgovaramo sa čovekom ili programom. Ako je naš sagovornik program, i uspešno razgovara sa nama, pri tom nije neophodno da sve zna, ni čovek ne zna sve, onda moramo priznati da sa druge strane imamo veštačku inteligenciju. Ako niste probali ChatGPT, probajte OVDE, na vašem jeziku, bilo koji da je. Zna sve jezike[1]. Biće vam jasno šta je Vanila AI.

1

Vanila AI. Sa njim možemo ćaskati i ispijati vanila šejkove.

Da li Vanila AI može biti opasan. Onoliko koliko informacije mogu biti opasne[2]. AI može biti opasan ako zna i hoće da vam kaže kako da vrlo jednostavno, od materijala iz samoposluge, napravite smrtonosan otrov ili opasan eksploziv. A uvek će se naći neko ko će to uraditi, a među njima će se naći i neko ko će i isprobati napravljeno, na sebi ili na drugome. Zatim, može da daje pogrešne medicinske savete. Ima još primera sa kojima se pokazuje da informacije mogu biti nepoželjne ili čak opasne po nas.

Domen delovanja

Dolazim do drugog važnog pojma u razumevanju AI. Domen ili opseg njegovog delovanja. Ako AI ima ograničenje da ne sme da daje recepte za opasne stvari, time je njegov domen delovanja pozitivno ograničen, i nema opasnosti.

Robotizovani AI

Za razliku od Vanila AI, robotizvani AI ima aktuatore, izvršne organe kojima može da deluje u našem fizičkom svetu. Na primer da upravlja automobilom. Dynamic roboti u obliku čoveka ili psa uspešno se kreću po tlu i prelaze prepreke. A mogu biti i naoružani. Robotizovani AI je i onaj AI koji upravlja svim semaforima u gradu. Podatke prikuplja preko kamera koje prate saobraćaj, sutra kroz komunikaciju sa svakim automobilom, i u svakom trenutku bira nabolji ciklus rada semafora da bi se saobraćaj obavljao sa što manje zastoja. Komericjalna verzija bi mogla da vam obezbedi prioritet u saobraćaju. Čak i da sugeriše gde parkirati.

2

AI koji upravlja semaforima na raskrsnici otkazao poslušnost. A moglo se rešiti kružnim tokm. Ali ima gradova koji su u strahu od kružnih tokova (Beograd zbog Slavije).

Da li robotizovani AI može da ugrozi čoveka? Ako obavlja svoju funkciju kako treba, neće, ali mi govorimo o nekom budućem vremenu u kome dolazi do takve promene u AI da deluje suprotno od predviđene namene. Naše obezbeđenje je domen delovanja AI. AI mora da ima ograničenje delovanja. Kod Vanila AI ograničenje je softversko, a kod robotizovanog AI mora biti hardversko. Recimo da AI koji upravlja semaforima na raskrsnici uključi sva zelene svetla. Jasno je da će doći do sudara i zastoja. Neopohodno je hardversko ograničanje, tipa isključivo ili (XOR, exclusive or) odavno je poznato i primenjuje se u elektornici i računarstvu. Time se ozbzbeđuje zeleno svetlo isključivo na određenom semaforu. Pokušaj AI da uključi dva zelene svetla, XOR kolo, koje bi delovalo kao supervizor, bi to onemogućilo. U domenu AI ostaje trajanje vremena uključenosti semafora. Time su sudari smišljeni od poludelog AI svedeni na zastoje u saobraćaju. Ista logika ograničenja domena delovanja mora postojati kod svakog AI.[3]

3

Robotizovni AI retko kada će ličiti na čoveka, a neće se ni baviti naučnim istraživanjima. Baviće se proizvodnjom i uslužnim delatnostima.

Dnašnji pogledi na AI

U današnjim predavanjima o AI odlazi se u krajnost svepristunog, sveprožimajućeg AI koji upravlja celim svetom, svim delatnostima i donosi sve odluke. I onda se kaže da će nam takav AI doći glave. Takav, kome je sve dato u ruke, čak i upravljanje sredstvima za masovno uništenje, takav bi mogao doći do ideje i realizacije velikih uništenja. 

Evo primer. U TED predavanju OVDE autor navodi kako bi AI kome zadamo da popravi kiselost okeana, to bi za posledicu uništio četvrtinu atomosfere. Autor zauzima ekstreman stav, ne uzima u obzir domen delovanja AI. Lišava AI svih ograničenja. Sugeriše svemoćni AI i da nema nikoga više na planeti Zemlji ko bi primetio da se nešto dešava sa atmosferom i da, ako ima nekoga, nema fizičku mogućnost da to spreči. Postavka je nerealna. Realnije je da bi mu doletele balističke rakete da spreče AI u njegovom poduhvatu. Kao što bi i onaj AI koji ide u prodavnicu kafe, bio uništen pre nego što bi, kako autor kaže, pobio sve prisutne u prodavnici da bi vama doneo kafu. U oba slučaja autor navodi robotizovne AI bez domena delovanja.

4

Robotizovani AI bez domena delovanja. Uništenje svakogo da bi se došlo do šolje kafe.

Čemu takav zastrašivački pristup? Pomalo liči na Edisona koji je javno ubijao mačke naizmeničnom strujom, da bi diskfalifikovao Teslu.

Takvi ničim ograničen AI neće nikada postojati niti ima potrebe da postoje. Ljudi, narodi, kulture, su toliko međusobno različite, podeljeni u svoje države, sa svojim idejama kako treba živeti i napredovati. Razvili su svoje sisteme bezbednosti i neprestano ih razvijaju. A granice država su istorijske tvorevine (iako se globalizacija trudi da ih poništi), i služe da obezbede i sačuvaju svačiju speciifčnost i pravo na razvoj.

Ulazak AI u naše živote je počeo. Na tom putu će sigurno biti uspona i padova, slatkih i gorkih plodova. Vremenom će čovek razraditi mere sigurnosti u upotrebi AI kao i svakog drugog alata, automobila, aviona, rakete, nukleranog reaktora, svemirskog broda... Tako da će život uz AI biti normalna stvar bez straha od uništenja. Bez ludizma[4], bez straha od gubitka radnih mesta. 

[1] Ako pišete naučne radove, znate LaTeX jezik, možete i na njemu da mu se obratite.

[2] Za neke muškarce je velika opasnost njihov telefon u rukama njihovih žena. 

[3] Pogledajte i tekst Veštačka superinteligencija ne može se kontrolisati. O robotskoj superinteligenciji bez domena delovanja.

[4] Ludizam ili ludistički pokret nastao je u Engleskoj u 19. veku i ime je dobio po vođi Nedu Luddu. Pokret je smatrao da su mašine krivci za masovnu nezaposlenost koja je nastajala za i nakon prve industrijske revolucije.

 

Komentari

  • Miroslav said More
    U svakom slučaju biće gore pre kineza... 16 sati ranije
  • Драган Танаскоски said More
    Ako bude 2028. god. to će biti fantastično. 22 sati ranije
  • Aleksandar Zorkić said More
    Što da ne. Ako postoje i to takvi kakvi... 2 dana ranije
  • Željko Perić said More
    Zdravo :D
    imam jedno pitanje na ovu... 3 dana ranije
  • Baki said More
    Dobar izbor. Ideja filma nije nova, ali... 6 dana ranije

Foto...