Insajderska priča o neverovatnom potencijalu ChatGPT

brockman

Greg Brockman

Suosnivač OpenAi

Pionir veštačke inteligencije Greg Brokman želi da obezbedi da veštačka inteligencija opšte namene koristi svima.


U ovom govoru o najsavremenijoj tehnologiji, suosnivač firme OpenAI Greg Brokman istražuje osnovne dizajnerske principe ChatGPT-a, daje demonstraciju nekih zapanjujućih, još neobjavljenih dodatka za ovaj četbot koji je odjeknuo svetom. Nakon govora, glavni čovek TED-a Kris Anderson se pridružuje Brokmanu kako bi se pozabavili postupnim razvojem ChatGPT-a kao i Brokmanovim razumevanjem rizika, na koji su ukazali mnogi iz sveta tehnologije i šire, od oslobađanja ovako moćnog alata u svet.

Uključite / isključite prevod dole desno: strelica

InsajderskaPrica 1

InsajderskaPrica 2

InsajderskaPrica 3

  

  

 
 
Strahinja Tomic, Translator
Milenka Okuka, Reviewer
 
 
00:00
Osnovali smo OpenAI pre sedam godina jer smo osetili da se nešto veoma zanimljivio dešava sa VI i želeli smo da to usmerimo u pozitivnom smeru. Iskreno, neverovatno je gledati dokle se stiglo u ovoj oblasti. Zadovoljavajuće je kada nam se jave ljudi poput Rejmonda koji koriste tehnologiju koju pravimo, kao i drugi, za mnoštvo divnih stvari. Jave nam se ljudi koji su uzbuđeni, jave nam se ljudi koji su zabrinuti, jave nam se i ljudi koji su i jedno i drugo istovremeno. I iekreno, tako se i mi osećamo. Nadasve, izgleda kao da sada ulazimo u istorijski period gde mi kao svet definišemo tehnologiju koja će biti od važnosti za društvo u budućnosti. I verujem da ovim možemo da upravljamo za dobrobit svih. Danas želim da vam pokažem trenutno stanje te tehnologije, kao i neke osnovne principe dizajna kojih se držimo. Prva stvar koju ću vam pokazati je kako izgleda pravljenje alata za VI naspram pravljenja tog alata za ljude. Dakle, imamo novi DALL-E model, koji proizvodi slike, i mi ga kao aplikaciju izlažemo ChatGTP-u da ga koristi u vaše ime. I možete raditi stvari, npr. da pitate: “Predloži mi fin obrok za posle TED govora i izradi sliku toga.”
 
01:31
(Smeh)
 
01:34
Dobićete pregled idejnog i kreativnog procesa, na neki način, i detalji koje biste dobili iz ChatGP-a će vam biti sređeni. I krećemo. Vidite da to nije samo ideja o obroku, nego veoma detaljan pregled.Pa pogledajmo šta ćemo dobiti. Ali ChatGPT ne proizvodi samo slike u ovom slučaju - izvinjavam se, ne proizvodi samo tekst, nego proizvodi i sliku. A to je nešto što stvarno širi mogućnosti onoga što za vas može da učini, u smislu sprovođenja vaše namere.Napominjem, sve je ovo demonstracija uživo. Sve ovo proizvodi VI dok razgovaramo. Tako da ja zapravo ne znam šta ćemo da vidimo.Ovo izgleda divno.
 
02:15
(Aplauz)
 
02:19
Ogladniću samo gledajući u to.
 
02:21
Opremili smo ChatGPT i drugim alatima, na primer, memorijom.Možete reći: “Sačuvaj mi ovo za kasnije.” A zanimljiva stvar sa ovim alatima je da su svi veoma pregledni. Ovde će iskočiti obavest da “koristite DALL-E aplikaciju”. A usput, ovo vam dolazi, korisnicima ChatGPT, u sledećim mesecima. I možete <i>pogledati ispod haube</i> i videti šta je zapravo učinio, a to je da je napisao upit kao što bi to učinio i čovek. Stoga, na neki način, imate mogućnost uvida u to kako mašina koristi ove alate, što nam omogućava davanje povratne informacije.
 
02:52
Sačuvano je za kasnije, a sada ću vam pokazati kako izgleda upotreba te informacije, kao i integracija sa drugim aplikacijama.Možete reći: “Napravi sad spisak za kupovinu za onu ukusnu stvarkoja mi je ranije predložena.” I da to sve otežamo za VI. “I tvituj to svim gledaocima TED govora.”
 
03:17
(Smeh)
 
03:19
Ako budete pravili ovaj prekrasan obrok, definitivno želim da znam kakvog je ukusa.
 
03:24
Međutim, možete da vidite da ChatGPT bira sve ove različite alatebez izričite naredbe koji da koristi u kojoj situaciji. Radeći to, pokazuje nov način razmišljanja o korisničkom intefejsu. Navikli smo na način razmišljanja, imamo aplikacije, prebacujemo se, kopiramo i lepimo iz jedne u drugu, Obično je to ugodno iskustvo u aplikaciji dok god otprilike znamo menije i opcije. Da, volio bih to. Da, molim te. Uvek je lepo biti učtiv.
 
03:52
(Smeh)
 
03:56
I time što su svi ti alati objedinjeni jezičkim intefejsom, VI može da, na neki način, zaključi od vas sve te detalje. Tako da ne morate da crtate svaki sitni detalj onoga što bi trebalo da se desi.
 
04:12
Kao što rekoh, ovo je demonstracija uživo, tako da se nešto neočekivano može desiti. Ali pogledajmo sad onaj Instakart spisak za kupovinu, kad smo već kod toga. Možete videti da smo poslali spisak namirnica na Instakart. Tu je sve što vam treba. Zanimljiva stvar je da je tradicionalni korisnički intefejs i dalje bitan, zar ne? Ako ga pogledate, možete proći kroz spisak i prilagoditi potrebne količine. Mislim da pokazuje da tradicionalni korisnički interfejsi ne idu nigde. Stvar je da sada imamo novi, bolji način da ih napravimo.Sada dobijamo nacrt tvita da pregledamo pre slanja, što je takođe veoma bitno. Možemo da kliknemo na pokreni, i eto ga. Mi smo šefovi, možemo da ispitamo, možemo da izmenimo rad VI ako to želimo. I nakon ovog govora, vi ćete moći ovome i sami pristupiti. I eto ga. Strava. Hvala svima.
 
05:20
(Aplauz)
 
05:25
Vratimo se na slajdove. E sad, važna stvar o tome kako gradimo ove alate, je da se ne radi samo o izradi ovih alata. Radi se i o podučavanju VI kako da ih koristi. Šta zapravo želimo da VI uradikada joj postavimo ova pitanja veoma visokog nivoa? A da bismo to postigli, koristili smo staru ideju. Ako se vratimo na rad Alana Tjuringa iz 1950, na Tjuringovom testu, on kaže mašinu nikada nećete moći programirati za ovakve odgovore, ali je možete podučiti. Možete napraviti mašinu nalik na ljudsko dete, i onda ga učiti kroz povratne informacije. Neka je ljudski učitelj kažnjava i nagrađuje dok isprobava stvari, dok radi dobre ili loše stvari. I upravo ovako mi treniramo ChatGPT. To je proces u dva koraka.Prvo, pravimo ono što je Tjuring nazivao mašinom detetom. Kroz postupak učenja bez nadozora pokažemo mu čitav svet, čitav internet, i kažemo: “Predvidi šta ide sledeće u do sad nepoznatom tekstu.” I ovaj postupak je prožima mnogim divnim veštinama. Na primer, ako joj pokažete matematički problem jedini način na koji će ga rešiti, da kaže šta dolazi posle, ova zelena devetka gore, je da reši taj problem.
 
06:30
Mi ipak moramo da uradimo i drugi korak, a to je da naučimo VI šta da radi s tim veštinama. I zbog toga, dajemo povratne informacije.Damo VI da isproba različite stvari, da nam da više predloga, a onda ih čovek ocenjuje, govoreći: “Ova je bolja od one.” Ovo ne samo da učvršćuje jednu specifičnu stvar koju je VI rekla, nego i čitav proces kojim je VI došla do odgovora. Ovo joj dozvoljava da generalizuje,da nauči, da na neki način zaključi vašu nameru i primeni je na scenarije koje još nije videla, za koje nema povratnu informaciju.
 
06:59
Sad, nekada moramo da naučimo VI stvari koje ne biste očekivali.Npr., kada smo prvi put pokazali GPT-4 Akademiji Kan, rekli su: “Opa, ovo je odlično, ovim ćemo moći da naučimo naše studente divne stvari.” Problem je bio, model nije proveravao matematiku studenata. Ako je matematika loša, pretvaraće se da je 1 + 1 = 3 i raditi na osnovu toga. Tako da smo morali da prikupimo povratne informacije. Sal Kan lično je bio veoma ljubazan i ponudio nam je 20 sati svog vremena da pruži povratne informacije mašini radeći uz naš tim. I kroz nekoliko meseci, uspeli smo da naučimo VI sledeće:“Hej, u ovom specifičnom scenariju, trebalo bi da se suprotstaviš ljudima.” I na ovaj način smo zapravo uveliko poboljšali model. A kada pritisnete onaj “palac dole” u ChatGPT-u, to je kao da pošaljete bat-signal našem timu i kažete: “Evo slabije oblasti gde vam treba još povratnih informacija.” Kada tako radite, to je jedan od načina na koji stvarno slušamo korisnike, i brinemo se da gradimo nešto što je korisno svima.
 
07:59
Sada, dobijanje kvalitetne povratne informacije je teško. Kada pitate dete da spremi svoju sobu, ako samo proveravate kakav je pod, ne znate da li ga samo učite da natrpa sve igračke u ormar. Inače, ovo je divna slika koju je napravio DALL-E. Ista logika važi i za VI. Kako idemo ka težim zadacima, moramo srazmerno poboljšati i mogućnost davanja kvalitetnih povratnih infromacija. Ali za ovo, sama VI rado pomaže, kako da joj pružimo bolje povratne informacije i srazmerno je nadgledamo kako vreme odmiče.Dozvolite da vam pokažem na šta mislim.
 
08:39
Npr., možete pitati GPT-4 ovako nešto, koliko je prošlo vremena od ova dva osnivačka bloga o učenju bez nadzora i učenju na osnovu ljudske povratne informacije. I model kaže da je prošlo dva meseca.Međutim, da li je to tačno? Ovi modeli nisu sto posto pouzdani, iako su sve bolji posle svake povratne informacije koju im damo.Međutim, možemo iskoristiti VI da proveri činjenice, i može samu sebe da proveri. Možete reći: “Proveri mi ovu činjenicu.”
 
09:09
U ovom slučaju sam VI dao novi alat. Ovo je alatka za pretraživanje,gde model može slati upite i pregledati veb-stranice. Pri tome, ispisuje čitav sled razmišljanja dok to radi. Kaže da će pretraživati ovo i onda radi pretragu. Onda nalazi datum objave i rezultate pretrage. A onda radi još jedan upit. Kliknuće na ovu objavu bloga. I kao što vidite, sve ovo možete i sami uraditi, ali je veoma zamorno.Nije nešto što ljudi stvarno žele raditi. Zabavnije je držati uzde, biti menadžer, gde možete, ako to želite, i tri puta proveriti njen rad. I evo dolazi citat, pa možete i da s lakoćom potvrdite bilo koji korak u ovom sledu razmišljanja. Ispostaviće se da je dva meseca pogrešno. Dva meseca i jedna sedmica je ispravno.
 
09:57
(Aplauz)
 
10:04
Vratićemo se na slajd. Ono što je meni najinteresantnije kod čitavog ovog procesa je da je to saradnja čoveka i VI na više nivoa. Jer čovek koji koristi ovaj alat za proveru činjenica radi to radi podatakakoje će da koristi druga VI kako bi postala korisnija za čoveka.Mislim da ovo poprima oblik nečega što možemo očekivati da bude sve učestalije u budućnosti. Gde ćemo imati čoveka s jedne strane, a s druge pažljivo i precizno podešenu mašinu koja je napravljena da rešava problem na način na koji mi želimo. Mi se staramo o nadzoru, upravljanju, povratnim informacijama, a mašine rade na pregledan i pouzdan način. I zajedno smo u stanju da napravimo još pouzdanije mašine. Mislim da ćemo vremenom, ako usavršimo proces kako treba, biti u stanju da rešavamo nemoguće probleme.
 
10:52
I da vam dam prestavu o koliko nemogućim problemima govorimo,mislim da ćemo moći da preispitamo gotovo svaki aspekt interakcije sa računarima. Npr., razmislite o tabelarnim prikazima. Prisutni su u nekom obliku već nekih četrdesetak godina, od VisiCalc-a. Ne mislim da su se nešto bitnije menjali u tom periodu. A evo posebne tablice o svim radovima o VI na arXiv u poslednjih 30 godina. Ima ih oko 167 000, kao što možete da vidite iz podataka ovde. Ali da vam pokažem kako ChatGTP pristupa analizi ovakvog skupa podataka.
 
11:33
Možemo mu dati pristup još jednom alatu, Pajton interpreteru, pa će moći da pokreće kod, kao što bi to radio i naučnik za podatke. Tako da doslovno možete da učitate fajl i upitate VI o tome. I uz malo sreće, prepoznaće naziv i tip datoteke i reći će: “Aha, ovo je CSV fajl, tu su vrednosti odvojene zarezom, raščlaniću to za tebe.” Jedine informacije ovde su ime fajla, imena kolona, kao što ste videli, i na kraju sami podaci. I iz svega toga, uspela je da izvede zaključak šta te kolone zapravo znače. Semantičke informacije nisu bile tu. Na neki način, ona mora na osnovu interdisciplinarnog znanja da poveže:
 
12:11
“Da, arXiv je sajt gde ljudi dostavljaju svoje radove, pa to mora da su ovi podaci, a onda ovi celi brojevi predstavljaju broj autora u radu.”Sve ovo je posao koji inače rade ljudi, a VI će rado pomoći s tim.
 
12:22
Sad, ja ni ne znam šta bih pitao. Srećom, možete pitati mašinu:“Možeš li napraviti neke istraživačke grafikone?” I opet, ovo je jako napredna i detaljna instrukcija koju prati jako puno namere. Ali ni ja ne znam šta hoću, A VI sad mora da zaključi šta bi mene moglo zanimati. I tako dolazi do nekih dobrih ideja, mislim. Izbacuje histogram o broju autora po radu, vremensku seriju radova po godini, oblačić ključnih reči iz naslova radova, i sve to će biti zanimljivo za gledati. Odlična stvar je što to zapravo može i uraditi.Idemo, evo lepe krivulje zvona. Vidite da je najčešće tri autora.Napraviće lepu seriju radova po godini. Nešto ludo se dešava ipak u 2023. godini. Eksponencijalno je rasla, a onda kao da se strmoglavila. Šta se tu dešava? Usput, sve ovo je u Pajtonovom kodu, možete ispitati. I evo nas onda kod oblačića ključnih reči, gde vidimo sve te divne pojmove iz radova.
 
13:19
Ali prilično sam nezadovoljan ovim u 2023, zbog toga ova godina izgleda loše. Naravno, problem je što godina još nije gotova. Pa ću da uzvratim mašini. [Čekaj, to nije fer!!! 2023. godina još nije gotova][Koji procenat radova iz 2022. godine su objavljeni do 13. aprila?]Verujem da je 13. april bio krajnji rok. Možeš li to iskoristiti da napraviš precizniju projekciju? Vidićemo, ovo je prilično ambiciozno.
 
13:53
(Smeh)
 
13:56
Znate, opet, čini mi se da sam još toga želeo da izvučem iz mašine ovde. Stvarno sam želio da primeti ovo. Možda je malo za previše očekivati da magično zaključi da sam baš to želeo. Ali izrazio sam svoju nameru, pružio dodatna uputstva, I pod haubom, VI i dalje piše kod, možete da preglete kako radi, veoma je moguće. A sada, dala je ispravnu projekciju.
 
14:26
(Aplauz)
 
14:31
Ako ste primetili, čak je i ažurirala naslov. Nisam ni pitao, ali znala je da to želim.
 
14:38
Vratimo se opet na slajd. Ovaj slajd prikazuje parabolu o tome kako ja mislim da ćemo... Viziju kako bi mogli da koristimo ovu tehnologiju u budućnosti. Osoba je dovela svog veoma bolesnog psa veterinaru, koji je doneo veoma lošu odluku i rekao: “Sačekajmo da vidimo šta će biti.” Psa ne bi danas bilo da ga je poslušao. U međuvremenu, dao je nalaz krvi i medicinski karton GTP-4, koji je rekao: “Nisam veterinar, trebalo bi razgovarati sa profesionalcem, ali evo nekih pretpostavki.” S tim informacijama je otišao po drugo mišljenje, i taj veterinar je spasio psa. Ovi sistemi nisu savršeni. Ne možete se preterano oslanjati na njih. Ali mislim da ova priča ilustruje kako je čovek s medicinskim profesionalcem i ChatGPT kao idejnim partnerom postigao ishod koji se ne bi inače dogodio.Mislim da je to nešto o čemu bi svi trebalo da razmislimo i razmotrimo prilikom integracije ovih sistema u naše živote.
 
15:40
I jedna stvar u koju doboko verujem je da će za usavršavanje VI biti potrebno učestvovanje svih nas. Kao i odlučivanje kako želimo da je integrišemo, postavimo joj pravila, šta VI sme i ne sme da radi.Zaključak ovog govora je da ova tehnologija prosto izgleda drugačije. Prosto je različita od svega što smo predviđali. Svi ćemo morati da se opismenimo. Iskreno, to je jedan od razloga što smo objavili ChatGTP.
 
16:06
Zajedno, mislim da možemo postići misiju OpenAI-a, a to je da opšta veštačka inteligencija koristi čitavom čovečanstvu.
 
16:13
Hvala vam.
 
16:14
(Aplauz)
 
16:29
(Kraj aplauza)
 
16:31
Kris Anderson: Greg. Opa. Hoću reći... Slutim da se se u svačijoj glavi sada javlja osećaj zbunjenosti. Slutim da veliki broj ljudi koji sada ovo gleda, gleda i razmišlja: “Bože, gotovo sve o mom načinu rada, moraću ponovo da promislim.” Prosto se otvaraju nove opcije, zar ne? Ko sve misli da će morati ponovo da promisli o načinu na koji se nešto radi? Hoću reći, da, to je sve neverovatno, ali ujedno i zastrašujuće. Stoga, porazgovarajmo, Greg. GB: Naravno.
 
17:05
KA: Moje prvo pitanje bi bilo, kako si dođavola ovo postigao?
 
17:08
(Smeh)
 
17:10
OpenAI ima par stotina zaposlenih. Gugl ima hiljade zaposlenih koji rade na veštačkoj inteligenciji. Kako si baš ti osmislio ovu tehnologiju koja je šokirala svet?
 
17:23
GB: Iskreno, svi gradimo na temeljima koje su postavili velikani, to je neupitno. Gledajući pomake u komputaciji, podacima, algoritmima, svi su na nivou industrije. Mislim da smo sa OpenAI napravili mnoge ciljane izbore od samog početka. Prvi je bio prosto da se suočimo sa realnošću kakva jeste. Zapitali smo se: “Šta će biti potrebno da se ovde naprave pomaci?” Svašta smo probali, nije sve uspelo, ostale su samo stvari koje rade. Najvažnije je bilo da se okupe timovi ljudi koji se razlikuju jedni od drugih, a koji mogu raditi složno.
 
17:55
KA: Možete li nam doneti vode?
 
17:57
Trebaće nam, biće ovo tema od koje se suše usta. Ima li to veze sa činjenicom da si video nešto u ovim jezičkim modelima iz čega biukoliko se u to uloži i razvije, moglo nešto nastati u jednom trenutku?
 
18:18
GB: Da. Iskreno, mislim da ova priča to sjajno ilustruje, zar ne?Mislim da duboko učenje, visokog nivoa, to je ono što smo uvek želeli. Želeli smo laboratoriju za duboko učenje. Ali kako da to postignemo? U početku, mislim da nismo ni znali. Svašta smo probali. Neko je obučavao model kako da prepozna sledeće slovo u recenziji na Amazonu. I došao je do rezultata gde, a govorimo o sintaktičkom procesu, očekujete da model predvidi gde će ići zarezi, imenice i glagoli. Ali je zapravo došao do vrhunskog klasifikatora sentimentalne analize. Model vam je mogao reći da li je recenzija pozitivna ili negativna. Danas kažemo: “Ma daj, svako to može.” Ali tada je to bio prvi takav slučaj, takav tip semantike koja se pojavila u osnovi ovog sintaktičkog procesa. I tada smo znali, moramo to skalirati, videti dokle može da ide.
 
19:11
KA: Mislim da će ovo rasvetliti misteriju koja muči sve koji ovo gledaju, jer ih često opisujemo kao mašine koje predviđaju. A opet, ono što vidimo da rade ... Prosto se čini nemoguće da ovakvo nešto dolazi od mašine za predviđanje. Sve ovo što si nam pokazao maločas. Sama ideja emergencije je da kada povećavate srazmeru ili učestalost nečega, prosto se pojave nove stvari. To se stalno deštava. Npr, kolonije mrava. jedan mrav samo hoda unaokolo, ali ako ih je dovoljno, nastane kolonija koja pokazuje skroz drugačije, novonastalo ponašanje. Ili grad. Par kuća je samo par kuća zajedno.
 
19:44
Ali kako broj kuća raste, nastaju nove stvari, poput predgrađa, kulturnih centara i gužvi u saobraćaju. Daj mi jedan trenutak u kom si video da nastaje nešto što te je oduvalo, što prosto nisi predvideo.
 
20:00
GB: Evo, probajte ovo u ChatGPT-u, sabirajte brojeve od 40 cifara.
 
20:05
KA: 40 cifara?
 
20:06
GB: Brojeve od 40 cifara, i model će ih sabrati, što znači da je formirao interno kolo kako da to radi. Ali zanimljiva stvar je, ako ga pitate da sabere brojeve od 40 i 35 cifara, često će pogrešno sabrati. Vidi se da uči proces, ali da ga nije još do kraja savladao, generalizovao, zar ne? Ne možete da naučite tablicu sabiranja za 40-cifrene brojeve to je više nego što atoma ima u univerzumu. Pa je morao da nauči nešto uopšteno, ali još to nije savladao do kraja.U fazonu: “Sad mogu da generalizujem ovo, da sabiram brojeve proizvoljne dužine.”
 
20:37
KA: Dakle, ovde se desilo to da ste mu dozvolili da poveća razmere i da sagleda neverovatne količine teksta. I sada uči stvari za koje niste verovali da će biti u stanju naučiti.
 
20:47
GB: U suštini, ali se ide i u tančine. Jedna od nauka u kojima smo se poboljšali je predviđanje mogućih emergencija. Da bismo to postigli, ne hvalimo dovoljno u ovom polju inženjerski kvalitet. Npr, morali smo da ponovo izgradimo naš čitav stek. Kada gradite raketu, tolerancije prema greškama moraju biti izuzetno male. Isto važi i za mašinsko učenje. Svaki pojedinačni stek mora biti projektovan kako treba, i tek onda se može pristupi predviđanjima. Tu je mnoštvo izuzetno glatkih skalirajućih krivulja. One vam saopštavaju nešto suštinsko o inteligenciji. Pogledajte našu objavu na GPT-4 blogu i vidićete sve ove krivulje. I sada već možemo da predviđamo. Npr., možemo da predvidimo učinak na problemima u kodiranju. U suštini, gledamo neke modele koji su 10 000 ili 1 000 puta manji. Tako da tu ima nečega što je zapravo glatko skaliranje, iako je još u začetku.
 
21:39
KA: I tako dolazimo do jednog od najvećih strahova koji proizilazi iz ovoga. Ako je u osnovi ovoga što se dešava, to da kako povećavamo razmeru, pojavljuju se stvari koje se mogu predvideti sa određenom dozom sigurnosti, ali i dalje mogu da iznenade. Zar ne postoji opasnost da se nešto stvarno strašno pojavi?
 
22:01
GB: Mislim da je sve to pitanje razmere i vremena. I ono što ljudima takođe promiče je da je i integracija ove tehnologije takođe nova, a pri tome i izuzetno moćna pojava. To je jedan od razloga što mislimo da se ova tehnologija treba uvoditi postepeno. Ono što mislim da sada vidimo, gledajući ovaj govor, je da se ja većinom bavim davanjem kvalitetne povratne informacije. Danas se u to može ostvariti uvid, zar ne? Lako se može videti matematički problem i reći: “Ne, mašino, sedam je ispravan odgovor.” Ali čak i za rezimiranje knjige, to se teško nadgleda. Kako da znaš da ovaj siže ičemu valja? Moraš pročitati knjigu, a to niko ne želi.
 
22:38
(Smeh) I zato mislim da će biti bitno da se stvari rade korak po korak. I da kažemo, u redu, kad pređemo na sažimanje knjiga,moraćemo to propisno nadgledati. Moramo prvo izgraditi istorijat uspeha sa ovim mašinama da bi one uopšte bile u stanju da iznesu našu nameru. Moraćmo pronaći još bolje, efikasnije i pouzdanije načine skaliranja toga da mašina bude usklađena sa vama.
 
23:03
KA: Čućemo kasnije govore gde kritičari kažu da nema istinskog razumevanja unutrašnjosti sistema, da će on uvek -- da nikada nećemo znati da ne pravi greške, da neće imati zdrav razum i tome slično. Da li ti, Greg, veruješ da je to sada tačno, ali da će je povećanje razmere i povratne informacije od ljudi, o čemu si govorio, povesti u tom smeru i da će vremenom doći do istine, mudrosti, i tome slično, sa većom sigurnošću? Kako možeš biti siguran u to?
 
23:38
GB: Pa, kratak odgovor je da. Mislim da se OpenAI kreće u tom smeru. A naš pristup je uvek bio da pustimo realnost da nas ošine po faci, zar ne? Ovo je oblast prekršenih obećanja, gde stručnjaci govore da će se X desiti, a na način Y. Ljudi su govorili da neuronske mreže neće raditi još 70 godina. Još uvek nisu u pravu. Možda će trebati vremenski period od 70 plus jednu godinu, ili nešto slično.Mislm da je naš pristup uvek bio da se granice ove tehnologije moraju gurati da se vidi za šta je ona sposobna. jer to nam govori kako i kada ćemo moći preći na novu paradigmu. I mislim da ovde nismo još iscrpli sve.
 
24:14
KA: Mislim da si zauzeo prilično kontroverzno stanovište, a to je da je pravi način da sve ovo staviš u javnost i onda to sve iskoristiš,umesto da samo tvoj tim daje povratne informacije, čitav svet ti daje povratne informacije. Ali... Ako se recimo pojave loše stvari, prosto će biti puštene u etar. Izvorna priča o OpenAI, kada ste osnovani kao neprofitna organizacija, je bila da ćete biti brana od velikih korporacija koje rade nepoznate, verovatno i loše stvari sa VI. I da ćete graditi modele koji će ih nekako držati odgovornim i biti u stanju da uspore oblast, ukoliko bude potrebno. Ili sam nešto slično tome čuo. A zapravo se desilo upravo suprotno. Puštanje GPT-a, a pogotovo ChatGPT-a je toliko odjeknulo u svetu tehnologije da se sada Gugl, Meta i drugi jagme da vas sustignu. Neke od njihovih kritika su da ih silite da puste stvari bez propisnih mehanizama zaštite ili će propasti. Kako opravdate ovo? Da je to urađeno na odgovoran način, a ne nesmotreno?
 
25:28
GB: Da, ova pitanja su nam stalno na pameti. Ne, ozbiljno. Stalno.Ne mislim da ćemo uvek biti u pravu. Jedna stvar nam je uvek bila važna, i od samog početka smo razmišljali kako da izgradimo veštačku opštu inteligenciju za dobrobit čovečanstva. Mislim, kako da to uradimo? Neki plan koji se podrazumeva je da je izgradite u tajnosti, tu jako moćnu stvar, i onda osmislite način sigurne upotrebe, pokrenete je i nadate se najboljem. Ali ja ne znam kako da takav plan sprovedem. Neko drugi možda zna. Ali meni je to zastrašujuće, ne čini mi se ispravnim. Mislim da je ovaj alternativni pristup jedini drugi put koji ja vidim, a to je da pustite da vas realnost ošine po licu. I mislim da ljudima treba dati mogućnost davanja ulaznih podataka, da pre nego što ove mašine postanu savršene, postanu premoćne, da zapravo imamo uvid u to šta u praksi mogu da urade. A to smo videli kroz GPT-3, zar ne? Kod GPT-3, plašili smo se da će glavna stvar za koju će se model koristiti biti stvaranje dezinformacija i pokušaj uticanja na izbore. Umesto toga, korišten je za stvaranje neželjene pošte za vijagru.
 
26:27
(Smeh)
 
26:31
KA: Da, neželjena pošta za vijagru je loša, ali ima mnogo gorih stvari.Evo misaonog eksperimenta za tebe. Recimo da sediš u sobi. U sobi je sto, a na njemu kutija. Veruješ da je u toj kutiji nešto za štapostoji velika mogućnost da je nešto predivno što će tebi, tvojoj porodici i svima dati divne darove. Ali postoji i jedan posto šanse da negde sitnim slovima piše: “Pandora.” I postoji šansa da se oslobode neslućena zla u svet. Hoćeš li otvoriti tu kutiju?
 
27:04
GB: Pa, naravno da ne. Ne mislim da tako treba uraditi. Iskreno, ispričaću ti priču koju još nikom nisam ispričao, a to je da kad smo pokrenuli OpenAI sećam se da sam bio u Portoriku na konferenciji o VI. Sedeo sam u hotelskoj sobi i gledao divnu vodu i ljude koji se zabavljaju. I čovek se zapita, ako biste imali izbor da otvorite tu vašu Pandorinu kutiju za pet ili 500 godina, šta biste izabrali? S jedne strane, vama lično, možda je bolje za pet godina. Ali ako bi to bilo za 500 godina i ljudi bi imali vremena da to urade kako treba, šta onda izabrati? I onda sam osetio u tom trenutku, naravno da bi izabrali da to bude za 500 godina. Brat mi je u to vreme bio u vojsci i rizikovao bi život na način mnogo stvarniji od bilo koga od nas kojih smo tipkali tada po računaru i razvijali ovu tehnologiju. Tako da sam pristalica ideje da se ovome mora pristupiti kako treba. Ali ne mislim da je tu sve onako kako se na prvi pogled čini. Ako se pogleda istorijat računarstva kao celine, stvarno mislim kada kažem da je ovo što se sada dešava pomak na nivou industrije, ako ne čak i na nivou razvoja celokupne ljudske tehnologije. Što duže ne povezujemo stvari koje su već u eteru, jer i dalje pravimo brže računare, i dalje poboljšavamo algoritme, sve se to i dalje dešava,što duže to ne uvezujete, dolaziće do preklapanja, što znači da ako neko, ili onog momenta kada neko uspe da to sve poveže,odjednom ćete imati jako moćnu stvar, a da niko nije imao vremena da se prilagodi. Ko zna kakve ćete imati mere bezbednosti? Moj zaključak je da, kada razmišljate o razvojima drugih tehnologija, npr., nuklearnog oružja, ljudi govore da je to bila promena iz nula u jedanu ljudskim mogućnostima. Ali, ako pogledamo kroz njenu primenu, to je ipak bilo glatko kroz neki period. I istorijski gledano, svaka tehnologija koju smo razvili, razvijala se postepeno i upravljali smo njome postepeno kako se povećavala njena upotreba.
 
29:11
KA: Dakle, ono što želiš da kažeš, da ovaj model koji želiš da imamo,da ga posmatramo kao jedno izuzetno novorođenče, koje možda ima supermoći, koje mogu da povedu čovečanstvo do potpuno novog mesta. Da je naša kolektivna odgovornost da ovom detetu pružimo smernice, zaštitnu ogradu, da ga naučimo mudrosti i da nas ne uništi. Jesam li dobro shvatio tvoj model?
 
29:35
GB: Mislim da si u pravu. Važno je napomenuti da se i to može promeniti. Svakoj fazi moramo pristupiti kako se s njom susrećemo.Izuzetno je važno da danas svi postanemo pismeni u pogledu ove tehnologije, shvatimo davanje povratnih informacija i odlučimo šta želimo od nje. Nadam se da će ovo ostati najbolji put, i drago mi je da iskreno vodimo ovu raspravu jer da model nije pušten, ne bismo je ni vodili.
 
29:59
KA: Greg, hvala ti što si došao na TED i što si nas raspametio.
 
30:03
(Aplauz)
 
 
 
 

Komentari

  • Miroslav said More
    U svakom slučaju biće gore pre kineza... 1 dan ranije
  • Драган Танаскоски said More
    Ako bude 2028. god. to će biti fantastično. 1 dan ranije
  • Aleksandar Zorkić said More
    Što da ne. Ako postoje i to takvi kakvi... 2 dana ranije
  • Željko Perić said More
    Zdravo :D
    imam jedno pitanje na ovu... 3 dana ranije
  • Baki said More
    Dobar izbor. Ideja filma nije nova, ali... 6 dana ranije

Foto...