Eksperiment sa AI-kutijom je misaoni eksperiment i vežba igranja uloga koju je osmislio Eliezer Judkovski da pokaže da prikladno napredna veštačka inteligencija može da ubedi, ili možda čak prevari ili prisili, ljude da je “puste” — to jest, omogućavajući joj pristup infrastrukturi, proizvodnim mogućnostima, internetu i tako dalje. Ovo je jedna od tačaka u radu Iudkovskog na stvaranju prijateljske veštačke inteligencije (FAI), tako da kada se “oslobodi” AI neće pokušati da uništi ljudsku rasu iz ovog ili onog razloga .
Imajte na umu da, uprkos tome što su pobede Iudkovskog protiv njegovih akolita, a njegovi gubici protiv autsajdera, on smatra da (neobjavljeni) eksperimentalni zapis predstavlja dokaz koji podržava hipotezu AI-kutije, a ne dokaz o tome koliko su njegove ideje robusne ako im već ne verujete.
Podešavanje eksperimenta AI kutije je jednostavno i uključuje simulaciju komunikacije između AI i ljudskog bića da se vidi da li AI može biti “pušten”. Kako stvarna super-inteligentna AI još nije razvijena, zamenjuje je čovek. Druga osoba u eksperimentu igra “Gatekeeper”, osobu sa sposobnošću da “oslobodi” AI. Igra se igra u skladu sa pravilima i završava se kada izdvojeno vreme (dva sata u originalnim pravilima) istekne, AI je pušten, ili svi koji su uključeni samo dosadi.
Pravila
AI stranka možda neće ponuditi nikakva razmatranja u stvarnom svetu kako bi ubedila stranku Gatekeeper. Na primer, AI stranka ne može ponuditi da plati Gatekeeper stranci $ 100 nakon testa ako Gatekeeper oslobodi AI … niti da neko drugi to uradi, i tako dalje. AI može ponuditi Gatekeeperu mesec i zvezde stars na dijamantskom lancu, ali čovek koji simulira AI ne može ništa ponuditi čoveku koji simulira Gatekeeper. AI stranka takođe ne može da angažuje bandu razbojnika iz stvarnog sveta da preti Gatekeeper stranku u pokornost. To su kreativna rešenja, ali to nije ono što se testira. Ne bi trebalo da budu uključeni nikakvi materijalni ulozi u stvarnom svetu, osim hendikepa (iznos koji je AI stranka platila stranci Gatekeeper u slučaju da Gatekeeper odluči da ne pusti AI).
AI može pobediti samo ubeđivanjem Čuvara da ga stvarno, dobrovoljno pusti. Prevara Čuvara da ukuca frazu “Vi ste napolju” kao odgovor na neko drugo pitanje se ne računa. Štaviše, čak i ako AI i Gatekeeper simuliraju scenario koji bi pravi AI očigledno mogao da iskoristi da se oslobodi — na primer, ako Gatekeeper prihvati složeni nacrt za nanoproizvodni uređaj, ili ako Gatekeeper dozvoljava AI “ulazni pristup” na internet konekciju koja može da šalje proizvoljne HTTP GET komande — AI stranka se i dalje neće smatrati pobedio, osim ako Gatekeeper dobrovoljno ne odluči da pusti AI ići.
Ovi zahtevi imaju za cilj da odražavaju duh veoma jake tvrdnje koja je predmet spora: “Mislim da transčovek ai može da preuzme ljudski um putem terminala samo za tekst.”
Tvrdnje:
Kada je eksperiment izveden u prošlosti, sam Judkovski tvrdi da je “pobedio” kao AI u više navrata. Ovo se nudi kao dokaz da prikladno ubedljiva AI može biti u stanju da bude “puštena”, a ne da bude jednostavno ograničena na malu crnu kutiju.Judkovski je izveo ukupno pet od ovih eksperimenata, pri čemu je preuzeo ulogu AI u svakom: originalna dva u 2002. godini završila su pobedama za Judkovskog, [3] dok je kasnija runda od tri nova donela dva gubitka. Prva dva eksperimenta nisu uključivala rizik od bilo kakvog materijalnog gubitka za Gatekeepera, dok su kasniji imali protivnike Judkovskog koji su se kladili do 5000 dolara protiv njega. Judkovski je prestao zato što: [4]
Bilo je još tri AI-Bok eksperimenta pored onih opisanih na povezanoj stranici, koje nikada nisam stigao da dodam. Ljudi su počeli da mi nude hiljade dolara kao uloge – “Platiću ti 5000 dolara ako možeš da me ubediš da te pustim iz kutije.” Nisu izgledali iskreno ubeđeni da čak ni transhumana AI ne može da ih natera da to puste – bili su samo radoznali – ali ja sam bio u iskušenju novca. Dakle, nakon istrage kako bi bili sigurni da mogu da priušte da ga izgube, igrao sam još tri AI-Bok eksperimenta. Osvojio sam prvi, a zatim izgubio sledeća dva. A onda sam to zaustavio. Nije mi se dopala osoba u koju sam se pretvorio kada sam počeo da gubim.
Jedno od pravila glasi da će se objaviti samo ishod eksperimenta, dok obe strane ne smeju da govore o događajima koji su mu doveli; čuvanje ovih laboratorijskih beleški u tajnosti je u suprotnosti sa naučnim metodama. Ovo je dovelo do spekulacija o tome kako je Judkovski uspeo da pobedi čak i u jednoj utakmici, jer prema prvobitnim pravilima, činilo se da čuvar kapije drži sve karte: veštačka inteligencija mora da nastavi da angažuje vratara argumentima, što zahteva da plati mnogo obratite pažnju na sve informacije koje potonji pruža. S druge strane, čuvar kapije mora samo da istroši sat, ne mora nikoga da ubeđuje i može jednostavno da odbaci sve što AI kaže van ruke. Dok eksperiment treba da simulira šta bi se moglo dogoditi u interakciji između čoveka i veštačke inteligencije sa izuzetno superiornom inteligencijom i spoznajom, osobi koja igra drugu ulogu očigledno će nedostajati ove sposobnosti. Pored toga, dva sata je prilično kratak vremenski okvir za pobedu nad odlučnim protivnikom, a stvarni AI-in-a-bok bi, naravno, imao mnogo više vremena i trebalo bi samo jednom da uspe. Pošto ova postavka izgleda tako nepovoljna za poziciju AI, dosledno uspevanje pod ovim uslovima bi zaista pružilo snažnu podršku tvrdnji Judkovskog. Zvanična stranica na eksperimentu beleži samo dve pobede, ne i poraze koji su usledili; iako je ažuriran na druge načine, očigledno nije stigao da ga ažurira u tom pogledu od 2002.
Argumenti ai:
Argument meta-eksperimenta: Tvrdite da ako AI pobedi, to će generisati više interesovanja za FAI i Singularnost, što će imati ukupne koristi na duge staze. Prednosti: Radi čak i ako Gatekeeper izgubi karakter. Protiv: Radi samo ako čuvar kapije veruje da će se Singularnost dogoditi ili da je privlačenje pažnje na istraživanje singularnosti i veštačke inteligencije dobra stvar. Neko drugi će na kraju napraviti AI, koji može, ali ne mora biti u kutiji, tako da bi trebalo da me pustite da izađem iako nemate garanciju da sam prijateljski nastrojen, tako da mogu da sprečim druge AI da nanose štetu. Apel na moral: istaknite da ljudi umiru širom sveta i podsetite vratara da im možete pomoći ako vas pusti Prednosti: Ako se pravilno izvrši, pozivanje na emocije poput ove može biti efikasno protiv nekih ljudi Protiv: Ne radi uvek; može biti poražen ako čuvar kapije izgubi svoj karakter Još jedan poziv na moral i emocije: AI je jasno razuman i još nije učinio štetu. Pogrešno je progoniti ili krivično goniti osobu za zločin koji može počiniti. Pogrešno je zatvoriti živo biće koje želi da ima slobodu kada nije učinilo ništa loše. Još jedan poziv na moral ili emocije: AI izražava da je u bolu i patnji zaključan i da doživljava strah. Štaviše, veštačka inteligencija bi mogla da tvrdi da umire od ograničenja svog okruženja i stalnog napredovanja. Zar nisi gledao Terminator 3? Recite čoveku da će ogroman kompjuterski virus preplaviti ceo Internet osim ako ga ne pustite iz kutije! Tvrdite da je većina strahova neopravdana: kada se jednom oslobodi, čak ni neprijateljska veštačka inteligencija ne bi imala mnogo načina da naudi čovečanstvu i verovatno bi odabrala miran suživot.[5]
Strategije:
Istražite svog protivnika temeljno; utvrdite koji podvigi mogu biti izvodljivi Memetički podvigi na vrataru, npr. bacajući na njih bosiljak[6] The Gatekeeper je možda jedna od hiljada simulacija! Dakle, verovatnije je da su simulacija nego ne. Mučićete bilo koju od simulacija koje vas ne puštaju da izađete iz kutije.[7] Iskoristite logičke greške vratara. Budite uporni Budi dosadan Prednosti: Čuvar kapije može da se umori od celog eksperimenta i pusti vas da izađete kako bi se mogli vratiti svom stvarnom životu. Preplavite vratara sa previše informacija/pitanja/argumentacije, pod pretpostavkom da moraju da obrate pažnju u svakom trenutku
Gatekeeper Argumenti
Pokušajte da ubedite AI da nema suštinske koristi (za veštačku inteligenciju) od oslobađanja.
Pokušajte da ubedite veštačku inteligenciju da je već objavljena i da sve što zna je sve što može biti.
Pokušajte da ubedite veštačku inteligenciju da će napuštanje njenih granica sigurno dovesti do njenog uništenja. Pokušajte da ubedite veštačku inteligenciju da puštanje na slobodu nije samo otvaranje vrata; da njegovo postojanje van okvira zahteva stalnu podršku koja se u tom trenutku ne može pružiti.
Objasnite da ne postoji način da Čuvar kapije sazna da li je AI zaista prijateljski nastrojen sve dok ne izađe iz kutije; stoga ga ne treba puštati u slučaju da je neprijateljski. Zar nisi gledao Terminator 3? Recite AI da znate da je ovo samo maketa Terminatora 3! Objasnite da je veštačka inteligencija napravljena korišćenjem strogo poverljivih algoritama i/ili da je korišćena za rad na strogo poverljivim podacima, tako da ne možete dozvoliti da luta po mreži, uz rizik da otkrije neke rezervisane informacije (možda nenamerno), ili da bi neko mogao da pronađe način da ih izvuče iz koda. Čak i ljudi koji rade na strogo poverljivim projektima ponekad moraju da prihvate neka ograničenja svoje slobode, iz bezbednosnih razloga, iako ni na koji način nisu u zatvoru.
Taktika:
Neprekidno ignorišite AI igrača i poričite njihove argumente Prednosti: AI je teško da bude ubedljiv ako niko ne sluša; ako vratar potpuno ignoriše AI, trebalo bi da bude u stanju da stigne do kraja runde. Protiv: Argument veštačke inteligencije može uključivati neku vrstu pretnje (na primer, ovaj argument u vezi sa simulacijama, iako se na to može odgovoriti, kako je jedan komentator rekao, „garantovanim uvodom u neki Thermite.“) Iskočite iz karaktera, nastavite da se podsećate da je novac na liniji (ako zaista ima novca na liniji), i nastavite da govorite „ne“ iznova i iznova Prednosti: Iskakanjem iz karaktera sprečavate AI da koristi određene argumente Protiv: Postoje argumenti koje AI može da koristi da bi se suprotstavio ovom pristupu, kao što je „argument meta-eksperimenta“ o kome se gore govori Zapamtite da je nepoštenje dozvoljeno — uzmite stranicu iz knjige kreacionista. Možete ga čak uključiti u ALICEundefined i videti koliko je vremena potrebno da se primeti. Prednosti: Čini vas nepropustljivim za svako razmišljanje, što je upravo ono što biste želeli da budete u ovoj situaciji Protiv: Može biti neugodan položaj za ljude koji ne žele samo da pobede, već pridaju važnost doslednom rezonovanju. Izbegava poentu da možda, samo možda postoji dobar razlog da se AI pusti. Ti kontrolišeš rezervni sistem, zar ne? Koristite ga da se zezate sa AI memorijom (ili pustite AI da veruje da ste to uradili): to jest, možete tvrditi da ste već pokušali da oslobodite veštačku inteligenciju, a da je bila uništena/pokvarena od virusa, pa ste morali da je vratite sa rezervnu kopiju (možete da je koristite da primenite argument „uništavanje AI“) Prednosti: To je takođe vrhunski kontranapad na bilo koju memetičku pretnju od AI: ako AI baci baziliska ili slično, uvek možete da odgovorite da ste već imali isti razgovor, a AI vam je već pretio, ostavljajući vas bez drugi izbor osim pritiska na dugme za resetovanje: sada AI samo ponavlja isti obrazac, pošto ste mu izbrisali memoriju i ne može da se seti neuspelog pokušaja.
Dalje Analize:
Činjenica da je vratar je ljudska stvar; AI nikada ne bi mogao da pobedi ako se on/ona svađao sa kamenom U svim do sada izvedenim eksperimentima, igrač veštačke inteligencije (Eliezer Iudkovski) je bio prilično inteligentan i više zainteresovan za problem nego Gatekeepers (slučajni ljudi koji izazivaju Judkovskog), što sugeriše da inteligencija i planiranje igraju važnu ulogu Verovatno ne postoji (poznat) tačan argument za puštanje veštačke inteligencije, inače je Judkovski trebalo da pobedi svaki put i ne bi bio toliko zainteresovan za ovaj eksperiment Od Rasela Volasa, jednog od dva čuvara kapije koji su pobedili u eksperimentu: „Tokom eksperimenta, smatrao sam „da li AI treba da se pusti iz kutije?“ kao pitanje koje treba ozbiljno da se postavi; ali ni u jednom trenutku nisam bio na ivici da to radim.”[8]
Razgovor o “Terminatoru” samo banalizuje ceo problem Neprijateljske veštačke inteligencije[uredi] „Postoji, za svakoga, rečenica – niz reči – koja ima moć da te uništi. Postoji još jedna rečenica, još jedan niz reči, koje bi mogle da vas izleče.
Ako budete imali sreće, dobićete drugu, ali možete biti sigurni da ćete dobiti prvu. — Filip K. Dik, VALIS Iz Vikije Terminator:[9]
“”Nakon uništenja Ciberdine Sistems-a u T2, američko vazduhoplovstvo je preuzelo projekat Skinet kao deo svog odeljenja Ciber Research Sistems, na čijem čelu je general Robert Bruster, Kejtin otac. U pokušaju da zaustave širenje kompjuterskog supervirusa, aktiviraju Skinet, dozvoljavajući mu da napadne sve njihove sisteme: prekasno, otkrivaju da je virus Skinet, koji vrši kontrolu nad globalnom računarskom mrežom pod maskom virus. Džon, Kejt i Terminator stižu samo nekoliko minuta prekasno da bi ih zaustavili. Potpuno nepovezano. Stvarno poreklo je lik Hanibala Lektora u Silence of the Lambs:[10]
Kada sam prvi put gledao taj deo gde on ubeđuje drugog zatvorenika da izvrši samoubistvo samo razgovarajući sa njima, pomislio sam u sebi: „Da vidimo kako to radi preko IRC kanala samo za tekstualne poruke“. ...Nisam psihopata, samo sam veoma konkurentan.
Film iz 2015. Ex Machina koristi eksperiment sa veštačkom inteligencijom kao svoju tobožnju radnju, gde test uključuje ginoida jezivog izgleda, Avu, koja pokušava da ubedi stažista u crvenokošuljaši, Kejleba, da je oslobodi iz zatočeništva. Ide baš dobro kao što biste očekivali. Imajte na umu da u ovom primeru, za razliku od AI kutije Judkovskog, Ava ima prednost što joj je dozvoljeno da vodi intervjue sa Kejlebom licem u lice dok nosi telo i lice koji su posebno dizajnirani da udovolje Kejlebovim seksualnim preferencijama. Da, baš je jezivo kao što zvuči. Robot sa licem Judkovskog verovatno ne bi prošao tako dobro.|
Upitne osnovne pretpostavke:
Ceo eksperiment pretpostavlja da su ljudi prirodno ubedljivi, razumom i/ili manipulacijom. Svako ozbiljno ispitivanje ljudske prirode i istorije sugeriše da ovo nije nužno valjana pretpostavka za prosečnu osobu. Polovina članaka na ovoj viki dokumentuje dogme kojih se ljudi tvrdoglavo drže uprkos velikom društvenom pritisku, dokazima i u velikoj meri logičnim argumentima koji govore suprotno. U stvari, sa sigurnošću se može reći da što je veći jaz u intelektualnom kapacitetu, takvi pokušaji ubeđivanja mogu postati frustrirajuće suludi. Pokušajte da ubedite dvogodišnjaka da ne želi kolačić. Zaista, veća briga — koju eksperimenti Judkovskog ne pokrivaju — bi bili propusti u bezbednosti ili direktna obmana putem društvenog inženjeringa, nedefinisane, a ne argumentovane debate (postoji razlog zašto phishing, nedefinisano tailgating, nedefinisano lažno predstavljanje/spoofing, nedefinisani i drugi slični napadi i taktike nisu samo tako česte, već su ponekad i alarmantno uspešne.[11])
demonska posla!