Veštačka inteligencija

подобласт рачунарства која развија машине и софтвер са интелигенцијом налик људској

Veštačka inteligencija (takođe VI) je podoblast računarstva koja razvija i proučava inteligentne mašine.[1][2] Veštačka inteligencija je inteligencija mašina ili softvera, za razliku od inteligencije živih bića, prvenstveno ljudi. Cilj istraživanja veštačke inteligencije je razvijanje programa (softvera), koji će računarima omogućiti da se ponašaju na način koji bi se mogao okarakterisati inteligentnim. Prva istraživanja se vežu za same korene računarstva. Ideja o stvaranju mašina koje će biti sposobne da obavljaju različite zadatke inteligentno, bila je centralna preokupacija naučnika oblasti računarstva koji su se opredelili za istraživanje veštačke inteligencije, tokom cele druge polovine 20. veka. Savremena istraživanja u veštačkoj inteligenciji su orijentisana na ekspertske i prevodilačke sisteme u ograničenim domenima, prepoznavanje prirodnog govora i pisanog teksta, automatske dokazivače teorema, kao i konstantno interesovanje za stvaranje generalno inteligentnih autonomnih agenata. Veštačka inteligencija kao pojam u širem smislu, označava kapacitet jedne veštačke tvorevine za realizovanje funkcija koje su karakteristika ljudskog razmišljanja. Mogućnost razvoja slične tvorevine je budila interesovanje ljudi još od antičkog doba; ipak, tek u drugoj polovini 20. veka takva mogućnost je dobila prva oruđa (računare), čime se otvorio put za taj poduhvat.[3] Potpomognuta napretkom moderne nauke, istraživanja na polju veštačke inteligencije se razvijaju u dva osnovna smera: psihološka i fiziološka istraživanja prirode ljudskog uma, i tehnološki razvoj sve složenijih računarskih sistema. U tom smislu, pojam veštačke inteligencije se prvobitno pripisao sistemima i računarskim programima sa sposobnostima realizovanja složenih zadataka, odnosno simulacijama funkcionisanja ljudskog razmišljanja, iako i dan danas, prilično daleko od cilja. U toj sferi, najvažnije oblasti istraživanja su obrada podataka, prepoznavanje modela različitih oblasti znanja, igre i primijenjene oblasti, kao na primer medicina. Tehnologija veštačke inteligencije se široko koristi u industriji, vladi i nauci. Neke aplikacije visokog profila su: napredni veb pretraživači (npr. Gugl pretraga), sistemi preporuka (koje koriste Jutjub, Amazon i Netfliks), interakcija putem ljudskog govora (npr. Gugl asistant, Siri i Aleksa), samostalna vožnja automobila (npr. Vejmo), generativni i kreativni alati (npr. ChatGPT[4][5] i umetnost veštačke inteligencije[6]), i nadljudska igru i analiza u strateškim igrama (npr. šah i go).[7]

Hondin inteligentni humanoidni robot ASIMO

Neke oblasti današnjih istraživanja obrađivanja podataka se koncentrišu na programe koji nastoje osposobiti računar za razumevanje pisane i verbalne informacije, stvaranje rezimea, davanje odgovara na određena pitanja ili redistribuciju podataka korisnicima zainteresovanim za određene delove tih informacija. U tim programima je od suštinskog značaja kapacitet sistema za konstruisanje gramatički korektnih rečenica i uspostavljanje veze između reči i ideja, odnosno identifikovanje značenja. Istraživanja su pokazala da, dok je probleme strukturne logike jezika, odnosno njegove sintakse, moguće rešiti programiranjem odgovarajućih algoritama, problem značenja, ili semantika, je mnogo dublji i ide u pravcu autentične veštačke inteligencije. Osnovne tendencije danas, za razvoj sistema veštačke inteligencije predstavljaju: razvoj ekspertskih sistema i razvoj neuronskih mreža. Ekspertski sistemi pokušavaju reprodukovati ljudsko razmišljanje preko simbola. Neuronske mreže to rade više iz biološke perspektive (rekreiraju strukturu ljudskog mozga uz pomoć genetskih algoritama). Uprkos složenosti oba sistema, rezultati su veoma daleko od stvarnog inteligentnog razmišljanja. Mnogi naučnici su skeptici prema mogućnosti razvijanja istinske veštačke inteligencije. Funkcionisanje ljudskog razmišljanja, još uvek nije dublje poznato, iz kog razloga će informatički dizajn inteligentnih sistema, još duži vremenski period biti u suštini onesposobljen za predstavljanje tih nepoznatih i složenih procesa. Istraživanja veštačke inteligencije su fokusirana na sledeće komponente inteligencije: učenje, razmišljanje, rešavanje problema, percepcija i razumijevanje prirodnog jezika.

Alan Tjuring je bio prva osoba koja je sprovela značajna istraživanja u oblasti koju je nazvao mašinska inteligencija.[8] Veštačka inteligencija je osnovana kao akademska disciplina 1956. godine.[9] Polje je prošlo kroz više ciklusa optimizma,[10][11] praćenih periodima razočarenja i gubitka finansiranja, poznatim kao zima veštačke inteligencije.[12][13] Finansiranje i interesovanje su se znatno povećali nakon 2012. kada je duboko učenje nadmašilo sve prethodne tehnike veštačke inteligencije,[14] i posle 2017. sa arhitekturom transformatora.[15] Ovo je dovelo do proleća veštačke inteligencije početkom 2020-ih, pri čemu su kompanije, univerziteti i laboratorije koje su pretežno sa sedištem u Sjedinjenim Državama, ostvarili značajne pionirske napretke u veštačkoj inteligenciji.[16] Sve veća upotreba veštačke inteligencije u 21. veku utiče na društveni i ekonomski pomak ka povećanju automatizacije, donošenja odluka zasnovanih na podacima i integraciji sistema veštačke inteligencije u različite ekonomske sektore i oblasti života, utičući na tržišta rada, zdravstvo, vladu , industrija i obrazovanje. Ovo postavlja pitanja o etičkim implikacijama i rizicima od veštačke inteligencije, što podstiče diskusije o regulatornim politikama kako bi se osigurala bezbednost i prednosti tehnologije. Različite podoblasti veštačke inteligencije su istraživanja usredsređena na određene ciljeve i upotrebu specifičnih alata. Tradicionalni ciljevi istraživanja veštačke inteligencije obuhvataju rasuđivanje, predstavljanje znanja, planiranje, učenje, obrada prirodnog jezika, percepcija i podrška robotici.[a] Opšta inteligencija (sposobnost da se obavi bilo koji zadatak koji čovek može da izvrši) spada u dugoročne cinjeve u ovoj oblasti.[17] Da bi rešili ove probleme, istraživači veštačke inteligencije su prilagodili i integrisali širok spektar tehnika rešavanja problema, uključujući pretragu i matematičku optimizaciju, formalnu logiku, veštačke neuronske mreže i metode zasnovane na statistici, operacionom istraživanju i ekonomiji.[b] Veštačka inteligencija se takođe oslanja na psihologiju, lingvistiku, filozofiju, neuronauku i druge oblasti.[18]

Ciljevi uredi

Opšti problem simulacije (ili stvaranja) inteligencije podeljen je na podprobleme. Oni se sastoje od određenih osobina ili sposobnosti koje istraživači očekuju da inteligentni sistem pokaže. Ispod opisane osobine su zadobile najviše pažnje i pokrivaju obim istraživanja veštačke inteligencije.[a]

Osnovni ciljevi istraživanja na polju veštačke inteligencije uredi

Trenutno, kada su u pitanju istraživanja na polju veštačke inteligencije, moguće je postići dva komplementarna cilja, koji respektivno naglašavaju dva aspekta veštačke inteligencije, a to su teorijski i tehnološki aspekt.

Prvi cilj je studija ljudskih kognitivnih procesa uopšte, što potvrđuje definiciju Patrika J. Hejesa - „studija inteligencije kao komputacije“, čime se veštačka inteligencija usmerava ka jednoj svojevrsnoj studiji inteligentnog ponašanja kod ljudi.

Veštačka inteligencija, kao oblast informatike, bavi se projektovanjem programskih rešenja za probleme koje nastoji rešiti.

Razmišljanje i rešavanje problema uredi

Razmišljanje je proces izvlačenja zaključaka koji odgovaraju datoj situaciji. Zaključci se klasifikuju kao deduktivni i induktivni. Primer deduktivnog načina zaključivanja bi mogao biti, „Savo je ili u muzeju, ili u kafiću. Nije u kafiću; onda je sigurno u muzeju“; i induktivnog, „Prethodne nesreće ove vrste su bile posledica greške u sistemu; stoga je i ova nesreća uzrokovana greškom u sistemu“. Najznačajnija razlika između ova dva načina zaključivanja je da, u slučaju deduktivnog razmišljanja, istinitost premise garantuje istinitost zaključka, dok u slučaju induktivnog razmišljanja istinitost premise daje podršku zaključku bez davanja apsolutne sigurnosti njegovoj istinitosti. Induktivno zaključivanje je uobičajeno u naukama u kojima se sakupljaju podaci i razvijaju provizioni modeli za opis i predviđanje budućeg ponašanja, sve dok se ne pojave anomalije u modelu, koji se tada rekonstruiše. Deduktivno razmišljanje je uobičajeno u matematici i logici, gde detaljno obrađene strukture nepobitnih teorema nastaju od manjih skupova osnovnih aksioma i pravila. Postoje značajni uspesi u programiranju računara za izvlačenje zaključaka, naročito deduktivne prirode. Ipak, istinsko razmišljanje se sastoji od složenijih aspekata; uključuje zaključivanje na način kojim će se rešiti određeni zadatak, ili situacija. Tu se nalazi jedan od najvećih problema s kojim se susreće veštačka inteligencija.

Rešavanje problema, naročito u veštačkoj inteligenciji, karakteriše sistematska pretraga u rangu mogućih akcija s ciljem iznalaženja nekog ranije definisanog rešenja. Metode rešavanja problema se dele na one posebne i one opšte namene. Metoda posebne namene je traženje adaptiranog rešenja za određeni problem i sadrži vrlo specifične osobine situacija od kojih se problem sastoji. Suprotno tome, metod opšte namene se može primeniti na širi spektar problema. Tehnika opšte namene koja se koristi u veštačkoj inteligenciji je metod krajnje analize, deo po deo, ili postepeno dodavanje, odnosno redukovanje različitosti između trenutnog stanja i krajnjeg cilja. Program bira akcije iz liste metoda - u slučaju jednostavnog robota koraci su sledeći: PICKUP, PUTDOWN, MOVEFROWARD, MOVEBACK, MOVELEFT i MOVERIGHT, sve dok se cilj ne postigne. Veći broj različitih problema su rešeni preko programa veštačke inteligencije. Neki od primera su traženje pobedničkog poteza, ili sekvence poteza u igrama, složeni matematički dokazi i manipulacija virtuelnih objekata u veštačkim, odnosno sintetičkim računarskim svetovima.

Rani istraživači su razvili algoritme koji su imitirali razmišljanje korak po korak koje ljudi koriste kada rešavaju zagonetke ili izvođenju logičkog zaključka.[19] Do kasnih 1980-ih i 1990-ih, razvijene su metode za rad sa nesigurnim ili nepotpunim informacijama, koristeći koncepte verovatnoće i ekonomije.[20]

Mnogi od ovih algoritama su nedovoljni za rešavanje velikih problema rezonovanja, jer doživljavaju „kombinatorijsku eksploziju“: oni postaju eksponencijalno sporiji kako problemi postajaju sve veći..[21] Čak i ljudi retko koriste dedukciju korak po korak, koju bi rano istraživanje veštačke inteligencije moglo da modelira. Oni rešavaju većinu svojih problema koristeći brze, intuitivne odluke.[22] Tačno i efikasno rezonovanje je nerešen problem.

Reprezentacija znanja uredi

 
Ontologija predstavlja znanje kao skup koncepata unutar domena i odnosa između tih koncepata.

Predstavljanje znanja i inženjering znanja[23] omogućavaju programima veštačke inteligencije da inteligentno odgovaraju na pitanja i donose zaključke o činjenicama iz stvarnog sveta. Formalne reprezentacije znanja se koriste u indeksiranju i pretragama zasnovanim na sadržaju,[24] tumačenju scene,[25] podršci pri donošenju kliničkih odluka,[26] otkrivanju znanja (derivacija „zanimljivih“ i praktičnih zaključaka iz velikih baza podataka)[27] i drugim oblastima.[28]

Baza znanja je telo znanja predstavljeno u obliku koji može da koristi program. Ontologija je skup objekata, odnosa, koncepata i svojstava koje koristi određeni domen znanja.[29] Baze znanja treba da predstavljaju stvari kao što su: objekti, svojstva, kategorije i odnosi između objekata;[30] situacije, događaji, stanja i vreme;[31] uzroci i posledice;[32] znanje o znanju (šta znamo o tome što drugi ljudi znaju);[33] podrazumevano rezonovanje (stvari za koje ljudi pretpostavljaju da su istinite dok im se ne kaže drugačije, i ostaće istinite čak i kada se druge činjenice menjaju);[34] i mnogi drugi aspekti i domeni znanja.

Među najtežim problemima u predstavljanju znanja su: širina zdravorazumskog znanja (skup atomskih činjenica koje prosečna osoba zna je ogroman);[35] i podsimbolički oblik većine zdravorazumskog znanja (veći deo onoga što ljudi znaju nije predstavljen kao „činjenice“ ili „izjave“ koje bi mogli verbalno da izraze).[22] Postoji takođe teškoća sticanja znanja, problem dobijanja znanja za VI aplikacije.[v]

Planiranje i donošenje odluka uredi

„Agent“ je sve što opaža i preduzima akcije u svetu. Racionalni agent ima ciljeve ili preferencije i preduzima akcije da ih ostvari.[g][38] U automatizovanom planiranju, agent ima specifičan cilj.[39] U automatizovanom donošenju odluka, agent ima preferencije – postoje neke situacije u kojima bi preferirao da bude, a neke pokušava da izbegne. Agent za donošenje odluka svakoj situaciji dodeljuje broj (koji se naziva „korisnost”) koji meri koliko je agent preferira. Za svaku moguću akciju, može se izračunati „očekivana korisnost“: korisnost svih mogućih ishoda akcije, ponderisana verovatnoćom da će se ishod dogoditi. Zatim se može izabrati akcija sa maksimalnom očekivanom korisnošću.[40]

U klasičnom planiranju, agent tačno zna kakav će biti efekat bilo koje akcije.[41] U većini problema u stvarnom svetu, međutim, agent možda nije siguran u situaciju u kojoj se nalazi (ona je „nepoznata“ ili „neuočljiva“) i možda neće sa sigurnošću znati šta će se desiti nakon svake moguće akcije (to nije „determinističko”). On mora da izabere akciju tako što će napraviti probabilističku pretpostavku, i zatim ponovo proceniti situaciju da vidi da li je akcija bila uspešna.[42]

U nekim problemima, preferencije agenta mogu biti neizvesne, posebno ako su uključeni drugi agenti ili ljudi. One se mogu naučiti (npr. uz inverzno učenje sa potrepljivanjem) ili agent može tražiti informacije da poboljša svoje preferencije.[43] Teorija vrednosti informacija može se koristiti za odmeravanje vrednosti istraživačkih ili eksperimentalnih radnji.[44] Prostor mogućih budućih radnji i situacija je obično nerešivo velik, tako da agenti moraju da preduzimaju akcije i procenjuju situacije mada nisu sigurni kakav će biti ishod.

Markovljev proces odlučivanja ima tranzicioni model koji opisuje verovatnoću da će određena akcija promeniti stanje na određeni način i funkciju nagrađivanja koja obezbeđuje korisnost svakog stanja i cenu svake akcije. Ustrojstvo povezuje odluku sa svakim mogućim stanjem. Kurs odluka može da bude proračunat (npr. iteracijom), može biti heurističke prirode ili se može naučiti.[45]

Teorija igara opisuje racionalno ponašanje više agenata u interakciji i koristi se u VI programima koji donose odluke koje uključuju druge agente.[46]

Učenje uredi

Postoji više različitih oblika učenja koji su primenjeni na oblast veštačke inteligencije. Najjednostavniji se odnosi na učenje na greškama preko pokušaja. Na primer, najjednostavniji računarski program za rešavanje problema matiranja u jednom potezu u šahu, je istraživanje mat pozicije slučajnim potezima. Jednom iznađeno rešenje, program može zapamtiti poziciju i iskoristiti je sledeći put kada se nađe u identičnoj situaciji. Jednostavno pamćenje individualnih poteza i procedura - poznato kao mehaničko učenje - je vrlo lako implementirati u računarski sistem. Prilikom pokušaja implementacije tzv. uopštavanja, javljaju se veći problemi i zahtevi. Uopštavanje se sastoji od primene prošlih iskustava na analogne nove situacije. Na primer, program koji uči prošla vremena glagola na srpskom jeziku mehaničkim učenjem, neće biti sposoban da izvede prošlo vreme, recimo glagola skočiti, dok se ne nađe pred oblikom glagola skočio, gde će program koji je sposoban za uopštavanje naučiti „dodaj -o i ukloni -ti“ pravilo, te tako formirati prošlo vreme glagola skočiti, zasnivajući se na iskustvu sa sličnim glagolima.

Mašinsko učenje je proučavanje programa koji mogu automatski poboljšati svoje performanse na datom zadatku.[47] Ono je bilo deo veštačke inteligencije od početka.[d]

Postoji nekoliko vrsta mašinskog učenja. Učenje bez nadzora analizira tok podataka, pronalazi obrasce i izvodi predviđanja bez ikakvog spoljašnjeg uputstva.[50] Učenje pod nadzorom zahteva od čoveka da prvo označi ulazne podatke, i dolazi u dve glavne varijante: klasifikacija (gde program mora da nauči da predvidi kojoj kategoriji ulaz pripada) i regresija (gde program mora da izvede numeričku funkciju na osnovu numeričkog unosa).[51]

U podržanom učenju agent je nagrađen za dobre odgovore i kažnjen za loše. Agent uči da bira odgovore koji su klasifikovani kao „dobri“.[52] Transferno učenje primenjuje znanje stečeno iz jednog problema na novi problem.[53] Duboko učenje je vrsta mašinskog učenja koja pokreće inpute kroz biološki inspirisane veštačke neuronske mreže za sve ove vrste učenja.[54]

Teorija računarskog učenja može proceniti učenike prema računskoj složenosti, kompleksnosti uzorka (koliko podataka je potrebno) ili drugim pojmovima optimizacije.[55]

Obrada prirodnog jezika uredi

Obrada prirodnog jezika (NLP)[56] omogućava programima da čitaju, pišu i komuniciraju na ljudskim jezicima kao što je engleski. Specifični problemi uključuju prepoznavanje govora, sintezu govora, mašinsko prevođenje, ekstrakciju informacija, pronalaženje informacija i odgovaranje na pitanja.[57]

Rani radovi, zasnovani na generativnoj gramatici i semantičkim mrežama Noama Čomskog, imali su poteškoća sa razaznačavanjem smisla reči[đ] osim ako nisu bili ograničeni na male domene zvane „mikro-svetovi“ (zbog problema sa poimanjem zdravog razuma[35]). Margaret Masterman je verovala da je značenje, a ne gramatika, ključ za razumevanje jezika i da bi tezaurusi, a ne rečnici, trebalo da budu osnova računske jezičke strukture.

Savremene tehnike dubokog učenja za NLP uključuju ugrađivanje reči (koji predstavljaju reči, tipično kao vektore koji kodiraju njihovo značenje),[58] transformatore (arhitektura dubokog učenja koja koristi mehanizam pažnje)[59] i druge.[60] Godine 2019, generativni unapred obučeni transformatorski (ili „GPT“) jezički modeli počeli su da generišu koherentan tekst,[61][62] i do 2023. ovi modeli su mogli da ostvare rezultate na nivou čoveka na pravosudnom ispitu, SAT testu, GRE testu, i u mnogim drugim aplikacijama u stvarnom svetu.[63]

Percepcija uredi

Mašinska percepcija je sposobnost da se koristi ulaz sa senzora (kao što su kamere, mikrofoni, bežični signali, aktivni lidar, sonar, radar i taktilni senzori) da bi se izveli zaključili o aspektima sveta. Kompjuterski vid je sposobnost analize vizuelnog unosa.[64]

Ova oblast obuhvata prepoznavanje govora,[65] klasifikaciju slika,[66] prepoznavanje lica, prepoznavanje objekata[67] i robotsku percepciju.[68]

Socijalna inteligencija uredi

 
Kismet, glava robota koja je napravljena 1990-ih; mašina koja može da prepozna i simulira emocije.[69]

Afektivno računarstvo je interdisciplinarna oblast koji se sastoji od sistema koji prepoznaju, tumače, obrađuju ili simuliraju ljudska osećanja, emocije i raspoloženje.[70] Na primer, neki virtuelni asistenti su programirani da konverzaciono razgovaraju ili čak da se šale na duhovit način. Oni su stoga osetljiviji na emocionalnu dinamiku ljudske interakcije, ili da na drugi način olakšaju interakciju između čoveka i računara.

Međutim, ovo ima tendenciju da naivnim korisnicima pruži nerealnu koncepciju inteligencije postojećih kompjuterskih agenata.[71] Umereni uspesi u vezi sa afektivnim računarstvom uključuju tekstualnu analizu osećanja i, u skorije vreme, multimodalnu analizu osećanja, gde VI klasifikuje afekte koje prikazuje subjekt prikazan na video snimku.[72]

Opšta inteligencija uredi

Mašina sa veštačkom opštom inteligencijom trebalo bi da bude u stanju da reši širok spektar problema sa širinom i svestranošću koja je slična ljudskoj inteligenciji.[17]

Problem definicije veštačke inteligencije uredi

Za razliku od drugih oblasti, u veštačkoj inteligenciji ne postoji saglasnost oko jedne definicije, nego ih ima više zavisno od različitih pogleda i metoda za rešavanje problema.

Definicija i ciljevi uredi

Uprkos vremenu koje je prošlo od kada je Džon Makarti dao ime ovoj oblasti na konferenciji održanoj 1956. godine u Dartmudu, nije nimalo lako tačno definisati sadržaj i dostignuća veštačke inteligencije.

Najverovatnije, jedna od najkraćih i najjednostavnijih karakteristika koja se pripisuje veštačkoj inteligenciji, parafrazirajući Marvina Minskog, (jednog od stručnjaka i najpoznatijih istraživača veštačke inteligencije), je „konstruisanje računarskih sistema sa osobinama koje bi kod ljudskih bića bile okarakterisane kao inteligentne“.

Tjuringov test uredi

 
Ljudsko i veštačko inteligentno ponašanje.

U poznatom takozvanom Tjuringovom testu, koji je Alan Tjuring opisao i objavio u jednom članku iz 1950. godine, pod naslovom Computing machinery and intelligence (Računske mašine i inteligencija), predlaže se jedan eksperiment čiji je cilj otkrivanje inteligentnog ponašanja jedne mašine. Test polazi od jedne igre u kojoj ispitivač treba da pogodi pol dva interlokutora, A i B, a koji se nalaze u posebnim i odvojenim sobama. Iako oboje tvrde da su ženskog pola, u stvari radi se o muškarcu i ženi. U izvornom Tjuringovom predlogu urađena je izvesna modifikacija, te je ženu zamenio računar. Ispitivač treba da pogodi ko je od njih mašina, polazeći od njihovog međusobnog razgovora i imajući u vidu da oboje tvrde da su ljudi. Zadatak treba postići uprkos činjenici da nijedan od interlokutora nije obavezan da govori istinu, te na primer, mašina može odlučiti da da pogrešan rezultat jedne aritmetičke operacije, ili čak da ga saopšti mnogo kasnije kako bi varka bila uverljivija.

Po optimističkoj hipotezi samog Tjuringa, oko 2000. godine, već je trebalo da postoje računari osposobljeni za igru ove igre dovoljno dobro, tako da prosečan ispitivač nema više od 70% šanse da uradi ispravnu identifikaciju, nakon pet minuta postavljanja pitanja. Kada bi to danas zaista bilo tako, nalazili bi se pred jednom istinski inteligentnom mašinom, ili u najmanju ruku mašinom koja ume da se predstavi kao inteligentna. Ne treba ni pomenuti da su Tjuringova predviđanja bila previše optimistična, što je bio vrlo čest slučaj u samim počecima razvoja oblasti veštačke inteligencije. U stvarnosti problem nije samo vezan za sposobnost računara za obradu podataka, nego na prvom mjestu, za mogućnost programiranja računara sa sposobnostima za inteligentno ponašanje.

Veštačka inteligencija u obrazovanju uredi

San o računarima koji bi mogli da obrazuju učenike i studente, više decenija je inspirisao naučnike kognitivne nauke. Prva generacija takvih sistema (nazvani Computer Aided Instruction ili Computer Based Instruction), uglavnom su se zasnivali na hipertekstu. Struktura tih sistema se sastojala od prezentacije materijala i pitanja sa više izbora, koja šalju učenika na dalje informacije, u zavisnosti od odgovora na postavljena pitanja.

Naredna generacija ovih sistema Intelligent CAI ili Intelligent Tutoring Systems, zasnivali su se na implementaciji znanja o određenoj temi, u sam računar. Postajala su dva tipa ovakvih sistema. Prvi je trenirao učenika u samom procesu rešavanja složenih problema, kao što je npr. prepoznavanje grešaka dizajna u jednom električnom kolu ili pisanje računarskog programa. Drugi tip sistema je pokušavao da održava silogistički dijalog sa studentima. Implementaciju drugog tipa sistema je bilo vrlo teško sprovesti u praksu, velikim delom zbog problema programiranja sistema za razumevanje spontanog i prirodnog ljudskog jezika. Iz tog razloga, projektovano ih je samo nekoliko.

Tipični sistem za treniranje učenika i studenata se obično sastoji od četiri osnovne komponente.

  1. Prva komponenta je okruženje u kojem učenik ili student radi na rešavanju složenih zadataka. To može biti simulacija komponente ili komponenata elektronskih uređaja predstavljena kao serija problema koje student treba da reši.
  2. Druga komponenta je ekspertski sistem koji može rešiti predstavljene probleme na kojima student radi.
  3. Treću čini jedan poseban modul koji može uporediti rešenja koja nudi student sa onima koje su ugrađene u ekspertski sistem i njegov cilj je da prepozna studentov plan za rešenje problema, kao i koje delove znanja najverovatnije student koristi.
  4. Četvrtu čini pedagoški modul koji sugeriše zadatke koje treba rešiti, odgovara na pitanja studenta i ukazuje mu na moguće greške. Odgovori na pitanja studenta i sugestije za planiranje rešavanja zadataka, zasnivaju se na prikupljenim podacima iz prethodnog modula.

Svaka od ovih komponenata može koristiti tehnologiju veštačke inteligencije. Okruženje može sadržati sofisticiranu simulaciju ili inteligentnog agenta, odnosno simuliranog studenta ili čak oponenta studentu. Modul koji čini ekspertski sistem se sastoji od klasičnih problema veštačke inteligencije, kao što su prepoznavanje plana i rezonovanje nad problemima koji uključuju neizvesnost. Zadatak pedagoškog modula je nadgledanje plana instrukcije i njegovo adaptiranje na osnovu novih informacija o kompetentnosti studenta za rešavanje problema. Uprkos složenosti sistema za treniranje učenika i studenata, projektovani su u velikom broju, a neki od njih se regularno koriste u školama, industriji i za vojne instrukcije.

Tehnike uredi

Istraživanje veštačke inteligencije koristi širok spektar tehnika za postizanje gore navedenih ciljeva.[b]

Pretraga i optimizacija uredi

VI može da reši mnoge probleme inteligentnim pretraživanjem mnogih mogućih rešenja.[73] Postoje dve veoma različite vrste pretrage koje se koriste u VI: pretraga prostora stanja i lokalna pretraga.

Pretraga prostora stanja uredi

Pretraga prostora stanja pretražuje stablo mogućih stanja kako bi pokušala da pronađe ciljno stanje.[74] Na primer, algoritmi planiranja pretražuju kroz stabla ciljeva i podciljeva, pokušavajući da pronađu put do željenog cilja, proces koji se naziva analiza sredstava i ciljeva.[75]

Jednostavne iscrpne pretrage[76] retko su dovoljne za većinu problema iz stvarnog sveta: prostor za pretragu (broj mesta za pretragu) brzo raste do astronomskih razmera. Rezultat je pretraga koja je prespora ili se nikada ne završava.[21]Heuristika“ ili „pravila palca“ mogu pomoći da se odrede prioriteti izbora za koje je veća verovatnoća da će postići cilj.[77]

Suparnička pretraga se koristi za programe za igranje igara, kao što su šah ili go. Ona pretražuje stablo mogućih poteza i kontra-poteza, tražeći pobedničku poziciju.[78]

Lokalna pretraga uredi

 
Ilustracija gradijentnog spuštanja za 3 različite početne tačke. Dva parametra (predstavljena koordinatama plana) su podešena da bi se funkcija gubitka (visina) minimizirala.

Lokalna pretraga koristi matematičku optimizaciju da pronađe rešenje za problem. Počinje nekim oblikom nagađanja i postepeno ga rafinira.[79]

Opadajuće spuštanje je vrsta lokalne pretrage koja optimizuje skup numeričkih parametara tako što ih postupno prilagođava da bi se minimizovala funkcija gubitka. Varijante gradijentnog spuštanja se obično koriste za obuku neuronskih mreža.[80]

Drugi tip lokalne pretrage je evoluciono računanje, koje ima za cilj da iterativno poboljša skup rešenja kandidata tako što će ih „mutirati“ i „rekombinovati“, birajući samo najsposobnije da prežive svaku generaciju.[81]

Distribuirani procesi pretraživanja mogu da se koordiniraju preko algoritama rojevske inteligencije. Dva popularna rojevska algoritma koji se koriste u pretraživanju su optimizacija roja čestica (inspirisana jatom ptica) i optimizacija kolonija mrava (inspirisana mravljim stazama).[82]

Logika uredi

Formalna logika se koristi za rasuđivanje i predstavljanje znanja.[83] Formalna logika dolazi u dva glavna oblika: propoziciona logika (koja operiše na izjavama koje su istinite ili netačne, i koristi logičke poveznice kao što su „i“, „ili“, „ne“ i „implicira“[84] i predikatska logika (koja takođe radi na objektima, predikatima i odnosima i koristi kvantifikatore kao što su „Svako X je Y“ i „Postoje neki X-evi koji su Y“).[85]

Logički zaključak (ili dedukcija) je proces dokazivanja novog iskaza (zaključka) na osnovu drugih iskaza za koje se već zna da su tačni (premise).[86] Logička baza znanja takođe obrađuje upite i tvrdnje kao poseban slučaj zaključivanja.[87] Pravilo zaključivanja opisuje šta je valjan korak u dokazu. Najopštije pravilo zaključivanja je rezolucija.[88] Zaključivanje se može svesti na izvođenje pretrage kako bi se pronašao put koji vodi od premisa do zaključaka, gde je svaki korak primena pravila zaključivanja.[89] Zaključak izveden na ovaj način je nedosežan osim za kratke dokaze u ograničenim domenima. Nije otkriven nijedan efikasan, moćan i opšti metod.

Rasplinuta logika pripisuje „stepen istine“ između 0 i 1. Stoga može da obrađuje propozicije koje su nejasne i delimično tačne.[90] Nemonotonske logike su dizajnirane da obrađuju podrazumevano rezonovanje.[34] Druge specijalizovane verzije logike su razvijene da opišu mnoge složene domene (pogledajte reprezentaciju znanja iznad).

Probabilističke metode za neizvesno rezonovanje uredi

 
Jednostavna Bajesova mreža, sa pridruženim tabelama uslovnih verovatnoća.

Mnogi problemi u oblasti veštačke inteligencije (uključujući rasuđivanje, planiranje, učenje, percepciju i robotiku) zahtevaju od agenta da radi sa nepotpunim ili nesigurnim informacijama. Istraživači veštačke inteligencije su osmislili brojne alate za rešavanje ovih problema koristeći metode iz teorije verovatnoće i ekonomije.[91]

Bajesove mreže[92] su veoma opšti alat koji se može koristiti za mnoge probleme, uključujući rasuđivanje (koristeći algoritam Bajesovog zaključivanja),[e][94] učenje (koristeći algoritam maksimizacije očekivanja),[ž][96] planiranje (koristeći mreže odlučivanja)[97] i percepciju (koristeći dinamičke Bajesove mreže).[98]

Probabilistički algoritmi se takođe mogu koristiti za filtriranje, predviđanje, ujednačavanje i pronalaženje objašnjenja za tokove podataka, pomažući sistemima percepcije da analiziraju procese koji se dešavaju tokom vremena (npr. skriveni Markovljevi modeli ili Kalmanovi filtri).[98]

Razvijeni su precizni matematički alati koji analiziraju kako agent može da donosi izbore i planira, koristeći teoriju odlučivanja, analizu odluka,[99] i teoriju vrednosti informacija.[100] Ovi alati uključuju modele kao što su Markovljevi procesi odlučivanja,[101] dinamičke mreže odlučivanja,[98] teorija igara i dizajn mehanizama.[102]

 
Grupisanje podataka o erupcijama Starog Vernog sa maksimizacijom očekivanja počinje od slučajnog nagađanja, ali se zatim uspešno približava tačnom grupisanju dva fizički različita načina erupcije.

Klasifikatori i statističke metode učenja uredi

Najjednostavnije VI aplikacije se mogu podeliti u dva tipa: klasifikatori (npr. „ako je sjajan onda je dijamant“), s jedne strane, i kontroleri (npr. „ako je dijamant onda ga uzmi“), s druge strane. Klasifikatori[103] su funkcije koje koriste podudaranje šablona za određivanje najbližeg podudaranja. Mogu se fino podesiti na osnovu odabranih primera korišćenjem učenja pod nadzorom. Svaki obrazac (koji se naziva i „opservacija”) je označen određenom unapred definisanom klasom. Sva zapažanja u kombinaciji sa njihovim oznakama klasa poznata su kao skup podataka. Kada se primi novo zapažanje, to zapažanje se klasifikuje na osnovu prethodnog iskustva.[51]

U upotrebi je mnogo vrsta klasifikatora. Stablo odlučivanja je najjednostavniji i najčešće korišćeni simbolički algoritam mašinskog učenja.[104] Algoritam K-najbližeg suseda je bio najrasprostranjeniji analogni vid veštačke inteligencije do sredine 1990-ih, a metode kernela kao što je metoda potpornih vektora (SVM) su zamenile pristup k-najbližeg suseda tokom 1990-ih.[105] Naivni Bajesov klasifikator se smatra „najviše korišćenim vidom učenja“[106] u Guglu, delimično zbog svoje skalabilnosti.[107] Neuronske mreže se takođe koriste kao klasifikatori.[108]

Veštačke neuronske mreže uredi

 
Neuronska mreža je međusobno povezana grupa čvorova, slična ogromnoj mreži neurona u ljudskom mozgu.

Veštačka neuronska mreža se zasniva na kolekciji čvorova poznatih i kao veštački neuroni, koji labavo modeluju neurone u biološkom mozgu. Ona je obučena da prepozna obrasce; kada se jednom obuči, može prepoznati te obrasce u svežim podacima. Postoji ulaz, najmanje jedan skriveni sloj čvorova i izlaz. Svaki čvor primenjuje funkciju i kada težina pređe određeni prag, podaci se prenose na sledeći sloj. Mreža se obično naziva dubokom neuronskom mrežom ako ima najmanje 2 skrivena sloja.[108]

Algoritmi za učenje za neuronske mreže koriste lokalnu pretragu da bi odabrali parametre koje će proizvesti adekvatan izlaz za svaki ulaz tokom treninga. Najčešća tehnika obuke je algoritam bekpropagacije.[109] Neuronske mreže uče da modeluju složene odnose između ulaza i izlaza i pronalaze obrasce u podacima. U teoriji, neuronska mreža može naučiti bilo koju funkciju.[110]

U neuronskim mrežama direktne komunikacije signal prolazi samo u jednom pravcu.[111] Rekurentne neuronske mreže vraćaju izlazni signal nazad u ulaz, što omogućava kratkoročno pamćenje prethodnih ulaznih događaja. Duga kratkoročna memorija je najuspešnija mrežna arhitektura za rekurentne mreže.[112] Perceptroni[113] koriste samo jedan sloj neurona, duboko učenje[114] koristi više slojeva. Konvolucione neuronske mreže jačaju vezu između neurona koji su „bliski“ jedan drugom – ovo je posebno važno u obradi slike, gde lokalni skup neurona mora da identifikuje „ivicu“ pre nego što mreža može da identifikuje objekat.[115]

Duboko učenje uredi

 
Hijerarhija veštačke inteligencije

Duboko učenje[114] koristi nekoliko slojeva neurona između ulaza i izlaza mreže. Više slojeva može progresivno izvući karakteristike višeg nivoa iz sirovog unosa. Na primer, u obradi slike, niži slojevi mogu da identifikuju ivice, dok viši slojevi mogu da identifikuju koncepte relevantne za čoveka kao što su cifre, slova ili lica.[116]

Duboko učenje je znatno poboljšalo performanse programa u mnogim važnim podoblastima veštačke inteligencije, uključujući kompjuterski vid, prepoznavanje govora, obradu prirodnog jezika, klasifikaciju slika[117] i druge. Razlog zbog kojeg duboko učenje ima tako dobre rezultate u tolikom broju aplikacija nije poznat prema podacima iz 2023. godine.[118] Do iznenadnog uspeha dubokog učenja 2012–2015. nije došlo zbog nekog novog otkrića ili teorijskog prodora (duboke neuronske mreže i propagaciju unazad su opisali mnogi ljudi još od 1950-ih)[z] već zbog dva faktora: neverovatno povećanje snage računara (uključujući stostruko povećanje brzine prelaskom na GPU procesore) i dostupnost ogromnih količina podataka za obuku, posebno gigantskih razvrstanih skupova podataka koji se koriste za kontrolno testiranje, kao što je ImageNet.[i]

GPT uredi

Generativni unapred obučeni transformatori (GPT) su veliki jezički modeli koji se zasnivaju na semantičkim odnosima između reči u rečenicama (obrada prirodnog jezika). GPT modeli zasnovani na tekstu su unapred obučeni za veliki korpus teksta koji može biti preuzet sa interneta. Prethodna obuka se sastoji u predviđanju sledeće lekseme (token je obično reč, podreč ili interpunkcija). Tokom ove pred-obuke, GPT modeli akumuliraju znanje o svetu, a zatim mogu da generišu tekst sličan onom koji su ljudi stvorili ponavljanjem predviđanja sledećeg tokena. Tipično, naredna faza obuke čini model istinitijim, korisnijim i bezopasnijim, obično uz tehniku koja se zove podržano učenje na osnovu ljudskih povratnih informacija (RLHF). Sadašnji GPT modeli su još uvek skloni generisanju neistina koje se nazivaju „halucinacije“, iako se to može smanjiti pomoću RLHF i podataka o kvalitetu. Koriste se u čatbotovima, koji omogućavaju korisniku da postavi pitanje ili da postavi zadatak jednostavnim tekstom.[127][128]

Trenutni modeli i usluge uključuju: Gemini (ranije Bard), ChatGPT, Grok, Kaud, Kopilot i LLaMA.[129] Multimodalni GPT modeli mogu da obrađuju različite tipove podataka (modaliteta) kao što su slike, video zapisi, zvuk i tekst.[130]

Specijalizovani hardver i softver uredi

Krajem 2010-ih, grafičke procesorske jedinice (GPU) koje su sve više dizajnirane sa poboljšanjima specifičnim za VI i korišćene sa specijalizovanim TensorFlow softverom, u znatnoj meri su zamenile prethodno korišćenu centralnu procesorsku jedinicu (CPU) kao dominantno sredstvo za velike (komercijalne i akademske) obuke modela mašinskog učenja.[131] Istorijski gledano, korišćeni su specijalizovani jezici, kao što su Lisp, Prolog, Piton i drugi.

Primene uredi

Tehnologija veštačke inteligencije i mašinskog učenja se koristi u većini esencijalnih aplikacija 2020-ih, uključujući: pretraživače (kao što je Gugl pretraga), ciljanje onlajn reklama, sisteme preporuka (koje nude Netfliks, Jutjub ili Amazon), povećanje internet saobraćaja, ciljano oglašavanje (Adsens, Fejsbuk), virtuelni asistenti (kao što su Siri ili Aleksa), autonomna vozila (uključujući dronove, ADAS i samovozeće automobile), automatski prevod jezika (Majkrosoft prevodilac, Gugl prevodilac), prepoznavanje lica (Eplov Fejs ID ili Majkrosoftov Dipfejs i Guglov Fejsnet) i označavanje slika (koje koriste Fejsbuk, Eplov Ajfoto i Tiktok).

Zdravlje i medicina uredi

Primena veštačke inteligencije u medicini i medicinskim istraživanjima ima potencijal da poboljša negu pacijenata i kvalitet života.[132] Kroz sočivo Hipokratske zakletve, medicinski radnici su etički primorani da koriste veštačku inteligenciju, ako aplikacije mogu preciznije da dijagnoziraju i leče pacijente.

Za medicinska istraživanja, VI je važan alat za obradu i integraciju velikih količina podataka. Ovo je posebno važno za razvoj organoidnog i tkivnog inženjeringa koji koristi mikroskopsko snimanje kao ključnu tehniku u proizvodnji.[133] Predloženo je da veštačka inteligencija može da prevaziđe razlike u finansiranju dodeljene različitim oblastima istraživanja.[133] Novi VI alati mogu produbiti naše razumevanje biomedicinski relevantnih puteva. Na primer, Alfafold 2 (2021) je pokazao sposobnost da se aproksimira, u vremenskom rasponu od nekoliko sati, a ne meseci, 3D struktura proteina.[134] Godine 2023, objavljeno je da je otkrivanje lekova vođeno veštačkom inteligencijom pomoglo u pronalaženju klase antibiotika sposobnih da ubiju dve različite vrste bakterija otpornih na lekove.[135]

Igre uredi

Programi za igranje igica se koriste od 1950-ih za demonstraciju i testiranje najnaprednijih tehnika veštačke inteligencije.[136] Dip blu je postao prvi kompjuterski sistem za igranje šaha koji je pobedio aktuelnog svetskog šampiona u šahu, Garija Kasparova, 11. maja 1997. godine.[137] Godine 2011, u egzibicionom meču kviz šoa Jeopardy!, IBM-ov sistem odgovora na pitanja, Votson, pobedio je dva najveća šampiona šoa, Brada Rutera i Kena Dženingsa, sa značajnom marginom.[138] U martu 2016, Alfago je pobedio u 4 od 5 igara goa u meču sa go šampionom Lijem Sedolom, postavši prvi kompjuterski go-igrački sistem koji je pobedio profesionalnog go igrača bez hendikepa. Zatim je 2017. pobedio Ke Jija, koji je bio najbolji go igrač na svetu.[139] Drugi programi obrađuju igre sa nesavršenim informacijama, kao što je program za igranje pokera Pluribus.[140] Dipmajd je razvio sve generalističke modele podržanog učenja, kao što je Muzero, koji bi se mogao obučiti da igra šah, go ili Atari igre.[141] U 2019. godini, Dipmajndov Alfastar je dostigao nivo velemajstora u Starkraft II, posebno izazovnoj strateškoj igri u realnom vremenu koja uključuje nepotpuno znanje o tome šta se dešava na mapi.[142] Godine 2021, VI agent se takmičio u Plejstejšon Gran Turismo takmičenju, pobedivši četiri najbolja svetska vozača Gran Turisma koristeći podržano duboko učenje.[143]

Vojska uredi

Razne zemlje primenjuju VI vojne aplikacije.[144] Glavne aplikacije poboljšavaju komandu i kontrolu, komunikacije, senzore, integraciju i interoperabilnost.[145] Istraživanje je usmereno na prikupljanje i analizu obaveštajnih podataka, logistiku, sajber operacije, informacione operacije, i poluautonomna i autonomna vozila.[144] VI tehnologije omogućavaju koordinaciju senzora i efektora, otkrivanje i identifikaciju pretnji, obeležavanje neprijateljskih pozicija, fokusiranje na mete, koordinaciju i dekonflikaciju distribuiranih zajedničkih paljbi između umreženih borbenih vozila koja uključuju timove sa posadom i bez posade.[145] VI je bila uključena u vojne operacije u Iraku i Siriji.[144]

U novembru 2023. godine, potpredsednica SAD Kamala Haris objavila je deklaraciju koju je potpisala 31 država o postavljanju zaštitnih ograda za vojnu upotrebu IA. Obaveze uključuju korišćenje pravnih pregleda kako bi se osigurala usklađenost vojne veštačke inteligencije sa međunarodnim zakonima, kao i oprez i transparentnost u razvoju ove tehnologije.[146]

Generativna veštačka inteligencija uredi

 
Vincent van Gog u akvarelu kreiran generativnim VI softverom

Početkom 2020-ih, generativna veštačka inteligencija je stekla široku važnost. U martu 2023, 58% odraslih u SAD je čulo za ChatGPT, a 14% ga je oprobalo.[147] Sve veći realizam i lakoća korišćenja generatora teksta u sliku zasnovanih na veštačkoj inteligenciji, kao što su Midjourney, DALL-E i Stabilna difuzija, izazvali su trend viralnih VI-generisanih fotografija. Široku pažnju privukla je lažna fotografija pape Franje u belom pufer kaputu, izmišljeno hapšenje Donalda Trampa i obmana o napadu na Pentagon, kao i upotreba u profesionalnoj kreativnoj umetnosti.[148][149]

Zadaci specifični za industriju uredi

Takođe postoje hiljade uspešnih VI aplikacija koje se koriste za rešavanje specifičnih problema za određene industrije ili institucije. U istraživanju iz 2017. godine, jedna od pet kompanija je izjavila da je inkorporirala „VI“ u neke ponude ili procese.[150] Nekoliko primera su skladištenje energije, medicinska dijagnostika, vojna logistika, aplikacije koje predviđaju rezultat sudskih odluka, spoljna politika ili upravljanje lancem snabdevanja.

U poljoprivredi, veštačka inteligencija je pomogla poljoprivrednicima da identifikuju područja kojima je potrebno navodnjavanje, đubrenje, tretmani pesticidima, što dovodi do povećanja prinosa. Agronomi koriste veštačku inteligenciju za sprovođenje istraživanja i razvoja. VI se koristi za predviđanje vremena sazrevanja useva kao što je paradajz, praćenje vlage u zemljištu, upravljanje poljoprivrednim robotima, sprovođenje prediktivne analitike, klasifikaciju emocija parenja kod svinja, automatizaciju staklenika, otkrivanje bolesti i štetočina, i uštedu vode.

Veštačka inteligencija se koristi u astronomiji za analizu sve veće količine dostupnih podataka i aplikacija, uglavnom za „klasifikaciju, regresiju, grupisanje, predviđanje, generisanje, otkriće i razvoj novih naučnih uvida“, na primer za otkrivanje egzoplaneta, predviđanje solarne aktivnosti i razlikovanje signala i instrumentalnih efekata u astronomiji gravitacionih talasa. Takođe bi se mogla koristiti za aktivnosti u svemiru kao što je istraživanje svemira, uključujući analizu podataka iz svemirskih misija, naučne odluke svemirskih letelica u realnom vremenu, izbegavanje svemirskog otpada i autonomniji rad.

Etika uredi

Veštačka inteligencija, kao i svaka moćna tehnologija, ima potencijalne prednosti i potencijalne rizike. Smatra se da veštačka inteligencija može da unapredi nauku i pronađe rešenja za ozbiljne probleme: Demis Hasabis iz Dip Majnda se nada da će „rešiti inteligenciju, a zatim to iskoristiti da reši sve ostalo“.[151] Međutim, kako je upotreba veštačke inteligencije postala široko rasprostranjena, identifikovano je nekoliko neželjenih posledica i rizika.[152]

Svako ko želi da koristi mašinsko učenje kao deo stvarnog sveta, sistema u proizvodnji, treba da uvede etiku u svoje procese VI obuke i nastoji da izbegne pristrasnost. Ovo je posebno tačno kada se u dubokom učenju koriste VI algoritmi koji su inherentno neobjašnjivi.[153]

Rizici i šteta uredi

Privatnost i autorska prava uredi

Algoritmi mašinskog učenja zahtevaju velike količine podataka. Tehnike koje se koriste za dobijanje ovih podataka izazvale su zabrinutost u vezi sa privatnošću, nadzorom i autorskim pravima.

Tehnološke kompanije prikupljaju širok spektar podataka od svojih korisnika, uključujući onlajn aktivnosti, geolokacijske podatke, video i audio zapise.[154] Na primer, da bi izgradio algoritme za prepoznavanje govora, Amazon je snimio milione privatnih razgovora i dozvolio privremenim radnicima da slušaju i transkribuju neke od njih.[155] Mišljenja o ovom široko rasprostranjenom nadzoru se kreću od onih koji ga vide kao neophodno zlo do onih za koje je to očigledno neetično i kršenje prava na privatnost.[156]

VI programeri tvrde da je to jedini način da se isporuče vredne aplikacije, i da su razvili nekoliko tehnika koje pokušavaju da očuvaju privatnost dok i se dalje dobijaju podaci, kao što su agregacija podataka, deidentifikacija i diferencijalna privatnost.[157] Od 2016. neki stručnjaci za privatnost, poput Sintije Dvork, počeli su da posmatraju privatnost u smislu pravičnosti. Brajan Kristijan je napisao da su se stručnjaci okrenuli „od pitanja 'šta znaju' na pitanje 'šta rade s tim'”.[158]

Generativna veštačka inteligencija se često obučava na nelicenciranim delima zaštićenim autorskim pravima, uključujući i domene kao što su slike ili kompjuterski kod; rezultat se onda koristi pod obrazloženjem „poštene upotrebe“. Takođe vlasnici veb lokacija koji ne žele da njihov sadržaj zaštićen autorskim pravima bude VI indeksiran ili 'ostrugan' mogu da dodaju kod na svoju veb lokaciju, ako ne žele da njihov sajt bude indeksiran od strane pretraživača, koji je trenutno dostupan za određene servise kao što je OpenAI. Stručnjaci se ne slažu oko toga koliko dobro i pod kojim okolnostima će se ovo obrazloženje održati na sudovima; relevantni faktori mogu uključivati „svrhu i karakter korišćenja dela zaštićenog autorskim pravima“ i „uticaj na potencijalno tržište dela zaštićenog autorskim pravima“.[159] Godine 2023, vodeći autori (uključujući Džona Grišama i Džonatana Franzena) tužili su VI kompanije zbog korišćenja njihovog rada za obuku generativne veštačke inteligencije.[160][161]

Dezinformacije uredi

Jutjub, Fejsbuk i drugi koriste sisteme preporuka koji vode korisnike do više sadržaja. Ovim VI programima je dat cilj da maksimiziraju angažovanje korisnika (to jest, jedini cilj je bio da ljudi što više gledaju). Veštačka inteligencija je spoznala da korisnici imaju tendenciju da biraju dezinformacije, teorije zavere i ekstremne partijske sadržaje, i da bi ih zadržala da gledaju, VI je preporučila više toga. Korisnici su takođe imali tendenciju da gledaju više sadržaja na istu temu, tako da je veštačka inteligencija dovela ljude do filterskih mehurića gde su dobijali više verzija istih dezinformacija.[162] To je mnoge korisnike uverilo da su dezinformacije istinite i na kraju potkopalo poverenje u institucije, medije i vladu.[163] VI program je ispravno naučio da maksimizira svoj cilj, ali rezultat je bio štetan za društvo. Nakon izbora u SAD 2016. godine, velike tehnološke kompanije preduzele su korake da ublaže problem.

Godine 2022, generativna veštačka inteligencija je počela da stvara slike, audio, video i tekst koji se ne razlikuju od stvarnih fotografija, snimaka, filmova ili ljudskog pisanja. Postoji mogućnost je da loši akteri koriste ovu tehnologiju za stvaranje ogromne količine dezinformacija ili propagande.[164] Pionir veštačke inteligencije Džefri Hinton izrazio je zabrinutost zbog toga što, pored ostalih rizika, veštačka inteligencija omogućava „autoritarnim liderima da manipulišu svojim biračkim telom“ u velikim razmerama.[165]

Algoritamska pristrasnost i pravičnost uredi

Aplikacije za mašinsko učenje će biti pristrasne ako uče iz pristrasnih podataka.[166] Moguće je da graditelji nisu svesni da pristrasnost postoji.[167] Pristrasnost se može uneti načinom na koji se biraju podaci za obuku i načinom na koji je model primenjuje.[168][166] Ako se pristrasni algoritam koristi za donošenje odluka koje mogu ozbiljno da naškode ljudima (kao što može biti slučaj u medicini, finansijama, zapošljavanju, stambenoj izgradnji ili održavanju reda), onda algoritam može dovesti do diskriminacije.[169] Pravednost u mašinskom učenju je studija o tome kako sprečiti štetu uzrokovanu algoritamskom pristrasnošću. To je postala ozbiljna oblast akademskog proučavanja unutar VI. Istraživači su otkrili da nije uvek moguće definisati „pravičnost“ na način koji zadovoljava sve zainteresovane strane.[170]

Dana 28. juna 2015, nova funkcija za označavanje slika u Gugl fotografijama greškom je identifikovala Džeki Alsia i prijatelja kao „gorile“ jer su oni crni. Sistem je obučen na skupu podataka koji je sadržao vrlo malo slika crnih ljudi,[171] što je problem koji se naziva „disparitet veličine uzorka“.[172] Gugl je „popravio” ovaj problem tako što je sprečio sistem da bilo šta označi kao „gorila”. Osam godina kasnije, 2023. godine, Gugl fotografije i dalje nisu mogle da identifikuju gorilu, kao ni slični proizvodi iz Epla, Fejsbuka, Majkrosofta i Amazona.[173]

COMPAS je komercijalni program koji sudovi u SAD naširoko koriste za procenu verovatnoće da će optuženi postati recidivista. U 2016, Džulija Engvin iz Propablika otkrila je da COMPAS pokazuje rasnu pristrasnost, uprkos činjenici da u programu nisu bile navedene rase optuženih. Iako je stopa greške za belce i za crnce jednako kalibrisana na tačno 61%, greške za svaku rasu su bile različite — sistem je dosledno precenjivao šanse da će crnac ponoviti prekršaj i potcenjivao šanse da belac neće to učiniti.[174] U 2017. godini, nekoliko istraživača[j] je pokazalo da je matematički nemoguće da COMPAS prihvati sve moguće mere pravičnosti kada su osnovne stope ponavljanja prekršaja bile različite za belce i crnce u podacima.[175]

Program može donositi pristrasne odluke čak i ako podaci eksplicitno ne pominju problematičnu karakteristiku (kao što je „rasa“ ili „pol“). Funkcija će biti u korelaciji sa drugim karakteristikama (kao što su „adresa“, „istorija kupovine“ ili „ime“), a program će donositi iste odluke na osnovu ovih karakteristika kao i o „rasi“ ili „polu“.[176] Moric Hart je rekao da je „najrobusnija činjenica u ovoj oblasti istraživanja da pravičnost kroz slepilo ne funkcioniše.“[177]

Kritika COMPAS-a je istakla dublji problem sa zloupotrebom VI. Modeli mašinskog učenja su dizajnirani da prave „predviđanja“ koja su važeća samo ako se pretpostavlja da će budućnost ličiti na prošlost. Ako su obučeni na osnovu podataka koji uključuju rezultate rasističkih odluka u prošlosti, modeli mašinskog učenja moraju predvideti da će se rasističke odluke donositi u budućnosti. Nažalost, ako aplikacija tada koristi ova predviđanja kao preporuke, neke od ovih preporuka će verovatno biti rasističke.[178] Prema tome, mašinsko učenje nije dobro prilagođeno da pomogne u donošenju odluka u oblastima u kojima postoji nada da će budućnost biti bolja od prošlosti. Ono je nužno deskriptivno, a ne proskriptivno.[k]

Pristrasnost i nepravednost mogu ostati neotkriveni, jer su graditelji pretežno belci i muškarci: među inženjerima veštačke inteligencije, oko 4% su crnci, a 20% žene.[172]

Na svojoj Konferenciji o pravičnosti, odgovornosti i transparentnosti 2022. (ACM FAccT 2022) Udruženje za računarske mašine u Seulu, Južna Koreja, predstavilo je i objavilo nalaze u kojima preporučuje da dok se ne pokaže da su veštačka inteligencija i robotski sistemi bez grešaka pristrasnosti, oni nisu bezbedni i korišćenje samoučećih neuronskih mreža obučenih na ogromnim, neregulisanim izvorima manjkavih internet podataka treba da se ograniči.[180]

Nedostatak transparentnosti uredi

 
Lidar testno vozilo za autonomnu vožnju

Mnogi sistemi veštačke inteligencije su toliko složeni da njihovi dizajneri ne mogu da objasne kako se dolazi do odluka.[181] To je posebno slučaj sa dubokim neuronskim mrežama, u kojima postoji velika količina nelinearnih odnosa između ulaza i izlaza. Međutim postoje neke popularne tehnike za objašnjavanje.[182]

Bilo je mnogo slučajeva gde je program mašinskog učenja prošao rigorozne testove, ali je ipak naučio nešto drugačije od onoga što su programeri nameravali. Na primer, otkriveno je da sistem koji bi mogao da identifikuje kožne bolesti bolje od medicinskih stručnjaka zapravo ima jaku tendenciju da klasifikuje slike sa lenjirom kao „kancerogene“, jer slike maligniteta obično uključuju lenjir koji pokazuje razmeru.[183] Utvrđeno je da je jedan drugi sistem mašinskog učenja, koji je osmišljen da pomogne u efikasnoj alokaciji medicinskih resursa, klasifikuje pacijente sa astmom da imaju „niski rizik” da umru od upale pluća. Imati astmu je zapravo ozbiljan faktor rizika, ali pošto bi pacijenti sa astmom obično dobijali mnogo više medicinske nege, relativno malo je verovatno da će umreti prema podacima obuke. Korelacija između astme i niskog rizika od umiranja od upale pluća bila je stvarna, ali zavaravajuća.[184]

Ljudi koji su oštećeni odlukom algoritma imaju pravo na objašnjenje. Od lekara se, na primer, zahteva da jasno i potpuno objasne razloge za svaku odluku koju donesu.[185] Rani nacrti Opšte uredbe o zaštiti podataka Evropske unije iz 2016. godine uključivali su eksplicitnu izjavu da ovo pravo postoji.[l] Stručnjaci iz industrije su primetili da je ovo nerešen problem bez rešenja na vidiku. Regulatori su tvrdili da je šteta ipak stvarna: ako problem nema rešenje, ne treba koristiti alate.[186] DARPA je uspostavila program XAI („Objašnjiva veštačka inteligencija“) 2014. u pokušaju da se reše ovi problemi.[187]

Postoji nekoliko potencijalnih rešenja za problem transparentnosti. SHAP pomaže da se vizuelizuje doprinos svake karakteristike rezultatu.[188] LIME može lokalno aproksimirati model sa jednostavnijim modelom koji se može interpretirati.[189] Višezadatno učenje pruža veliki broj rezultata pored ciljne klasifikacije. Ovi drugi rezultati mogu pomoći razvijačima da razluče šta je mreža naučila.[190] Dekonvolucija, Dipdrim i druge generativne metode mogu omogućiti stručnjacima da vide šta su različiti slojevi duboke mreže naučili i proizvedu izlaz koji može da sugeriše šta mreža uči.[191]

Konflikt, prismotra i naoružana veštačka inteligencija uredi

Smrtonosno autonomno oružje je mašina koja locira, bira i angažuje ljudske mete bez ljudskog nadzora.[lj] Do 2015. godine prijavljeno je da preko pedeset zemalja istražuje robote na bojnom polju.[193] Ovo oružje se smatra posebno opasnim iz nekoliko razloga: ako ubije nevinu osobu, nije jasno ko treba da odgovara, malo je verovatno da će pouzdano izabrati mete, a ako se proizvodi u velikim razmerama, to je potencijalno oružje za masovno uništenje.[194] U 2014. godini, 30 država (uključujući Kinu) podržalo je zabranu autonomnog oružja u skladu sa Konvencijom o određenom konvencionalnom oružju Ujedinjenih nacija, međutim Sjedinjene Države i drugi se s tim nisu složili.[195]

Veštačka inteligencija pruža niz alata koji su posebno korisni za autoritarne vlade: pametni špijunski softver, prepoznavanje lica i glasa omogućavaju široko rasprostranjeno praćenje; takav nadzor omogućava mašinskom učenju da klasifikuje potencijalne neprijatelje države i može sprečiti da se skrivaju; sistemi preporuka mogu precizno isporučivati propagandu i dezinformacije radi maksimalnog efekta; dipfejkovi i generativna veštačka inteligencija pomažu u stvaranju dezinformacija; napredna veštačka inteligencija može učiniti autoritarno centralizovano donošenje odluka konkurentnijim liberalnim i decentralizovanim sistemima kao što su tržišta.[196]

Sistemi veštačke inteligencije za prepoznavanje lica se koriste za masovno nadgledanje, posebno u Kini.[197][198] Godine 2019, Bengaluru u Indiji je postavio saobraćajne signale kojima upravlja veštačka inteligencija. Ovaj sistem koristi kamere za praćenje gustine saobraćaja i prilagođavanje vremena signala na osnovu intervala potrebnog za raserećenje saobraćaja.[199] Teroristi, kriminalci i odmetničke države mogu da koriste naoružanu veštačku inteligenciju kao što je napredno digitalno ratovanje i smrtonosno autonomno oružje. Veštačka inteligencija sa mašinskim učenjem je takođe u stanju da dizajnira desetine hiljada toksičnih molekula za nekoliko sati.[200]

Bezbednosne smernice za proteine dizajnirane veštačkom inteligencijom uredi

Istraživači su pokrenuli inicijativu koja poziva na bezbednu i etičku upotrebu dizajna proteina. Dobrovoljni napor dolazi nakon izveštaja zakonodavaca, istraživačkih centara i drugih organizacija koje istražuju mogućnost da alati veštačke inteligencije — u rasponu od mreža za predviđanje strukture proteina kao što je Alfafold do velikih jezičkih modela kao što je onaj koji pokreće ChatGPT — mogu olakšati za razvoj biološkog oružja, uključujući nove toksine ili visoko prenosive viruse. Nova inicijativa poziva biodizajnersku zajednicu da vrši kontrolu i da se poboljša skrining sinteze DNK, što je ključni korak u pravljenju proteina dizajniranih posredstvom veštačke inteligencije, za potencijalno štetne molekule.[201][202]

Tehnološka nezaposlenost uredi

Od ranih dana razvoja veštačke inteligencije postojali su argumenti, na primer oni koje je izneo Džozef Vajzenbaum, o tome da li zadatke koje računari mogu da obavljaju zapravo oni treba da rade, s obzirom na razliku između računara i ljudi, i između kvantitativnog izračunavanja i kvalitativnog vrednosnog prosuđivanja.[203]

Ekonomisti su često isticali rizike od otpuštanja usled delovanja veštačke inteligencije i spekulisali o nezaposlenosti ukoliko ne postoji adekvatna socijalna politika za punu zaposlenost.[204]

U prošlosti, tehnologija je imala tendenciju da povećava, a ne da smanjuje ukupnu zaposlenost, ali ekonomisti priznaju da smo „na neistraženoj teritoriji“ sa veštačkom inteligencijom.[205] Ekonomska istraživanja su pokazala neslaganje oko toga da li će sve veća upotreba robota i veštačke inteligencije izazvati značajno povećanje dugoročne nezaposlenosti, ali se generalno slažu da bi to moglo biti neto korisno ako se preraspodeli povećanje produktivnosti.[206] Procene rizika variraju; na primer, tokom 2010-ih, Majkl Ozborn i Karl Benedikt Frej su procenili da je 47% radnih mesta u SAD izloženo „visokom riziku” od potencijalne automatizacije, dok je jedan OECD izveštaj klasifikovao samo 9% poslova u SAD kao „visoki rizik”.[m][208] Metodologija spekulisanja o budućim nivoima zaposlenosti je kritikovana po osnovi nedostatka dokaznog temelja i zbog impliciranja da tehnologija, a ne socijalna politika, stvara nezaposlenost, za razliku od otpuštanja.[204]

U kontastu sa prethodnim talasima automatizacije, mnogi poslovi srednje klase mogu biti eliminisani veštačkom inteligencijom; The Economist je 2015. godine naveo da je „zabrinutost da bi veštačka inteligencija mogla da uradi poslovima belih okovratnika ono što je parna energija učinila onima sa plavim okovratnicima tokom industrijske revolucije“ „vredno ozbiljno razmatranja“.[209] Ekstremno rizični poslovi se kreću od pravnih pomoćnika do kuvara brze hrane, dok će potražnja verovatno porasti za profesijama vezanim za negu, od lične zdravstvene zaštite do sveštenstva.[210]

U aprilu 2023. objavljeno je da je 70% poslova za kineske ilustratore video igrica eliminisano generativnom veštačkom inteligencijom.[211][212]

Egzistencijalni rizik uredi

Tvrdilo se da će veštačka inteligencija postati toliko moćna da bi čovečanstvo moglo nepovratno izgubiti kontrolu nad njom. Ovo bi, kako je izjavio fizičar Stiven Hoking, moglo da „dovede do kraja ljudske rase“.[213] Ovaj scenario je uobičajen u naučnoj fantastici, kada kompjuter ili robot iznenada razviju „samosvest“ (ili „svesnost“) nalik čoveku i postanu zlonamerni.[n] Ovi scenariji naučne fantastike su obmanjujući na nekoliko načina.

Prvo, veštačka inteligencija ne zahteva „svestnost” nalik ljudskoj da bi bila egzistencijalni rizik. Savremenim programima veštačke inteligencije daju se specifični ciljevi i oni koriste učenje i inteligenciju da bi ih postigli. Filozof Nik Bostrom je tvrdio da ako neko zada skoro bilo koji cilj dovoljno moćnoj veštačkoj inteligenciji, ona može izabrati da uništi čovečanstvo da bi to postigala (koristio je primer menadžera fabrike spajalica).[215] Stjuart Rasel daje primer kućnog robota koji pokušava da pronađe način da ubije svog vlasnika kako bi sprečio da bude isključen, rezonujući da „ne možeš doneti kafu ako si mrtav.“[216] Da bi bilo bezbedna za čovečanstvo, superinteligencija bi morala da bude istinski usklađena sa moralom i vrednostima čovečanstva kako bi bila „u osnovi na našoj strani“.[217]

Drugo, Juval Noa Harari tvrdi da veštačkoj inteligenciji nije potrebno telo robota ili fizička kontrola da bi predstavljala egzistencijalni rizik. Esecijalni delovi civilizacije nisu fizički. Stvari kao što su ideologije, zakon, [vlada], novac i ekonomija su govorne konstrukcije; postoje jer postoje priče u koje veruju milijarde ljudi. Trenutna prevalencija dezinformacija sugeriše da bi veštačka inteligencija mogla da koristi jezik da ubedi ljude da veruju u bilo šta, čak i da preduzmu akcije koje su destruktivne.[218]

Mišljenja među stručnjacima i insajderima iz industrije nisu jedinstvena, pri čemu postoje znatne frakcije koje su zabrinute i kao i one koje nisu zabrinute zbog rizika od eventualne superinteligentne veštačke inteligencije.[219] Ličnosti kao što su Stiven Hoking, Bil Gejts i Elon Mask izrazile su zabrinutost zbog egzistencijalnog rizika od veštačke inteligencije.[220]

Početkom 2010-ih, stručnjaci su tvrdili da su rizici u suviše udaljenoj budućnosti da bi opravdali istraživanje ili da će ljudi biti vredni iz perspektive superinteligentne mašine.[221] Međutim, nakon 2016. godine, proučavanje sadašnjih i budućih rizika i mogućih rešenja postalo je ozbiljna oblast istraživanja.[222]

Pioniri veštačke inteligencije, kao što su Fej-Fej Li, Džofri Hinton, Jošua Bendžo, Sintija Brezil, Rana el Kalioubi, Demis Hasabis, Džoj Buolamvini i Sam Oltman, izrazili su zabrinutost zbog rizika od veštačke inteligencije. Godine 2023, mnogi vodeći stručnjaci za veštačku inteligenciju izdali su zajedničku izjavu da bi „ublažavanje rizika od izumiranja od veštačke inteligencije trebalo da bude globalni prioritet zajedno sa drugim rizicima na društvenom nivou kao što su pandemije i nuklearni rat“.[223]

Drugi istraživači su, međutim, govorili u prilog manje distopijskog gledišta. Pionir veštačke inteligencije Jirgen Šmiduber nije potpisao zajedničku izjavu, naglašavajući da se u 95% svih slučajeva istraživanje veštačke inteligencije odnosi na nastojanje da „ljudski životi budu duži, zdraviji i lakši“.[224] Dok alati koji se sada koriste za poboljšanje života isto tako mogu da se koriste u loše svrhe, „oni takođe mogu da se koriste kao negativni činioci.“[225][226] Endru Ng je takođe tvrdio da je „greška je nasedati na glasine o veštačkoj inteligenciji — i da će regulatori koji to čine imati samo koristi od stečenih interesa."[227] Jan Lekan „ismijava distopijske scenarije svojih pandana prepune dezinformacija, pa čak i eventualno izumiranje čovečanstva”.[228]

Ograničavanje veštačke inteligencije uredi

Moguće opcije za ograničavanje veštačke inteligencije uključuju: korišćenje ugrađene etike ili ustavne veštačke inteligencije gde kompanije ili vlade mogu da unose propise, ograničavanje visokog nivoa računarske moći u obuci, ograničavanje mogućnosti prerade sopstvene kodne baze, ograničavanje određenih tehnika veštačke inteligencije, ali ne u fazi obuke, otvoren kod (transparentnost) u odnosu na vlasnički kod (mogao bi biti u većoj meri ograničen), rezervni model sa redundantnošću, ograničavanje bezbednosti, privatnosti i autorskih prava, ograničavanje ili kontrola memorije, praćenje u realnom vremenu, analiza rizika, isključivanje u hitnim slučajevima, rigorozna simulacija i testiranje, sertifikacija modela, procena poznatih ranjivosti, ograničavanje materijala za obuku, ograničavanje pristupa internetu, izdavanje uslova korišćenja.

Etičke mašine i usklađivanje uredi

Prijateljska veštačka inteligencija su mašine koje su dizajnirane od početka da minimiziraju rizike i da donose odluke od koristi ljudima. Elizer Jadkovski, koji je skovao termin, tvrdi da razvoj prijateljske veštačke inteligencije treba da bude viši prioritet istraživanja: to može zahtevati velika ulaganja i mora biti okončano pre nego što veštačka inteligencija postane egzistencijalni rizik.[229]

Mašine sa inteligencijom imaju potencijal da iskoriste svoju inteligenciju za donošenje etičkih odluka. Oblast mašinske etike obezbeđuje mašinama etičke principe i procedure za rešavanje etičkih dilema.[230] Oblast mašinske etike se takođe naziva računarska moralnost,[230] i osnovana je na AAAI simpozijumu 2005. godine.[231]

Drugi pristupi uključuju „veštačke moralne agente” Vendela Valaha[232] i tri principa Stjuarta Dž. Rasela za razvoj dokazano korisnih mašina.[233]

Okviri uredi

Projekti veštačke inteligencije mogu da se testiraju po osnovi njihove etičke prihvatljivosti tokom dizajniranja, razvoja i implementacije sistema veštačke inteligencije. Okvir veštačke inteligencije kao što je Pazite i postupajte okvir koji sadrži SUM vrednosti – koji je razvio Alan Tjuringov institut testira projekte u četiri glavne oblasti:[234][235]

  • Poštovanje dostojanstvo pojedinačnih ljudi
  • Povezivanje sa drugim ljudima iskreno, otvoreno i inkluzivno
  • Briga za dobrobit svih
  • Zaštita društvenih vrednosti, pravde i javnog interesa

Ostali napreci u etičkim okvirima uključuju one o kojima je odlučeno tokom Asilomar konferencije, Montrealsku deklaraciju za odgovornu veštačku inteligenciju i inicijativu IEEE za etiku autonomnih sistema, između ostalog;[236] međutim, ovi principi ne prolaze bez kritike, posebno u pogledu ljudski odabranih doprinosa ovim okvirima.[237]

Promovisanje blagostanja ljudi i zajednica na koje ove tehnologije utiču zahteva razmatranje društvenih i etičkih implikacija u svim fazama dizajna, razvoja i implementacije sistema veštačke inteligencije, kao i saradnju između radnih uloga kao što su naučnici podataka, menadžeri proizvoda, inženjeri podataka, domenski stručnjaci i menadžeri isporuke.[238]

Regulacija uredi

 
Prvi globalni samit o bezbednosti veštačke inteligencije održan je 2023. godine sa deklaracijom koja poziva na međunarodnu saradnju.

Regulisanje veštačke inteligencije je razvoj politika javnog sektora i zakona za promovisanje i regulisanje veštačke inteligencije; stoga je vezano za širu regulaciju algoritama.[239] Regulatorni i politički pejzaž za veštačku inteligenciju je novo pitanje u jurisdikcijama širom sveta.[240] Prema stanfordskom Indeksu veštačke inteligencije, godišnji broj zakona u vezi sa veštačkom inteligencijom usvojenih u 127 razmatranih zemalja skočio je sa jednog usvojenog u 2016. na 37 usvojenih samo u 2022. godini.[241][242] Između 2016. i 2020. godine, više od 30 zemalja usvojilo je namenske strategije za veštačku inteligenciju.[243] Većina država članica EU objavila je nacionalne strategije veštačke inteligencije, kao i Kanada, Kina, Indija, Japan, Mauricijus, Ruska Federacija, Saudijska Arabija, Ujedinjeni Arapski Emirati, SAD i Vijetnam. Drugi su bili u procesu izrade sopstvene strategije veštačke inteligencije, uključujući Bangladeš, Maleziju i Tunis.[243] Globalno partnerstvo za veštačku inteligenciju pokrenuto je u junu 2020. godine, navodeći potrebu da se veštačka inteligencija razvija u skladu sa ljudskim pravima i demokratskim vrednostima, kako bi se obezbedilo poverenje javnosti i pouzdanje u tehnologiju.[243] Henri Kisindžer, Erik Šmit i Danijel Hatenloher objavili su zajedničku izjavu u novembru 2021. pozivajući na vladinu komisiju koja bi regulisala veštačku inteligenciju.[244] U 2023. godini, lideri OpenAI objavili su preporuke za upravljanje superinteligencijom, za koju veruju da bi se moglo formirati za manje od 10 godina.[245] Ujedinjene nacije su 2023. godine takođe pokrenule savetodavno telo za davanje preporuka o upravljanju veštačkom inteligencijom; telo se sastoji od rukovodilaca tehnoloških kompanija, vladinih zvaničnika i akademika.[246]

U istraživanju Ipsosa iz 2022. godine, stavovi prema veštačkoj inteligenciji su se veoma razlikovali od zemlje do zemlje; 78% kineskih građana, ali samo 35% Amerikanaca, složilo se da „proizvodi i usluge koji koriste veštačku inteligenciju imaju više prednosti nego nedostataka“.[241] Anketa Rojters/Ipsosa iz 2023. pokazala je da se 61% Amerikanaca slaže, a 22% se ne slaže, da veštačka inteligencija predstavlja rizik za čovečanstvo.[247] U anketi Fok Njuza iz 2023. godine, 35% Amerikanaca mislilo je da je to „veoma važno”, a dodatnih 41% mislilo je da je „donekle važno” da savezna vlada reguliše veštačku inteligenciju, naspram 13% koji je odgovorilo „ne baš važno” i 8% je odgovarilo „uopšte nije važno”.[248][249]

U novembru 2023, održan je prvi globalni Samit o bezbednosti veštačke inteligencije u Blečli parku u Velikoj Britaniji da bi se razgovaralo o kratkoročnim i daljim rizicima veštačke inteligencije i mogućnosti obaveznih i dobrovoljnih regulatornih okvira.[250] Set od 28 zemalja, uključujući Sjedinjene Države, Kinu i Evropsku uniju, izdao je deklaraciju na početku samita, pozivajući na međunarodnu saradnju u upravljanju izazovima i rizicima veštačke inteligencije.[251][252]

Istorija uredi

Istorijski pregled razvoja uredi

Pojam veštačka inteligencija (VI), nastaje leta 1956. godine u Dartmudu, Hanover (SAD), na skupu istraživača zainteresovanih za teme inteligencije, neuronskih mreža i teorije automata. Skup je organizovao Džon Makarti, ujedno sa Klodom Šenonom, Marvinom Minskim i N. Ročesterom. Na skupu su takođe učestvovali T. Mur (Prinston), A. Semjuel (IBM), R. Solomonof i O. Selfridž (MIT), kao i A. Nevil, H. Sajmon (Carnegie Tech, danas Karnegi Melon univerzitet). Na skupu su postavljene osnove oblasti veštačke inteligencije i trasiran put za njen dalji razvoj.

Ranije, 1950. godine, Alan Tjuring je objavio jedan članak u reviji Majnd ((Mind)), pod naslovom „Računari i inteligencija“, gde govori o konceptu veštačke inteligencije i postavlja osnove jedne vrste probe, preko koje bi se utvrđivalo da li se određeni računarski sistem ponaša u skladu sa onim što se podrazumeva pod veštačkom inteligencijom, ili ne. Kasnije će ta vrsta probe dobiti ime, Tjuringov test.

Skup je posledica prvih radova u oblasti. Nevil i Sajmon su na njemu predstavili svoj program za automatsko rezonovanje, Logik Teorist (koji je napravio senzaciju). Danas se smatra da su koncept veštačke inteligencije postavili V. Mekulok i M. Pits, 1943. godine, u radu u kom se predstavlja model veštačkih neurona na bazi tri izvora: spoznaja o fiziologiji i funkcionisanju moždanih neurona, iskazna logika Rasela i Vajteheda, i Tjuringova komputaciona teorija. Nekoliko godina kasnije stvoren je prvi neuralni računar SNARC. Zaslužni za poduhvat su studenti Prinstona, Marvin Minski i D. Edmons, 1951. godine. Negde iz iste epohe su i prvi programi za šah, čiji su autori Šenon i Tjuring.

Iako se ova istraživanja smatraju začetkom veštačke inteligencije, postoje mnoga druga koji su bitno uticala na razvoj ove oblasti. Neka potiču iz oblasti kao što su filozofija (prvi pokušaji formalizacije rezonovanja su silogizmi grčkog filozofa Aristotela), matematika (teorija odlučivanja i teorija probabiliteta se primenjuju u mnogim današnjim sistemima), ili psihologija (koja je zajedno sa veštačkom inteligencijom formirala oblast kognitivne nauke).

U godinama koje slede skup u Dartmudu postižu se značajni napreci. Konstruišu se programi koji rešavaju različite probleme. Na primer, studenti Marvina Minskog su krajem šezdesetih godina implementirati program Analogy, koji je osposobljen za rešavanje geometrijskih problema, sličnim onima koji se javljaju u testovima inteligencije, i program Student, koji rešava algebarske probleme napisane na engleskom jeziku. Nevil i Sajmon će razviti General Problem Solver (ГПС), koji pokušava da imitira ljudsko rezonovanje. Semjuel je napisao programe za igru sličnu dami, koji su bili osposobljeni za učenje te igre. Makarti, koji je u međuvremenu otišao na MIT, implementira programski jezik Lisp, 1958. godine. Iste godine je napisao članak, Programs With Common Sense, gde opisuje jedan hipotetički program koji se smatra prvim kompletnim sistemom veštačke inteligencije.

Ova serija uspeha se lomi sredinom šezdesetih godina i previše optimistička predviđanja iz ranijih godina se frustriraju. Do tada implementirani sistemi su funkcionisali u ograničenim domenima, poznatim kao mikrosvetovi (microworlds). Transformacija koja bi omogućila njihovu primenu u stvarnim okruženjima nije bila tako lako izvodljiva, uprkos očekivanjima mnogih istraživača. Po Raselu i Norivigu, postoje tri fundamentalna faktora koji su to onemogućili:

  1. Mnogi dizajnirani sistemi nisu posedovali saznanje o okruženju primene, ili je implementirano saznanje bilo vrlo niskog nivoa i sastojalo se od nekih jednostavnih sintaktičkih manipulacija.
  2. Mnogi problemi koje su pokušavali rešiti su bili u suštini nerešivi, bolje rečeno, dok je količina saznanja bila mala i ograničena rešenje je bilo moguće, ali kada bi došlo do porasta obima saznanja, problemi postaju nerešivi.
  3. Neke od osnovnih struktura koje su se koristile za stvaranje određenog inteligentnog ponašanja su bile veoma ograničene.

Do tog momenta rešavanje problema je bilo zasnovano na jednom mehanizmu opšte pretrage preko kojeg se pokušavaju povezati, korak po korak, elementarne osnove razmišljanja da bi se došlo do konačnog rešenja. Naravno takav pristup podrazumeva i velike izdatke, te da bi se smanjili, razvijaju se prvi algoritmi za potrebe kontrolisanja troškova istraživanja. Na primer, Edsher Dajkstra 1959. godine dizajnira jedan metod za stabilizaciju izdataka, Nevil i Ernst, 1965. godine razvijaju koncept heurističke pretrage i Hart, Nilson i Rafael, algoritam A. U isto vreme, u vezi programa za igre, definiše se pretraga alfa-beta. Tvorac ideje je inače bio Makarti, 1956. godine, a kasnije ju je koristio Nevil, 1958. godine.

Važnost shvatanja saznanja u kontekstu domena i primene, kao i građe strukture, kojoj bi bilo lako pristupati, dovela je do detaljnijih studija metoda predstavljanja saznanja. Između ostalih, definisale su se semantičke mreže (definisane početkom šezdesetih godina, od strane Kilijana) i okruženja (koje je definisao Minski 1975. godine). U istom periodu počinju da se koriste određene vrste logike za predstavljanje saznanja.

Paralelno s tim, tokom istih godina, nastavljaju se istraživanja za stvaranje sistema za igru čekers, za koji je zaslužan Samuel, orijentisan na implementaciju neke vrste metode učenja. E. B. Hunt, J. Martin i P. T. Stone, 1969. godine konstruišu hijerarhijsku strukturu odluka (radi klasifikacije), koju je već idejno postavio Šenon, 1949. godine. Kilijan, 1979, predstavlja metod IDZ koji treba da posluži kao osnova za konstrukciju takve strukture. S druge strane, P. Vinston, 1979. godine, razvija vlastiti program za učenje opisa složenih objekata, i T. Mičel, 1977, razvija tzv. prostor verzija. Kasnije, sredinom osamdesetih, ponovna primena metode učenja na neuralne mreže tzv., backpropagation, dovodi do ponovnog oživljavanja ove oblasti. Konstrukcija aplikacija za stvarna okruženja, dovela je do potrebe razmatranja aspekata kao što su neizvesnost, ili nepreciznost (koji se takođe javljaju prilikom rešavanja problema u igrama). Za rešavanje ovih problema primenjivane su probabilističke metode (teorija probabiliteta, ili probabilističke mreže) i razvijali drugi formalizmi kao difuzni skupovi (definisani od L. Zadeha 1965. godine), ili Dempster-Šaferova teorija (tvorac teorije je A. Dempster, 1968, sa značajnim doprinosom G. Šafera 1976. godine). Na osnovu ovih istraživanja, počev od osamdesetih godina, konstruišu se prvi komercijalni sistemi veštačke inteligencije, uglavnom tzv. ekspertski sistemi.

Savremeni problemi koji se nastoje rešiti u istraživanjima veštačke inteligencije, vezani su za nastojanja konstruisanja kooperativnih sistema na bazi agenata, uključujući sisteme za upravljanje podacima, utvrđivanje redosleda obrade podataka i pokušaje imitacije prirodnog jezika, između ostalih.

Istorija veštačke inteligencije uredi

Proučavanje mehaničkog ili „formalnog” rasuđivanja počelo je sa filozofima i matematičarima u antici. Proučavanje logike dovelo je direktno do teorije računanja Alana Tjuringa, koja je sugerisala da mašina, mešanjem simbola jednostavnih kao što su „0“ i „1“, može da simulira matematičku dedukciju i formalno rezonovanje, koje je poznato kao Čerč-Tjuringova teza.[253] Ovo, zajedno sa istovremenim otkrićima u kibernetici i teoriji informacija, navelo je istraživače da razmotre mogućnost izgradnje „elektronskog mozga“.[nj][255]

Alan Tjuring je razmišljao o mašinskoj inteligenciji bar od 1941. godine, kada je distribuirao rad o mašinskoj inteligenciji koji bi mogao biti najraniji rad u oblasti veštačke inteligencije – iako je sada izgubljen.[8] Prvi dostupni rad koji je generalno prepoznat kao „veštačka inteligencija“ bio je Makalukov i Pitsov dizajn za Tjuring-kompletne „veštačke neurone“ iz 1943. godine – prvi matematički model neuronske mreže.[256] Na rad je uticao Tjuringov raniji rad „O izračunljivim brojevima“ iz 1936. koji je koristio slične logičke „neurone“ sa dva stanja, ali je bio prvi koji ih je primenio na neuronske funkcije.[8]

Alan Turing je tokom svog života koristio termin „mašinska inteligencija“ koja je kasnije često nazivana „veštačkom inteligencijom“ nakon njegove smrti 1954. godine. Tjuring je 1950. godine objavio najpoznatiji od svojih radova „Računarska mašinerija i inteligencija“, u koje je predstavio svoj koncept onoga što je sada poznato kao Tjuringov test široj javnosti. Zatim su usledila tri Tjuringova radio-emisija o veštačkoj inteligenciji, predavanja: „Inteligentna mašinerija, jeretička teorija“, „Mogu li digitalni računari da misle“? i panel diskusija „Može li se za automatske računske mašine reći da misle“. Do 1956. godine kompjuterska inteligencija se u Britaniji aktivno izučavala više od jedne decenije; tamo su napisani najraniji programi veštačke inteligencije tokom 1951–1952.[8]

Godine 1951, korišćenjem kompjutera Feranti Mark 1 Univerziteta u Mančesteru, napisani su programi za igre dama i šah gde je osoba mogla da igra protiv kompjutera.[257] Oblast američkog istraživanja veštačke inteligencije osnovana je na radionici na Dartmut koledžu 1956. godine.[o][9] Polaznici su postali lideri istraživanja veštačke inteligencije tokom 1960-ih.[p] Oni i njihovi studenti proizvodili su programe koje je štampa opisala kao „začuđujuće”:[r] kompjuteri su učili strategije igre dama, rešavali probleme sa rečima u algebri, dokazivali logičke teoreme i govorili engleski.[s][10] Laboratorije za veštačku inteligenciju su osnovane na brojnim britanskim i američkim univerzitetima tokom kasnih 1950-ih i ranih 1960-ih.[8]

Oni su, međutim, potcenili težinu problema.[t] Američka i britanska vlada prekinule su eksplorativna istraživanja kao odgovor na kritiku ser Džejmsa Lajhila[262] i stalni pritisak američkog Kongresa da finansira produktivnije projekte. Minskijeva i Papertova knjiga Perceptroni je shvaćena kao dokaz da veštačke neuronske mreže nikada neće biti korisne za rešavanje zadataka u stvarnom svetu, čime se potpuno diskredituje pristup.[263] Usledila je „zima veštačke inteligencije“, period kada je dobijanje sredstava za projekte veštačke inteligencije bilo teško.[12]

Početkom 1980-ih, istraživanje veštačke inteligencije je oživelo komercijalnim uspehom ekspertskih sistema,[264] oblika programa veštačke inteligencije koji je simulirao znanje i analitičke veštine ljudskih stručnjaka. Do 1985. godine tržište veštačke inteligencije dostiglo je preko milijardu dolara. Istovremeno, japanski kompjuterski projekat pete generacije inspirisao je vlade SAD i Velike Britanije da povrate finansiranje akademskih istraživanja.[11] Međutim, počevši od kolapsa tržišta Lisp mašina 1987. godine, veštačka inteligencija je ponovo pala na loš glas i počela je druga, dugotrajnija zima.[13]

Mnogi istraživači su počeli da sumnjaju da će sadašnje prakse biti u stanju da imitiraju sve procese ljudske spoznaje, posebno percepciju, robotiku, učenje i prepoznavanje obrazaca.[265] Izvestan broj istraživača je počeo da istražuje „podsimboličke“ pristupe.[266] Istraživači robotike, kao što je Rodni Bruks, odbacili su „reprezentaciju“ uopšteno i fokusirali se direktno na inženjerske mašine koje se kreću i preživljavaju.[ć] Džudia Perl, Lofti Zadeh i drugi razvili su metode koje su se bavile nepotpunim i nesigurnim informacijama praveći razborita nagađanja, a ne preciznom logikom.[91][271] Ali najvažniji razvoj je bio oživljavanje „konekcionizma“, uključujući istraživanje neuronskih mreža, od strane Džefrija Hintona i drugih.[272] Jan Lekan je 1990. godine uspešno pokazao da konvolucijske neuronske mreže mogu da prepoznaju rukom pisane cifre, što je prva od mnogih uspešnih primena neuronskih mreža.[273]

Veštačka inteligencija je postepeno obnavljala svoju reputaciju krajem 1990-ih i početkom 21. veka korišćenjem formalnih matematičkih metoda i pronalaženjem specifičnih rešenja za specifične probleme. Ovaj „uski“ i „formalni“ fokus omogućio je istraživačima da proizvedu proverljive rezultate i sarađuju sa drugim oblastima (kao što su statistika, ekonomija i matematika).[274] Do 2000. rešenja koja su razvili istraživači veštačke inteligencije bila su u širokoj upotrebi, iako su tokom 1990-ih retko opisivana kao „veštačka inteligencija“.[275]

Nekoliko akademskih istraživača je postalo zabrinuto da veštačka inteligencija više ne sledi prvobitni cilj stvaranja svestranih, potpuno inteligentnih mašina. Počevši od 2002. godine, osnovali su podoblast veštačke opšte inteligencije (ili „AGI“), koja je do 2010-ih imala nekoliko dobro finansiranih institucija.[17]

Duboko učenje je počelo da dominira industrijskim merilima 2012. godine i usvojeno je u celoj oblasti.[14] Za mnoge specifične zadatke, druge metode su napuštene.[u] Uspeh dubokog učenja bio je zasnovan i na poboljšanjima hardvera (brži računari,[277] jedinice za obradu grafike, računarstvo u oblaku[278]) i pristup velikim količinama podataka[279] (uključujući kurirane skupove podataka,[278] kao što je ImageNet).

Uspeh dubokog učenja doveo je do ogromnog povećanja interesovanja i finansiranja za veštačku inteligenciju.[f] Količina istraživanja mašinskog učenja (merena ukupnim brojem publikacija) porasla je za 50% u godinama 2015–2019,[243] a WIPO je izvestio da je veštačka inteligencija bila najplodnija tehnologija u nastajanju u smislu broja prijava patenata i odobrenih patenata.[280] Prema 'VI Impacts', oko 50 milijardi dolara godišnje je uloženo u veštačku inteligenciju oko 2022. godine samo u SAD i oko 20% novih diplomaca iz oblasti računarskih nauka u SAD specijaliziralo se za tu specijalnost;[281] oko 800.000 radnih mesta vezanih za veštačku inteligenciju nastalo je tokom 2022. u SAD.[282] Velika većina napretka se dogodila u Sjedinjenim Državama, sa njihovim kompanijama, univerzitetima i istraživačkim laboratorijama koje vode istraživanja veštačke inteligencije.[16]

U 2016. godini, pitanja pravičnosti i zloupotrebe tehnologije su katapultirana u centralno mesto na konferencijama o mašinskom učenju, učestalost publikacija se znatno povećala, finansiranje je postalo dostupno, a mnogi istraživači su ponovo fokusirali svoje karijere na ova pitanja. Problem usklađivanja postao je ozbiljno polje akademskih studija.[222]

Filozofija uredi

Definisanje veštačke inteligencije uredi

Alan Tjuring je 1950. godine napisao: „Predlažem da razmotrimo pitanje 'mogu li mašine da misle'?“[283] On je savetovao da se pitanje promeni sa da li mašina „misli“, na „da li je moguće ili ne da mašine pokazuju inteligentno ponašanje“.[283] On je osmislio Tjuringov test, koji meri sposobnost mašine da simulira ljudski razgovor.[284] Pošto možemo samo da posmatramo ponašanje mašine, nije bitno da li ona „zapravo“ razmišlja ili doslovno ima „um“. Tjuring napominje da ne možemo da odredimo ove stvari o drugim ljudima,[h] ali da „uobičajeno da imamo ljubaznu konvenciju za koju svi misle“.[285]

Rasel i Norvig se slažu sa Tjuringom da veštačka inteligencija mora biti definisana u smislu „delovanja“, a ne „razmišljanja“.[286] Međutim, oni su kritični jer test upoređuje mašine sa ljudima. „Tekstovi vazduhoplovnog inženjerstva“, napisali su, „ne definišu cilj svoje oblasti kao pravljenje „mašina koje lete do te mere kao golubovi da mogu da zavaraju druge golubove. Tvorac veštačke inteligencije Džon Makarti se složio, pišući da „Veštačka inteligencija nije, po definiciji, simulacija ljudske inteligencije“.[287]

Makarti definiše inteligenciju kao „kompjuterski deo sposobnosti da se postignu ciljevi u svetu“.[288] Drugi osnivač veštačke inteligencije, Marvin Minski, na je sličan način definiše kao „sposobnost rešavanja teških problema“.[289] Ove definicije posmatraju inteligenciju u smislu dobro definisanih problema sa dobro definisanim rešenjima, gde su težina problema i performanse programa direktne mere „inteligencije” mašine - i nije potrebna nikakva druga filozofska rasprava, ili možda ne bi bila ni moguća.

Još jednu definiciju je usvojio Gugl,[290] glavni praktičar u oblasti veštačke inteligencije. Ova definicija predviđa sposobnost sistema da sintetiše informacije kao manifestaciju inteligencije, slično kao što je definisano u biološkoj inteligenciji.

Evaluacija pristupa veštačke inteligencije uredi

Nijedna uspostavljena objedinjujuća teorija ili paradigma nije predvodila istraživanje veštačke inteligencije tokom većeg dela njene istorije.[c] Neviđeni uspeh statističkog mašinskog učenja 2010-ih zasjenio je sve druge pristupe (toliko da neki izvori, posebno u poslovnom svetu, koriste termin „veštačka inteligencija” da znači „mašinsko učenje sa neuronskim mrežama”). Ovaj pristup je uglavnom podsimbolički, mekan i uzak (vidi ispod). Kritičari tvrde da će buduće generacije istraživača veštačke inteligencije možda morati ponovo da razmotre ova pitanja.

Simbolička veštačka inteligencija i njegove granice uredi

Simbolička veštačka inteligencija (ili „GOFAI“)[292] je simulirala svesno rezonovanje na visokom nivou koje ljudi koriste kada rešavaju zagonetke, izražavaju pravno rezonovanje i rešavaju matematičke probleme. Ona je bila veoma uspešna na „inteligentnim” zadacima kao što su algebra ili testovi inteligencije. Tokom 1960-ih, Njuel i Sajmon su predložili hipotezu o sistemima fizičkih simbola: „Fizički sistem simbola ima neophodna i dovoljna sredstva opšte inteligentne akcije.“[293]

Međutim, simbolički pristup nije uspeo u mnogim zadacima koje ljudi lako rešavaju, kao što su učenje, prepoznavanje predmeta ili zdravorazumsko razmišljanje. Moravecov paradoks je otkriće da su „inteligentni“ zadaci visokog nivoa bili laki za veštačku inteligenciju, dok su „instinktivni“ zadaci niskog nivoa bili izuzetno teški.[294] Filozof Hjubert Drajfus je od 1960-ih tvrdio da ljudska stručnost zavisi od nesvesnog instinkta, a ne od svesne manipulacije simbolima, i od „osećaja“ za situaciju, a ne od eksplicitnog simboličkog znanja.[295] Iako su njegovi argumenti bili ismevani i ignorisani kada su prvi put predstavljeni, na kraju su se istraživanja veštačke inteligencije složila sa njim.[č][22]

Problem nije rešen: podsimboličko rezonovanje može napraviti mnoge od istih nesagledivih grešaka koje čini ljudska intuicija, kao što je algoritamska pristrasnost.[297][298][299] Kritičari kao što je Noam Čomski tvrde da će nastavak istraživanja simboličke veštačke inteligencije i dalje biti neophodan da bi se ostvarila opšta inteligencija,[300][301] delom zato što je podsimbolična veštačka inteligencija vid udaljavanja od objašnjive veštačke inteligencije: može biti teško ili nemoguće razumeti zašto savremeni statistički program veštačke inteligencije doneo datu odluku.[302][303][304][305] Novo polje neuro-simboličke veštačke inteligencije nastoji da premosti ova dva pristupa.[306][307][308]

Uredno naspram neurednog uredi

„Uredni“ se nadaju da je inteligentno ponašanje opisano korišćenjem jednostavnih, elegantnih principa (kao što su logika, optimizacija ili neuronske mreže). „Neuredni” očekuju da to nužno zahteva rešavanje velikog broja nepovezanih problema. Uredni brane svoje programe teoretskom strogošću, a opozicija se uglavnom oslanja na inkrementalno testiranje da bi videli da li rade. O ovom pitanju se aktivno raspravljalo tokom 1970-ih i 1980-ih,[309] ali je na kraju sve to viđeno kao irelevantno. Moderna veštačka inteligencija ima elemente oba pristupa.

Meko naspram tvrdog računarstva uredi

Pronalaženje dokazano ispravnog ili optimalnog rešenja je neostvarivo za mnoge važne probleme.[21] Meko računarstvo je skup tehnika, uključujući genetske algoritme,[310][311] rasplinutu logiku[312][313][314] i neuronske mreže, koje su tolerantne na nepreciznost, neizvesnost, delimičnu istinu i aproksimaciju.[315][316][317][318][319] Meko računarstvo je uvedeno tokom kasnih 1980-ih i najuspešniji programi veštačke inteligencije u 21. veku su primeri mekog računarstva sa neuronskim mrežama.

Uska u odnosu na opštu veštačku inteligenciju uredi

Istraživači veštačke inteligencije su podeljeni oko toga da li da slede ciljeve opšte veštačke inteligencije i superinteligencije direktno,[320][321][322][323] ili da reše što je moguće više specifičnih problema (uska veštačka inteligencija[324][325][326][327][328]) u nadi da će ova rešenja indirektno dovesti do dugoročnih ciljeva ove oblasti.[329][330] Opštu inteligenciju je teško definisati i teško je izmeriti, i savremena veštačka inteligencija je imala više proverljivih uspeha pri fokusiranju na specifične probleme sa specifičnim rešenjima. Eksperimentalna podoblast veštačke opšte inteligencije proučava isključivo ovu oblast.[331][332]

Mašinska svest, razumevanje i um uredi

Filozofija uma ne zna da li mašina može imati um, svest i mentalna stanja, u istom smislu kao i ljudska bića. Ovo pitanje razmatra unutrašnja iskustva mašine, a ne njeno spoljašnje ponašanje. Glavni tok istraživanja veštačke inteligencije smatra ovo pitanje irelevantnim, jer ne utiče na ciljeve ove oblasti: da se naprave mašine koje mogu da rešavaju probleme koristeći inteligenciju. Rasel i Norvig dodaju da „dodatni projekat osvešćivanja mašine na način na koji ljudi to poprimaju nije onaj za koji smo opremljeni da preuzmemo.“[333] Međutim, pitanje je postalo centralno za filozofiju uma. To je takođe tipično centralno pitanje o veštačkoj inteligenciji u fikciji.[334][335][336][337][338]

Svest uredi

Dejvid Čalmers je identifikovao dva problema u razumevanju uma, koje je nazvao „teškim“ i „lakim“ problemima svesti.[339] Lak problem je razumeti kako mozak obrađuje signale, pravi planove i kontroliše ponašanje. Težak problem je objasniti kako se ovo oseća ili zašto bi uopšte trebalo da se oseća kao bilo šta, pod pretpostavkom da smo u pravu kada mislimo da se to zaista oseća kao nešto (Denetov iluzionizam svesti kaže da je ovo iluzija). Ljudsku obradu informacija je lako objasniti, međutim, ljudsko subjektivno iskustvo je teško objasniti. Na primer, lako je zamisliti daltonistu koji je naučio da identifikuje koji su objekti u njihovom vidnom polju crveni, ali nije jasno šta bi bilo potrebno da bi osoba znala kako izgleda crvena.[340]

Kompjuterizam i funkcionalizam uredi

Kompjuterizam je stav u filozofiji uma da je ljudski um sistem za obradu informacija i da je razmišljanje oblik računarstva. Kompjuterizam tvrdi da je odnos između uma i tela sličan ili identičan odnosu između softvera i hardvera i stoga može biti rešenje za problem uma i tela. Ova filozofska pozicija je inspirisana radom istraživača veštačke inteligencije i kognitivnih naučnika tokom 1960-ih, a prvobitno su je predložili filozofi Džeri Fodor i Hilari Patnam.[341]

Filozof Džon Sirl je ovu poziciju okarakterisao kao „jaku veštačku inteligenciju“: „Odgovarajuće programirani računar sa pravim ulazima i izlazima bi stoga imao um u potpuno istom smislu kao i ljudska bića“.[dž] Sirl suprotstavlja ovoj tvrdnji svoj argument kineske sobe, koji pokušava da pokaže da, čak i ako mašina savršeno simulira ljudsko ponašanje, još uvek nema razloga da se pretpostavi da i ona ima um.[345]

Socijala veštačke inteligencije i prava uredi

Teško je ili nemoguće pouzdano proceniti da li je napredna veštačka inteligencija osetna (ima sposobnost da oseća), i ako jeste, u kom stupnju.[346] Međutim ako postoji značajna šansa da data mašina može da oseti i pati, onda može imati pravo na određena prava ili mere zaštite dobrobiti, slično životinjama.[347][348] Razumnost (skup kapaciteta povezanih sa visokom inteligencijom, kao što je razlučivanje ili samosvest) može da pruži još jednu moralnu osnovu za prava veštačke inteligencije.[347] Prava robota se takođe ponekad predlažu kao praktičan način integracije autonomnih agenata u društvo.[349]

Evropska unija je 2017. razmatrala davanje „elektronske ličnosti“ nekim od najsposobnijih sistema veštačke inteligencije. Slično pravnom statusu kompanija, ona bi imala prava, ali i odgovornosti.[350] Kritičari su 2018. tvrdili da bi davanje prava sistemima veštačke inteligencije umanjilo važnost ljudskih prava i da bi se zakonodavstvo trebalo fokusirati na potrebe korisnika, a ne na spekulativne futurističke scenarije. Takođe su primetili da robotima nedostaje autonomija da sami učestvuju u društvu.[351][352]

Napredak u veštačkoj inteligenciji povećao je interesovanje za ovu temu. Zagovornici blagostanja i prava veštačke inteligencije često tvrde da bi osećaj veštačke inteligencije, ako se pojavi, bilo posebno lako poreći. Oni upozoravaju da bi ovo mogla biti moralna slepa tačka analogna ropstvu ili fabričkoj poljoprivredi, što bi moglo dovesti do patnje velikih razmera ako se stvori razumna veštačka inteligencija i neoprezno iskorišćava.[348][347]

Budućnost uredi

Superinteligencija i singularnost uredi

Superinteligencija je hipotetički agent koji bi posedovao inteligenciju koja daleko nadmašuje inteligenciju najsjajnijeg i najdarovitijeg ljudskog uma.[330]

Ako istraživanje opšte veštačke inteligencije proizvede dovoljno inteligentan softver, on bi mogao da se reprogramira i poboljša sebe. Poboljšani softver bi bio još bolji u poboljšanju samog sebe, što bi dovelo do onoga što je I. Dž. Gud nazvao „eksplozijom inteligencije“, a Vernor Vindž je nazvao „singularitetom“.[353]

Međutim, tehnologije ne mogu da se poboljšavaju eksponencijalno beskonačno i obično prate krivu u obliku slova S, usporavajući se kada dostignu fizičke granice onoga što tehnologija može da uradi.[354]

Transhumanizam uredi

Dizajner robota Hans Moravec, kibernetičar Kevin Vorvik i pronalazač Rej Kurcvajl su predvideli da će se ljudi i mašine u budućnosti spojiti u kiborge koji su sposobniji i moćniji od bilo kog entiteta zasebno. Ova ideja, nazvana transhumanizam, ima korene u delu Oldousa Hakslija i Roberta Etingera.[355]

Edvard Fredkin tvrdi da je „veštačka inteligencija sledeća faza u evoluciji“, ideja koju je prvi put predložio Semjuel Batlerov rad „Darvin među mašinama[356] još 1863. godine, a proširio je Džordž Dajson u svojoj istoimenoj knjizi 1998. godine.[357]

U fikciji uredi

 
Samu reč „robot“ skovao je Karel Čapek u svojoj drami R.U.R. iz 1921. godine,[358] naslov koji označava „Rosumove univerzalni robote“.[359][360][361][359][362]

Veštačka bića koja su sposobna da razmišljaju pojavljivala su se kao sredstva za pripovedanje još od antike[363] i bila su stalna tema u naučnoj fantastici.[364]

Uobičajeni trop[365][366][367] u ovim delima počeo je sa Meri Šelijevim Frankenštajnom, gde ljudska tvorevina postaje pretnja svojim gospodarima. Ovo uključuje dela poput Artur K. Klarkove i Stenli Kjubrikove 2001: Odiseja u svemiru (oba 1968), sa HAL 9000, ubistvenim kompjuterom zaduženim za svemirski brod Discovery One,[368][369][370] kao i Terminator (1984) i Matriks (1999). Nasuprot tome, retki lojalni roboti kao što su Gort iz Dana kada je Zemlja stala (1951) i Bišop iz Vanzemaljaca (1986) manje su istaknuti u popularnoj kulturi.[371]

Isak Asimov je predstavio Tri zakona robotike u mnogim knjigama i pričama,[372][373][374][375] a posebno u seriji „Multivak“ o istoimenom superinteligentnom računaru. Asimovljevi zakoni se često pominju tokom laičkih diskusija o mašinskoj etici;[376] dok su skoro svi istraživači veštačke inteligencije upoznati sa Asimovljevim zakonima kroz popularnu kulturu, oni generalno smatraju da su zakoni beskorisni iz mnogo razloga, od kojih je jedan njihova dvosmislenost.[377]

Nekoliko radova koristi veštačku inteligenciju kao razlog za suočavanje sa fundamentalnim pitanjem šta nas čini ljudima, pokazujući nam veštačka bića koja imaju sposobnost da osećaju, a samim tim i da pate. Ovo se pojavljuje u R.U.R. Karela Čapeka, filmovima Veštačka inteligencija i Eks mašina, kao i romanu Da li Androidi sanjaju električne ovce?, Filipa K. Dika. Dik razmatra ideju da je naše razumevanje ljudske subjektivnosti izmenjeno tehnologijom stvorenom veštačkom inteligencijom.[378]

Napomene uredi

  1. ^ a b Ova lista inteligentnih osobina zasnovana je na temama koje pokrivaju glavni VI udžbenici, uključujući: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) and Nilsson (1998)
  2. ^ a b Ova lista alata je zasnovana na temama koje pokrivaju glavni AI udžbenici, uključujući: Russell & Norvig (2021), Luger & Stubblefield (2004), Poole, Mackworth & Goebel (1998) and Nilsson (1998)
  3. ^ To je jedan od razloga što su se ekspertski sistemi pokazali neefikasnim za prikupljanje znanja.[36][37]
  4. ^ „Racionalni agent“ je opšti termin koji se koristi u ekonomiji, filozofiji i teorijskoj veštačkoj inteligenciji. On se može se odnositi na bilo šta što usmerava svoje ponašanje na postizanje ciljeva, kao što su osoba, životinja, korporacija, nacija ili, u slučaju veštačke inteligencije, kompjuterski program.
  5. ^ Alan Tjuring je raspravljao o centralnoj važnosti učenja još 1950. godine, u svom klasičnom radu „Računarska mašina i inteligencija“.[48] Godine 1956, na originalnoj Dartmutskoj VI letnjoj konferenciji, Rej Solomonof je napisao izveštaj o nenadgledanom probabilističkom mašinskom učenju: „Mašina za induktivno zaključivanje”.[49]
  6. ^ Pogledajte VI zima § Mašinsko prevođenje i ALPAC izveštaj iz 1966
  7. ^ U poređenju sa simboličkom logikom, formalno Bajesovo zaključivanje je računski skupo. Da bi zaključivanje bilo prihvatljivo, većina zapažanja mora biti uslovno nezavisna jedno od drugog. AdSense koristi Bajesovu mrežu sa preko 300 miliona veza da nauči koje oglase da prikazuje.[93]
  8. ^ Maksimizacija očekivanja, jedan od najpopularnijih algoritama u mašinskom učenju, koji omogućava grupisanje u prisustvu nepoznatih latentnih varijabli.[95]
  9. ^ Neki oblik dubokih neuronskih mreža (bez specifičnog algoritma učenja) opisali su: Alan Tjuring (1948);[119]] Frenk Rozenblat(1957);[119] Karl Stajnbuh i Rodžer Dejvid Džozef (1961).[120] Duboke ili rekurentne mreže koje su naučile (ili koristile gradijentno spuštanje) razvili su: Ernst Ising i Vilhelm Lenc (1925);[121] Oliver Selfridž (1959);[120] Aleksej Ivahnenko i Valentin Lapa (1965);[121] Kaoru Nakano (1977);[122] Šun-Iči Amari (1972);[122] Džon Džozef Hopfild (1982).[122] Bekpropagaciju su nezavisno otkrili: Henri Dž. Keli (1960);[119] Artur E. Brison (1962);[119] Stjuart Dreifus (1962);[119] Artur E. Brison i Ju-Či Ho (1969);[119] Sepo Linajnma (1970);[123] Pol Verbos (1974).[119] Zapravo, propagacija unazad i spuštanje gradijenta su direktne primene pravila Gotfrid Lajbnicovog lančanog pravila u kalkulusu (1676),[124] i u suštini su identične (za jedan sloj) metodi najmanjih kvadrata, koju su nezavisno razvili Johan Karl Fridrih Gaus (1795) i Adrijen-Mari Ležandr (1805).[125] Verovatno ima mnogo drugih, koje tek treba da otkriju istoričari nauke.
  10. ^ Džefri Hinton je rekao, o svom radu na neuronskim mrežama tokom 1990-ih, „naši označeni skupovi podataka bili su hiljade puta premali. [i] naši računari su bili milionima puta prespori.” [126]
  11. ^ Uključujući [Jon Kleinberg[
  12. ^ Moric Hardt (direktor na Institutu Maks Plank za inteligentne sisteme) tvrdi da je mašinsko učenje „u osnovi pogrešan alat za mnoge domene, gde pokušavate da dizajnirate intervencije i mehanizme koji menjaju svet“.[179]
  13. ^ Kada je zakon donet 2018. godine, još je sadržao formu ove odredbe.
  14. ^ Ovo je definicija Ujedinjenih nacija i uključuje isto tako naprave kao što su nagazne mine.[192]
  15. ^ Vidi tabelu 4; 9% je prosek OECD-a i prosek SAD.[207]
  16. ^ Ponekad se naziva „robokalipsa”.[214]
  17. ^ „Elektronski mozak“ je bio termin koji je štampa koristila otprilike u to vreme.[254]
  18. ^ Daniel Krevier je napisao, „konferencija je generalno priznata kao zvanični datum rođenja nove nauke.“[258] Rasel i Norvig su konferenciju nazvali „početkom veštačke inteligencije“.[256]
  19. ^ Rasel i Norvig su napisali „u narednih 20 godina ovim poljem će dominirati ovi ljudi i njihovi učenici“.[259]
  20. ^ Rasel i Norvig su napisali „bilo je zapanjujuće kad god bi računar uradio nešto pametno”.[260]
  21. ^ Opisani programi su Artur Samjuelov program igre dame za IBM 701, Daniel Bobrovov STUDENT, Njuelov i Sajmonov Logički teoretičar i Teri Vinogradov SHRDLU.
  22. ^ Rasel i Norvig su napisali: „u skoro svim slučajevima, ovi rani sistemi nisu bili uspešni na težim problemima“[261]
  23. ^ Otelotvorene pristupe veštačkoj inteligenciji[267] zastupali su Hans Moravec[268] i Rodni Bruks[269] i nosili su brojna imena: Nouvelle AI,[269] razvojna robotika,[270]
  24. ^ Mateo Vong je napisao u Atlantiku: „Dok su decenijama oblasti računarske nauke kao što su obrada prirodnog jezika, kompjuterski vid i robotika koristile izuzetno različite metode, sada svi koriste metod programiranja koji se zove „duboko učenje“. Kao rezultat toga, njihov kod i pristupi su postali sličniji, a njihovi modeli se lakše integrišu jedan u drugi."[276]
  25. ^ Džek Klark je napisao u Blumbergu: „Posle pola decenije tihih otkrića u veštačkoj inteligenciji, 2015. je bila značajna godina. Računari su pametniji i uče brže nego ikad“, i primetio je da je broj softverskih projekata koji koriste mašinsko učenje u Guglu povećan sa „sporadične upotrebe” u 2012. na više od 2.700 projekata u 2015.[278]
  26. ^ Pogledajte Problem drugih umova
  27. ^ Nils Nilson je 1983. napisao: „Jednostavno rečeno, postoji velika neslaganja na terenu oko toga šta je veštačka inteligencija.”[291]
  28. ^ Danijel Krevijer je napisao da je „vreme dokazalo tačnost i pronicljivost nekih Drajfusovih komentara. Da ih je formulisao manje agresivno, konstruktivne akcije koje su oni predlagali mogle su biti preduzete mnogo ranije“.[296]
  29. ^ Serl je predstavio ovu definiciju „jake veštačke inteligencije“ 1999. godine.[342] Sirlova originalna formulacija je bila „Odgovarajuće programirani računar je zaista um, u smislu da se za kompjutere kojima su dati odgovarajući programima doslovnog može reći da razumeju i imaju druga kognitivna stanja.“[343] Jaku veštačku inteligenciju su slično definisali Rasel i Norvig: „Jaka veštačka inteligencija – tvrdnja da mašine koje to čine zapravo razmišljaju (za razliku od simulacije razmišljanja).“[344]

Reference uredi

  1. ^ Russell, Stuart J.; Norvig, Peter. (2021). Artificial Intelligence: A Modern Approach (4th izd.). Hoboken: Pearson. ISBN 978-0134610993. LCCN 20190474. 
  2. ^ Rich, Elaine; Knight, Kevin; Nair, Shivashankar B (2010). Artificial Intelligence (na jeziku: engleski) (3rd izd.). New Delhi: Tata McGraw Hill India. ISBN 978-0070087705. 
  3. ^ Artificial Intelligence Arhivirano na sajtu Wayback Machine (21. februar 2011), Pristupljeno 28. 3. 2013.
  4. ^ Hu, Krystal (2. 2. 2023). „ChatGPT sets record for fastest-growing user base – analyst note”. Reuters (na jeziku: engleski). Arhivirano iz originala 3. 2. 2023. g. Pristupljeno 3. 6. 2023. 
  5. ^ Varanasi, Lakshmi (5. 1. 2023). „ChatGPT creator OpenAI is in talks to sell shares in a tender offer that would double the startup's valuation to $29 billion”. Insider. Arhivirano iz originala 18. 1. 2023. g. Pristupljeno 18. 1. 2023. 
  6. ^ Epstein, Ziv; Hertzmann, Aaron; Akten, Memo; et al. (2023). „Art and the science of generative AI”. Science. 380 (6650): 1110—1111. Bibcode:2023Sci...380.1110E. PMID 37319193. S2CID 259095707. arXiv:2306.04141 . doi:10.1126/science.adh4451. 
  7. ^ Google (2016).
  8. ^ a b v g d Copeland, J., ur. (2004). The Essential Turing: the ideas that gave birth to the computer age (na jeziku: engleski). Oxford, England: Clarendon Press. ISBN 0-19-825079-7. 
  9. ^ a b Dartmouth workshop: The proposal:
  10. ^ a b Successful programs the 1960s:
  11. ^ a b Funding initiatives in the early 1980s: Fifth Generation Project (Japan), Alvey (UK), Microelectronics and Computer Technology Corporation (US), Strategic Computing Initiative (US):
  12. ^ a b First AI Winter, Lighthill report, Mansfield Amendment
  13. ^ a b Second AI Winter:
  14. ^ a b Deep learning revolution, AlexNet:
  15. ^ Toews (2023).
  16. ^ a b Frank (2023).
  17. ^ a b v Artificial general intelligence: Proposal for the modern version: Warnings of overspecialization in AI from leading researchers:
  18. ^ Russell & Norvig (2021, §1.2).
  19. ^ Problem solving, puzzle solving, game playing and deduction:
  20. ^ Uncertain reasoning:
  21. ^ a b v Intractability and efficiency and the combinatorial explosion:
  22. ^ a b v Psychological evidence of the prevalence sub-symbolic reasoning and knowledge:
  23. ^ Knowledge representation and knowledge engineering:
  24. ^ Smoliar & Zhang (1994).
  25. ^ Neumann & Möller (2008).
  26. ^ Kuperman, Reichley & Bailey (2006).
  27. ^ McGarry (2005).
  28. ^ Bertini, Del Bimbo & Torniai (2006).
  29. ^ Russell & Norvig (2021), str. 272.
  30. ^ Representing categories and relations: Semantic networks, description logics, inheritance (including frames and scripts):
  31. ^ Representing events and time:Situation calculus, event calculus, fluent calculus (including solving the frame problem):
  32. ^ Causal calculus:
  33. ^ Representing knowledge about knowledge: Belief calculus, modal logics:
  34. ^ a b Default reasoning, Frame problem, default logic, non-monotonic logics, circumscription, closed world assumption, abduction: (Poole et al. places abduction under "default reasoning". Luger et al. places this under "uncertain reasoning").
  35. ^ a b Breadth of commonsense knowledge:
  36. ^ Newquist (1994), str. 296.
  37. ^ Crevier (1993), str. 204–208.
  38. ^ Russell & Norvig (2021), str. 528.
  39. ^ Automated planning:
  40. ^ Automated decision making, Decision theory:
  41. ^ Classical planning:
  42. ^ Sensorless or "conformant" planning, contingent planning, replanning (a.k.a online planning):
  43. ^ Uncertain preferences: Inverse reinforcement learning:
  44. ^ Information value theory:
  45. ^ Markov decision process:
  46. ^ Game theory and multi-agent decision theory:
  47. ^ Learning:
  48. ^ Turing (1950).
  49. ^ Solomonoff (1956).
  50. ^ Unsupervised learning:
  51. ^ a b Supervised learning:
  52. ^ Reinforcement learning:
  53. ^ Transfer learning:
  54. ^ „Artificial Intelligence (AI): What Is AI and How Does It Work? | Built In”. builtin.com. Pristupljeno 2023-10-30. 
  55. ^ Computational learning theory:
  56. ^ Natural language processing (NLP):
  57. ^ Subproblems of NLP:
  58. ^ Russell & Norvig (2021), str. 856–858.
  59. ^ Dickson (2022).
  60. ^ Modern statistical and deep learning approaches to NLP:
  61. ^ Vincent (2019).
  62. ^ Russell & Norvig (2021), str. 875–878.
  63. ^ Bushwick (2023).
  64. ^ Computer vision:
  65. ^ Russell & Norvig (2021), str. 849–850.
  66. ^ Russell & Norvig (2021), str. 895–899.
  67. ^ Russell & Norvig (2021), str. 899–901.
  68. ^ Russell & Norvig (2021), str. 931–938.
  69. ^ MIT AIL (2014).
  70. ^ Affective computing:
  71. ^ Waddell (2018).
  72. ^ Poria et al. (2017).
  73. ^ Search algorithms:
  74. ^ State space search:
  75. ^ Russell & Norvig (2021), §11.2.
  76. ^ Uninformed searches (breadth first search, depth-first search and general state space search):
  77. ^ Heuristic or informed searches (e.g., greedy best first and A*):
  78. ^ Adversarial search:
  79. ^ Local or "optimization" search:
  80. ^ Singh Chauhan, Nagesh (18. 12. 2020). „Optimization Algorithms in Neural Networks”. KDnuggets (na jeziku: engleski). Pristupljeno 2024-01-13. 
  81. ^ Evolutionary computation:
  82. ^ Merkle & Middendorf (2013).
  83. ^ Logic:
  84. ^ Propositional logic:
  85. ^ First-order logic and features such as equality:
  86. ^ Logical inference:
  87. ^ Russell & Norvig (2021), §8.3.1.
  88. ^ Resolution and unification:
  89. ^ Forward chaining, backward chaining, Horn clauses, and logical deduction as search:
  90. ^ Fuzzy logic:
  91. ^ a b Stochastic methods for uncertain reasoning:
  92. ^ Bayesian networks:
  93. ^ Domingos (2015), chapter 6.
  94. ^ Bayesian inference algorithm:
  95. ^ Domingos (2015), str. 210.
  96. ^ Bayesian learning and the expectation-maximization algorithm:
  97. ^ Bayesian decision theory and Bayesian decision networks:
  98. ^ a b v Stochastic temporal models: Hidden Markov model: Kalman filters: Dynamic Bayesian networks:
  99. ^ decision theory and decision analysis:
  100. ^ Information value theory:
  101. ^ Markov decision processes and dynamic decision networks:
  102. ^ Game theory and mechanism design:
  103. ^ Statistical learning methods and classifiers:
  104. ^ Decision trees:
  105. ^ Non-parameteric learning models such as K-nearest neighbor and support vector machines:
  106. ^ Domingos (2015), str. 152.
  107. ^ Naive Bayes classifier:
  108. ^ a b Neural networks:
  109. ^ Gradient calculation in computational graphs, backpropagation, automatic differentiation:
  110. ^ Universal approximation theorem: The theorem:
  111. ^ Feedforward neural networks:
  112. ^ Recurrent neural networks:
  113. ^ Perceptrons:
  114. ^ a b Deep learning:
  115. ^ Convolutional neural networks:
  116. ^ Deng & Yu (2014), str. 199–200.
  117. ^ Ciresan, Meier & Schmidhuber (2012).
  118. ^ Russell & Norvig (2021), str. 751.
  119. ^ a b v g d đ e Russell & Norvig (2021), str. 785.
  120. ^ a b Schmidhuber (2022), §5.
  121. ^ a b Schmidhuber (2022), §6.
  122. ^ a b v Schmidhuber (2022), §7.
  123. ^ Schmidhuber (2022), §8.
  124. ^ Schmidhuber (2022), §2.
  125. ^ Schmidhuber (2022), §3.
  126. ^ Quoted in Christian (2020, str. 22)
  127. ^ Smith (2023).
  128. ^ „Explained: Generative AI”. 9. 11. 2023. 
  129. ^ „AI Writing and Content Creation Tools”. MIT Sloan Teaching & Learning Technologies. Pristupljeno 25. 12. 2023. 
  130. ^ Marmouyet (2023).
  131. ^ Kobielus (2019).
  132. ^ Davenport, T; Kalakota, R (jun 2019). „The potential for artificial intelligence in healthcare”. Future Healthc J. (na jeziku: engleski). 6 (2): 94—98. PMC 6616181 . PMID 31363513. doi:10.7861/futurehosp.6-2-94. 
  133. ^ a b Bax, Monique; Thorpe, Jordan; Romanov, Valentin (decembar 2023). „The future of personalized cardiovascular medicine demands 3D and 4D printing, stem cells, and artificial intelligence”. Frontiers in Sensors (na jeziku: engleski). 4. ISSN 2673-5067. doi:10.3389/fsens.2023.1294721 . 
  134. ^ Jumper, J; Evans, R; Pritzel, A (2021). „Highly accurate protein structure prediction with AlphaFold”. Nature (na jeziku: engleski). 596 (7873): 583—589. Bibcode:2021Natur.596..583J. PMC 8371605 . PMID 34265844. doi:10.1038/s41586-021-03819-2. 
  135. ^ „AI discovers new class of antibiotics to kill drug-resistant bacteria”. 2023-12-20. 
  136. ^ Grant, Eugene F.; Lardner, Rex (1952-07-25). „The Talk of the Town – It”. The New Yorker (na jeziku: engleski). ISSN 0028-792X. Pristupljeno 2024-01-28. 
  137. ^ Anderson, Mark Robert (2017-05-11). „Twenty years on from Deep Blue vs Kasparov: how a chess match started the big data revolution”. The Conversation (na jeziku: engleski). Pristupljeno 2024-01-28. 
  138. ^ Markoff, John (2011-02-16). „Computer Wins on 'Jeopardy!': Trivial, It's Not” . The New York Times (na jeziku: engleski). ISSN 0362-4331. Pristupljeno 2024-01-28. 
  139. ^ Byford, Sam (2017-05-27). „AlphaGo retires from competitive Go after defeating world number one 3-0”. The Verge (na jeziku: engleski). Pristupljeno 2024-01-28. 
  140. ^ Brown, Noam; Sandholm, Tuomas (2019-08-30). „Superhuman AI for multiplayer poker”. Science (na jeziku: engleski). 365 (6456): 885—890. ISSN 0036-8075. doi:10.1126/science.aay2400. 
  141. ^ „MuZero: Mastering Go, chess, shogi and Atari without rules”. Google DeepMind (na jeziku: engleski). 2020-12-23. Pristupljeno 2024-01-28. 
  142. ^ Sample, Ian (2019-10-30). „AI becomes grandmaster in 'fiendishly complex' StarCraft II”. The Guardian (na jeziku: engleski). ISSN 0261-3077. Pristupljeno 2024-01-28. 
  143. ^ Wurman, P.R.; Barrett, S.; Kawamoto, K. (2022). „Outracing champion Gran Turismo drivers with deep reinforcement learning”. Nature 602. 602 (7896): 223—228. doi:10.1038/s41586-021-04357-7. 
  144. ^ a b v Congressional Research Service (2019). Artificial Intelligence and National Security (PDF). Washington, DC: Congressional Research Service. PD-notice
  145. ^ a b Slyusar, Vadym (2019). „Artificial intelligence as the basis of future control networks”. ResearchGate. doi:10.13140/RG.2.2.30247.50087. 
  146. ^ Knight, Will. „The US and 30 Other Nations Agree to Set Guardrails for Military AI”. Wired (na jeziku: engleski). ISSN 1059-1028. Pristupljeno 2024-01-24. 
  147. ^ Marcelline, Marco (27. 5. 2023). „ChatGPT: Most Americans Know About It, But Few Actually Use the AI Chatbot”. PCMag (na jeziku: engleski). Pristupljeno 2024-01-28. 
  148. ^ Lu, Donna (2023-03-31). „Misinformation, mistakes and the Pope in a puffer: what rapidly evolving AI can – and can't – do”. The Guardian (na jeziku: engleski). ISSN 0261-3077. Pristupljeno 2024-01-28. 
  149. ^ Hurst, Luke (2023-05-23). „How a fake image of a Pentagon explosion shared on Twitter caused a real dip on Wall Street”. euronews (na jeziku: engleski). Pristupljeno 2024-01-28. 
  150. ^ Ransbotham, Sam; Kiron, David; Gerbert, Philipp; Reeves, Martin (2017-09-06). „Reshaping Business With Artificial Intelligence”. MIT Sloan Management Review (na jeziku: engleski). Arhivirano iz originala 13. 2. 2024. g. 
  151. ^ Simonite (2016).
  152. ^ Russell & Norvig (2021), str. 987.
  153. ^ Laskowski (2023).
  154. ^ GAO (2022).
  155. ^ Valinsky (2019).
  156. ^ Russell & Norvig (2021), str. 991.
  157. ^ Russell & Norvig (2021), str. 991–992.
  158. ^ Christian (2020), str. 63.
  159. ^ Vincent (2022).
  160. ^ Reisner (2023).
  161. ^ Alter & Harris (2023).
  162. ^ Nicas (2018).
  163. ^ Rainie, Lee; Keeter, Scott; Perrin, Andrew (22. 7. 2019). „Trust and Distrust in America”. Pew Research Center. Arhivirano iz originala 22. 2. 2024. g. 
  164. ^ Williams (2023).
  165. ^ Taylor & Hern (2023).
  166. ^ a b Rose (2023).
  167. ^ CNA (2019).
  168. ^ Goffrey (2008), str. 17.
  169. ^ Berdahl et al. (2023); Goffrey (2008, str. 17); Rose (2023); Russell & Norvig (2021, str. 995)
  170. ^ Algorithmic bias and Fairness (machine learning):
  171. ^ Christian (2020), str. 25.
  172. ^ a b Russell & Norvig (2021), str. 995.
  173. ^ Grant & Hill (2023).
  174. ^ Larson & Angwin (2016).
  175. ^ Christian (2020, str. 67–70); Russell & Norvig (2021, str. 993–994)
  176. ^ Russell & Norvig (2021, str. 995); Lipartito (2011, str. 36); Goodman & Flaxman (2017, str. 6); Christian (2020, str. 39–40, 65)
  177. ^ Quoted in Christian (2020, str. 65).
  178. ^ Russell & Norvig (2021, str. 994); Christian (2020, str. 40, 80–81)
  179. ^ Quoted in Christian (2020, str. 80)
  180. ^ Dockrill (2022).
  181. ^ Sample (2017).
  182. ^ „Black Box AI”. 16. 6. 2023. 
  183. ^ Christian (2020), str. 110.
  184. ^ Christian (2020), str. 88–91.
  185. ^ Christian (2020, str. 83); Russell & Norvig (2021, str. 997)
  186. ^ Christian (2020), str. 91.
  187. ^ Christian (2020), str. 83.
  188. ^ Verma (2021).
  189. ^ Rothman (2020).
  190. ^ Christian (2020), str. 105-108.
  191. ^ Christian (2020), str. 108–112.
  192. ^ Russell & Norvig (2021), str. 989.
  193. ^ Robitzski (2018); Sainato (2015)
  194. ^ Russell & Norvig (2021), str. 987-990.
  195. ^ Russell & Norvig (2021), str. 988.
  196. ^ Harari (2018).
  197. ^ Buckley, Chris; Mozur, Paul (22. 5. 2019). „How China Uses High-Tech Surveillance to Subdue Minorities”. The New York Times. 
  198. ^ „Security lapse exposed a Chinese smart city surveillance system”. 3. 5. 2019. Arhivirano iz originala 7. 3. 2021. g. Pristupljeno 14. 9. 2020. 
  199. ^ „AI traffic signals to be installed in Bengaluru soon”. NextBigWhat (na jeziku: engleski). 24. 9. 2019. Pristupljeno 1. 10. 2019. 
  200. ^ Urbina et al. (2022).
  201. ^ Ewen Callaway. „Could AI-designed proteins be weaponized? Scientists lay out safety guidelines?”. 
  202. ^ Ewen Callaway (2023-07-11). „AI tools are designing entirely new proteins that could transform medicine”. 
  203. ^ Tarnoff, Ben (4. 8. 2023). „Lessons from Eliza”. The Guardian Weekly. str. 34—9. 
  204. ^ a b E McGaughey, 'Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy' (2022) 51(3) Industrial Law Journal 511–559 Arhivirano 27 maj 2023 na sajtu Wayback Machine
  205. ^ Ford & Colvin (2015);McGaughey (2022)
  206. ^ IGM Chicago (2017).
  207. ^ Arntz, Gregory & Zierahn (2016), str. 33.
  208. ^ Lohr (2017); Frey & Osborne (2017); Arntz, Gregory & Zierahn (2016, str. 33)
  209. ^ Morgenstern (2015).
  210. ^ Mahdawi (2017); Thompson (2014)
  211. ^ Zhou, Viola (2023-04-11). „AI is already taking video game illustrators' jobs in China”. Rest of World (na jeziku: engleski). Pristupljeno 2023-08-17. 
  212. ^ Carter, Justin (2023-04-11). „China's game art industry reportedly decimated by growing AI use”. Game Developer (na jeziku: engleski). Pristupljeno 2023-08-17. 
  213. ^ Cellan-Jones (2014).
  214. ^ Russell & Norvig 2021, str. 1001.
  215. ^ Bostrom (2014).
  216. ^ Russell (2019).
  217. ^ Bostrom (2014); Müller & Bostrom (2014); Bostrom (2015).
  218. ^ Harari (2023).
  219. ^ Müller & Bostrom (2014).
  220. ^ Leaders' concerns about the existential risks of VI around 2015:
  221. ^ Arguments that VI is not an imminent risk:
  222. ^ a b Christian (2020), str. 67, 73.
  223. ^ Valance (2023).
  224. ^ Taylor, Josh (7. 5. 2023). „Rise of artificial intelligence is inevitable but should not be feared, 'father of AI' says”. The Guardian (na jeziku: engleski). Pristupljeno 26. 5. 2023. 
  225. ^ Colton, Emma (7. 5. 2023). „'Father of AI' says tech fears misplaced: 'You cannot stop it'. Fox News (na jeziku: engleski). Pristupljeno 26. 5. 2023. 
  226. ^ Jones, Hessie (23. 5. 2023). „Juergen Schmidhuber, Renowned 'Father Of Modern AI,' Says His Life's Work Won't Lead To Dystopia”. Forbes (na jeziku: engleski). Pristupljeno 26. 5. 2023. 
  227. ^ McMorrow, Ryan (19. 12. 2023). „Andrew Ng: 'Do we think the world is better off with more or less intelligence?'. Financial Times (na jeziku: engleski). Pristupljeno 30. 12. 2023. 
  228. ^ Levy, Steven (22. 12. 2023). „How Not to Be Stupid About AI, With Yann LeCun”. Wired (na jeziku: engleski). Pristupljeno 30. 12. 2023. 
  229. ^ Yudkowsky (2008).
  230. ^ a b Anderson & Anderson (2011).
  231. ^ AAAI (2014).
  232. ^ Wallach (2010).
  233. ^ Russell (2019), str. 173.
  234. ^ Alan Turing Institute (2019). „Understanding artificial intelligence ethics and safety” (PDF). 
  235. ^ Alan Turing Institute (2023). „AI Ethics and Governance in Practice” (PDF). 
  236. ^ Floridi, Luciano; Cowls, Josh (2019-06-23). „A Unified Framework of Five Principles for AI in Society”. Harvard Data Science Review (na jeziku: engleski). 1 (1). S2CID 198775713. doi:10.1162/99608f92.8cd550d1 . 
  237. ^ Buruk, Banu; Ekmekci, Perihan Elif; Arda, Berna (2020-09-01). „A critical perspective on guidelines for responsible and trustworthy artificial intelligence”. Medicine, Health Care and Philosophy (na jeziku: engleski). 23 (3): 387—399. ISSN 1572-8633. PMID 32236794. S2CID 214766800. doi:10.1007/s11019-020-09948-1. 
  238. ^ Kamila, Manoj Kumar; Jasrotia, Sahil Singh (2023-01-01). „Ethical issues in the development of artificial intelligence: recognizing the risks”. International Journal of Ethics and Systems. ahead-of-print (ahead-of-print). ISSN 2514-9369. S2CID 259614124. doi:10.1108/IJOES-05-2023-0107. 
  239. ^ Regulation of AI to mitigate risks:
  240. ^ a b Vincent (2023).
  241. ^ Stanford University (2023).
  242. ^ a b v g UNESCO (2021).
  243. ^ Kissinger (2021).
  244. ^ Altman, Brockman & Sutskever (2023).
  245. ^ VOA News (25. 10. 2023). „UN Announces Advisory Body on Artificial Intelligence”. 
  246. ^ Edwards (2023).
  247. ^ Kasperowicz (2023).
  248. ^ Fox News (2023).
  249. ^ Milmo, Dan (3. 11. 2023). „Hope or Horror? The great AI debate dividing its pioneers”. The Guardian Weekly. str. 10—12. 
  250. ^ „The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023”. GOV.UK. 1. 11. 2023. Arhivirano iz originala 1. 11. 2023. g. Pristupljeno 2. 11. 2023. 
  251. ^ „Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration”. GOV.UK (Saopštenje). Arhivirano iz originala 1. 11. 2023. g. Pristupljeno 1. 11. 2023. 
  252. ^ Berlinski (2000).
  253. ^ „Google books ngram”. 
  254. ^ AI's immediate precursors:
  255. ^ a b Russell & Norvig (2021), str. 17.
  256. ^ See "A Brief History of Computing" at AlanTuring.net.
  257. ^ Crevier (1993), str. 47–49.
  258. ^ Russell & Norvig (2003), str. 17.
  259. ^ Russell & Norvig (2003), str. 18.
  260. ^ Russell & Norvig (2021), str. 21.
  261. ^ Lighthill (1973).
  262. ^ Russell & Norvig (2021), str. 22.
  263. ^ Expert systems:
  264. ^ Russell & Norvig (2021), str. 24.
  265. ^ Nilsson (1998), str. 7.
  266. ^ McCorduck (2004), str. 454–462.
  267. ^ Moravec (1988).
  268. ^ a b Brooks (1990).
  269. ^ Developmental robotics:
  270. ^ Russell & Norvig (2021), str. 25.
  271. ^
  272. ^ Russell & Norvig (2021), str. 26.
  273. ^ Formal and narrow methods adopted in the 1990s:
  274. ^ AI widely used in the late 1990s:
  275. ^ Wong (2023).
  276. ^ Moore's Law and AI:
  277. ^ a b v Clark (2015b).
  278. ^ Big data:
  279. ^ „Intellectual Property and Frontier Technologies”. WIPO. Arhivirano iz originala 2. 4. 2022. g. Pristupljeno 30. 3. 2022. 
  280. ^ DiFeliciantonio (2023).
  281. ^ Goswami (2023).
  282. ^ a b Turing (1950), str. 1.
  283. ^ Turing's original publication of the Turing test in "Computing machinery and intelligence": Historical influence and philosophical implications:
  284. ^ Turing (1950), Under "The Argument from Consciousness".
  285. ^ Russell & Norvig (2021), chpt. 2.
  286. ^ Maker (2006).
  287. ^ McCarthy (1999).
  288. ^ Minsky (1986).
  289. ^ „What Is Artificial Intelligence (AI)?”. Google Cloud Platform. Arhivirano iz originala 31. 7. 2023. g. Pristupljeno 16. 10. 2023. 
  290. ^ Nilsson (1983), str. 10.
  291. ^ Haugeland (1985), str. 112–117.
  292. ^ Physical symbol system hypothesis: Historical significance:
  293. ^ Moravec's paradox:
  294. ^ Dreyfus' critique of AI: Historical significance and philosophical implications:
  295. ^ Crevier (1993), str. 125.
  296. ^ Suresh, Harini; Guttag, John (2021-11-04). „A Framework for Understanding Sources of Harm throughout the Machine Learning Life Cycle”. Equity and Access in Algorithms, Mechanisms, and Optimization. EAAMO '21. New York, NY, USA: Association for Computing Machinery. str. 1—9. ISBN 978-1-4503-8553-4. S2CID 235436386. doi:10.1145/3465416.3483305. 
  297. ^ Striphas, Ted (februar 2012). „What is an Algorithm? – Culture Digitally”. culturedigitally.org. Pristupljeno 20. 11. 2017. 
  298. ^ Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L.; Stein, Clifford (2009). Introduction to Algorithms  (3rd izd.). Cambridge, Mass.: MIT Press. str. 5. ISBN 978-0-262-03384-8. 
  299. ^ Langley (2011).
  300. ^ Katz (2012).
  301. ^ Mihály, Héder (2023). „Explainable AI: A Brief History of the Concept” (PDF). ERCIM News (134): 9—10. 
  302. ^ Phillips, P. Jonathon; Hahn, Carina A.; Fontana, Peter C.; Yates, Amy N.; Greene, Kristen; Broniatowski, David A.; Przybocki, Mark A. (2021-09-29). „Four Principles of Explainable Artificial Intelligence”. doi:10.6028/nist.ir.8312. 
  303. ^ Vilone, Giulia; Longo, Luca (2021). „Notions of explainability and evaluation approaches for explainable artificial intelligence”. Information Fusion. December 2021 - Volume 76: 89—106. doi:10.1016/j.inffus.2021.05.009. 
  304. ^ Castelvecchi, Davide (2016-10-06). „Can we open the black box of AI?”. Nature (na jeziku: engleski). 538 (7623): 20—23. Bibcode:2016Natur.538...20C. ISSN 0028-0836. PMID 27708329. S2CID 4465871. doi:10.1038/538020a. 
  305. ^ Garcez, Artur d'Avila; Lamb, Luis C.; Gabbay, Dov M. (2009). „Neural-Symbolic Cognitive Reasoning”. Cognitive Technologies (na jeziku: engleski). ISSN 1611-2482. doi:10.1007/978-3-540-73246-4. 
  306. ^ Rocktäschel, Tim; Riedel, Sebastian (2016). „Learning Knowledge Base Inference with Neural Theorem Provers”. Proceedings of the 5th Workshop on Automated Knowledge Base Construction. San Diego, CA: Association for Computational Linguistics. str. 45—50. doi:10.18653/v1/W16-1309 . Pristupljeno 2022-08-06. 
  307. ^ Serafini, Luciano; Garcez, Artur d'Avila (2016). „Logic Tensor Networks: Deep Learning and Logical Reasoning from Data and Knowledge”. arXiv:1606.04422  [cs.AI]. 
  308. ^ Neats vs. scruffies, the historic debate: A classic example of the "scruffy" approach to intelligence: A modern example of neat AI and its aspirations in the 21st century:
  309. ^ Gerges, Firas; Zouein, Germain; Azar, Danielle (2018-03-12). „Genetic Algorithms with Local Optima Handling to Solve Sudoku Puzzles”. Proceedings of the 2018 International Conference on Computing and Artificial Intelligence. ICCAI 2018. New York, NY, USA: Association for Computing Machinery. str. 19—22. ISBN 978-1-4503-6419-5. S2CID 44152535. doi:10.1145/3194452.3194463. 
  310. ^ Burkhart, Michael C.; Ruiz, Gabriel (2023). „Neuroevolutionary representations for learning heterogeneous treatment effects”. Journal of Computational Science. 71: 102054. S2CID 258752823. doi:10.1016/j.jocs.2023.102054 . 
  311. ^ Novák, V.; Perfilieva, I.; Močkoř, J. (1999). Mathematical principles of fuzzy logic. Dordrecht: Kluwer Academic. ISBN 978-0-7923-8595-0. 
  312. ^ „Fuzzy Logic”. Stanford Encyclopedia of Philosophy. Bryant University. 2006-07-23. Pristupljeno 2008-09-30. 
  313. ^ Pelletier, Francis Jeffry (2000). „Review of Metamathematics of fuzzy logics (PDF). The Bulletin of Symbolic Logic. 6 (3): 342—346. JSTOR 421060. doi:10.2307/421060. Arhivirano (PDF) iz originala 2016-03-03. g. 
  314. ^ Zadeh, Lotfi A. (mart 1994). „Fuzzy logic, neural networks, and soft computing”. Communications of the ACM (na jeziku: engleski). 37 (3): 77—84. ISSN 0001-0782. doi:10.1145/175247.175255 . 
  315. ^ Ibrahim, Dogan. "An overview of soft computing." Procedia Computer Science 102 (2016): 34-38.
  316. ^ Kecman, Vojislav (2001). Learning and Soft Computing: Support Vector Machines, Neural Networks, and Fuzzy Logic Models (na jeziku: engleski). MIT Press. ISBN 978-0-262-11255-0. 
  317. ^ Chaturvedi, Devendra K. "Soft computing." Studies in Computational intelligence 103 (2008): 509-612.
  318. ^ Ram, Mangey; Davim, J. Paulo (2018-05-04). Advanced Mathematical Techniques in Engineering Sciences (na jeziku: engleski). CRC Press. ISBN 978-1-351-37189-6. 
  319. ^ Chalmers, David (2010). „The Singularity: A Philosophical Analysis” (PDF). Journal of Consciousness Studies. 17: 7—65. 
  320. ^ Legg, Shane (2008). Machine Super Intelligence (PDF) (PhD). Department of Informatics, University of Lugano. Pristupljeno 19. 9. 2014. 
  321. ^ Müller, Vincent C.; Bostrom, Nick (2016). „Future Progress in Artificial Intelligence: A Survey of Expert Opinion”. Ur.: Müller, Vincent C. Fundamental Issues of Artificial Intelligence. Springer. str. 553—571. 
  322. ^ Santos-Lang, Christopher (2014). „Our responsibility to manage evaluative diversity” (PDF). ACM SIGCAS Computers & Society. 44 (2): 16—19. S2CID 5649158. doi:10.1145/2656870.2656874. 
  323. ^ Dvorsky, George (1. 4. 2013). „How Much Longer Before Our First AI Catastrophe?”. Gizmodo. Pristupljeno 27. 11. 2021. 
  324. ^ Muehlhauser, Luke (18. 10. 2013). „Ben Goertzel on AGI as a Field”. Machine Intelligence Research Institute. Pristupljeno 27. 11. 2021. 
  325. ^ Chalfen, Mike (15. 10. 2015). „The Challenges Of Building AI Apps”. TechCrunch. Pristupljeno 27. 11. 2021. 
  326. ^ The Cambridge handbook of artificial intelligence. Frankish, Keith., Ramsey, William M., 1960-. Cambridge, UK. 12. 6. 2014. str. 342. ISBN 978-0-521-87142-6. OCLC 865297798. 
  327. ^ Chandler, Daniel; Munday, Rod (2020). A Dictionary of Media and Communication. Oxford University Press. ISBN 978-0-19-884183-8. doi:10.1093/acref/9780198841838.001.0001. 
  328. ^ Pennachin & Goertzel (2007).
  329. ^ a b Roberts (2016).
  330. ^ Pearce, David (2012), Eden, Amnon H.; Moor, James H.; Søraker, Johnny H.; Steinhart, Eric, ur., „The Biointelligence Explosion: How Recursively Self-Improving Organic Robots will Modify their Own Source Code and Bootstrap Our Way to Full-Spectrum Superintelligence”, Singularity Hypotheses, The Frontiers Collection, Berlin, Heidelberg: Springer Berlin Heidelberg, str. 199—238, ISBN 978-3-642-32559-5, doi:10.1007/978-3-642-32560-1_11, Pristupljeno 2022-01-16 
  331. ^ Gouveia, Steven S., ur. (2020). „ch. 4, "Humans and Intelligent Machines: Co-evolution, Fusion or Replacement?", David Pearce”. The Age of Artificial Intelligence: An Exploration. Vernon Press. ISBN 978-1-62273-872-4. 
  332. ^ Russell & Norvig (2021), str. 986.
  333. ^ Goode, Luke (30. 10. 2018). „Life, but not as we know it: A.I. and the popular imagination”. Culture Unbound. Linkoping University Electronic Press. 10 (2): 185—207. ISSN 2000-1525. S2CID 149523987. doi:10.3384/cu.2000.1525.2018102185 . 
  334. ^ Lucas, Duncan (2002). Body, Mind, Soul—The'Cyborg Effect': Artificial Intelligence in Science Fiction (thesis). McMaster University (PhD thesis). hdl:11375/11154. 
  335. ^ Mubin, Omar; Wadibhasme, Kewal; Jordan, Philipp; Obaid, Mohammad (2019). „Reflecting on the Presence of Science Fiction Robots in Computing Literature”. ACM Transactions on Human-Robot Interaction. 8 (1). Article 5. S2CID 75135568. doi:10.1145/3303706 . 
  336. ^ Solarewicz, Krzysztof (2015). „The Stuff That Dreams Are Made of: AI in Contemporary Science Fiction”. Beyond Artificial Intelligence. Topics in Intelligent Engineering and Informatics. 9. Springer International Publishing. str. 111—120. ISBN 978-3-319-09667-4. doi:10.1007/978-3-319-09668-1_8. 
  337. ^ Wiegel, Alexander (2012). „AI in Science-fiction: a comparison of Moon (2009) and 2001: A Space Odyssey (1968)”. Aventinus. 
  338. ^ Chalmers (1995).
  339. ^ Dennett (1991).
  340. ^ Horst (2005).
  341. ^ Searle (1999).
  342. ^ Searle (1980), str. 1.
  343. ^ Russell & Norvig (2021), str. 9817.
  344. ^ Searle's Chinese room argument: Discussion:
  345. ^ Leith, Sam (2022-07-07). „Nick Bostrom: How can we be certain a machine isn’t conscious?”. The Spectator (na jeziku: engleski). Pristupljeno 2024-02-23. 
  346. ^ a b v Thomson, Jonny (2022-10-31). „Why don't robots have rights?”. Big Think (na jeziku: engleski). Pristupljeno 2024-02-23. 
  347. ^ a b Kateman, Brian (2023-07-24). „AI Should Be Terrified of Humans”. TIME (na jeziku: engleski). Pristupljeno 2024-02-23. 
  348. ^ Wong, Jeff (10. 7. 2023). „What leaders need to know about robot rights”. Fast Company. 
  349. ^ Hern, Alex (2017-01-12). „Give robots 'personhood' status, EU committee argues”. The Guardian (na jeziku: engleski). ISSN 0261-3077. Pristupljeno 2024-02-23. 
  350. ^ Dovey, Dana (2018-04-14). „Experts Don't Think Robots Should Have Rights”. Newsweek (na jeziku: engleski). Pristupljeno 2024-02-23. 
  351. ^ Cuddy, Alice (2018-04-13). „Robot rights violate human rights, experts warn EU”. euronews (na jeziku: engleski). Pristupljeno 2024-02-23. 
  352. ^ The Intelligence explosion and technological singularity: I. J. Good's "intelligence explosion" Vernor Vinge's "singularity"
  353. ^ Russell & Norvig (2021), str. 1005.
  354. ^ Transhumanism:
  355. ^ „Darwin Among the Machines [To the Editor of the Press, Christchurch, New Zealand, 13 June, 1863.]”. New Zealand Electronic Text Centre. Arhivirano iz originala 2006-05-24. g. 
  356. ^ AI as evolution:
  357. ^ Roberts, Adam (2006). The History of Science Fiction . New York: Palgrave Macmillan. str. 168. ISBN 978-0-333-97022-5. 
  358. ^ a b Voyen Koreis. „Capek's RUR”. Arhivirano iz originala 23. 12. 2013. g. Pristupljeno 23. 7. 2013. 
  359. ^ Madigan, Tim (2012). „RUR or RU Ain't A Person?”. Philosophy Now. Arhivirano iz originala 3. 2. 2013. g. Pristupljeno 24. 7. 2013. 
  360. ^ Rubin, Charles T. (2011). „Machine Morality and Human Responsibility”. The New Atlantis. Arhivirano iz originala 26. 10. 2013. g. Pristupljeno 24. 7. 2013. 
  361. ^ „Ottoman Turkish Translation of R.U.R. – Library Details” (na jeziku: turski). Arhivirano iz originala 3. 2. 2014. g. Pristupljeno 24. 7. 2013. 
  362. ^ AI in myth:
  363. ^ McCorduck (2004), str. 340–400.
  364. ^ Miller (1990). Tropes, Parables, and Performatives. Duke University Press. str. 9. ISBN 9780822311119. 
  365. ^ Lundberg, Christian O.; Keith, William M. (10. 11. 2017). The essential guide to rhetoric. Bedford/St. Martin's. ISBN 9781319094195. OCLC 1016051800. 
  366. ^ Cuddon, J. A.; Preston, C. E. (1998). „Trope”. The Penguin Dictionary of Literary Terms and Literary Theory (4th izd.). London: Penguin. str. 948. ISBN 9780140513639. 
  367. ^ Arthur C. Clarke The Lost Worlds of 2001, Signet, 1972
  368. ^ Clément, Gilles; Bukley, Angie; Paloski, William, "History of artificial gravity", ch. 3 in, Clément, Gilles; Bukley, Angie (eds), Artificial Gravity, Springer Science & Business Media, 2007 ISBN 038770714X.
  369. ^ Schwarm, Stephanie, The Making of 2001: a Space Odyssey, Modern Library, 2000 ISBN 0375755284.
  370. ^ Buttazzo (2001).
  371. ^ Asimov, Isaac (1950). „Runaround”. I, Robot (na jeziku: engleski) (The Isaac Asimov Collection izd.). New York City: Doubleday. str. 40. ISBN 978-0-385-42304-5. „This is an exact transcription of the laws. They also appear in the front of the book, and in both places there is no "to" in the 2nd law. 
  372. ^ Isaac Asimov (1964). „Introduction”. The Rest of the Robots . Doubleday. ISBN 978-0-385-09041-4. 
  373. ^ Gunn, James (jul 1980). „On Variations on a Robot”. IASFM: 56—81.  Reprinted in James Gunn. (1982). Isaac Asimov: The Foundations of Science Fiction. Oxford u.a.: Oxford Univ. Pr. ISBN 978-0-19-503060-0. 
  374. ^ Asimov, Isaac (1979). In Memory Yet Green. Doubleday. str. 237. ISBN 978-0-380-75432-8. 
  375. ^ Anderson (2008).
  376. ^ McCauley (2007).
  377. ^ Galvan (1997).

Literatura uredi

Spoljašnje veze uredi