Draga! Kje je moja inteligenca?
Dobrodošli v oddaji Frequenza della scienza, kjer vam bomo v čisto premalo časa poskušali približati čisto preveč kompleksno naravoslovnotehnično temo – svet umetne inteligence in strojnega učenja. Gre za področji, ki že dlje časa burita našo domišljijo s strašljivimi terminatorskimi ali pa idealiziranimi scenariji tipa “tehnologija reši vse”. V oddaji se bomo osredotočili predvsem na nekatere osnovne koncepte, ki nam bodo koristili pri razmišljanju o umetni inteligenci na manj črno-bel način. Tako vas bomo popeljali od filozofskih začetkov umetne inteligence, skozi metode strojnega učenja do interakcije umetne inteligence s fizičnim svetom. Za posladek pa bomo pot zaključili še z nekaj etičnimi dilemami, ki jih sproža uporaba umetne inteligence.
Začnimo kar pri učbeniških definicijah. Umetna inteligenca je sila široko polje. V osnovi jo lahko opredelimo kot področje, ki se ukvarja z razvojem inteligentnih sistemov. Ti lahko rešujejo zelo ozko zastavljene probleme, na primer igranje šaha, in tudi probleme, ki za reševanje zahtevajo več različnih inteligentnih sposobnosti. Inteligentne sposobnosti, ki jih ponavadi raziskuje področje umetne inteligence, vključujejo sklepanje, načrtovanje, učenje, procesiranje naravnega jezika, umetno zaznavanje, premikanje in manipulacijo z objekti, socialno inteligenco in še in še.
Ideja o možnosti računalniške implementacije inteligentnih sposobnosti temelji na ideji, da lahko človeške mentalne procese, denimo mišljenje in zaznavanje, pojmujemo kot računanje s simboli. Čeprav filozofija že stoletja razmišlja o človeški inteligentni dejavnosti, ima omenjeno pojmovanje svojo specifično zgodovino. Nekaj okvirnih mejnikov nam oriše profesorica filozofije na Filozofski fakulteti Univerze v Ljubljani Olga Markič.
Prvi val umetne inteligence, ki ima začetke v petdesetih letih prejšnjega stoletja, je močno temeljil na idejah simbolnega manipuliranja in logike. Zaznamovali so ga predvsem sistemi, ki so bili osnovani na eksplicitnih pravilih in želji po oponašanju človeških zmožnosti, kot sta govor in logično sklepanje. Marsikateri takratni raziskovalec je napovedoval pojav človeku podobnega inteligentnega stroja v roku nekaj let – eden takšnih je bil raziskovalec na področju umetne inteligence Marvin Minsky, ki je leta 1970 zatrdil, da nas do razvoja takšnega stroja loči le še od 3 do 8 let.
Po začetnem optimizmu se je izkazalo, da so bili modeli prvega vala nezadostni in da je do inteligentnih strojev še dolga pot. Drugi val umetne inteligence je navdih za implementacijo informacijskega procesiranja iskal v bioloških sistemih. Več o omejitvah prvotnega pristopa k razvoju umetne inteligence in prehodu v drugi val nam pove Markič.
Z razvojem cenejše strojne opreme na prehodu v novo tisočletje, ki je omogočala večjo pomnilniško in procesno zmožnost, pa se je področje umetne inteligence, kot jo poznamo danes, šele dobro zagnalo. Ključen je bil tudi pojav velikih centraliziranih zbirk podatkov. S tem se je pojavila možnost statističnega modeliranja velikih količin podatkov in posledičnega razvoja področja umetne inteligence, ki ga imenujemo strojno učenje. V nadaljevanju oddaje bomo lahko slišali, kaj to sploh je, kakšne probleme rešujemo z njim in katere vrste strojnega učenja poznamo. Še prej pa naše procesiranje raje preusmerimo v zvočni signal bolj umetniške narave.
Slaves - Artificial Intelligence
Pozdravljeni nazaj, poslušate oddajo Frequenza della scienza. Pred glasbenim vložkom smo poslušali o začetkih širokega področja umetne inteligence in spoznali nekatere predpostavke o inteligentnem procesiranju. Sedaj pa nadaljujemo z nekoliko bolj konkretno razlago principa, ki ga dandanes pojmujemo že skoraj kot sinonim za umetno inteligenco: strojno učenje. V splošni javnosti se pogosto izmenično uporablja pojme umetna inteligenca, strojno učenje in globoko učenje. Po domače bi lahko rekli nekako tako: če je umetna inteligenca kuhanje v splošnem, je strojno učenje miksanje, globoko učenje pa uporaba fancy turbo mešalnika 2000. Kako strokovno razlikujemo te pojme, razloži profesor na Fakulteti za računalništvo in informatiko Danijel Skočaj.
Strojno učenje je torej reševanje nekega problema z učenjem na podlagi učnih podatkov. To pogosto pomeni, da iščemo matematično funkcijo, ki kar se da dobro opiše dane podatke. To funkcijo strokovno imenujemo kar model. Posamezne podatkovne primere večinoma zapišemo kar v obliki vektorja nanizanih lastnosti. Bioinformatski podatkovni primer je denimo posamična rakava celica, lastnosti pa so določene vrednosti, ki to celico numerično opišejo. Če zgrajeni model napoveduje vrednost znotraj končnega števila razredov – na primer ali dani primer spada med rakave ali zdrave celice –, takšnemu problemu rečemo klasifikacija. Če napovedujemo zvezno vrednost, kot je verjetnost, da se rak ponovi, pa problem imenujemo regresija.
Glede na tip povratne informacije, ki jo model dobi, ločimo tri osnovne načine strojnega učenja: nadzorovano učenje, nenadzorovano učenje in vzpodbujevalno učenje. Več o razlikah nam pove Skočaj.
Nadzorovano učenje lahko rešuje tako probleme klasifikacije kot regresije. Pri tem je ključno, da lahko napoved, ki nam jo poda model, primerjamo z nekim zlatim standardom oziroma prej omenjeno označbo. Primerjava nam pove, ali in za koliko naša napoved odstopa od dejanske označbe. Če na primer napovedujemo temperaturo in naš model napove 10 stopinj, čeprav je dejanska vrednost 25 stopinj, je jasno, da napoved zelo odstopa od dejanske vrednosti. S takšno informacijo lahko kot cilj učenja zastavimo minimizacijo odstopanja med napovedjo in resnično vrednostjo primera. Sistem bo tako parametre spreminjal toliko časa, dokler ne bo to odstopanje karseda majhno.
Po drugi strani pri nenadzorovanem učenju nimamo takšne možnosti primerjanja z neko označbo. Cilj je tako najti smiselne strukture in vzorce v podatkih, ne da bi jih vnaprej poznali. Primer tega je postopek odkrivanja skupin v podatkih. Predstavljajmo si, da imamo podatke za pretekla glasovanja držav na Evroviziji. Imamo na primer podatek, koliko točk je Španija namenila Italiji, koliko Sloveniji in tako dalje. Na podlagi računanja podobnosti med takšnimi profili glasovanja lahko tvorimo skupine držav, ki so glasovale bolj podobno, in skupine, katerih vzorci glasovanja se zelo razlikujejo.
Za razumevanje zadnjega omenjenega načina učenja, to je vzpodbujevalnega učenja, pa kot primer pogosto uporabljamo robota, ki se uči metanja na koš. V prvem koraku robot žogo vrže na slepo in opazuje, za koliko je zgrešil želeni cilj. Glede na napako, ki jo je naredil v prejšnjem metu, naslednjega popravi tako, da spremeni začetno trajektorijo meta. Ta dva koraka ponavlja, dokler se ne nauči optimalnega giba, s katerim zadene koš. Ključno je, da v primerjavi z nadzorovanim učenjem povratni signal o uspešnosti akcije pridobi naknadno, ko vidi rezultat akcije.
Omenili smo že, da podatke razdelimo na učno in testno množico. To storimo zato, da lahko ocenimo, kako dobro naš model napoveduje na podlagi novih, še ne znanih podatkov. Nekaj več o ocenjevanju že naučenih modelov nam pove prof. Skočaj.
Čeprav torej želimo naučiti model, da podatke opiše čim bolj natančno, je preveliko prilagajanje modela učnim podatkom nezaželeno. Glavni cilj je zato zgraditi model, ki je sposoben generalizacije. Kot smo slišali, to pomeni, da mora biti razumevanje algoritma dovolj splošno, da lahko tvori pravilne napovedi ne samo na učni množici, temveč tudi na novem setu neznanih podatkov. Pogosto so najboljši modeli dokaj preprosti.
V zadnjem času pa so k številnim prebojem na področju umetne inteligence prispevali modeli, ki za svoje delovanje uporabljajo tehnologijo umetnih nevronskih mrež. Kot je razvidno že iz imena, so bili navdih zanje možgani. Mreže sestavljajo idealizirani nevroni in povezave med njimi. Te povezave se tako kot sinaptične povezave krepijo ali slabijo. Učenje nevronskih mrež je pravzaprav spreminjanje jakosti povezav, ki jim v žargonu pravimo uteži. Znanje je tako zakodirano v vzorcu jakosti povezav mreže in je porazdeljeno znotraj njene celote. Zaradi te nelokalnosti je ponavadi težko razumeti rešitev, ki jo za določen problem ponudi nevronska mreža. Pravzaprav pa je tako tudi pri naših možganih. Več o razumljivosti inteligentnih sistemov nas čaka v nadaljevanju oddaje.
Do sedaj smo govorili večinoma o umetni inteligenci, ki ji podatke na pladnju prinesemo v virtualni svet, ta pa nam poda odgovore na zaslonu. Poznamo pa tudi inteligentne sisteme, ki se s pomočjo senzorjev in efektorjev vpenjajo v fizični svet. Kljub čutilom pa so te sistemi po besedah naslednjega robota še vedno le “programmed to work and not to feel”.
Hello world! Poslušate oddajo Frequenza della scienza na 89,3 MHz. Pred tem prikupnim glasbenim premorom smo se posvetili različnim metodam strojnega učenja, sedaj pa upérimo naša ušesa proti njihovi uporabi v praksi. Umetna inteligenca sama po sebi nima direktnega kontakta z zunanjim svetom, saj se njeno procesiranje v popolnosti odvija znotraj digitalne računalniške pokrajine. Za interakcijo z našim okoljem zato potrebuje senzorje in efektorje, s katerimi lahko zaznava in upravlja s stvarmi v resničnem svetu.
Z razvojem inteligentnih sistemov, ki imajo direkten stik z ljudmi, se ukvarja eno izmed področij, ki ga imenujemo ambientalna inteligenca. Definira jo dr. Mitja Luštrek z Odseka za inteligentne sisteme na Institutu "Jožef Stefan".
Strojno učenje in umetna inteligenca sta tako srce, oziroma bolje rečeno, možgani ambientalne inteligence. Z njuno pomočjo si sistem namreč poskuša predstavljati in razumeti fizični svet, v katerem se nahaja.
Drugi ključen del ambientalne inteligence pa so senzorji. Tako kot smo umetno inteligenco primerjali z našimi možgani, bi lahko pri senzorjih našli podobnosti s človeškimi čutili. Vsem so denimo zelo znane kamere in mikrofoni, ki računalniku omogočajo, da vidi in sliši svojo okolico. Z uporabo senzorjev sil in navora pa lahko zaznava tudi dotike. Na trgu obstajata celo tako imenovana elektronski jezik in nos, kar pomeni, da bi računalnik z njima lahko tudi vohal in okušal.
Senzorji zaznavajo pojave v okolici in jih posredujejo računalniku v obliki podatkov, na podlagi katerih umetna inteligenca poišče najboljšo rešitev ali dejanje v dani situaciji. Vendar pa mu rešitev ne pomaga veliko, če te ne more tudi izvesti ali vsaj ponazoriti. V tem primeru potrebuje tako imenovane efektorje, ki jih lahko najdemo v raznoraznih oblikah - od preprostih računalniških zaslonov do sofisticiranih robotskih rok. Ne glede na to, katerega izberemo, je njihov osnovni namen vedno enak, in sicer vzpostaviti interakcijo med človekom in računalnikom.
Efektorje bi lahko do neke mere enačili z našimi mišicami, zaradi katerih se lahko ljudje gibljemo, govorimo in manipuliramo z okolico, v kateri se nahajamo. V vsakodnevnem življenju pa se v primeru efektorjev najpogosteje srečujemo z zasloni in zvočniki, ki napravam omogočajo audio-vizualno komunikacijo z uporabnikom. Zelo preprosti efektorji so tudi kolesa z elektromotornim pogonom, ki omogočajo gibanje sistema po prostoru. Malo manj blizu pa so nam denimo robotske roke, s katerimi lahko računalnik manipulira z objekti v okolici.
Pri efektorjih je pomembno poudariti, da v primeru ambientalne inteligence za interakcijo z uporabniki uporabljamo predvsem zaslone in zvočnike. Medtem pa naprave, ki sicer prav tako uporabljajo metode strojnega učenja, hkrati pa se lahko gibljejo po prostoru in manipulirajo z objekti v njem, v resnici spadajo na področje robotike.
Čeprav je termin ambientalna inteligenca večini ljudi veliko bolj tuj kot umetna inteligenca, pa se s takimi sistemi dejansko srečujemo vsak dan. Primer ambientalne inteligence nam predstavi dr. Mitja Luštrek.
Umetna inteligenca se je tako v obliki ambientalne inteligence že zelo dobro ukoreninila v naš svet. Večina nas jo celo nosi v svojem žepu ali torbi, ne da bi pomislili, da imamo opravka z umetno inteligenco. Z vstopom inteligentnih sistemov v naš vsakdan pa se seveda poraja tudi veliko družbenih predsodkov in etičnih vprašanj. A preden se posvetimo tako pereči temi, umirimo svoje strasti s skladbo, ki nam bo za uvod v etične debate razložila, zakaj so naša mnenja tako ali tako napačna.
Dobrodošli nazaj na digitalnem omrežju oddaje Frequenza della scienza, kjer teče debata o umetni inteligenci. Do sedaj smo spoznali, kaj umetna inteligenca pravzaprav sploh je, kakšne metode strojnega učenja uporablja in kako se z njo srečujemo v našem vsakdanu. Sedaj pa se obrnimo k bolj sočni temi – etiki umetne inteligence. Etičnih vprašanj o umetni inteligenci je seveda malo morje, v oddaji pa se bomo v nadaljevanju posvetili dvema, ki sta trenutno najbolj aktualni, in sicer vprašanju transparentnosti in vprašanju pristranskosti inteligentnih sistemov.
Transparentnost umetne inteligence je direktno povezana z dvema ključnima problemoma – razumljivostjo in sledljivostjo inteligentnih sistemov. Pri sledljivosti želimo razumeti pot sklepanja algoritma, problem pa se pojavi, kadar sicer razumemo vsak posamezen korak, vendar imamo težave z razumevanjem celotne poti sklepanja. Po drugi strani se problem razumljivosti pojavi, ko rezultatov algoritma ne znamo predstaviti v našem lastnem jeziku.
Tako vprašanje sledljivosti kot vprašanje razumljivosti se pojavita zaradi kompleksnosti inteligentnih sistemov. V celotnem spektru umetne inteligence namreč obstajajo algoritmi, ki so zelo preprosti, zato se pri njih težave z razumevanjem ne pojavijo. Na drugi strani spektra pa se nahajajo algoritmi, ki sicer niso nujno težavni, temveč njihovi rezultati in dejanja prekoračijo naše sposobnosti razumevanja. Zakaj so nekateri algoritmi prekompleksni za ljudi, razloži doktor Marko Grobelnik z Odseka za umetno inteligenco na Institutu "Jožef Stefan".
Pomembno je poudariti, da je umetna inteligenca, kot jo poznamo danes, zaenkrat še sledljiva, zato to vprašanje ni tako problematično. Tudi če na prvi pogled ne razumemo, kako je nek sistem prišel do končnega rezultata, lahko s pomočjo analize algoritma namreč ugotovimo, kakšna je bila njegova celotna pot sklepanja. Veliko večji problem predstavlja sama razumljivost algoritmov. Zakaj so inteligentni sistemi ljudem sploh postali nerazumljivi?
Ker so inteligentni sistemi bolj učinkoviti, ko se lahko izražajo v svojem jeziku, se pojavi dodatno vprašanje: je v tem primeru razumevanje, kako algoritem pride do določenega rezultata, sploh nujno? Odgovor je seveda ja! Najbolj očiten argument za nujno transparentnost umetne inteligence se pojavi v primeru, ko gre nekaj narobe. Takrat je treba razumeti izvor napake, saj želimo najti odgovornega za nastalo škodo. Mogoče še bolj pomembno kot najti krivca je preprečiti ponovitev iste napake. V obeh primerih pa moramo najprej razumeti, kako sistem umetne inteligence, ki ga preiskujemo, sploh deluje.
Pomembno etično vprašanje, ki postaja v zadnjih letih zelo aktualno, je pristranskost inteligentnih sistemov, s katerimi se srečujemo. Na prvi pogled bi si mogoče mislili, da je umetna inteligenca na pristranskost imuna, saj je po svoji naravi objektivna. S kratkim pregledom aktualnih člankov o umetni inteligenci pa kaj kmalu ugotovimo, da temu ni čisto tako. Inteligentni sistemi namreč ne morejo biti nepristranski, saj se učijo na podlagi sveta, ki je sam poln pristranskosti.
Družba in okolje pa nista nujno edini razlog za končno pristranskost inteligentnih sistemov. Kaj vse lahko na to vpliva, razloži dr. Grobelnik.
Pristranskosti umetne inteligence se torej težko popolnoma izognemo. Neuravnoteženost se namreč pojavlja na vseh štirih ključnih nivojih razvoja inteligentnih sistemov – v našem okolju, pri zbiranju podatkov, med razvojem modelov in nazadnje tudi med samo uporabo sistemov. Poleg tega na svetu ne obstaja nič, kar bi bilo popolnoma nepristransko, le da smo kot ljudje na nekatere neuravnoteženosti bolj občutljivi kot na druge.
Zelo odmeven primer pristranskega inteligentnega sistema je denimo sistem COMPAS, ki so ga v Združenih državah Amerike razvili za predvidevanje verjetnosti, da bo kaznjenec po izpustu iz zapora ponovno pristal za zapahi. Po statistični raziskavi algoritma se je izkazalo, da se je sistem naučil prepoznati temnopolte kaznjence kot skupino z višjim tveganjem za ponovno kršenje zakona v primerjavi z belopoltimi kaznjenci. Ta predpostavka se je izkazala za izjemno napačno, saj je sistem kot kaznjence z višjim tveganjem narobe klasificiral kar 45 % temnopoltih oseb v primerjavi s 23 % napako pri belopoltih zapornikih. Očitna rasna neuravnoteženost sistema COMPAS pa seveda ni zrasla kar na kateremkoli zelniku, temveč izhaja iz sistemskega rasizma v ameriškem sodnem sistemu. Algoritem se je namreč predvidevanja naučil s pomočjo baze podatkov o zaporih znotraj ZDA, katerih deleži zapornikov glede na raso so zelo neuravnoteženi.
Podoben primer je tudi inteligentni sistem za zaposlovanje v podjetju Amazon, čigar razvoj so z letom 2015 opustili zaradi njegove očitne spolne pristranskosti pri izbiri kandidatov. Izkazalo se je namreč, da je algoritem pri zaposlovanju računalniških inženirjev preferiral moške prijave v primerjavi z ženskimi. Pristranskost naj bi tako kot v prejšnjem primeru izhajala iz neuravnovešenega seta učnih podatkov. Ta je namreč vključeval vse življenjepise kandidatov, ki so se v zadnjih desetih letih prijavili na delovna mesta v podjetju; izkazalo se je, da je primarno šlo za moške. Set učnih podatkov je tako le odsev spolne neenakosti na področju tehničnih znanosti, v katerih še do danes številčno prevladujejo moški.
Algoritmi lahko s svojo pristranskostjo tako še dodatno poudarijo in do neke mere tudi kvantificirajo družbene problematike, s katerimi se srečujemo. Kot smo že omenili, so inteligentni sistemi vseeno veliko bolj objektivni kot ljudje in zato tudi svet okoli sebe dojemajo bolj objektivno. Njihovo razumevanje namreč ne vsebuje čustvenih podtonov, kot je to značilno za ljudi, temveč je odvisno zgolj od pridobljenih podatkov. Če so podatki izmerjeni pravilno, so ti lahko le taki, kakršen je svet, iz katerega izhajajo – objektivno pristranski.
Čeprav je pristranskost nemogoče izključiti iz našega okolja, lahko neuravnoteženost znotraj inteligentnih sistemov, če ne popolnoma odpravimo, vsaj reguliramo. Kako, nam razloži dr. Grobelnik.
Z vprašanjem regulacije pristranskosti umetne inteligence v družbi se ukvarja več mednarodnih iniciativ, kot so Evropska komisija, Združeni narodi, OECD, UNESCO in mnogi drugi. Kako daleč so prišli pri iskanju odgovorov, pojasni dr. Grobelnik, ki je slovenski predstavnik Odbora za umetno inteligenco OECD.
Pomembno pa je omeniti, da pristranskost ni vedno negativna. Neuravnoteženost znotraj inteligentnih sistemov lahko namreč uporabimo tudi v naš prid, ne da bi se s tem okoriščali na račun nekoga drugega. Tak primer so personalizirani sistemi, ki jih verjetno nikoli ne bi označili kot pristranske. Pa vendar personaliziran sistem konceptualno deluje popolnoma enako kot sistem, ki je denimo socialno neuravnotežen. Edina razlika je v tem, da smo na pristranskosti znotraj enega in drugega sistema občutljivi na različne načine, te pa imajo na posameznika zato drugačen učinek.
Medtem ko rasna, spolna, socialna in še marsikatera druga neuravnoteženja spodbujajo diskriminatorne prakse in povečujejo razlike med posamezniki, lahko denimo geografska pristranskost pomaga uporabniku lažje dostopati do informacij, ki so na njegovi trenutni lokaciji uporabnejše. Vaš pametni telefon vam lahko na primer avtomatično prikaže vreme za mesto, v katerem se nahajate. Ob iskanju virov informacij po spletnih brskalnikih pa se vam zato najprej pojavijo novice, ki so aktualne za vaše trenutno območje.
Do sedaj smo govorili predvsem o tem, kakšen vpliv ima družba na razvoj umetne inteligence. Seveda pa ta na koncu vpliva tudi na družbo in svet, v katerem se nahajamo. Naj bodo ti učinki negativni ali pozitivni, v vsakem primeru se z razvojem umetne inteligence razvija tudi družba. Njuno prihodnost na kratko oriše dr. Marko Grobelnik.
Umetna inteligenca nas bo nedvomno spremljala še dolgo v prihodnost. Kot družba se moramo zato soočiti z njenim resničnim pomenom in posledicami njene uporabe. V prvi vrsti moramo zato najprej spoznati, kaj umetna inteligenca zares predstavlja, k čemur, upamo, smo do neke mere pripomogli tudi z današnjo oddajo.
Ko umetno inteligenco vzamemo pod drobnogled, precej hitro ugotovimo, da ni nikakršen bavbav. Scene iz filmov, kot so Terminator, Matrica ali Blade Runner, pa niti v najmanjši meri ne predstavljajo umetne inteligence naše sedanjosti ali bližnje prihodnosti. Dejstvo je, da so algoritmi umetne inteligence zgolj bolj učinkoviti načini reševanja kompleksnih problemov, ki so v svojem bistvu sestavljeni iz velikega števila osnovnih matematičnih funkcij. Za vsemi algoritmi pa na koncu še vedno stoji in jih upravlja človek.
Končna misel – umetni inteligenci zaupajte toliko, kot zaupate sočloveku! Konec koncev je ta ustvarjena po našem zgledu. S to mislijo tudi zaključujemo današnjo Frequenzo della Scienzo. Vendar brez skrbi, we’ll be back! Prvo nedeljo v aprilu, ob istem času, na isti frekvenci.
Nevronske mreže je pletla Ela, medtem ko je vaše štrene sproti mešala Rebeka. Da se nista izgubili v globini strojnega učenja, pa ju je za roke vodil Luka. Končni algoritem je testiral Martin.
Lektorirala je Teja.
Brala sva Klara in Rasto.
Tehniciral je Linč.
Prikaži Komentarje
Komentiraj