- Reset + Prindi

ABCD julgeolekukonverentsil

30.10.2019

Daamid ja härrad, head osalejad!

Soovin alustuseks rõhutada, et tehisintellekti nimel all tuntud tehnoloogia on inimkonna jaoks esmajoones võimalus. Eelkõige võimaldab see reaalajas viia tegeliku vajaduse kokku sellega, kus ja kuidas on mingit eesmärki võimalik saavutada. Ja seda kõige laiemas tähenduses.

Näiteks suudab isegi kitsas või rumal tehisintellekt energiavõrku juhtida nii, et tootmine vastaks täielikult tarbimisele, ent protsess oleks mõlemal suunal paindlik. Traditsiooniline energiavõrk eeldas püsivat valmisolekut toota võimalikult palju, et vastata paindumatule ja juhitamatule nõudlusele. Eestis on aga näiteks oleks tehisintellekti abil energiatootmist võimalik vähendada vähemalt 20% võrra.

Mida arenenum tehisintellekt, seda paremini saab see ühiskonda teenida. Juba praegu on võimalik poes kauba eest maksta iseteeninduskassa robotile sügavalt „silma“ vaadates. Eestis kasutamegi algoritme näiteks selleks, et võrrelda rahvastikuregistri andmeid pensioniregistri omadega – kui tulemus vastab teatud parameetritele, siis makstakse inimesele automaatselt pensionilisa. Põhimõtteliselt olid sellised lihtsad teenused võimalikud ka enne, kui hakkasime neid nimetama tehisintellektiks. Aga olemuslikult on asi lihtne – masinad teevad inimeste eest otsuseid.

Tehisintellekt veendub, et meie tühi külmkapp täitub kojuveoteenuse toel ning kauba vastuvõtmisaja meeldetuletamiseks kuvatakse kalendrisse märge. Tehisintellekt võib hinnata tervisenäitajaid ning teavitada meid lähenevast tervisehäirest või helistada ise otse hädaabinumbril 112, kui me tehisintellekti meelest ise olukorda ei teadvusta või abi kutsuda ei suuda.

Tehisintellekt saab meie vananevate lähedaste eest hoolt kanda, peame vaid veenduma, et masinaga suhtlemine on turvaline.

Need kõik on kasulikud teenused, mille arendamist saame endale lubada, küll aga vajab õigusruum muutustega kaasas käimiseks korrastamist. Usun, et juba välja toodud näited annavad õiguslikus raamistikus kätte suuna, kuidas tehisintellekti võimalusi kõige paremini ära kasutada.

Ma ei kahtle üldsegi, et meie insenerid suudavad taolisi seadmeid ja teenuseid luua. Mind teeb aga murelikuks meie piiratud ja piirav võime mõelda juriidilises kontekstis uuenduslikult ning lõigata kasu võimalikult palju sellest, mis juba olemas on. Ning selline olukord piirab tarbetult selliste teenuste majanduslikku tasuvust demokraatlikes riikides.

Sest mingil põhjusel – põhjusel, mida mina ei mõista – eeldame tehisintellekti rakendustelt täielikku turvalisust ja privaatsust. Samas oleme valmis tunnistama, et kuulujutud, mis võivad vahel ka tõeseks osutuda, on traditsioonilise analoogühiskonna osa.

Isegi kui suudame näidata, et arenenud tehisintellektile saab seada inimeste privaatsust tagavad reeglid, on inimesed ikkagi vastumeelselt meelestatud. Paljas mõte tehisintellekti kasutamise reguleerimisest tekitab hirmu – ja see on mõistetav. Põhjus on lihtne. Tegemist on sellsama hirmuga, mis halvas meie esivanemaid, kui nad nägid esmakordselt nägid äikest või tuld. Hirm on inimlik, kuid erinevalt meie eelkäijatest oleme palju paremini varustatud teadusliku metodoloogiaga ning peaksime suutma üle olla instinktiivsetest eelarvamustest.

Näiteks pelgame, et liiklusandmeid koguv tehisintellekt võib hoopis liiklejate järele luurama hakata. Kuid sellisel juhul peaksime seadustes lihtsalt sätestama, mis tüüpi andmeid tohib koguda. Näiteks võib sätestada, et andmete koguja muudab andmed anonüümseks kohe süsteemi sisestamisel. Meie eesmärk ei peaks olema andmete kogumise piiramine, vaid peaksime pigem selgelt defineerima, kuidas andmeid töödelda, mis ulatuses on andmeid kasutavad ettevõtted vastutavad ning kas tagatud on usaldusväärsed riiklikud kontrollmehhanismid.

Plaan kõlab päriselus sama lihtsana nagu paberil. Tegelikult peakski sellele küsimusele lähenema nii, nagu seda tehti näiteks siis, kui omal ajal õpetasime arstidele selgeks patsientide delikaatsete isikuandmete kaitsmise põhimõtted – ja siis usaldasime arstid rahus oma tööd tegema. Muidugi on tarvis seaduserikkujaid karistustega heidutada, kuid me ei tohiks kujundada sellist õigusruumi, mis kogu tehisintellekti kasutamise võimatuks muudab.

Peame loobuma müütidest ning andma eraettevõtetele praktilisi suuniseid, mis aitaks neil töödelda kõiki tuleviku teenustes kasutatavaid andmeid. Peame lubama neil jätkata haiguslugude kogumist ja veebiarstide treenimist. Peame liiklusandmete abil nutika linna infosüsteeme õpetama muutma valgusfoori värve selliselt, et vältida ummikuid pärast rahvarohket jalgpallivõistlust. Peame kasutama tehisintellekti, et leida hädasolijad ja pakkuda neile abi enne, kui nad teevad viga endale või oma lähedastele haiget.

Kui me aga ei suuda luua demokraatlikes ühiskondades tehisintellekti rakendamist soosivat õigusruumi, tuleb arvestada kahe suurema kaotusega. Esiteks ei saa meie inimesed kasu lõigata juba olemasolevatest tehnoloogiatest, mis seejuures igapäevaselt edasi arenevad. Teiseks rebivad mittedemokraatlikud ühiskonnad meist ette nii tsiviil- kui sõjalises sektoris, kui me lihtsalt ei suuda tehisintellekti potentsiaali realiseerida.

Mittedemokraatlikel režiimidel on meie ees kaks eelist – loomulikult tehnilist, mitte ühiskondlikku eelist. Neil puuduvad samad mured mis meil ega pea vajalikuks luua õigusruumi, mis tehisintellektiga maailmas universaalseid inimõigusi kaitseks. Taas kord – eelis on neil tehnoloogia kasutajate, mitte ühiskonna arendajatena. See ei tähenda, et ma ei peaks andmekaitset ja inimõigusi ülitähtsaiks – pean küll.

Mittedemokraatlike režiimide teine eelis seisneb nende võimekuses kontrollida tehnoloogilist arengut niisama lihtsalt, kui meie suutsime seda teha viimati siis, kui loodi esimesed tuumarelvad. Tollal olid riigid alati kursis, milliseid relvi arendati, sest erasektor ei olnud pildis. Tänapäeval ei kontrolli riik vabas maailmas tehisintellekti arengut. Sellised eraettevõtted nagu Deep Mind kulutavad investeeringuteks palju rohkem kui enamus valitsusi ning suudavad töötada välja uusi lahendusi ka ilma NASA programmide või Euroopa teadus-arendustegevuse fondideta. Ja oma olemuselt on selline asjade käik tegelikult hea.

Küll aga tähendab see, et demokraatlike riikides peame õppima erasektorilt, mida nende arendatud tehisintellekt täna saavutada suudab. Samuti peame tagama, et meie õigussüsteem võimaldaks sellisel tehisintellektil meie elusid paremaks muuta, ilma et peaksime loobuma privaatsusest ja üldisest turvatundest. Kui tehisintellekt suudab andmed üles leida, suudab ta neist ka lihtsalt vabaneda – selles võime küll kindlad olla. Peame lihtsalt kindlaks tegema, kuidas ja millal tehisintellekt andmed kustutab ja mis viisil ta meile tõestab, et midagi endiselt salvestatud pole. Eri pooltega ausalt mõtteid vahetades ja nutikat seadusloomet juhtides ei ole meil võimalik totalitaarsete režiimidega mitte üksnes võrdne olla, vaid neid ka edestada.

Tahaksin juhtida teie tähelepanu ka mõnedele tehisintellektil põhinevatele teenustele, mida vaid hiinlased kasutavad n-ö ühiskondlikuks hüvanguks – kuid nende puhul varjuküljeks, et inimesed on leppinud riigi täieliku kontrolliga. Võtame näiteks hästi näotuvastusprogrammid. Mõni tehnoloogiaettevõte püüab ka Läänes sarnaseid lahendusi rakendada, kuid juba ilmnevad tagasilöögid. Sel kevadel keelati San Franciscos – jah, justnimelt San Franciscos– politseil ja linnaasutustel näotuvastustarkvara kasutamine. Peamiseks põhjuseks toodi vajadus tagada kodanikuvabadusi. Mõned teised USA linnad järgivad juba seda eeskuju, kuigi kurjategijate kiire tabamise näitel on tõendatud ka näotuvastustarkvara kasulikkust. Aga kuna teenust reguleerivat õigusruumi ei olnud, tuli see lihtsalt keelustada. See pole tehnoloogia või eraettevõtete süü, vaid pigem puuduliku seadusandluse küsimus.

Euroopa Liidus on olukord pisut parem, kuna meil on isikuandmete kaitse üldmäärus ehk GDPR, mis teatud ulatuses sätestab ka näotuvastustarkvara ja andmekaitse suhteid. Tõestust GDPR-i toimivusele annavad juhtumid, kus seda on rikutud. Näiteks trahvis Rootsi Andmekaitse Inspektsioon paar kuud tagasi ühte kohalikku omavalitsust, mis kasutas näotuvastust keskkooliõpilaste kohalkäimise hindamiseks.

Rootsis rikuti selgelt GDPR-i, kuid juriidiliselt on endiselt palju ebaselgust, kuidas tehnoloogia arengut soodustada niimoodi, et privaatsus oleks kaitstud. Näiteks nõuab enamik riike ja riigiasutusi, et isikustatud andmed ei tohi ühegi eraettevõtte kätte sattuda. Aga mida tähendab „kätte sattumine“? Kas tegemist on GDPR-i rikkumisega, kui andmeid koguv ettevõte muudab need reaalajas anonüümseks? Või peab riik kõigepealt andmed koguma, anonüümseks muutma ja siis eraettevõtetele tehisintellekti süsteemide arendamiseks söötma?

Ehk peaks riik uuendustega kaasas käimiseks andmekaitse monopolist eraettevõtete kasuks sootuks loobuma? Mina ei tea, millised võiksid olla konkreetsed lahendused, kuid olen kindel, et praegune olukord pärsib meie arengut. Eriti just võrreldes Hiinaga, kus taolised piiranguid ei tundu olevat. Nagu ma juba ütlesin– tehnoloogiaeksperdid saavad hakkama kõigi ülesannetega, mis neile anname. Peame üksnes paika panema, millised õiguslikud nõuded peavad demokraatlikus ühiskonnas privaatsuse kaitsmiseks täidetud olema.

Samuti peame end kaitsma valeinfo leviku eest, mis hetkel piirdub veel võltsitud fotodega, kuid liigume aina lähemale ajale, mil ka võltsvideoid võib olla tõelistest võimatu eristada. Usun, et mõne aasta pärast julgeme usaldada üksnes selliseid fotosid ja videoid, millel on faili looja digiallkiri ning KSI plokiahela-tehnoloogial põhinevad ajakoodid alguses ja lõpus.

Jah, eestlasena suudan ma vabalt mõista sellist lahendust valeuudiste probleemile, sest meil Eestis juba on digitaalne-ID ammu paigas. Kogu Euroopa areneb selles suunas, kuid ma ei tea, kuidas ometi peaksid Ameerika ettevõtted endid ja oma kliente kaitsma? USAs ei ole katsetatud ühtegi laiale kasutajaskonnale suunatud riiklikku digi-ID mudelit. Jah, isikut tõendava dokumendi peab väljastama riik, sest õigusruumis saab turvalist passilaadset tuvastust pakkuda vaid riiklikult. Ning tegelikult on uus lahendus turvalisemgi, sest passi esitamisel ei paluta kelleltki veel lisaks PIN-koode – aga see selleks.

Ja siis on meil veel igavene küsimus sellest, kuidas veenduda, et tehisintellektile seatud ülesanded täidavad oma eesmärki ning et suure mõtteressursiga masin ei unusta tuhinas kõiki teisi inimkonda alal hoidvaid tegevusi. Võib seejuures küsida, et miks me üldse muretseme tehisintellekti pärast, kui loome juba praegu bitcoin’e energiast ja teistest päris ressurssidest. Bitcoin’e, millel tegelikku väärtust ei ole ... kuid taas, see selleks.

Me peame olema kindlad, et kontrollime tehisintellekti. Probleem seisneb selles, kuidas tegelikult tehisintellekti kontrolli oma kontrolli all hoida olukorras, kus meie poolt antud lihtsad käsklused kõlavad masina jaoks kui nädalapikkune vestlus?

Kuidas saaksime ja peaksime selle probleemiga tegelema? Mulle imponeerib tuntud arvutiteadlase Stuart Russelli mõttekäik. Ta pakub näiteks välja, et me ei tohiks masinatele ja tehisintellekti süsteemidele seada kindlaid lõppeesmärke, vaid peaksime programmeerima neid seatud sihtides ise koguaeg kahtlema. Masin peaks kogu aeg inimestelt üle küsima, kas järgmine eesmärk või tegevus on endiselt sobiv ja algülesandega sätestatud piirides.

Sama idee võib asetada ka teaduse ja inimeste konteksti. Ehk peaksime teadlastelt nõudma, et artikleid kirjutades ja tehisintellekti arendades analüüsitaks alati ka potentsiaalseid negatiivseid kõrvalmõjusid ja kaasnevaid riske? Et muugulgas saaksime luua vahendid, millega neid riske maandada.

Peame kasutama oma eeliseid demokraatlike ja vabade ühiskondadena, et jõuda ühisele arusaamale, kuidas universaalsete inimõiguste, riikliku suveräänsuse ja rahvusvahelise õiguse printsiibid ka kõikides tehnilistes domeenides rakenduvad. Madalama tasandi automaatsete ja autonoomsete arvutisüsteemide (sealhulgas NATO defineeritud kübervaldkonna) kohta senised teadustööd näidanud, et kõik, mis kehtib analoogmaailmas, rakendub ka digiilmas. Seepärast pole meil minu arvates vajalik luua ka erilisi uusi interneti või tehisintellekti inimõigusi. Me kipume uut tehnoloogiat ja tehisintellekti müstifitseerima, kuid selleks pole põhjust. Peaksime lihtsalt nentima, et kõik varem kehtinu on endiselt jõus, ja laskma arendajatel demonstreerida, kuidas seda rakendada.

Toon lihtsa näite e-teenuste raudvarast – rollihaldusest. Kuigi täidame tuludeklaratsioone veebis, ei muutu asjaolu, et makse deklareerivad ikka samas inimesed. Tegemist on endiselt ettevõtte juriidiliste esindajatega. Või näide vanemlike õiguste vallast: kuigi lapsel on nüüd enda digi-ID, ei saa ta nüüd seetõttu ise otsustada küsimusi, mida ta varem analoogmaailmas ei saanud. Seaduselooja ülesanne ei ole mõelda, kuidas veebist uut õigusruumi kujundada, ta peab lihtsalt olema toeks vanade seaduste rakendamisel. Tehnoloogia arendaja peab olema see, kes uusi lahendusi välja pakub.

Tehisintellekti tasandil tähendab see vaid seda, et tarkvara peab kõigepealt andmed anonüümseks muutma ning seejärel neid andmeid tehisintellekti arendamiseks kasutama. Või siis peavad videokaamerad looma plokiahelamarkeri, mis võimaldab neid videoid valideerida. Sellel kõigel ei ole meie, seaduseloojatega, enam mingit pistmist. Uue tehnoloogia tundma õppimisel peame vaid veenduma, et lahenduste loojad toimivad meie reeglite kohaselt. Kuna süsteemid on nutikad, peavad nemad meile selgitama ja näitama, kuidas meie andmeid kaitstakse. Neil on selleks olemas vajalik arvutuslik võimsus. Tuleb vaid nõuda, et peale tehisintellekti arendamise tuleb seda ka kontrollida.

Daamid ja härrad!

Kui räägime uutest ja häirivatest tehnoloogiast julgeoleku- ja kaitsesektoris, on pilt kahetine. Ühest küljest näib see olevat valdkond, mis – nagu tihti juhtub – on arenduse ja rakenduste poolest täna esirinnas. Juba praegu kasutatakse praktilisi lahendusi, näiteks autonoomseid ja poolautonoomseid süsteeme ja sõidukeid, ning veetakse sellega tsiviilsektorit endaga kaasa.

Samas usun, et tõelised ohud, mis uute ja häirivate tehnoloogiatega kaasnevad, pole end veel näole andnud. On juba terve rida õudseid stsenaariumeid, kuidas terroristid saaksid näiteks külvata hävingut paari kaubikutäie väikeste autonoomsete droonidega, mis on programmeeritud inimesi ründama. Usutakse, et selline tehnoloogia on mitte-riiklikele rühmitustele juba täna nii tehnoloogiliselt kui ka rahaliselt kättesaadavad. Me ei tea, mis põhjusel taolised stsenaariumid pole veel ellu rakendunud. Võib tõmmata paralleele näiteks bioloogiliste relvade ehk või räpaste pommide kasutamisega. Samas ei tundu nende kõrvutamine droonirünnakuga päris korrektsena. Radioloogilise pommi või surmava viiruse vallapäästmise tagajärjed muutuvad põhimõtteliselt kontrollimatuks. Droonid seevastu on kontrollitavad ning seega on alati võimalik kahju eesmärgipäraselt piirata. Seega on nende vahendite kasutamise tõenäosus märkimisväärselt suurem.

Praegused arengud ja diskussioonid kaitsesektoris tunduvad olevat keskendunud autonoomsetele relvasüsteemidele. Kui jätame hetkeks tagaplaanile niinimetatud tapjarobotite tegevuse sünged tagajärjed – ja see tegelikult kehtib kõikide relvasüsteemide – siis iseenesest toimub sellise arengu moraalsete ja eetiliste aspektide ümber päris palju üsna tervet arutelu. Automatiseeritud süsteemide kasutamine sõjanduses on paratamatu areng. Kuid usun, et moraalse alusprintsiibina peame lähtuma põhimõttest, et surmava jõu kasutamise otsuseid ikkagi alati tegema inimesed. Inimene peab põhimõtteliselt alati otsustusahelasse sisse jääma.

Siiani ei ole see vähemalt läänemaailmas suureks probleemiks osutunud. Kuid see ei pruugi nii jääda. Oleme ju autonoomseid süsteeme – peamiselt droone – kasutanud juba peaaegu 15 aastat, peamiselt madala intensiivsusega konfliktides tehniliselt ala-arenenud mitteriiklike tegutsejate vastu. Võib näida, et saame alati drooni kontrollida, reaalajas teavet koguda ning reaalajas elu ja surma otsuseid langetada. Kui aga mõelda kahe võrdlemisi võrdsete võimetega riigi vahelisele võimalikule kriisile, ei pruugi pidev kontroll enam võimalik olla. Raadiosagedused oleksid ilmselt kogu aeg massiivse elektroonilise segamisega ummistatud ning reaalajas toimuv juhtimine ja kontroll osutuks väga keeruliseks, kui mitte võimatuks.

See omakorda muudab inimese otsustusahelast väljavõtmise mitte võimaluseks, vaid võibolla hoopis hädavajalikuks reaalsuseks. Teine variant oleks ilmselt loobuda nendest suurtest ja arenenud droonide arsenalidest, mis on suurtes lääneriikides juba olemas on. Saate ilmselt isegi aru, milliseid moraalseid dilemmasid ja tagajärgi selline olukord tekitab, ning need kindlasti väärivad pikemat kaalumist.

Ja ma loodan, et sel konverentsil kõiki neid küsimusi ka kaalute – nii suuri ja  filosoofiliste tehisintellektiga seotud probleeme kui ka väiksemate ja uue tehnoloogiaga kaasnevate igapäevasemaid kitsaskohti. Kuid – ärge unustage aja kulgu. Juba praegu eksisteerivad tehisintellektid, meie ajaraamis on minu 20-minutilise kõne jooksul jõudnud sajandeid läbi elada. Mõtleme ruttu!