Iga uus teadmine toob endaga kaasa aina laieneva silmapiiri sellest, mida me veel ei tea, ning teadmatusest sünnivad üha suuremad riskid – võimalikud mustad stsenaariumid, mille ärahoidmiseks tuleb teha ettenägelikke samme.

Illustratsioon: Vahram Muradyan

Aasta alguses meie seast lahkunud Ulrich Beck, üks riskiühiskonna kontseptsiooni loojatest, on kirjutanud, et risk puudutab alati tulevikusündmusi. Riskidest rääkimise all võib silmas pidada tulevikuohu lavastamist olevikus, et legitimeerida poliitilisi otsuseid, mis hoiaks ära riski realiseerumise. Näiteks kliimasoojenemise debatt peaks selle reaalsuseks saamise ära hoidma. Kogu lavastamine on aga tegelikult kommunikatsioon, massikommunikatsioon, tihti propaganda. Risk ühendab teadmise mitteteadmisega. See tähendab, et risk on seotud teadmatusega, mida ei saa ületada uute teadmistega. Vastupidi, uute teadmistega tekivad uued riskid.

Mu insenerist isa on seletanud seda suurepäraselt ringi metafoori abil seoses tarkuse ja teadmisega. Kui kõik, mida sa tead, on ringi sees ja kõik, mida sa ei tea, on ringist väljas, siis ringi suurenemisega suureneb ka ringi ümbermõõt. Ehk mida rohkem sa tead, seda rohkem sa mõistad, et sa ei tea. Iga uus teadmine toob silmapiirile hulga uusi asju, mida sa veel ei tea. Nii ütleb ka Beck, et uus teadmine võib üleöö normaalsuse riskiks muuta.

Kui praegust olukorda nimetada riskiühiskonnaks ja arvestada teadmiste hulga eksponentsiaalselt kiirenevat kasvu, siis kus oleme me 20 aasta pärast? Kas superriskiühiskonnas?

Erinevad riskid, erinevad skaalad

Beck ütleb peamiselt tuumajaamadele ja kliimamuutustele viidates, et valida ei saa riski ja turvalisuse, vaid erinevate riskide vahel. Erinevate valikute võrdlemine käib tihti aga täiesti erinevatel skaaladel.

Võtame olukorra näitlikustamiseks ühe lihtsustatud hüpoteetilise näite. Mulle on jäänud mulje, et läänemaailm võtab kliima soojenemist tõsisemalt – oma retoorikas muretsetakse nii New Yorgi, Londoni kui ka Tōkyō uppumise pärast. Selleks et uppumist ära hoida, määratakse keskkonnamaksud. Olgu see praegu esimene riskiskaala – väga tõsine globaalne kriis kaugemas tulevikus. Samas on jäänud mulje, et Hiinal on suhteliselt ükskõik, kui palju nende tehastest gaase välja uhatakse. See tekitab Hiinas tootmisele konkurentsieelise ja Ferraride valmistamine on mõistlik Itaaliast hoopis Hiinasse viia. Paljud itaallased võivad jääda töötuks ja tekib uus risk – me maksustame siin oma gaase, aga kaotame töö ja konkurentsivõime. Tõsine probleem küll, aga täiesti teisel skaalal võrreldes New Yorgi, Londoni ja loomulikult Tōkyō uppumise ning kõige muu kaasnevaga (ekstreemsemate stsenaariumite järgi kuni maailma lõpuni välja). Siiski on see piisavalt oluline, et sellest lähtuvalt ka reaalseid poliitilisi otsuseid teha.

Skaalade erinevus on tähtis seetõttu, et seoses (geeni)tehnoloogia arenguga, mis on otseselt seotud teadmiste kasvu ja metafoorse „ringi suurenemisega”, lähevad minu arvates ka skaalad aina tõsisemaks.

Aina enam mõjutavad meid algoritmid ja nende loojad

On üks põnev mõttemäng, millele viitas tehnoloogiaajakirjanik Henrik Roonemaa algoritmidest kui kaasaja jumalatest kirjutades. Kui isesõitev auto satub tee peal avariiohtlikusse olukorda ja jõuab sekundi murdosa vältel järeldusele, et inimelu kaotust ära hoida pole võimalik, siis mida ta peaks tegema? Kas valima alati kõige väiksema hukkunute arvu ehk näiteks sõitma otsa täiesti süütule jalgratturile, et päästa kaks oma pardal viibivat inimest? Aga kui andmeid on rohkem? Näiteks kui jalgrattureid on kolm, aga nad on vanad ja purjus ja autos on kaks noort inimest? Või kui jalgrattureid on üks ja ta on noor, aga on mõrva eest mitu aastat vangis istunud? Või kui ohuolukorda satuvad kaks isesõitvat autot ning need peavad omavahel ülikiire läbirääkimise käigus lahendama küsimuse, kes jääb ellu ja kes sureb? Kuigi algoritmidel on sellisel juhul jumalik otsustusõigus selle osas, kes jääb elama, siis peab keegi inimene selle algoritmi alguses üldse looma ja just sellised küsimused lahendama.

Lisaks suurele inimfaktorile tuleks tähelepanu juhtida ka algoritmide „jumalusele” riskide lavastamise kontekstis. Algoritmid (otsingumootorites, Facebookis jne) otsustavad aina enam selle üle, millist infot inimene saab, milline on inimese taju seoses riskidega. Internetiteoreetik Eli Pariser ütleb, et kuna algoritmid serveerivad inimestele infot, mis neile meeldib, siis seetõttu tekivad n-ö filtrimullid. Isesõitva auto näite puhul oli otsuse tegemine veel inimese käes – tema otsustab, milline on algoritm ja kelle elu tuleb avarii korral päästa. Kui isesõitvate autode ajastu on veel ees, siis algoritmide ajastu on täies hoos. Raske on uskuda, et näiteks mõne otsingualgoritmi tegija mõistab riske, mis tema loominguga kaasneda võivad. Ometi suureneb iga päevaga inimeste arv, kes nendest algoritmidest sõltuvad.

Jah, muidugi on tõsi, et põhimõtteliselt on inimesed kehvemad autojuhid kui arvutid – arvuti ei sõida purjus peaga ega kirjuta samal ajal sõnumeid. Aga kõik inimesed ei jookse ka korraga kokku. Ühe suure autosid juhtiva süsteemi puhul võib seda aga ette tulla küll. Mida rohkem me usaldame ennast tehnoloogia rüppe, seda suuremaks lähevad potentsiaalsete riskide mastaabid.

Geenimuudatused – täiesti uue skaala probleemid

Räägitakse, et tulevikus ei võeta ravimeid mitte siis, kui midagi kehas on katki (jääd haigeks), vaid kogu aeg, et haigestumist geenitehnoloogia abil ennetada. Sellest tuleneb ka geenitehnoloogia paralleel Becki riskikontseptsiooniga. Kui praegune meditsiin remondib probleeme, mis on juba tekkinud, siis geenitehnoloogia tegeleb haiguste/probleemide ennetamisega. Tuletame meelde, mis on risk? Mingi tõenäosusega tulevikus juhtuv sündmus. Millega tegeleb tuleviku geneetika? Mingi tõenäosusega tulevikus ilmneva haigusega.

Millisele skaalale asetuvad geenimuudatused? Minu hinnangul toimub see maksimaalselt fundamentaalsel ja, arvestades võimalikke tagajärgi, kriitilisemal skaalal. Beck ja Beck-Gernsheim ütlevad, et kui religioon ja usk surmajärgsest igavesest elust kaovad, saab suurema tähtsuse tervis. Geenitehnoloogiast ja eugeenikast, pärilike omaduste parandamisest, saab justkui uus pääsemise võimalus, alternatiiv piiblis lubatud igavesele elule taevas.

Kui pärilikkushügieen, näiteks Kolmanda Riigi peale mõeldes, on midagi kohutavat, siis geneetika (ravimitööstus) lavastab pildi sellisest paremast tulevikust, millele on inimesele loomuomaselt pea võimatu „ei” öelda. Kes ei tahaks olla ilus, tark ja terve. Olemasolevad tabud lahtuvad, vastuseis kaob. See avab küll uue tee, aga keegi ei tea, mis juhtub, kui kohale jõutakse. Mis juhtub, kui tuleb teadmine, et oleme justkui head soovides kogu inimkonna geenid pöördumatult tuksi keeranud. Nagu öeldud, uus teadmine võib olemasoleva normaalsuse üleöö riskiks muuta.

Praegu tegeleb geenitehnoloogia peamiselt pahaloomuliste geenide muutmisega, kuid ma arvan, et kaugel ei ole ka ilugeneetika aeg (ilukirurgia ongi juba iganenud). Silme ette tulevad üliväikseks (ja nunnuks, käekotti mahtuvaks) aretatud koerad, kes sünnivad ja surevad mitte kroonilise, vaid geneetilise migreeniga – aju ei mahu kolba sisse ära, tekib liigne rõhk.

Genetiseerimine ehk isikutele või gruppidele geneetilise identiteedi omistamine teeb nad objektideks. Esimesed geeniteadusega seotud inimeste enesetaju muutused on juba ammu toimunud. Apteekides müüakse teste, mis ütlevad, millise spordialaga peaksid tegelema. Või natuke kurvem näide: tean inimest, kellel on haigus, mis võib geneetiliselt edasi kanduda, ja kes on võtnud seetõttu vastu otsuse järeltulijaid mitte saada. Oluline elufilosoofiline otsus, mis määrab tema elukäiku väga suurel määral.

Kui eelnev on inimese otsus, siis täiesti dokumenteeritud nähtus on ka geneetiline diskrimineerimine. Eestis ei tule selle pealegi, aga USAs on teinud geneetilisi teste nii tööandjad kui ka kindlustusfirmad. Näiteks selleks, et väga suure geneetilise riskiga inimest mitte tööle võtta või talle elukindlustust mitte müüa. Tegelikult pole selleks mingit testi vajagi. Oletame, et tahan teha endale elukindlustust. Kindlustusfirma nuhib enne hinnapakkumise tegemist välja, et mul on perekonnas vähki olnud, ning teeb suurema riski tõttu paarkümmend protsenti kallima pakkumise. Selline tegevus on USAs küll seadusega keelatud, aga kuhu võib geneetiline diskrimineerimine tulevikus viia?

Kokkuvõte

Teadmiste kasvuga on kasvamas nii riskide hulk kui ka riskide sisuline suurus. Suurused võivad olla nii erinevad, et nende mõõtmine toimub täiesti erinevatel skaaladel. Tulevikus võivad praegused probleemid tunduda tühistena – sellisel juhul on riskiühiskonnast saanud superriskiühiskond. Üks näitena välja toodud valdkond, mille areng meid täiesti uude olukorda paneb, on geenitehnoloogia. Teadmised selles valdkonnas viivad aina suurema vastutuseni.

Sissejuhatuses viidatud ringi metafooril on tegelikult oluline idealistlik sõnum ja ka pakutav lahendus: mida rohkem sa tead, seda rohkem sa tead, et ei tea. Mida suurem on võim, seda rohkem peaks teadvustama riske ja vastutust.


Kirjandus

Beck, Ulrich 2009. World at Risk. Cambridge, Malden: Polity.

Beck, Ulrich; Beck-Gernsheim, Elisabeth 2002. Health and Responsibility in the Age of Genetic Technology. – Individualization: Institutionalized Individualism and its Social and Political Consequences. London, etc.: Sage.

Novas, Carlos; Rose, Nikolas 2000. Genetic risk and the birth of the somatic individual. – Economy and Society, volume 29, issue 4.

Pariser, Eli 2011. The Filter Bubble: What the Internet is Hiding from You. Penguin Press.

Roonemaa, Henrik 2014. Meie elu uued jumalad. – Eesti Ekspress, 19.08.