2012-01-27

Nashin suuri oivallus

Useimmat tietävät peliteoriasta korkeintaan John Nashin, ja hänenkin tuotoksistaan oikeastaan vain sen mitä hänen kuuluisasta tasapainolauseestaan sanottiin elokuvassa Kaunis mieli. Peliteoreetikon täytyy sitten lähestulkoon nyrjäyttää mielensä että elokuvan kuvaus teoreemasta näyttäisi sen oikealta sisällöltä.

Ajattelinkin, että ehkäpä hahmottelisin—vaikka nyt sitten vain omasta wannabe-näkökulmastani—mikä siinä tasapainolauseessa itse asiassa on matemaattisesti niin hienoa. Sehän kuitenkin on sietämättömän hyödyllinen lause myös sosiaalispoliittisten aiheiden analyysissä, kuten omassa liberaalis- ja epäkonventionaalisen talousperäisessä ymmärryksessäni yhteiskunnan toiminnasta. Toisaalta samalla myös aivan erilainen palikka moisessa sekä paljon kauempana "pelien yleisestä teoriasta" kuin äkkiseltään voisi luulla. Tarina ei myöskään ole aivan lyhyt.

Lyhyt esihistoria

Pelejä on käsitelty matemaattisesti aivan matematiikan alkuajoista lähtien. Aivan klassisimpia yrityksiä en kuitenkaan ala kattaa, koska ne ovat epäolennaisia Nashille. Sen sijaan todennäköisyyslaskut vedonlyönnissä lienevät aikaisimpia nykymatematiikan yrityksiä tuohon suuntaan. Silloin Pascalin vastaus ystävälleen Antoine Gombaud'lle vuonna 1654 lienee tarinan varsinainen alku: siinä Pascal loi ensimmäistä kertaa ajatuksen odotetusta hyödystä pelin mittarina, vastatessaan ystävälleen miten keskenjääneen pelin voitot tulisi jakaa oikeudenmukaisesti.

Seuraava isompi maanmerkki uskoakseni oli vuosi 1783, jolloin Bernoulli julkaisi serkkunsa keksimän ajatuksen joka nykyään kulkee nimellä "Pietarin paradoksi". Se perustui pohjimmiltaan yhdelle martingaalille, eli vedonlyöntistrategialle jolle ihmiset ovat nykytiedon mukaan turhankin alttiita, jolloin tuo strategia on yleinen vaikka se onkin poikkeuksetta äärimmäisen tuhoisa. Se koostuu siitä, että tuplataan kun hävitään, siinä toivossa että häviöt voidaan voittaa takaisin seuraavalla kierroksella.

Nykymatematiikan termein tuollaisella strategialla ei ole tavallista suppenevaa odotusarvoa lainkaan. Sen varianssi kasvaa eksponentiaalisesti kierrosten lisääntyessä, mutta kussakin vaiheessa voiton odotusarvo pysyy tismalleen nollana. Tällainen johtaa tietenkin tuhoon koska kukaan ei voi panna peliin loputtomasti resursseja, mutta samalla puhdas laskennallinen odotusarvo voitosta kyllä pysyy edelleen nollassa, jolloin sen pitäisi olla neutraali veto aiemman teorian mukaan.

Tämä vastaesimerkki ja siitä seurannut teoria johtivat utiliteetin ja erityisesti laskevan marginaaliutiliteetin käsitteiden syntyyn, erillisenä aiemmasta puhtaasta rahavoittoon keskittyvästä pascalilaisesta analyysista. Nykyään jälkimmäistä kutsuttaisiin marginaalianalyysiksi, ja se on olennaisesti modernin, nykyään jo "konventionaalisen" neoklassisen taloustieteen pohjalla, aikaisten itävaltalaisten taloustieteilijöiden kuten Mengerin välittäminä.

Alkuhistoria

Todellinen tarina lähtee taloustieteilijä Cournot'n duopoliteoriasta vuonna 1838. Siinä ensimmäisen kerran analysoitiin taloudellista toimijaa niin, että myös hänen vastapuolensa (tässä vain yhden) toiminta otettiin samanaikaisesti huomioon. Tuo teoria jäi—ehkä jopa hieman onnekkaasti—huomiotta, mutta oli ehdottomasti ensimmäinen täysimittainen peliteoreettinen analyysi silti. Se myös oli ensimmäinen peliteoreettinen analyysi, jossa molempien samanaikainen siirto yksinkertaisti laskentatehtävää. Tuloksena oli ensimmäinen analyysi pelin standardimuodossa—ja kuten myöhemmin kerron, jossain määrin ikävin lopputuloksin.

Seuraava iso juttu oli kahden kovan ja laaja-alaisen matemaatikon, eli von Neumannin (mieleiseni mies koska keksi nykymuotoisen tietokoneen) ja Morgensternin (usein mainittu ekonomistina mitä olikin, mutta myös matemaatikko), vuoden 1944 kirjasta nimeltään The Theory of Games and Economic Behavior. Tuossa teoksessa ensimmäistä kertaa aksiomatisoitiin odotusarvoisen hyödyn käsite, ja ylipäänsä annettiin ne neljä siistiä, pikkuista aksioomaa jotka ovat riittävät ja tarpeelliset (eli yhtäpitävät) yksilön hyötyfunktion olemassaololle. Tuo loi pohjan hyödyn käsitteen matemaattis–loogiselle manipulaatiolle: sillä yhtäkkiä oli rakenne josta voitiin vetää formaaleja, loogisia, matemaattisia johtopäätöksiä. Se mistä nykyään puhutaan ihmistieteiden puolella "operationalisaationa" oli syntynyt vielä tiukemmassa muodossa taloustieteen ja peliteorian puolelle "aksiomatisaationa".

Tuo samainen juttu kulkee tähän päivään asti taloustieteessä (yhdenlaisena, yleisimpänä, väljimpänä) "instrumentaalisen rationaalisuuden oletuksena". Se ilmaistaan todennäköisyysmuodossaan neljänä erillisenä ehtona:
  1. (Täydellisyys) Joko eka on parempi tai toinen on parempi tai molemmat ovat yhtäläisiä. Piste.Tämä sulkee pois tapaukset joissa yksilön sisäiset tilat eivät ole keskenään vertailtavissa. (Eli ei voi käydä ettei kuluttaja pysty päättämään kaupassa ihan vain sen takia että "tää tölkki on korkeampi ja tää on vihreämpi, eli en voi vertailla niitä." Se on parempi, huonompi tai yhtä hyvä, muttei muuta.)
  2. (Transitiivisyys) Jos eka on parempi kuin toka, ja toka parempi kuin kolmas, kolmas ei ole koskaan parempi kuin eka. Tämä sulkee pois sykliset preferenssit yhden yksilön sisällä, niin että vertailtavat tilat eivät ole välillisesti ristiriidassa. ("Otan a, eikun velota viis senttiä sittenkin että b, eikun b+5 jotta c, eikun c+5 jotta a, eikun a+5 jotta b, loputtomiin." Vrt. Dutch Book.)
  3. (Jatkuvuus, tai konveksisuus) Kun todennäköisyydet tuodaan kuvaan, jokin ekan ja kolmannen välinen toka vaihtoehto on aina kuvattavissa ekan ja kolmannen välisenä todennäköisyyspainotuksena. ("Jos tomaatin ja chilin sekoitus on alapäässä, ja toisaalta juuston ja oreganon sekoitus yläpäässä, niiden välillä jokin tomaatin, juuston, oreganon sekä chilin sekoitus on paras mahdollinen siinä välissä.") Sekä,
  4. (Riippumattomuus ja/tai epäolennaisuus, "IIAC") Ei ole mahdollista että ekan ja tokan todennäköisyys suosii samalla todennäköisyysjakaumalla, vastaavasti, kolmatta ja tokaa; ei ole mahdollista että poistamalla jokin vaihtoehdoista niiden joukosta loppujen järjestys koskaan muuttuisi. ("Ai Niinistö jäi pelistä, no äänestämpä sittenkin toisena vaihtoehtona Haavistoa Väyrysen asemesta, vaikka muuten Väyrynen olisi ollut parempi jos olisi ollut pelissä jopa toisena, häviävänä vaihtoehtona.")
(Jos todennäköisyys otettaisiin pois kuvasta, matemaattisen osittaisjärjestyksen ehdot taitaisivat riittää. Näin libertaarin lähtökohdista nämä ehdot tulevat muutenkin hyvin lähelle Arrow'n sekä Gibbard-Satterthwaiten teoreemoja sosiaalisessa valinnassa sekä jopa vaalitavoissa.)

Noilla ehdoilla valinnoista saadaan johdettua preferenssijärjestyksiä, sekä päin vastoin, ja niitä voidaan manipuloida siitä eteenpäin teoreettisesti miten halutaan. Tämä teoria sisältää myös kaiken sen mitä aiemmin Esihistoriassa totesin: myös sellaiset (deterministiset) hyötyfunktiot (kuten yksinkertaisimmin logaritminen, yleisimmin käytetty) jotka ratkaisevat tuon Bernoullin paradoksin täyttävät nämä ehdot koska ne ovat konvekseja, funktioina. Lisäksi nämä ehdot voivat täyttyä täysimääräisesti silloinkin, kun todennäköisyys on läsnä, additiivisena rakenteena.

Monia mysteerejä jää tässäkin jäljelle, koska vaikka hyötyfunktio olisi täysin lineaarinen, ja todennäköisyyskaavat olisivat sitä myös, kaikki ongelmat eivät silti olisi täysin ratkaistavissa, varsinkaan suljetussa muodossa. Ratkaisuavaruuden konveksisuus seuraa vasta kun hyötyfunktio on jotakin sellaista konveksia joka on selvästi lineaarisen alapuolella, ja tuo konveksisuus on tosi iso juttu paitsi numeerisissa ratkaisuissa, myös analyyttisissa, suljetuissa ratkaisutavoissa. Eikä edes se aina riitä; joskus tarvitaan sitä tiukkaa logaritmisuuttakin, tai pahimmillaan jopa jotakin vielä paljon rajoittavampaa.

Mitenhän tällaisesta siis sitten päästäisiin eteenpäin?

Nollasummapeli

von Neumann (ja toissijaisena Morgenstern) ratkaisivat ongelman alunperin niin, että he näyttivät kaikilla diskreeteillä peleillä olevan tietyn lopullisen summautiliteetin, nojaten tuohon utiliteettiteoreemaan. Tuon todistuksen hienoin piirre oli, että he näyttivät pelin kokonaisutiliteetin olevan olemassa kaikille järkeville hyötyfunktioille, kunhan kunkin yksittäisen siirron hyöty vain tiedetään, jopa silloin kun toisen pelaajan vastaus otetaan huomioon. Ja oma paras vastaus siihen otetaan huomioon. Ja vastapelurin paras siihen, ad infinitum. Toisin sanoen, tuo oli ensimmäinen aidosti peliteoreettinen analyysi, jossa myös vastustajan käyttäytyminen otettiin huomioon, ja oma, ja toisen, ja...loputtomiin.

Moinen rekursio ylitti sen mitä aiemmin sanoin Cournot'n analyysista, joka oli vain kaksivaiheinen. Se sitten määritteli peliteorian: "matematiikan ja/tai taloustieteen haara jossa mietitään myös loppuun asti mitä vastustaja ehkä voisi tehdä, kenties vaihtuvien oletusten alla siitä mitä tuo kaikki tekeminenja miettiminen tismalleen tarkoittaa; mutta joka tapauksessa mietitään omat siirrot hamaan loppuun asti suhteessa toisen samanlaiseen miettimiseen."

Tähän todistukseen kuitenkin vaadittiin tietty raskas lisäoletus: kaikki utiliteetti jota yksi pelaaja keräsi, piti olla toiselta/muilta pois yhtäläisesti. Tätä kutsutaan nollasummapeliksi tai -oletukseksi. Se pätee useimmissa lautapeleissä kun asiaa katsotaan hieman tarkemmin: jokuhan kuitenkin häviää tai voittaa, joten lopullinen utiliteetti pelistä voidaan ilmaista aina luvuissa -1 ja +1. Toinen saa yhden plussan, toinen yhden miinuksen, ja niiden summa on sitten nolla.

Ristinollassa näin on taatusti, shakissa hiukka so-so koska tasapelimahdollisuus (mutta kuitenkin koska se voidaan laskea silloinkin 0-0), ja jopa Go:ssa sama. Tuollaiset "nollasummapelit" olivat yhtäkkiä, hyvin yllättäen, todistettavissa tietyissä suhteissaan suuntaan ja toiseenkin, tämän aikaisen peliteoreettisen raaminsa tähden.

Eka todistus oli muistaakseni se, että taannehtiva induktio ("backward induction") takuuvarmasti ratkaisee tuollaisen pelin sen jälkeen kun pelipuu (eli kaikkien laillisten siirtosarjojen kokonaisuus; se on toki isompi kuin atomien määrä universumissa jo shakissakin) on ensin todistettu kokonaisuudessaan äärelliseksi. Silloin vain lähdetään taaksepäin siitä miten peli kussakin haarassaan loppui, ja vältetään kussakin puun haarassa tyhmiä valintoja.

Tuosta tuli sitten minimax-teoreema: jos tiedät kaikki myöhemmät tilat mitä tietystä pelilaudan tilasta voisi seurata aina pelin loppuun asti, voit katsoa lopputilasta takaisinpäin, jolloin nykyisen tilanteesi arvo on nollasummaisessa pelissä aina joko voitto (+1) tai tappio (-1) tai tasapeli (0), sen mukaan mikä paras lopputulos siirron alla on. Koska vastustajasikin voi katsoa samalla tavalla eteenpäin, ja voidaan olettaa että vastustajasikin on rationaalinen, kova pelaaja, pitää olettaa että hän myös pelaa optimaalisesti eteenpäin nykytilanteesta, tietäen mitä siitä voi seurata. Se hieno todistus tässä raamissa on, että kullakin pelaajalla on optimistrategiansa jokaisessa pelin vaiheessa suhteessa toisen optimistrategiaan. Kummankin paras valinta on sitten laskettavissa miniminä maksimaalisesta häviöstä pelipuun nykyisessä haarassa nykyiselle pelaajalle (vrt. taloustieteen vaihtoehtoiskustannus), kun kummatkin pelaavat tällä tavalla täydellisesti ajatellen.

Tällainen ehkä kuulostaa triviaalilta, mutta siitä seuraa melko helposti "konventionaalisen tekoälyn" perusratkaisu lautapeleille kuten shakille. Se käyttää ns. alpha–beta-karsintaa, joka arvioi heuristiikkoja käyttäen kunkin pelitilanteen arvoa (eli mitä uskoo sen olevan heuristiikan nojalla suhteessa tuohon oikeaan +1,-1,0 -todelliseen arvoon). Se soveltaa tuota arviota kuhunkin nykyasemasta lähtevään pelipuun solmuun, eli siis kaikkiin tilanteisiin jotka ovat saavutettavissa vaikkapa neljällä vuorolla eteenpäin shakissa. Se kuitenkin etsii pelipuuta niin, että jos jokin siirto jo tiedetään paremmaksi kuin toinen aikaisemman haun perusteella, huonommat haarat jätetään tutkimatta jo juuressaan. (Alpha–beta -nimi tulee muuttujista jotka sisältävät oman suurimman ja vastustajan pienimmän häviön, jotka ovat tuon karsinnan äärirajat.)

Jos alpha–betalla on käytössään täydellinen tieto pelitilanteen arvosta, se tuottaa saman lopputuloksen kuin minimax-algoritmi. Jos sillä on käytössään vain konveksi arvio kunkin pelitilanteen arvosta, voidaan edelleen näyttää että se on tietyssä mielessä optimaalisen tehokas suhteessa pelin aukilasketun alapuun kokoon (ts. se toteuttaa A*-haun tällaisessa rajoitetussa pelipuussa).

Jopa Deep Blue lienee käyttänyt tätä heuristiikkaa kun se vihdoin hakkasi ensimmäisen Suurmestarinsa, shakissa.

Ruma mieli

Tuo logiikka ei kuitenkaan toimi peleissä, joissa nollasummaperiaate ei toteudu. Muistelisin myös, että Cournot'n alkuperäinen analyysi joka ei luottanut minimax-analyysiin tiedettiin epämääräisesti jo tässä vaiheessa tai hieman sen jälkeen. Mutta sitä ei käsitelty eteenpäin kovinkaan paljon, koska se oli erityistapaus, ja suoraan sanoen hieman omituinen. Eritoten kun siitä sitten myöhemmin (Bertrand, 1883; Stackelberg 1934) vielä löydettiin nekin hulluudet, että jos tuo peli formuloidaan hinnoilla määrien asemesta, se toimii eri tavalla, sekä se että jos se ei olekaan täysin yhtäaikaisten siirtojen peli, se jälleen menee aivan uuteen tasapainoon. Ilmankos kukaan ei oikein halunnut koskea siihen ennen kuin analyyttinen kykymme kehittyi pidemmälle.

Mutta se kyllä oli jo selvä että minimax-periaate ei ratkaissut tuota ongelmaa. Yhtäkkiä aika moni tajusi, että siirto pelissä joka on sinulta pois, ei välttämättä ole plussaa muille. Cournot'n tunteville ainakin tuo oli ilmiselvää: nollasummaoletus joka antoi kantaa pelin tietyn aseman arvon ylöspäin pelipuussa menee tuolloin täysin rikki, koska niin Cournot'ssa, Bertrandissa kuin Stackelbergissäkin yhden pelaajan tekemät valinnat vaikuttavat toisen näkemään odotettuun arvoon. Silloin, paitsi että pelipuun lehdistä voi alkaa kuplia ylöspäin arvoja joita ei voi esittää vain plus-miinus-ykkösinä-tai-nollina, koko minimax-algoritmin ja siten sitä arvioivan alfa–betan logiikka menee rikki, kun yhtäkkiä pelipuun alemmat haarat voivatkin heitellä arvostuksia mielivaltaisesti positiiviselle ja negatiiviselle puolelle, sen sijaan että perättäisten solmujen arvot vain summautuisivat nollaan. Tuossa tilanteessa käy aika sama juttu kuin siinä, jos Dijkstran algoritmi kohtaisi negatiivisen painon: taaksepäininduktioon, eli siis minimaxiin, nojaava todistus yhtäkkiä vain räjähtää käsiin.

Eli nyt ollaan vihdoin historiallisesti tilanteessa, jossa Cournot'n ongelmasta ja sen johdannaisista tiedetään jo että jopa kahden askeleen täydellisen yleinen, ei-nollasummaisten pelipuiden ongelma on ratkaistavissa. Nollasummaisetkin pelit ratkesivat jo täydellisesti, siinä mielessä kuin matemaatikot nyt ylipäänsä ratkaisevat mitään. Jolloin tässä tilanteessa, jos satut olemaan matemaatikko ja löydät kirjallisuudesta nämä kaksi erillistä faktaa, ne ärsyttävät välittömästi, pahasti, ja kestävästi; tämä on sen tason kamaa että "sun todellisuudessa on yhtäkkiä hankaava särö".

Yleisesti uskottaneen, että Nash lähti likimain tästä lähtökohdasta: tuo kuva näyttää kovasti siltä että jossain siellä rivien välissä on yleinen ratkaisu yleisille ei-nollasummaisille peleille myös. Se pitää vain löytää.

Kaunis mieli

Sitä miten John Forbes Nash päätyi teoreemaansa ei ole dokumentoitu erityisen hyvin. Mutta sen olennainen sisältö on silti seuraava:
  1. Äärellisellä määrällä pelaajia,
  2. joilla kullakin on mielivaltainen von Neumann–Morgeinstein -tyypin hyötyfunktio, 
  3. erityisesti niin että noppaa saa heittää vapaasti kaikkien siirtojen välillä jos se on paras vaste toisen pelaajan vastaavan hyötyfunktion suhteen,
  4. joista pelaajista kukin tietää toisten hyötyfunktiot, ja
  5. joista kukin tietää pelin kaikki säännöt sekä rajoitteet,
heillä kaikilla erikseen on vaste/siirto toistensa suhteen samaan aikaan, joka ei voi yksipuolisesti parantaa pelaajan tilannetta. Kenties noita vasteiden/siirtojen yhdistelmiä voi olla useampiakin, mutta vähintäänkin yksi, jopa tilanteessa jossa peli jatkuu ikuisesti ja osanottajia on mikä vain äärellinen määrä.

Jo noista ehdoista näkyy teoreeman historia. Se lähtee tismalleen samoista matemaattisista ehdoista kuin von Neumannin ja Morgensternin teoreema. Se eroaa vain siinä että todistuksessa heitetään yllämainittu nollasummaoletus mäkeen.

Nashin teoreema ei siis ole erityisen ihmeellinen siinä että se antaisi tuolle jo aiemmin peliteoriassa määritellylle ongelmalle uutta rakennetta tai konkreettisia ratkaisutapoja. Se on vain samantyyppinen todistus tasapainon olemassaololle kuin aiempi nollasummatodistuskin, mutta ulottuu nyt vain uudenlaisiin peleihin.

Mutta vähintäänkin yhden aivan uudenlaisen ajatuksen se tuottaa samantien: pelissä voi olla useampia erillisiä tasapainoja, eikä vain yksi, kuten klassisessa taloustieteessä oli, tai vNM-tyypin nollasummapeleissä. Tuo on ehkä briljantein sekä hedelmällisin huomio siitä mitä positiivisummaisuus voi tehdä pelille suhteessa nollasummaisuuteen: sen tasapaino ei enää ole uniikki. (Myöhemmin tuli myös osoitetuksi, että useampikin erilainen, monikäsitteinen Nash-tasapaino lähestyy klassisen taloustieteen yksikäsitteistä tasapainoa, useamminkin eri oletuksin). Moinen monitasapaino jo sinänsä mallintaa paljon paremmin sosiaalitieteiden normaalia asetelmaa kuin yksi optimaalinen, klassinen tasapaino, mikä ennustelee teoreeman myöhempiä, laajempia sovelluksia.

Samalla Nashin teoreema on matemaattisesti melko briljantti. Siinä missä von Neumannin ja Morgernsternin todistus käytti hyväkseen Brouwerin jo-klassista kiintopistelausetta, Nashin vastaava pohjautui silloin vielä varsin uudelle ja eksoottiselle Kakutanin kiintopistelauseelle. Nashin versiossa itsestäni kiintoisinta on se, kuinka se käyttää [0,1]-todennäköisyysjanaa täydentämään muuten diskreetin avaruuden niin, että jatkuva kiintopistelause menee läpi. Epäilen, että tuo on matemaattisesti teorian nättixein sisältö; kaunis sovellus muuten lähes-tuntemattomasta kiintopistelauseesta.

Tällä sovelluksella on jopa ollut se hassu seuraamus, että Kakutani levisi taloustieteeseen yleensä, jolloin se nykyään pulpahtaa pinnalle miltei joka paikassa missä ylipäänsä käsitellään todennäköisyyttä tai moniarvosuureita.


Matematiikan taso

Nashin tasapainoteoreema on leimallisen matemaattinen tulos, joten ehkäpä pitäisi sanoa pari sanaa siitä kuinka matemaattisesti hankala se on. Eli, uskoakseni se ei ole. Se ei edes aikansa matematiikkaan nähden ole kova, matematiikkaa tieteenä edistävä tulos, vaan hyvin selvästi vain odottamaton sovellus siitä mitä jo tiedettiin. Vaikka Nash on muiden tuloksiensa valossa suorastaan hämmästyttävänkin kova matemaatikko, tämä nimenomainen oivallus ei tuon tieteen mittarilla puhuen ole lähelläkään hänen kovimpia tuloksiaan. Niin tunnetuin kuin hyödyllisin ehkä onkin.

Matemaattista teoreemaahan kun pitäisi aina arvioida niin ex ante kuin ex post, erikseen. Ex post Nashin teoreema on suhteellisen simppeli, kuten kaikki hyvät teoreemat ovat. Se on lähestulkoon ilmiselvä kun sen kerran tajuaa: seuraa kivasti kiintopistelauseesta, ja sillä on vielä kiva tulkintakin. Ja katos, se valaisee vielä vähän sitäkin miten suoria tuloja simppelien topologisten (todennäköisyys-) avaruuksienkin kanssa voi käyttää.

Ex ante, vain Nash, nobelisti- ja Fields-mitalikumppaneineen, tietävät mitä vittua matemaatikon päässä vinksahti että tuommoinen tulos yhtäkkiä tuli olemaan, ja mitä sellaiseen vaaditaan. Mutta kuten yllä olen jo hahmotellut, tämä tulos ei suorastaan ollut ennakoimaton, eikä se oikeastaan viittaa mihinkään uusiin tuloksiin itsensä lisäksi. Silloin se ei matematiikan puolesta ole erityisen merkittävä, kantava teoreema.

Mitä tämä siis oikeasti tarkoittaa

Hassuin puoli Nashin teoreemassa on se, ettei se oikeastaan sinänsä meinaa mitään sosiaalitieteiden, ml. taloustieteen, analyysille. Sehän kertoo vain, että tietyn tyylisessä matemaattisessa analyysissa on olemassa ainakin yksi tasapaino. Se ei mitenkään selvästi auta löytämään tuota tasapainoa, eikä se todellakaan auta erottamaan niitä monia tasapainoja toisistaan jotka se myös ennustaa, käyttäessään Kakutania eikä vain Brouweria. Tahi takaamaan niiden vakautta missään mielessä.

Samalla se on kuitenkin erittäin merkittävä talousteoreema siksi, että se kertoo siitä riippumattomien ratkaisutapojen lopulta päätyvän ainakin yhteen vakaaseen ratkaisuun. Kun opit ratkaisutavat, Nashin lause takaa vihdoin että ne myös toimivat. Hänen todistuksensa on myös antanut paljon vinkkejä siihen miten ratkaista yksittäisiä ongelmia ja todistaa että ne on tosiaan ratkaistu loppuun. Vangin dilemma lienee tärkein sellainen, ja heti perässä likipitäen duaalinen Schelling-pisteiden/koordinaatiopelien ongelma; ehkä kaksi tärkeintä ääripäätä sillä jatkumolla jolla Nash-tasapainot voivat olla jotakin muuta kuin nollasummaisia ja/tai ihan vain voittoisia/triviaaleja. Ilman Nashin todistusta noita tuskin olisi pystytty näyttämään formaalisti toteen, vaikka sinänsä ne ehkä olisikin pystytty jotenkin käsittämään.

Yhtenä hassuna esimerkkinä Nash-tasapainosta pitäisi varmaan ottaa vielä esille kahden ihmisen välinen jatkuva neuvottelupelikin. Sitä kuvattiin aikanaan ns. Edgeworth boxilla. Mutta nykyään sekin on osa simppeliä, jatkuvaa peliteoriaa, ja on tuon Nashin, positiivisummaiseen neuvotteluun sekä satunnaisuuteen ylettyvän teoreeman kautta yleistettävissä hullunlaillla. Eli yksi hieno juttu siinä Nashissa on sekin, että se yhtenäistää niin monen tällaisen klassisen taloudellisen ongelman kuvauksen saman katon alle.

Teoreeman ongelmat ja laajennokset
 
Nashin teoreema ei siis oikeastaan auta ratkaisemaan taloustieteen tai läheisten sosiaalitieteiden ongelmia kuin välillisesti, jos sitenkään. Se kertoo vain että tiettyjä tasapainoja voi olla olemassa, tietyin oletuksin. Sen oletus on aivan tietynlainen "lyhytnäköinen sosiopatia" kunkin pelaajan puolelta. Sittemmin tuota oletusta on myös kritikoitu vahvasti, ja eritoten ekstensiivisen muodon peleihin on kehitetty vaihtoehtoisia lähtöoletuksia jotka johtavat varsin erilaisiin ratkaisuihin. Nämä kulkevat nimellä "solution concept".

Suurin osa niistä on tarkennuksia ("refinement") Nash-tasapainoon ekstensiivisessä pelipuussa, joskin osa niistä mennee myös nykyään täysin ohi Nash-tasapainon. Tuo käsite ei siis enää ole edes ainoa epäkooperatiivisen peliteorian lähtökohta; Nashin jälkeenkin on tullut paljon kovaa tutkimusta. Niinpä hän ei "tyhjentänyt pelipöytää", vaan enemmänkin avasi sen.

Ensimmäisestä, peliteorian sisällä pitäytyvästä lajista hyvä esimerkki olisi subgame perfection, jonka itse asiassa esittelin jo aiemmin, puolihuomaamatta, nollasummapelin minimax-analyysin ja takaperoisen induktion jatkeena: siinä kaikki tuleva peli on jopa niin rationaalista, että bluffeja ei sallita kuin kolikonheitolla; Nash-tasapaino voisi oikeastaan sallia paljon tyhmempääkin menoa.

Jälkimmäisestä, peliteorian perusolettamuksia koettelevasta kritiikistä tosiaan en löytänyt vielä tiukkaa esimerkkiä, joskin luulen että sellainen olisi esitettävissä jostakin yksityistä tietoa ja kahnemanilaista lottoteoriaa hyväksikäyttävästä pelistä, sitten. Tyyliin nimenomaan sellaisesta häijystä luottamus- ja signalointipelistä parisuhteessa joka alunperinkin sai minut lähtemään tähän kirjoitukseen.

Mutta joka tapauksessa, edes tuo kritiikki ei olisi voinut tulla olemaan ilman että Nash kertoi tismalleen mitä taloustieteen, peliteorian ja päätösteoriankin jaetuista perusolettamuksista seuraa, pienissä joukoissa. Niin matemaattisesti vähäpuheinen kuin hänen teoreemansa onkaan, taloustieteellisesti se on silti ollut äärimmäisen vaikuttava ja hyödyllinen. Ehkei niinkään käytännössä, mutta teoriassa kylläkin.

Post Scriptum: mitä vikaa Kauniissa mielessä

Aivan näin viimein pitäisi kait selittää, miksi elokuvan Kaunis mieli (A Beautiful Mind) kuvaus Nashin tasapainolauseesta sitten on niin väärin. Kuten sanottu, sehän peliteoriasta yleisimmin tunnetaan, ja väitin jo että se on puppua.

Elokuvassa Nashin roolihahmon (Russell Crowe) olennainen selitys menee näin: "If we all go for the blonde, we block each other. Not a single one of us is gonna get her. So then we go for her friends. But they will all give us the cold shoulder because nobody likes to be second choice. But what if nobody goes for the blonde? We don't get in each other's way. And we don't insult the other girls. It's the only way we win. That's the only way we all get laid."

Ensinkin, tuo logiikka menee pieleen siinä, että se käyttää hyväkseen uudempaa, behavioraalista peliteoriaa, jota Nash ei tuntenut. Hänen lauseensahan vasta aloitti modernin peliteorian, ja tuotti siihen sen kiinnostuksen joka sai uudemmat tutkijat kokeilemaan vihaan, kateuteen, mustasukkaisuuteen ynnä muihin liittyviä behavioraalisia hypoteeseja—haasteena aiemmalle, simppelimmälle Homo Economicus -oletukselle—joihin tässä dialogissa silti nojataan.

Ja toisekseen, ehkä brutaalimmin vielä, vaikka vain oletettaisiin "tytöt" koneiksi jotka siirtävät tällaisten tunteista abstrahoitujen siirtojen mukaan noin vain... Tässä analyysissa silti jätettiin täysin huomiotta se miten nuo "tytöt" pelaisivat, "poikien" suhteen, miten pojat tyttöjen suhteen takaisin, mitä odotuksia kummallakin puolella olisi, samaan aikaan, ja siis mihin odotustasapainoon tuossa pelissä päädyttäisiin, kaikkien tuntien kaikki pelin säännöt samaan aikaan...

Kuten yllä jo totesin, tuo loputon rekursio ja siitä seuraava yhteisriippuvuus on se joka määritti koko peliteorian alunperinkin, alana. Jos se unohdetaan, edes von Neumannin ja Morgernsternin minimax-tulos ei seuraa. Vielä vähemmän Nash, joka puheenaiheena oli. Eli jos tuo analyysi jätetään noin ohueksi ja se rekursio/induktio jätetään kuvasta, kyse ei enää ylipäänsä ole peliteoriasta.

Moisen kuvauksen paneminen Nashin suuhun, kuitenkin taloudellisesti epätriviaalin teoreeman todistajana, on...epämiellyttävän epätarkkaa hollywoodia.

2012-01-20

Direct bioinvestment vs. governance via incentive?

For the most part I've thought that if carbon dioxide emissions—which we undoubtedly cause, with them in case causing anthopogenic global warming—are a problem, we should primarily seek ways in which to limit the resulting harm. Not to micromanage the economy in how to solve the problem, but to price the external harm into the productive processes, and then let the private economy do its usual optimizing job.

Basically, I advocate a proportional, global, Pigovian effluent fee on CO2 emission. Within that framework, we try to gauge the societal, discounted net harm from the effluent, with the harm being counted over everybody on the planet and the benefit already going to the producers and their clients alone. That usually leads to what you might call "an ecological deficit", which is then priced back into production costs via an effluent fee, based on the best, floating estimate of the external harm caused by such pollution.

Theoretically that is the optimal way to incentivize people to limit their CO2 emissions, while at the same time permitting any and all emissions which are societally beneficial in net. In this case even the Coasean critique of Pigou's reasoning isn't too relevant: there is absolutely no way the whole global community could ever come to an efficient bargain over the price. So it has to be set externally, and enforced by force.

In true economic equilibrium it could be true that capping emissions and permitting trade in them would be equivalent to an emission fee, at the margin. That is what we do now, and it's a vast improvement on what happened before. But I still believe it's inferior to an emission fee, for at least two separate reasons.

First, equity. If you cap and trade, you have to decide who gets the initial rights to pollute, which are to be traded. That leads to a distributional problem and an incentive for corruption, because somebody gets to grant free passes to pollute to some interests, while others then have to pay for the right to pollute by bying the pass from them. While at the margin that probably leads to economic efficiency overall, individual actors aren't going to be too happy about the first getter being granted a free pass/windfall, especially since all of this happens at a global level, with developing countries getting far fewer passes than e.g. us here in Finland.

And perhaps more significantly, even the equivalence between cap'n'trade only works on the margin, not wholesale: once you make a small Chinese iron mill pay for their emissions, it's no more a matter of margins, but of total, inframarginal utility as well. They could go to the red, simply by virtue of having to pay the *absolute* base investment in another's windfall, instead of just the relative, marginal extra price which comes with polluting some. Unsurprisingly they will then oppose the idea doubly compared to what happens here and now.

Second, incentive compatibility at the international level. In equilibrium the marginal costs, and so incentives, would be the same all over, and efficient. But if they lead to sustained income transfers between separate countries, sooner or later one country or another is going to detract from any and all treaties causing that. Even if it's reasonable from the global viewpoint that everybody be taxed for their effluent, it's not too stable if that money flows over national borders.

In this case it doesn't have to. If you look at the basic logic of Pigovian taxes on externalities, they are notably one-sided: the whole incentive effect comes from the tax and doesn't depend upon how the resulting tax income is shared, at all. That same thing is why socialism disconnects people's incentives from the real economy and leads to ruin. But here it leads to another, interesting possibility which is only doable with effluent feeds and not with cap'n'trade:

Why not make the primary tool of climate policy a local Pigovian tax on the effluent? It's after all asymmetric in that you can theoretically reach efficiency while not compensating the victim; the distribution of the proceeds is a one of local income transfer, with nobody getting a windfall apart from what has been decided on the political front. The tax revenue being used for whatever means the national and/or more local governments want. As long as the rate is globally uniform, it will lead to global efficiency, with the resulting income transfers staying local. That ought to make global compliance to a minimum level effluent fees much easier to achieve, oughtn't it?

The first point which elicited this blogpost of mine was a bit different, though. It was diametrically opposed to what I've said above. Namely, it came from the idea that perhaps this idealized economic viewpoint doesn't work too fully either, after all. It then goes to the territory of social and public choice, which us libertarians tend to think about more than most.

So, presume you want to build this sort of a system. Who'd be willing to go along with it over the long haul, within our kind of a polical system? Pretty much nobody of any import. Even if this sort of thing could be pushed through, using heavy public pressure, in one single election, the conviction, the publicity and all of the other things which could carry it along would have waned come next election. Then the policy would be summarily overturned. That is the nature of societal/public choice, after all.

The only way to counteract that tendency is to do something irreversible right now. If the money is already spent, it may have caused some good which can't be reversed. Public investments into bioenergy and the like work like that. Espousal of long term political goals like global effluent fees, don't. So even from my libertarian viewpoint, I'm suddenly not so sure the idealistic, fully efficient effluent fee based policy I've been behind really is the way to go in the end.

2012-01-18

The other task of science

A number of years ago I used to have long, winding discussions about political philosophy, ethics, science and what not with Mikko Särelä. Some of the most influential ones to me concerned the nature of science, the scientific method, and by extension the role of rules in civilized discussion, the role of professional ethics in getting things done, and so on. Now that I've freshly had to apply those ideas to yet another piece of utter humbug, I thought I'd jot down the primary lesson I learnt about science then. It's also something I haven't seen written down concisely yet, and which might explain why I nowadays see no real schism between the so called hard, physical sciences on the one hand, and the soft, humanistic ones on the other.

Since I'm a mathematician-wannabe, the easiest example of the principle comes from that area. Mathematicians are after logical truth which follows from simple, formal presumptions. They want to prove certain things beyond any doubt, like the fact that if you cut out the corners of a triangle and place them side by side, what you always end up with is a straight line. "Given the axioms of Euclidean geometry, the sum of angles of any triangle will be 180 degrees."

But then, there are tons and tons of mathematical truths like that, and today you can even churn them out mechanically if you want to. The vast majority of them immediately seem dull and uninteresting. For example, it is a mathematical truth that there is a follower to the integer we call "9", another one is that in base ten we can systematically denote them all, with the follower then being called "10". That transition from single digits to double digits is rather interesting—and something I've used to instill the idea of number bases in small kids more than one time; they get binary and ternary in under ten minutes that way—but after that's done, the difference between 1999 and 2000 is pretty much a done deal. It ceases to be interesting somehow. Why is that?

The reason is generalization. Once we perceive the pattern inherent in enumeration in various number bases, we don't have to worry about the specifics anymore. What we need to know about the subject is already mostly covered, by means of applying a higher level abstraction. In this case mathematicians call that "induction".

My insight is then about what enables this kind of "productive laziness" (Linus Torvalds's words) in the first place. Because it isn't a given; not by a long shot. What enables it is that you're relying on a very carefully vetted set of concepts to bootstrap your intuition. Historically, not everybody had access to that, but many instead relied on haphazard, irregular notions of what numbers and their notation were.

Take for example the Roman numerals. Starting with them you'd be hard pressed to teach someone binary, because they behave in a fundamentally different and less organized fashion. It's much more difficult to show the analogy between going from III to IV to V, vis-à-vis 11 to 100 to 101, than to show how the carry mechanics of adding one work from 9 to 10, vis-à-vis adding one to 11 to get 100. Roman numerals simply aren't as organized or prone to generalizing thought as the Arabic ones have proven to be.

The history of mathematics is full of examples like this one: knowing some result for sure, even if it's as simple as to know what adding one to an integer leads to, isn't enough. It also matters how you structure your notation, and especially which concepts you structure your underlying thought upon. The Arabic derived place notation is a vast improvement upon the irregularities of the Mayan, Roman and other not so structured ones, and so won. Not because you couldn't do the same things with either, but because the different, more organized viewpoint brings a certain economy to your thinking which you would otherwise lack.

That neat, useful pivot for better, more economical thinking is not then a happenstance. It's a result of serious, long-term, scientific thought, reaching over tens of generations of cultural evolution. A process which tries not just to derive truths, but truths which have been packaged in an humanly consumable and easily applicable form. I seem to remember the fight claimed its casualties as well.

That is then the second, large task of science: to make increasing amounts of interconnected knowledge palatable and easily reapplied. It's why mathematicians try out alternative proofs, instead of being content with just knowing what will prove to be true. It's why physicists assign names like "quark" to something that is essentially a stable, more or less  localized excitation in a much more difficult to understand quantum field theory. It's also why social scientists have to "formalize" and "operationalize" their findings, naming them and developing a story to explain their relevance to others. In essence, all of it is about choosing certain maximally humanly understandable base concepts and analogies into which to anchor/reduce much more variegated phenomena; a compression of knowledge against the nasty statistical-computational model which is the human consciousness. Partially societal-collective as well, since no scientist is an island either.

That is then, in my mind at least, also why the rules and etiquette of rational thought and scientific discussion are so full of seemingly banal rules of thumb, in addition to the simplistic empiricist protocol. While we do need protocols to shield us from wishful thinking and the like regarding the physical reality ("no, particles aren't truly minuscule ping-pong balls at the quantum level"), there's always the second, markedly human task of science which is to organize the knowledge, all knowledge, that we have into something both experts and laymen alike can use.

In nonempirical sciences like math or history, that Second Task then necessarily takes the forefront, ahead of teasing out unintuitive facts from Mother Nature. And that task is just as important, even if it doesn't go quite as closely in hand with human-unrelated physical truths as it does in the natural sciences. So whereas Rutherford said: "All science is either physics or stamp collecting", I'd rather claim physics too, at its best, is half the latter. And the better for it then.

Finally, the same goes for thought overall. Such basically scientific prepercepts as this one are fully applicable at every level and to everyone. I'm no scientist, but I continue to benefit over and over from the lessons I've learnt from the doers in the field. Some historical figures, some friends of mine, but still. It's not just that science has its markedly human side; it's also that good, useful, human thought too possesses its markedly scientific side.

Automaatti vs. käsi

Minua nyt hieman häirii se, että automaattivaihteisten autojen sanotaan olevan bensasyöppöjä, ja toisaalta myös se että käsivaihteisten urheilullisia. Miksei ole mahdollista että otettaisiin molemmista parhaimmat puolet, ja sitten vain ajettaisiin joko sporttisesti tai "ekonomisesti" (vanhempi sana kait viheriäisyydelle?).

Ensinkin, jos se kytkin ja tavallinen vaihteisto on niin helkkarin hyvä sporttisuuteen, pannaan semmonen autoon. Ei suorakytkentänä, vaan elektromekaanisena fly-by-wirena. Annetaan ajajalle joystick kuten hävittäjälentäjälle, antaen koneen nykiä niitä kytkimiä ja vaihdepyöriä. Koska kone hoitaa tommosia paremmin ja sporttisemmin; sen takia ne kielsi täysautomaatin F1:ssä. Ja pannaan vaikka sille tosimiehelle sitten takaisinsyöttävä elektromekaaninen vipu käteen, jos se haluaa että kourassa jöpöttää; ihan taatusti tykkäisi parhaasta sellaisesta enemmän kuin siitä mitä on nyt, ja taatusti ajaisi automaationsa kanssa paremmin kuin useimmat ralliajajat.

Se ei muka ole cool? Oi, kyllä se on, ja vitun cool batmobile vielä lisäksi. Menee lujaa ja tuntuu hyvältä kädessä.

Se toinen puoli sitten on, että tuolla keinolla saadaan ne energiasyöpöt automaattinestekytkimet, varidrivet ynnä muut kokonaan pois pelistä. Sillä saadaan tuettua energiatehokkuutta eikä vain urheilullisuutta. Se miten ihmiset toteuttavat hankalaa ajotapaansa saadaan minimoitua teknologisesti, ja tuotettua parhaat kiihtyvyydet sekä energiansiirtosuhteet, samaan aikaan. Yhtäkkiä vihertietoisella perheenisälläkin jöpöttää kädessä, eikä vain kädessä, eikä vain omalla penkillä.

Eli tottahan ajotyylejä voi olla erilaisia—ekana ero alfamiespullistelun ja perheenisän välillä varmastikin. Vaan kun mitä tiedän, ne ovat saatavissa esille samasta autosta suhteellisen helposti, ilman että kukaan edes huomaa sitä. Ja niin että urheilija voi ajaa eettisesti hippityttönsä himaan, samalla kun perheenisä voi näyttää vaihteeksi vaimolleen olevansa myös tosimies. Turvallisesti, koska nörttitekniikka autoteollisuudessa.

Kamoon, nörttikaverini, miten siis ois auto, jossa automaattina on kaksi poljinta, sitten se kiihtyy kuin formula jos kiihdytät, toisaalta kuluttaa kuin perheauto jos et kiihdytä, kertoo aina sulle kiltisti ja hiljaa mitä olet tekemässä paitsi ajoturvallisuuden myös ympäristön kannalta, pysähtyy ennen kuin törmäät mihinkään, rajoittaa kiihtyvyyttä jos tytön tukka on menossa sekaisin, ja, eritoten, sen punavihreän hippipanetuksen kyydissäolleen vähän löysää sun kaasua ja avaa kaasutinta jotta se on just silloin myös typen oksidien suhteen vähiten saastuttava auto ikinä.

"Kulta, sun kanssa mä kiihdytän enemmän mutta päästelen vähemmän." ;)

2012-01-04

Tuloerot ja talouskasvu

Yliopistolta tuli vaihteeksi uutta tutkimusta tuloerojen vaikutuksesta talouskasvuun. Mitä nopeasti vilkaisin tuon väikkärin läpi tilastomenetelmiltään se on oikein asiallinen, mutta kärsii ainakin kolmesta ikävästä puutteesta noin teorian puolelta.

Ensinkin, perinteinen ongelma korrelaation ja kausaation välillä. Vaikka tuo analyysitapa onkin sellainen, että sillä on jonkin verran voimaa erottaa ajallisesti kausaation suuntaa tulonjakauman ja kasvun/investointien välillä, en näe kunnollista keskustelua aiheesta ja epäilen että tuo todistusaineisto on heikko. Se että anglo-saksisien maiden tulokset jäävät merkittävyysrajan alle pahentaa epäilyjäni.

Toisekseen, teoreettinen viitekehys tulkitsee säästämisen olevan pois kulutuksesta, ja kulutuksen olevan investointeja ajava tekijä. Lyhyen aikavälin naiivissa keynesiläisyydessä näin on, mutta kaikki mitä itse tiedän viittaa siihen että pidemmällä aikavälillä (jo se sukupolvi joka tässä valitaan) tuo suhde ei päde, koska raha pyrkii kohti neutraalisuutta ja säästöt päätyvät siksi investointikulutukseen, joko suoraan pankin kautta tai viime kädessä deflaation jakamana lyhyen aikavälin ostovoimana rahan arvonmuutoksen kautta.

Ja kolmanneksi, teoreettinen viitekehys postuloi, että kausaatio etenee rikkaissa maissa luottomarkkinoiden epätäydellisyyden ja sen häiritsemän inhimillisen pääoman kasautumisen kautta. Tuota nimenomaista suuretta (proxyna esim. koulutusinvestointien taso) ei kuitenkaan instrumentoida lainkaan. Epäilen, että kun kaikissa rikkaissa maissa on olemassa opintolainojen valtiontakausjärjestelyt ja muita vastaavia järjestelmiä jotka jo korjaavat rajulla kädellä luottomarkkinoiden ongelmia, tuon tuominen mukaan paneeliregressioihin rikkoisi hyvin tehokkaasti annetun kausaaliselityksen. Vaikka tässä on kyse jostain mikä on vain jätetty pois, kyseessä on silti mielestäni brutaalein virhe, koska se jättää postuloidun kausaaliselityksen pitkälti ilmaan, niin ettei sitä ole edes yritetty falsifioida.

Näin pikaisella vilkaisulla, eli ei saa olettaa että tämä olisi viimeinen sana.

2012-01-03

Optiset ideat, wanhat uudet ja huuruissa

Löysimpä taas itteni purkamasta takaraivoani frendille, enkä aivan niin selvässä kunnossa. Samalla kuitenkin parin tuhannestilavuusosan etanolihuuru tuntuisi häirittevän vain sen verran menoa, että muistan yhden vanhimmista valaistusideoistani, ja suorastaan keksin lennossa seuraavan uuswanhankin. Lähtien siitä että ystävälläni on pari pientä koiraa ja silloin tällöin pelottavankin pimeä pihamaa.

Niinpä tuli mieleeni että ehkäpä joku joka ehkä joskus lukee tätäkin blogia voisi olla kiinnostunut siitä miten sedän pää kääntyy mittavammassa iloliemessä. Ei, ei se parasta analyysia tai proosaani ole. Sanoja toistetaan, viime kappaleesta unohtui isot kirjaimet, sivupoluille eksytään joka toisessa lauseessa, ja niin edelleen. Mutta noin pohjimmaisen teknisajatuksen kannalta väittäisin, että ihan täysin ei kuitenkaan ehkä munattu edes tänä iltana:
1) Metamerismi lähtee siitä, että ihmisellä on silmässään vain kolme erillistä päivänäköön toimivaa reseptorisolua. Niin kauan kuin ne ärsyttyvät samassa määrin, ihminen näkee saman valoisuuden, värin, ja ylipäänsä saman asian. Samalla valon aallonpituuksia on kuitenkin rajaton määrä jopa näkyvillä taajuuksilla. Silloin on myös rajaton määrä erilaisia sekoituksia noita allonpituuksia, jotka aiheuttavat saman väri-/valoaistimuksen. Värin suhteen noita erillisiä juttuja kutsutaan keskenään metameeriksiksi; ne ovat eri ärsykkeitä jotka sinänsä näyttävät samalta.

Samalla sitten kaikenlaiset heijastavat, suodattavat yms. yleisemmin valoon puuttuvat jutut ympäristössä vaikuttavat se koko spektriin samaan aikaan, eivätkä vain meidän keskiarvoistettuun, kolmikanavaiseen aistimukseemme. Tuloksena metameerit jotka näyttävät täysin samalta kun katsot suoraan valonlähteeseen voivat näyttää hyvinkin erilaisilta heti kun tiellä silmään on yksikin sirottava pinta. Juuri tämän takia esimerkiksi CSI:ssä käytetään täysin yksitaajuista/monokromaattista laservaloa (tosielämässä kapeakaistaiseksi suodatettua xenonlamppua, mutta silti) kun etsitään kämpästä etsitään tahroja, ja värikontrastia autetaan myös samanaikaisilla värillisillä laseilla.

Okei, siemennesteen etsinnässä käytetään hyväksi hiukka toista periaatetta, so. tarkkarajaista fluoresenssia pikkuveikkojen kohtuuttoman mitokondriomäärän sisältämästä P450-sytokromientsyymiperheen hengitysentsyymistä. Mutta sitä fluoresenssia ei tarvita useimpiin asioihin, koska orgaanisten yhdisteiden molekulaarinen absorptiospektri tuppaa ulottumaan usein näkyville aallonpituuksille ja ihmisen näkö on sikaherkkä niissä rajallisissa kanavissaan, eritoten tarkoituksellisesti muotoiltua valaisun spektriä ja värisuodatinta lisäten, jolloin fluoresoimatonkin kama helposti osuu silmään.

Joka tapauksessa, noita metameereja on loputtomasti. Jos panet enemmän kuin kolme erilaista emitteriä samaan lamppuun, on huomattavasti vaikeampi löytää jo neljä sellaista joista ei saa aikaan isoa määrää erilaisia metameerejä kuin sellaista jotka ovat ekvivalentteja mikä vain kolmen annetun valonlähteen kanssa. Oma ideani sitten on, että pannaampa suorastaan 10-20 kirkasvalo-LED:iä samaan kupuun, jotta voidaan tuottaa vieläkin isompi joukko niitä metameerejä. Nuo LED:it nimittäin ovat tavattoman kapeakaistaisia (eivät ihan laser-tasoa, mutta silti lähempänä yhtä taajuutta kuin edes parasta jatkuvasta jakaumasta suodatettua lähdettä), niitä alkaa olla oikeastaan aika kaikenvärisinä nyt jo, ja ne ovat kamalan kilttejä ohjattavia diginörtille (long story short: niitä kandee ohjata PWM-tyyliin, korkealla ohjaustaajuudella, koska se johtaa helppoon himmennykseen yli koko laidan, ja on virtatehokasta samalla).

Tommonen valonlähde sitten antaa sen yyberoudon mahdollisuuden, että sun lamput on paitsi täysin ohjattavissa värissään ja kirkkaudessaan, ne voi myös näyttää täysin vakailta kun katot niihin suoraan, vaikka niiden tuottama valo pistää kaikki heijastuneet pinnat elämään tosi omituisesti samaan aikaan. Toi tapahtuu niin, että kierretään hitaasti lampusta lähtevää spektriä niin, että se on jatkuvasti metameerinen valitun keskipisteen suhteen, mutta sen kokonaispektri vaihtelee voimakkaasti ja niin hitaasti että silmä näkee sen koko ajan. En ole koskaan nähnyt tuota livenä, mutta mun takaraivo sanoo jo 100% varmuudella että riittävän monella ledillä toi sais kiillotetun puun syytkin elämään kuin wanha-amigaisessa paletinpyörityksessä, samalla kun huoneiston valaistus muuten pysyy vakiona.

Jos siis oikeintoteutettu, how cool would that be? :)

2) Se mun ideaalinen ulkolyhty sitten... Siitä mulla ei ole niin täydellistä kuvaa kun se just vasta tuli mieleen, mutta kaksi pääperiaatetta kyllä: 1) pystyakselin suhteen kiertosymmetrinen linssi joka heittää valon *hyvin* epähomogeenisesti pystytasossa niin että suurin osa menee hallitusti pidemmälle ja pienempi lähemmäs, niin että annetulla valaisimen korkeudella maasta maahan osuva luminous flux on likimain etäisyysriippumaton, ja sitten samalla 2) ajatus jonka lainasin juuri computational photographysta, eli multifocus, so to speak. Tehdään sekundaarisäteilijällä kuten harvalla/paksulla/suttusella lasikuituväliverholla, tai isommalla valonlähteellä, tai vaikkapa lampun lasikuoren taittoindeksivaihteluilla tahi sen sisäpinnan stokastisluontoisella, tiuhalla Fresnell-linssityksellä se, että heittosuuntaan se valonlähde on maksimaalisesti epäfokusoitu.

Nuo ehdot ovat toteutettavissa samaan aikaan, usko tai älä, ja niistä seuraa kaksi yhtä lailla hyödyllistä tekijää samaan aikaan. Ensinkin, sen lyhdyn valo ei näytä siltä että se vaimenee tasaisesti poispäin siitä, vaan siltä että se vain valaisee tietyn alueen sun ympäriltä joka suuntaan, tasaisesti. Ja toisekseen, jos katot suoraan siihen lamppuun jopa siitä valaistusta suunnasta lähtien, se ei häikäise läheskään niin pahasti kuin se voisi, koska kaikki saapuva valo tulee maksimaalisen suurelta alalta lampun sisästä, eikä vain yhdestä fokusoidusta pisteestä. Jolloin toi lyhty voidaan tosiaan valaista erittäinkin kirkkaalla xenon-lampulla, niin että se kantaa vaikka kymmeniä metrejä kerrallaan joka suuntaan, ilman että esim. koira siihen vilkaistessaan automaattisesti sokeutuu. :)

(Kyllä, mä saan matemaattisia ideoita sovittaessani koirujen näkökulman yhteen laskennallisen optiikan kanssa. Tää on sitä mistä oon puhunut "intuition" nimellä. ;)

(tietty ideaalisimmillaan toi vaatis että se lampun kupu ois täysimittaisesti holografisesti kaiverrettu. ei taida tapahtua ihan heti lyhdyissä. silti, tuota ideaalia voidaan arvioida. ehkä onkin jo mitä olen parhaita wanhan ajan kaasulamppuja nähnyt. mutta eipä niihinkään liittyvät optiset patentit koskaan tietääkseni maininneet näitä suunnitteluperiaatteita; etenkään ensimmäistä, jossa se ääreiskenttä juuri sokeuttaisi pikkuset maanelävät jollei sitä lähtökirkkautta hallittaisi tietoisesti jakamalla se suuremmalle alalle... ;)