Avainsana-arkisto: laatu

Laatu ja mittaushavaintojen ”parantaminen”

Näin sydäntalvella on aikaa miettiä laatuasioita, kun lumipeite estää monen maastokohteen mittauksen. Laatu on nyt tapetilla alalla kuin alalla, mistä syystä MIKESin entinen ylijohtaja Timo Hirvi kommentoi myös laadun tilaa Suomessa (HS maksumuuri). Hän kertoi muun muassa Suomen jääneen jumbosijalle ASQ-laatuorganisaation edellisessä kansainvälisessä laatuvertailussa vuonna 2016 ja epäilee ”suomalaisen laadun” olevan pääosin harhaa. Ainakin niissä tapauksissa, jossa hinta on hankinnan määräävin tekijä. Hän toteaa myös: ” Hyvä laatu ei ole itsestäänselvyys. Kysymys on ammattitaidosta, laatuun vaikuttavien asioiden ymmärtämisestä ja moraalista. ”

Meilläkin mittauksen ja koko mittausprosessin laatuasiat ovat säännöllisesti keskusteluissa uusien ja vanhojen tapausten myötä. Nostamme tässä esille muutaman meillä keskustellun aihepiirin, jotka ovat sinänsä vain pieni iso isommassa kokonaisuudessa, mutta toisaalta niitä perusosia, joista isoa kokonaisuutta lähdetään rakentamaan.

1) Runkomittauskeskusteluun liittyen keskustelimme geodesian professori Matti Martikaisen tasoituslaskuluennoista, joilla aikoinaan kävi hyvin selväksi, ettei tasoituslaskennalla paranneta virheitä eli toisin sanoen laskennan pohjana käytettäviä havaintoja. Mittausta tehdessä huonoja havaintoja ei siis parannella tasoittamalla ja virheen suuruus on arvioitava ennen tasoituksen tekemistä. Itse tasoitus on lähinnä tyylittelyä. Jos kokonaisvirhe (epävarmuus) on käyttötarkoitusta ajatellen liian suuri, niin havainnot on mitattava uudestaan. Martikainen taisi korostaa aihetta sen takia, että mittauksen kentältä alkoi korkeakoulullekin valua tietoa tulosten ”parantamisesta”.

2) Maassa tai ilmassa tehtävät mobiililasermittaukset ovat olleet jatkuvan keskustelun kohteemme viime vuosina. Geodesian perussäännöt pätevät hyvin myös laserkeilaushavaintoihin tai oikeastaan jo prosessoinnin alkuvaiheessa tehtävään ajo-/lentolinjan prosessointiin. Jos se ei onnistu mittaustyössä vaaditulla laatutasolla, niin on aivan turhaa yrittää parantaa lopputulosta laserlinjojen mätsäyksellä. Itse asiassa lento-/ajolinjojen mätsäys on tarpeeton toimenpide, jos laitteet ovat kunnolliset ja niitä käytetään oikein. Samoin kuin tasoituslaskennassa, virheanalyysi tehdään ennen mätsäystä, jotta ymmärretään lopputuloksen laatu tarkkuuden osalta eli mätsäys on vain hienosäätöä.

Toisin sanottuna jos aineistoissa on ”paljon mätsättävää”, niin silloin ne on oletettavasti tuotettu huonotasoisilla tai huonosti käytetyillä mittauslaitteilla. Esimerkiksi Rieglin laaduikkaimilla laitteistoilla trajektorien pitää olla maksimissaan vain parin sentin etäisyydellä toisistaan ennen mätsäystä, jos aiotaan saavuttaa moneen suunnittelutehtävään tarvittava mittaustarkkuus. Tällainen lopputulos erityyppisissä olosuhteissa vaatii kuitenkin työn huolellisen suunnittelun ja toteutuksen.

Jos esitellään kuinka hyvin jokin ohjelma murjoo paikalleen kaikki pahastikin harittavat linjat tai parantaa huonojen havaintojen laatua huomattavast, niin tällöin hälytyskellojen pitäisi soida mittauskoulutuksen saaneen ihmisen päässä. Pahasti harhailevatkin linjat voidaan ohjelmallisesti mätsätä yhteen, mutta missä pisteet oikeasti sijaitsevat onkin erinomainen kysymys. Jos laskennassa käytetään kontrollipisteitä, niin niiden virheistä ei myöskään voi päätellä mitään muuta kuin ohjelmankehittäjän taito minimoida virhe kontrollin kohdalla. Mittausaineistojen virheen suuruus arvioidaan siis ennen mätsäystä.

Koska vallitseva uskonkappale kertoo softalla ja tekoälyllä parannettavan kaiken, niin myös mittausalan viimeaikainen ohjelmistokehitys tuntuu keskittyvän aineistojen kaunisteluun oikean laskennan kehittämisen sijaan. Onhan se pistepilvienkin kohdalla ihan selvä asia, että mitä kauniimpi aineisto niin sen parempi se on myös geometriselta tarkkuudeltaan. Paitsi ettei ole.

Robotiikan puolelta tulleita SLAM-tekniikoita (joissa tyypillisesti kaikki eri sensorien tuottamat havainnot prosessoidaan yhdessä prosessissa), koskevat muuten käytännössä aivan samanlaiset periaatteet.

3) Ns. tekoälyalgoritmit mittauksessa. Laatuun liittyen olisi syytä herättää myös keskustelua uusien tekoälyalgoritmien käytöstä kaikenlaisten mittaushavaintojen laskennassa. Käytännössä murskaamme uusilla algoritmeillä vain entistä suurempia aineistoja. Kuten jo muiltakin aloilta tiedetään, niin tässä kehityksen vaiheessa kannattaa tietää aika tarkalleen mitä tekoäly tekee ettei tapahdu kummia. Nykymaailmassa tarvitsee siis muun muassa tietää, millaisilla aineistoilla ja periaatteilla algoritmia on koulutettu. Tätä aihepiiriä on käsitellyt hieman muun muussa Rieglin tuotekehitysjohtaja Andreas Ullrich artikkelissaan ”Noisy LIDAR point clouds: impact on information extraction in high-precision LIDAR surveying”. viitaten Nvidian karismaattinen perustajan Jen-Hsun Huangin esitykseen vuonna 2017. Huang näytti loistavia lopputuloksia kuvista tehdyn mallin visuaalisessa parantamisessa, mutta mikä on geometrinen todellisuus parantamisen jälkeen? Se tuskin edes kiinnostaa Huangia, koska hänen työnsä käyttötarkoitus on erilainen.

Kaiken kaikkiaan interneistä löytyy nykyisin lukuisia artikkeleita vastaavasta työstä, kuten tämä ETH:sta tuleva tutkimus kohinaisten ja harvojen pistepilvien muuntamisesta siloisiksi pintamalleiksi syvien neuroverkkojen avulla. Voimmeko luottaa näiden algoritmien toimimiseen esimerkiksi maaston mallintamisessa? Tätä kirjoittaessa emme tyypillisesti voi, joten riskien hallinnassa ja laadun valvonnassa on parasta ottaa käyttöön lääketutkimuksen alaltakin tuttu varovaisuusperiaate.

Tässä tutkimuksessa mittauskohde on ihmisen naama, mutta monasti tutkimuskohteina käytetään myös museoesineitä. Koska museoesineiden virtuaalimallit eivät ole vain visualisoinnin vaan usein myös esinetutkimuksen kohde, niin on hyvä kysyä mitä iloa huonosti mitatusta kohteesta on oikeasti niiden tutkimuksellisessa dokumentoinnissa?

Tutkimusta ja kehitystä huonojen aineistojen parantamiseksi on valtavan paljon ja valitettavasti loppukäyttäjä on useimmiten eniten vaatimassa näitä funktioita aineistoilleen. Tämän todellisuuden huomaa erityisen selkeästi avointen foruminen keskusteluista, jossa ohjelmistokehittäjille lähetään mitä hurjemman näköisiä aineistoja. Siloittelun jälkeen ne tuntuvat kelpaavan vaikkapa tiemittauksen tarpeisiin – mittaustarkkuuksiin fiksu ohjelmistokehittäjä ei kuitenkaan ota kantaa. Oletettavasti moni tilaaja maailmalla ei tee kovin ihmeellistä laadunvalvontaa tilaamilleen tuotteille, jos perunapellosta siloitellut tienpinnat kelpaavat lopputuotteiksi.

Käytännössä on selvää, että uusin aalto tekoälyalgoritmien kehittämisessä ja käyttöönotossa virittää myös pohjaa laatukirjojen ja standardien päivittämieen.

Huojuvia trajektoreja ja muita kertomuksia

Viikko on kulunut jälleen rattoisasti mobiili- ja staattisia skannausaineistoja työstäessä, kouluttaessa ja seminaarissa. Perjantaina istuimme jälleen hetken yhdessä keskustellen viikon tapahtumista ja aihepiireistä, jolloin nousi esille eri tavalla tuotettujen spatiaalisten aineistojen yhteensovittaminen – kuulemma suuri ongelma monissa organisaatioissa. No aihepiiriä on työstetty jo useita vuosikymmeniä, joten on se vallan ihmeellistä ettei tämän enempää edistymistä ole tapahtunut. Aineistot eivät vaan edelleenkään sovi yhteen.

Uutena terminä kuulimme myös käsitteen ”huojuvat trajektorit” – mikä on esittelijän mukaan kuvaus tyypillisestä mobiilaserkeilausaineistosta ja meistä vallan mainio nimitys. Näitä huojuvatrajektorisia mobiilipistepilviaineistoja yhdistellään sitten ilmalaserkeilausaineistoihin, joiden avulla huojuvaa trajektoria laitetaan kuriin. Vau!

Trajektori on mobiilimittauslaitteiston liikerata asentoineen ja se näkyy esimerkkikuvassa punaisella. Trajektori lasketaan tyypillisesti IMUn ja GNSS-havaintojen perusteella; myöhemmin sitä voidaan myös tarkentaa laseraineistolla.

Vaikka ajatus tuntuu aluksi varsin absurdilta – mobiililaserskannausaineisto on parhaimmillaan huomattavasti tarkempaa kuin ilmalaserkeilausaineisto – niin tarkemmin asiaa ajatellessa on tunnustettava se tosiasia, että valtaosalla maailman kirjavista mobiililaserskannausjärjestelmistä tuotetaan jo lähtökohtaisesti aika kuraa. Jos järjestelmän tekninen taso on siedettävä, niin käyttäjien osaamattomuus tuhoaa laadukkaankin järjestelmän aineiston. Lopputulos aineistojen mittauksellisen laadun suhteen on siis aivan Gaussin käyrän mukainen. Huipulla ei ole tungosta.

Tähän tulokseen pääsee varsin helposti seuraamalla lukuisten kartoitusalan startupyritysten kertomuksia tuotantoprosessistaan. Tuotetaan millin tai sentintarkkaa aineistoa useimmiten robottiautojen vaatimaksi lähtöaineistoksi – niin kutsutuksi High Definition -kartaksi. Tässä vaiheessa on useimmiten paras olla kysymättä, onko mittausten metriluku lähellä oikeaa. Kateellisena voimme vain seurata sivusta, kuinka helppoa millintarkan aineiston tuottaminen on kaikennäköisillä räppänöille. Sehän on vaan, öhöm, Big Datan prosessointia.

Startupmaailman ulkopuolella on paljon vaikeampaa tuottaa näin supertarkkaa aineistoa, sillä sopimusten mukaan aineiston tuottaja on oikeudellisesti vastuusta aineiston laadusta ja joutuu siis oikeasti kaivamaan rahapussia jos tulos ei vastaa tilattua. Koska Suomen mobiililaserskannausmarkkinat on viimeisen 10 vuoden aikana kustu huonoilla aineistoilla, niin mekin olemme lähteneet useaan projektiin mukaan periaatteella, että saamme rahat vain jos aineisto vastaa laatuvaatimuksia. Niin monta kertaa tilaajien käsiin on jo päätynyt luokatonta dataa! Kertaakaan maksu ei muuten ole jäänyt saamatta.

Huojuvat trajektorit voivat syntyä monestakin syystä, mutta ensimmäisenä tulee mieleen järjestelmän inertianavigointijärjestelmä. Se kaikessa mobiilimittauksessa tärkeä komponentti, jonka hankinnassa halutaan säästää. Inertiajärjestelmien hinnoittelupolitiikka on hyvin yksinkertainen – mitä parempi laite sen kalliimpi sen on.

Toinen, se ikävämpi syy, on käyttäjien osaamattomuus. Hyvän tuloksen saaminen edellyttää hyvää mittausprojektin suunnittelua, toteutusta ja prosessointia. Niin, siis geodesian osaamista.

Laadukkaassa aineistossa mobiililasermittausen trajektori ei siis huoju holtittomasti niin, että se pitää laittaa kuriin kontrollipisteillä. Tämä prosessi on sitäpaitsi täysin hyödytön sillä kontrollipisteiden välillä aineisto on taas missä sattuu. Me puhumme tässä yhteydessä makkarasta, jonka pursuaa sinne tänne.

Laadullisesti hyvä mobiililaserskannausaineisto on jo sisäisesti niin jämäkästi paikoillaan, että se voidaan muutamalla pisteellä kalibroida paikoilleen korkeuden ja tason suhteen paikalliseen järjestelmään. Tällainen aineisto paljastaa jopa armotta vaikkapa geoidimallin virheet – sekin on vain approksimaatio, jossa on omat virheensä.

Laadullisesti hyvä aineisto kelpaa erinomaisesti suunnittelun lähtöaineistoksi ja vaikkapa tarkentamaan ilmalaserkeilausaineistoa aineistojen yhteensovittamisella. Kuten me teimme esimerkiksi Hankiviki-projektissa vuonna 2014 erinomaisin tuloksin.

Laadukas mobiililaserkeilausaineisto paljastaa myös takymetri- ja GPS-mittausten virheet. Varsinkin kokemattomien mittamiesten on vaikea uskoa miten paljon pielessä mittaukset välillä ovat.

Laadukas aineisto tuotetaan laadukkaalla järjestelmällä. Hyvä tapa erottaa jyvät akanoista on tehdä koemittaus peitteisellä alueella. Avoimella alueella erot laadussa voivat olla pienempia. mutta GNSS:än heikentyessä trajektorit alkavat huojua.

Aineistojen laadusta

Tällä hetkellä eräs ilmalaserskannauksenaineistojen arkeologisen hyödyntämisen merkittävimpiä kehittäjiä on saksalainen Ralf Hesse. Ralf on maantieteilijä, joka palkattiin uraauurtavaan projektiin kartoittamaan koko Baden-Württenbergin osavaltion ilmasta havaittavat muinaisjäännökset.

Baden-Württenbergin kartoitus on hämmästyttävä yhden miehen urakka, sillä Ralf kartoittaa, rakentaa tietokantaa, kehittää aineiston visualisointimenetelmiä, tutkii, julkaisee ja opettaa samanaikaisesti. Kuka olikaan sitä mieltä, että valtiollisen puolen toimijat ovat laiskoja ja saamattomia 😉

Projektin määräaikaisuudesta johtuen Ralfilla on tiukka 30 km2 päivätavoite, mutta käytännössä työtahtina on käsitellä 22 km2 alue kokonaisalulueen ollessa yli 35 000 km2. Päivässä hän kartoittaa keskimäärin 700 piirrettä/kohdetta. Kuten aina arkeologiassa, jäännökset ovat osin tuhoutuneita, ajallisesti kerrostuneita ja loppujen lopuksi varsin sotkuisia, mutta kaikesta huolimatta työstä on avautunut täysin uudenlainen ikkuna menneisyyteen. Samalla on syntynyt myös uusia kysymyksiä sekä tutkimuksen että alueiden hoidon suhteen.

Tutustuessani Ralfin tuoreeseen esitykseen (pääset siihen klikkaamalla kuvaa), mieleeni muistui keskustelu eräällä Ralfin luennolla pari vuotta sitten. Keskustelimme aineistojen laadusta, sillä hämmästelin, kun slovenialaiset kollegat kehittelivät työkaluja virheiden poistamiseen aineistoista. Virheiden poistamisella tarkoitetaan tässä tapauksessa systemaattisten kuvioiden häivyttämistä kuvalta – ei sen kummempaa – eli aineiston laatu ei parane. Oma lähtökohtani oli se, että aineisto täytyy prosessoida kunnollisesti ennen kuin siitä aletaan tehtä minkään alan tutkimuksia. Ajatelkaapa vain seuraamuksia, kun esimerkiksi ilmastonmuutostutkimusten perusteella tehdään kansainvälisiä suosituksia, vaikka itse tutkimuksen lähtöaineisto ei kestä päivänvaloa…

No, moni aineistojen käyttäjä kyllä oppii tunnistamaan ajan myötä prosessoinnin virheitä, mutta heillä on vain vähän mahdollisuuksia vaikuttaa aineistojen laadun parantamiseen. Monet käyttäjät nimittäin joko ostavat tai saavat sopimuksella käyttöönsä dataa, joka on tyypillisesti tuotettu isoihin valtiollisiin kartoitusprojekteihin. Monessa maassa tällaisten aineistojen yhteiskäyttö on näet tehty mahdolliseksi, koska sen ajatellaan yleisesti edistävän monien alojen tutkimusta ja uusien liiketoimintaidoiden syntyä. Näin myös Suomessa.

Ralfin kotimaassa Saksassa aineistot eivät ole ilmaisia, mutta Baden-Württenbergin museovirasto on saanut alueen aineiston sopimuksella käyttöönsä. Toinen esityksessä mainittu valtio Espanja puolestaan tarjoaa aineistot kaikille käyttäjille ilmaiseksi.

Kun ottaa huomioon, että aineistot tuotetaan tyypillisesti kilpailutuksella ja tekijät ovat siis kaupallisia toimijoita, voi vain edelleenkin hämmästellä kuinka heikkolaatuisia aineistoja tilaajat ottavat vastaan. Pistepilvien huonolle luokittelulle peruskäyttäjäkin voi vielä tehdä paljonkin, mutta aineistojen huonolaatuinen rekisteröinti (tuo kuvassa mainittu strip adjustment) on jo paljon vaikeampi parannettava ilman lähtöaineistoja. Suomessakin on jo pitkään keskusteltu siitä, miten huono IT-sovellusten tilaaja julkinen hallinto on, mutta mielestäni tämä pätee mihin tahansa alaan, jossa tilaaja on menettänyt ammattitaitonsa maailman vaan monimutkaistuessa.

hesse

 

Ralfilla on vielä jäljellä 30% kartoitusalueestaan, joten toivottavasti hänen aineistonsa paranevat loppua kohti. Täyden aallonmuodon aineistot jäänevät tässä vaiheessa haaveeksi, mutta tulevaisuudessa se voi olla jo standardi – kukapa tietää.

Jos joku suunnittelee lähtöä ilmalaserkeilausmarkkinoille, niin laadukkaiden aineistojen tekijöille olisi kyllä tilaa. Maksajien löytäminen on sitten toinen asia, kun halpa & huonolaatuinen data näyttää riittävän tilaajille. Sehän ei tule kalliiksi – eihän? Tutkijoiden iloksi EUn T&K-rahoja ei olla merkittävästi vähentämässä…