Henrik Summanen har i sin bok Kulturarvets digitalisering sammanfattat mycket av exakt det jag själv funderat kring digitalisering. Boken innehåller en mycket bra introduktion för inte minst chefs- och policynivå om hur digital information i praktiken fungerar, vad den essentiellt innebär. Vilket inte är att man skannar en massa papper.
En förtjänst är att Summanen också tar med forskarperspektivet och gör en grundlig genomgång av de trendiga med, ack så tröttsamma, FAIR-principerna. Det handlar om lite samma sak som vi i Finland nu försöker driva på, nämligen att det är inte så att vi har forskningsdata någonstans som en skild klar enhet och sedan finns alla andra offentliga data någon annanstans under helt andra premisser. Eller det borde inte vara så. Alla data är data och alla data är potentiella forskningsdata. Alla myndighetsdata borde fylla samma kvalitetskriterier som forskningsdata. Man måste kunna bedöma dess kvalitet och hänvisa entydigt till dess proveniens. Och eftersom det faktiskt handlar om digitalisering av samhället betyder proveniens inte bara en enkel "källa", utan en noggrann redogörelse för datas hela livscykel och hur den behandlats och hanterats i olika skeden.
Läsningen av Summanens bok var faktiskt för mig en välkommen påminnelse om vad allt egentligen handlar om, även på forskningssidan. Det handlar om just digitalisering av hela forskningsprocessen. Vi får inte låta oss luras av politiska och kommersiella intressen som fokuserar enögt på att mäta och utvärdera forskningens resultat eller påverkan, så som den dessutom uppfattas med dagen föråldrade mätare. Det finns en allvarlig risk att utveckligen förs i en ohållbar riktning, att man gör stora felinvesteringar om man endast lyssnar till små, aktiva klickar. Då det gäller att möjliggöra snabb teknologisk utveckling, måste man vara mycket, mycket noggrann att man inte blockar utveckling och mångfald. Vi kan omöjligt ännu veta vad forskarna själva kommer att hitta på och behöva om några år. De vet de knappast själva.
Det är viktigt att man håller utvecklingen divers och öppen och inte reglerar eller tvingar för mycket. Det gäller att satsa på rätt element som faktiskt underlättar till exempel dataintegration och länkning som skapar genuin semantisk interoperabilitet. Att ha fel mätare kan vara ödesdigert. Till exempel att mäta antal beständiga identifierare och belöna massproduktion kan leda till en situation då vi antingen har fullständigt ohållbara kostnader eller PID-system som förlorat sin idé eftersom ingen har råd att underhålla dem.
I stället bör vi fokusera på forskarnas hela arbetsprocesser, hur dessa kan dokumenteras så automatiskt som möjligt. Man talar och FAIR by design eller born FAIR data. Här har vi också en skillnad mellan forskningen och kulturarvet. Det senare kan regleras rätt långt utan att kärnverksamheten lider, medan forskningen har stora problem med datahanteringen, inklusive hantering av rättigheter och det är mycket svårt att åtgärda. Det är också inbyggt i forskningen att den går i bräschen, skapar nytt och är oberoende. Om vi reglerar datahanteringen för strikt kan vi omöjliggöra innovation, nya infallsvinklar och metoder.
Lösningen är ändå, enligt min bedömning, den samma inom båda sektorerna. För det första måste vi jobba med kvalitet (data, metadata samt forskningsprocessens dokumentation som helhet), för det andra måste vi fokusera på de enskilda forskarnas behov. Vi måste fördjupa vår användarförståelse ytterligare och arbeta med dem och stöda dem i hela forskningsprocessen utan att stirra för mycket på standarder mm. Det innebär att allt mera ta bruk service design som metod vid planeringen av datatjänster.