Visar inlägg med etikett it. Visa alla inlägg
Visar inlägg med etikett it. Visa alla inlägg

tisdag 20 december 2022

Stödintelligens

På finskt håll har man som vanligt kunnat anpassa språket snabbt och kreativt då ordet tekoäly kompletterats och framöver förhoppningsvis ersätts med order tukiäly, som egentligen definierar användningssättet av artificiell intelligens (AI) till ett stöd. Jag spårar ordet tillbaka till ett seminarium om AI sommaren 2017 och en rapport från handels- och industriministeriet samma höst. Möjligen kommer ordet från Nokia före det? Digitala beslutsstöd som utnyttjar maskininlärning används idag i synnerhet,  inom medicin, vad jag kan förstå. Men applikationerna finns överallt och underlättar vår vardag.

Den så kallade artificiella intelligensen har varit på tapeten den senaste tiden då en mycket effektiv textgenerator offentliggjordes för några veckor sedan. Programvaran kan generera text och också revidera den, svara på frågor och föra dialog. I praktiken är textgeneratorn en hypereffektiv variant av samma textförslag eller autocorrect vi stöter på vid textbehandling på dator eller i telefonens appar. Denna "intelligens" har på basis av surrealistiska datamängder lärt sig räkna ut de mest sannolika teckensträngarna i ett visst sammanhang och spottar dem ur sig något slumpmässigt.

Människan har en fantastisk förmåga att syssla med antropomorfism. Redan i somras gick en sakkunnig i den uppenbara fällan och förklarade att hans dator börjat tänka och känna, vilket var bra på så sätt att vi inför höstens nyhet hade hunnit ta en diskussion om ämnet chatbottar och medvetande i offentligheten.  Att texten, logos, väger särskilt tungt då vi projicerar på det här sättet har ytterligare stärkts av Turingtestets närmast mytiska status som mått på "intelligens". Tanken och ordet är för oss väldigt starkt sammanlänkade. Att ett ord alltid innehåller en tanke är dock ett felslut.


Foto: randychiu CC-BY

I princip kan man i dag, tack vare enorma datamängder och mycket snabba och parallellt arbetande processorer ta fram mönster och på basis av dem med olika metoder generera nya data. I den nya chatbottens fall fanns en c 300 miljarder ord stor korpus man tränat på. Det finns idag många tjänster där man kan generera olika slag av bilder, både konstgjorda foton eller konstverk i olika stilar på webben. Också musik kan man skapa enligt stilen på t ex en namngiven kompositör. Situationen väcker förstås ett antal frågor. Hur kan man veta vad som är "äkta" konst eller gjort manuellt av en människa? Vilket är "värdefullare" eller mer "unikt"?

Läget är lite analogt till kamerans framfart. Vad ska man måla för, om man kan fotografera? kunde man kanske tänka för 150 år sedan. Men fotografiets frammarsch ledde ju både till att målarkonsten befriades och att en helt ny konstform uppstod. Redan nu finns det många konstnärer inom olika branscher som experimenterar med AI som ett verktyg i sin konst. Konsten försvinner nog ingenstans. Så länge det finns kreativitet finns det konst.

Den som lite lekt med dessa AI-verktyg vet också att dessa "intelligenser" plötsligt kan göra otroliga fel och missar. De blir förstås ständigt bättre, vilket är det fina i kråksången, men det kommer alltid emellanåt underliga fel, algoritmerna blir ibland intressantare ju mer kreativa och oförutsägbara de ter sig. Eftersom det inte finns någon riktig förståelse eller riktigt tänkande bakom det en algoritm spottar ur sig, är det inte någon skillnad mellan för oss små eller stora logiska fel. Slutledningsförmågan, ett av baselementen för intelligens, är bristfällig hos dessa algoritmer då semantiken brister.

I takt med att modellerna blir bättre kommer förstås felen att bli mindre, men i praktiken handlar det alltid om ett samspel mellan människan och algoritmerna. AI kan testa olika möjligheter nästan oändligt snabbt och välja ut goda förslag åt oss. Förslagen är ett material att arbeta vidare från och datorerna kan frigöra massor av tid och resurser åt oss. Men riktigt på riktigt är inte algoritmerna inte tankar, de innehåller ingen förståelse av något alls. Därför är de just tankestöd för oss. Vad intelligens sedan är, är en annan fråga.

söndag 18 oktober 2020

Siffror med betydelse



Det finns sifferkombinationer som bär på betydelse. Och då avser jag inte numerologi, utan siffror som kan igenkännas som bärande en specifik innebörd i en viss kontext.  Ibland är kontexten snävare, ibland kan den täcka en hel kultur. Ibland är det lättare att utläsa betydelse i sifferserier, ibland svårare. Får du ett hotellrum med nummer 516, styr du antagligen stegen mot hissen och trycker på femte våningen. Om du får framför dig en sifferserie tolv siffror som börjar med 0400 tar du fram telefonen. Ett socialskyddsnummer känner du också sannolikt igen, liksom ett datum.


Detta handlar om siffror som har en specifik kulturellt definierad betydelse i sin kontext; de bär på information som människor kan läsa. De har också använts för att strukturera information. Åtminstone tidigare hade till exempel busslinjerna i huvudstadsregionen nummer som tydligt indikerade längs vilken huvudled de lämnade centrum och hur långt de gick. De mekaniska telefoncentralerna avslöjade vart man ringde rent geografiskt. Det kunde kallas att siffrorna innehöll semantisk information.

Buss 270 på Morbyvägen i Esbo, 1978.
Bild: Jan Backström, Esbo stadsmuseums samlingar.
CC-BY-ND 4.0

Digitaliseringen har utmanat detta. Om vi tar telefonnumren som ett exempel: numera avslöjar inte telefonnumret i Finland längre vilken operatör som används. Det har stora fördelar förstås, för den som äger numret: man behöver inte byta nummer när man byter operatör.  040, 0400 och 050 är nu om inte helt renonsa på information, endast bärare av historisk information. De berättar om proveniens, var numret skapats. De kan också kallas prefix eller namnrymder: tack vare dessa kan vi försäkra oss om att varje telefonnummer är unikt, eftersom det finns en registrator som övervakar respektive namnrymd.

Med hjälp av digitala register kan man ändå rätt enkelt frikoppla dylika unika identifierare från all semantisk betydelse. Till exempel inom biblioteksvärlden eller många andra system ordnade man förut saker och ting enligt olika klassificeringssystem för att senare kunna lokalisera dem och organisera dem. Till exempel enligt proveniens, alfabetet eller något annat för kontexten logiskt system, som kunde kompletteras med olika index och register. Numera ordnas saker i stället enligt accessionsordning till exempel på det franska nationalbiblioteket. Huller om buller, skulle en traditionalist som jag säga. Tack vare datasystemen kan man ändå mycket enkelt lokalisera det man behöver. Ofta tilldelas digitala objekt eller representationer något som kallas UUID, eftersom de är "i praktiken" unika koder och ligger som grund för en hel del identifierande inom många datorsystem. 

UUID är slumpmässiga hexadecimala sifferserier, ofta i formatet (8 siffror)-(4 siffror)-(4 siffror)-(4 siffror)-(12 siffror). Att de är hexadecimala betyder att de använder ett siffersystem baserat på 16 (man fortsätter alltså räkna från 9 med a, b, c, d, e och f). Det finns olika varianter av UUID, men i princip är poängen att man inte behöver ha något system för att kontrollera att de är unika, vilket givetvis har sina fördelar. Framför allt ekonomiskt sett, men även socialt.

Att avsäga sig all semantik i sifferserier har en del konsekvenser. Problemet med semantik är, att den obönhörligt föråldras förr eller senare. Den är avhängig av sin kontext och dessa är aldrig eviga. Liksom exemplet med telefonnummer visar, kan de ändå bära på proveniensinformation, som visserligen kan vara mycket relevant. Inte minst då vi talar om loggar, arkiv och andra funktioner där det kan vara viktigt att veta när och i vilket sammanhang en identifierare skapats. Accessionsnummer eller arkivsignum hanteras inom kontrollerade informationssystem och ger information som inte förändras, eftersom de innehåller historiska fakta.

Då systemplanerare ofta gärna utnyttjar de fördelar slumpmässiga och fristående sifferserier har, då de är unika oberoende av kontext, ser jag mig som humanist, semiotiker och historiker ofta som en besvärlig försvarare av människan som användare och av information som egenvärde. Även om kontexter, språk och kultur förändras, förändras teknologierna ofta minst lika snabbt. Jag tycker det är att undervärdera människors omdömesförmåga, att tro att de inte skulle kunna tolka historiska avlagringar (som kan vara relevant information!) i olika sifferserier eller identifierare. Tvärtom kan det vara viktigt för transparens och tolkning av information att inte alla betydelsefulla koder ersätts av randomiserade, stumma sifferserier. 

Låt oss alltså försvara semantikens plats också inom informationsteknologin och åtminstone göra väl avvägda beslut om hur vi namnger saker och ting. Att vårda semantiken innebär förstås mera arbete, men vi behöver väl inte alltid gå där ribban är lägst.  Också siffror kan vara talande namn på saker och ting, information för oss människor bortom tekniska informationssystem.


Ett område där man lagt till semantik under senare år 
är adresser. Numera innehåller siffran information om avståndet
från vägens början, vilket kan vara nog så nyttigt.



 


lördag 18 januari 2020

Helhetsarkitektur

Man talar ofta om it-arkitektur, det vill säga om hur data och applikationer är organiserade i organisationer. Eftersom it är både krävande och komplicerat är man helt enkelt tvungen att rita mängder av olika modeller och grafer och annan dokumentation över hur saker fungerar eller borde fungera. Men om detta görs fristående från själva verksamheten, dess processer och målsättningar, kommer man aldrig att kunna optimera verksamheten eller förbereda sig på kommande förändringar i god tid. Risken finns att man i en organisation, ett företag, en myndighet eller vilken som helst verksamhet, gör ineffektivt och onödigt arbete. Eller att viktiga saker helt enkelt blir förbisedda.  Därför behövs helhetsarkitektur (Enterprise Architecture), som beaktar också verksamhetsarkitektur (Business Architecture) och de olika dimensionerna av informationsteknologi på ett systematiskt sätt.

Den vanligaste metoden att göra detta heter TOGAF (The Open Group Architecture Framework). Det är alltså ett ramverk och en metod för att på hög nivå systematisera och organisera verksamheten och möjliggöra en vettig översyn och styrning som främjar verksamhetens målsättningar. I Finland har man inom den offentliga förvaltningen arbetat med helhetsarkitektur redan flera år. En rekommendation finns också och jag vågar påstå att mycket av de stora effektiveringar som varit möjliga vid digitalisering har skett tack vare att man tvingats arbeta med helhetsarkitektur. Även om kravet försvunnit ur lagen, kommer arbetet att fortsätta också inom den offentliga sektorn.






Själv har jag arbetat med helhetsarkitetur i flera omgångar på ett hörn. Jag har också sett många projekt och åtaganden där jag insett att man är ut på sjufamnarsvatten, då man vill genomdriva stora omställningar i verksamheter utan att vare sig ha en klar bild av nuläget eller av hur målsättningen egentligen borde se ut och vilka implikationer som finns inbäddade i olika framkastade planer. Jag har ändå saknat insikt i själva metoden. Så nu i veckan gick jag en grundkurs och jag måste ännu mera vara av den åsikten att dylik systematik är helt nödvändig om man vill ha en vettig och sund verksamhet. TOGAF är inte ett regelverk som man ska eller ens kan implementera rakt av, men metoden innehåller många centrala element som det är klokt att ta hänsyn till. Arbetet är långsamt och omfattande, men jag har själv haft mycket stor praktisk nytta av dess resultat. Varje företagsledare borde inse nyttan av att ha en klar och heltäckande bild av verksamheten och vad som behöver utvecklas och hur. Den viktigaste poängen är att arkitekturen inte är något som görs av någon enskild person någonstans i organisationen, utan det är en sak som gäller alla. Var och en och varje syssla i en verksamhet är en del av en "arkitektur", vare sig den är dokumenterad och vettig eller spontant påkommen eller framtvingad av omständigheter. Huruvida den är ändamålsenlig och effektiv kan man bara se genom att se den i sin fulla kontext och i relation till vad man vill uppnå.

torsdag 30 maj 2019

Inkluderande digitalisering

Av en händelse blev jag utsedd till koordinator för tillgänglighet på jobbet. Det har tagit mig på ett intressant spår och jag har fått lära mig mycket nytt de senaste månaderna. Allt började ju egentligen med ett EU-direktiv som trädde i kraft redan för över två år sedan, och som sent omsider ledde till en uppdatering av den finska lagstiftningen i våras. Enligt den nya lagen måste offentliga digitala tjänster efter en övergångstid vara tillgängliga för en större del av befolkningen. Det är en fråga om jämlikhet, att man gör också digitala miljöer sådana, att människor med olika slag av handikapp, tillfälliga eller bestående, kan ta del av dem.

Allra mest handlar det bara om att man har den kompetens som behövs, att göra saker på rätt sätt och inte av ren okunskap göra en webbplats möjlig att använda för någon som inte kan se eller har svårt att använda en mus. Digitala redskap erbjuder fina möjligheter bara man använder dem. Med lite omsorg kan en tjänst vara tillgänglig för så många fler. Dessutom är tillgänglig design allmänt taget användarvänlig och smart. Vi är många som uppskattar till exempel en redig layout, klart språk, tillräcklig kontrast och text på video.

För att kunna delta i arbetsliv och studier behöver man idag i praktiken alltid datorer. Också blinda människor kan bra använda dem. Men då förutsätter det att utvecklarna inte har gjort dumheter som att använda html-koden på ologiska sätt, genom att till exempel använda title- och header-taggar fel, eller glömt att kolla att man kan använda sidan utan mus. Också de som producerar innehåll borde tänka på till exempel hur man formulerar länkar och alt-texter eller hurdana filer man laddar upp. De måste innehålla relevant information, inget annat. Också andra handikapp kan och bör beaktas med lite eftertanke. Efter ett armbrott kan vem som helst behöva använda datorn med en hand en tid.

Det är Södra Finlands regionförvaltningsverk som övervakar och informerar om webbtillgänglighet. Det är ju ingalunda så, att bara de som lagen förpliktar borde följa dessa goda metoder. Det handlar ju helt enkelt om att göra kvalitet, och också om att kunna nå ut och betjäna flera människor. När som helst kan vi själva eller våra närmaste vara beroende av att någon gjort sig det lilla extra besväret att tänka efter lite. Och firman som dissade kunden som inte kunde sända in sin beställning missade affären.





Här en reklamvideo som visar ett hjälpmedel, ett Braille-gränssnitt. 
Ett annat sätt att bekanta sig är att testa en skärmläsare. Man inser snabbt hur annorlunda den digitala världen ter sig för en som inte ser ...

måndag 20 mars 2017

Interoperabilitet

Dagens Vieraskynä handlade om en rätt viktig sak: att interoperabilitet är en förutsättning för att digitalisering ska leda till någon effektivering för förvaltningen eller kunden. Att skribenten, Janne Viskari, är färsk chef för Befolkningsregistercentralen är glädjande, eftersom den uppdaterade Suomi.fi-tjänstens nya utvidgade version just nu växer fram hos myndigheten, har en nyckelroll vid förverkligandet av samordningen av digitala tjänster, som är ett av regeringens viktiga mål. Man har lovat att medborgare inte ska behöva lämna samma uppgifter åt myndigheter mer en en gång. Och det, ska jag säga er, är ingen lätt sak.

Det kräver inte bara att man drar en massa kablar mellan olika datorer och bygger några snygga portaler  - och vips är allting integrerat. Lådor med pilar kors och tvärs vimlar det av i powerpoint-presentationerna. Men det behövs mycket, mycket arbete med att analysera informationen i de olika systemen för att få dem att matcha ens behjälpligt. Och det lönar sig inte att ad hoc bygga nya nytt gränssnitt på traditionellt vis varje gång man kommer på att man behöver flytta information från system A till system B. För då har vi snart ett sådant trassel och datakaos, att inget fungerar.

Det som behövs är grundliga, systematiska semantiska analyser av all information på en hög abstraktionsnivå. Det blir mycket definierande av begrepp och beskrivande av informationsresurser. Filosoferande och tandagnisslan. Men när det sedan är gjort finns det förutsättningar att få informationen att löpa och skapa tjänster som faktiskt är smidiga och underlättar saker. Men det är verkligen viktigt att det inte fuskas nu, utan att arbetet görs ordentligt. Samtidigt finns här otrolig potential, massor av resurser som kan frigöras genom bättre system och integration.

Informationssystem skapar alltid begränsningar. Är de inte planerade för öppenhet och interoperabilitet (vilket t ex kommersiella system av naturliga skäl inte så ofta är) sitter man väldigt lätt fast med den verksamhetslogik man råkade ha då systemet sattes upp. Att beräkna vad det kostar att bygga nya system eller bygga om gamla är väldigt svårt. Ofta glömmer man, misstänker jag, helt bort att ens beakta sådana kostnader när man gör stora omorganiseringar.

Det lönar sig därför att arbeta med små steg, målmedvetet och omsorgsfullt. Och det som är viktigt, och impopulärt kanske, är det faktum att ska man göra bra, ska det göras med mycket långsiktig planering. I själva verket blir system aldrig "färdiga", de ska underhållas och de kan och ska kunna utvecklas kontinuerligt. För i takt med att världen ändras, förändras också behoven och kraven ständigt.

söndag 5 februari 2017

Ansvar och samarbete

Men mounted on an elephant from BL Harley 3244, f. 39 - Peraldus. The British Library. Public Domain.
Det talas en hel del om agil systemutveckling, och eftersom det visat sig vara ett rätt framgångsrikt koncept att hantera komplexa helheter och utvecklingsprojekt har idén blivit ett modeord inom många branscher. På finska talar man om att vara ketterä. I praktiken handlar det om att arbeta iterativt istället för att göra upp minutiösa planer i lägen då det finns många osäkerhetsfaktorer och risker. Man sönderdelar stora projekt i mindre delar och fokuserar på ett steg åt gången, löser problemen an efter att de kommer fram och är färdig att revidera planerna.

Det ligger mycket i att det inte lönar sig att öda resurser på att planera detaljer man omöjligt kan känna till i situationer längre in i framtiden, då saker är mycket avhängiga av val och beslut man är tvungen att ta under arbetets gång. En agil ansats kan vara både lockande och vettig, då det gäller stora reformer. Till konceptet hör många av de modebegrepp till och med vår regering slänger ur sig, så som vikten av försök och misstag. Det som man däremot tyvärr ofta missar är att det till exempel inom scrum-metoden handlar om en mycket rigid metod, ett helt system som innebär mycket noggrann uppföljning och kvalitetskontroll. Informationsgång, samarbete och roller är noggrant definierade för att det hela ska fungera. Det handlar också om att minimera risker. Man tar faktiskt en bit åt gången, följer framstegen noga och gör ständig utvärdering. Man kan till exempel inte i en smäll göra massiva, tidigare oprövade organisatoriska förändringar. Riskerna är alldeles för stora.

Det som särskilt fascinerar mig i scrum-metoden (som jag själv alltså numera både är utbildad i och arbetar med) är hur man hanterar ledarskap och teamarbete. Det är nämligen genuint teamarbete, vilket betyder, att det inte finns en person som är ansvarig för allt. Detta är en ansats som enligt mig passar i dagen samhälle som bygger på att man behöver mycket djup sakkunskap och stor specialisering, samtidigt som man måste kunna arbeta tillsammans på ett integrerat sätt. På samma sätt som inom problembaserat lärande, arbetar ett scrumteam på ett sätt, där alla tar och bär ansvar i samförstånd. Det finns också olika identifierade roller som främst handlar om att underlätta arbetet, vad man kunde kalla faciliterande uppgifter. Vissa personer är utsedda att ansvara för vissa typer av kommunikation och uppföljning, men poängen är inte att bestämma över de andra, utan att skapa förutsättningar för framgångsrikt arbete och en smidig informationsgång.  Själv tänker jag att vi generellt har en del att revidera i vår kultur vad gäller just hur man organiserar ansvar och arbete på många håll.


Och elefanten på bilden ovan? Det är ett av det mest slitna uttrycken i branschen, att man "äter en elefant en bit i taget". Det handlar just om att sönderdela utmaningar och stora uppdrag och problem i delar och processer man kan hantera, en åt gången. Men det kräver analys och systematik, man måste se sambanden och målsättningarna. Med andra ord betyder det ingalunda att man kan sluta planera eller administrera arbetet. Tvärtom betyder det intensivt och öppet samarbete hela vägen med både "beställare" och "förverkligare".

torsdag 11 juli 2013

OCR i iPhone

Jag testade nyligen två gratisappar för textigenkänning i min telefon. Image to Text är helt gratis. Bara att fota eller välja ett foto och sedan "Dela" - preview-knappen gör ingenting på min telefon åtminstone. Det påstods att det ska gå att spara också direkt i Evernote, men det alternativet erbjöds inte mig, utan den extraherade texten och fotot skickas per e-post. Appen förstod också att bilden var fel vänd. Problemet var att skandinaver var obekanta ...


Så här blev texten, rätt hyfsad tycker jag med tanke på bildens dåliga kvalitet:

Traditionellt anses ar-
kiv innehalla unika dokument; bibliotek daremot dokumentko-
pior. Digitaltekniken utplanar denna skillnad mellan arkiv och
bibliotek. Hadanefter kan varje bibliotek innehalla varje arkiv,
och vice versa, savida inte Google Inc. lyckas lagga beslag pa
hela kakan.
Internet ar lika granslost som biblioteket, om vi bara vill ha det sa.
En dag, nar jag tittade pa nagra gamla filer fran forra artusen-
det, snavade jag over foljande reflexioner:
"Om nagon i fromtiden avgiftsfritt fran biblioteket skulle kunna
hamta en elektronisk kopia av en bok, Milken det an vara mande,
varfor skulle ban nagonsin sdtta sin fot i en bokhandel igen?

Den andra appen, Mobile OCR, använder sig av en freemium-businessmodell, dvs man kan avläsa fem texter om dagen utan att betala. Antalet ska antagligen nollas via Applestore, men det fick jag inte att fungera. Att köpa 30 avläsningar kostar 99 amerikanska cent och obegränsat antal $ 2.99 Appen känns logiskt nog mer färdig än föregående och har ordlistor på fler språk inkluderade, vilket omedelbart syntes i resultatet. Men den kunde inte läsa den felvända texten överhuvudtaget, protesterade inte ens, utan mejlade mig en massa smörja - och brände en credit på det! Då jag vände bilden rätt blev resultatet riktigt bra:

Traditionellt anses ar-
016,13 hålla unika dokument; bibliotek däremot dokumentko-
^^JLjtaltekniken utplånar denna skillnad mellan arkiv och
PbJiotek. Hädanefter kan varje bibliotek innehålla varje arkiv,
och vice versa, såvida inte Google Inc. lyckas lägga beslag på
hela kakan.
Internet är lika gränslöst som biblioteket, om vi bara vill ha det så.
En dag, när jag tittade på några gamla filer från förra årtusen-
det, snävade jag över följande reflexioner:
"Om någon i framtiden avgiftsfritt från biblioteket skulle kunna
hämta en elektronisk kopia av en bok, vilken det än vara månde,
varför skulle han någonsin sätta sin fot i en bokhandel igen?
Om resultatet är så här bra kan det vara lönt att köpa appen (freemium är en bra modell), men knaggligheten med att nolla räknaren ger å andra sidan en lite opålitlig bild av appen. Vågar man? Som plus kan nämnas "Copy to clipboard"-funktionen.

På det hela taget kan man bara glädjas över den nya tekniken. Att avläsningstekniken ännu skulle utvecklas till att klara av handskriven text, skulle vara fantastiskt. Hoppas det finns efterfrågan!

Textsnutten kommer förstås från Mikael Bööks essä om bibliotekens framtid, publicerad i Nya Argus  och i den högst läsvärda essäsamlingen Biblioteksaktivisten - rekommenderad läsning för alla i branschen eller med intresse för samhällsutvecklingen.




tisdag 11 juni 2013

Goda råd för innovation

Läser för närvarande Martti Häikiös och Essi Ylitalos biografi över Yrjö Neuvo, en av nyckelpersonerna för framgången inom finsk teknologihistoria och vid skapandet av Nokias succé. Den är intressant läsning, tycker jag, och kräver inte att man förstår sig på digitalteknik eller signalöverföring, trots att tillräckligt många akronymer och fikonspråkliga hänvisningar finns inbakade i förbifarten, så att en mer teknikkunnig person sannolikt väl kan orientera sig också i den forskningsmässiga kontexten.

Själv läser jag det förstås som en mer sociologisk eller lärdomshistorisk berättelse. Det första jag kan säga att jag ser en viss parallell till hur Björn Wahlroos skapade sin karriär. Det fanns en tid då skärpta ungdomar ur de stora årskullarna, som av sin föräldrageneration försetts med alla bästa tänkbara förutsättningar till utbildning och karriär, kunde skaffa sig en enorm fördel på hemmamarknaden genom att fördomsfritt internationalisera sig via universitetsstudier i USA. De nätverk och det avancerade kunnande som man där kunde skaffa sig gjorde de återvändande begåvade akademikerna till guruer direkt. När jag säger detta vill jag förstås ingalunda förminska deras personliga vetenskapliga insatser, men det står alldeles klart, att dessa personer kunde komma hem med kontakter och kompetenser som var på en totalt annan nivå än vad som vad legio här hemma. Den skillnaden har lyckligtvis krympt i dag genom att forskningen blivit så mycket mer internationell.

En annan sak jag funderat på under läsningen så här långt, är att jag nu ser det klarare hur man tänker kring forskningspolitiken idag, varför man gör det man gör. Man försöker förstärka och återskapa Nokia. Och typ inget annat. Vad som kanske lite missas är detta: Liksom banbrytande forskning oftast (alltid?) enligt t ex Peter Burke, sker "vetenskaplig innovation" ofta i nya dynamiska miljöer som inte belastas av för mycket byråkrati och traditioner, utan där kreativa personer får agera fritt och i synnerhet snabbt och effektivt, utan att hela tiden till exempel behöva rapportera, planera och skriva projektplaner och ansökningar som de flesta i dag måste göra. Det betyder helst nya (för att forskarna ska ha maximal möjlighet att forma verksamheten enligt vad som är rationellt för dem), små och trygga miljöer med lite styrning och tillräcklig kontinuitet och fokus på kärnverksamheten.   Ett visst omskakande av gamla strukturer är kanske inte helt fel, men jag tänker man faktiskt kanske inte alltid borde göra det genom att skapa större enheter. Andelen administration ökar lättare, ju större en organisation är.

Det andra som gör mig lite ledsen och beklämd är hur svårt humaniora och samhällsvetenskapaer har att klara sig i dag, eftersom de inte riktigt passar in i det här tänket. Jag skulle ändå vilja ställa frågan om inte risktagningen inom forskningspolitik skulle vara betydligt mindre, om man satsade lite mer på humaniora. Ingen investering är så säker som en satsning på humaniora och bildning. Trots att reslutatet inte kan mätas direkt i pengar, skapar det välfärd och välmående och är också en förutsättning för internationell konkurrens på bred front.


söndag 24 februari 2013

Checklist för it-systemanskaffningar

Detta är min personliga checklista, som baserar sig på mina egna erfarenheter. Proffs på området är jag kanske bara till en mycket liten del, men min erfarenhet säger att det kan bli mycket dyrt och krångligt om man inte tänkt på dessa saker (också).


  1. Behöver vi verkligen ett nytt system för denna process? På riktigt? Blir den bättre och mer rationell? Försnabbas processer i verkligheten? På vilket sätt blir verksamheten effektivare? Vad vill vi uppnå?
  2. Vad kan man förlora gällande informationsgång och kvalitet då man automatiserar delar av processen? Vilka risker finns för brister i kommunikationen, då den tvingas in i ett så minimalt format som ett it-system kan erbjuda?
  3. Finns det något redan existerande system där relaterad information finns sparad? Är det möjligt att integrera de nya funktionerna i detta/dessa system? Eller integrera gamla system i det nya?
  4. Om inte, kan man genom en serviceorienterad lösning länka ihop existerande information? Hur kan den nya informationen länkas till information i de andra systemen?
  5. Har den nya systemet modern och öppen källkod eller handlar det om någon dinosaurielösning? Kolla med andra som använt systemet på riktigt.
  6. Hur är det med funktioner och egenskaper som vi anser viktiga, men som inte finns färdigt i systemet? Vem får bygga dem, med vilken tidtabell, vilken risk och vilken kostnad och vem äger de nya tilläggen?
  7. Exitstrategi. Beakta kompetens.
  8. Dokumentation. Vem gör, var finns, vem har tillgång.

lördag 15 december 2012

Skola och IKT

I dagens Pappershusis fanns ett uppslag om IT i skolan. I Pedersöre gymnasium har man liksom i en del andra skolor delat ut iPads i skolan. Det finns en hel del material som funkar bra på läsplatta, även om de inte är särskilt skrivvänliga. I Sverige används till och med en särskild hashtag på twitter #paddagogik för att diskutera användningen av detta verktyg i undervisningen. Eleverna i Pedersöre verkar nöjda med sin nya pryl.

Själv är jag lite skeptisk till om det faktiskt är detta man ska satsa resurser på.  Skolan blir kanske "digitalare" av att man jobbar med en pekdator och mera med exempelvis video och bild. Men höjer det kompetensen hos eleverna? Tveksamt.

Så här står det om IKT på lärarsajten KänGuru:

Förståelse för logiken kring hur informations- och kommunikationsteknik används och fungerar skapar en grund för användning av datateknik i undervisningen och lärandet. Utgångspunkten för att eleverna ska tillägna sig grundläggande färdigheter är att de på riktigt förstår funktionsprinciperna och de olika arbetsmomenten när de använder data- och verktygsprogram. Endast då kan läraren handleda eleverna på den nivå som behövs.

I praktiken gäller det enligt sajten:

Grundläggande färdigheter i informations- och kommunikationsteknik består av följande färdigheter:
  • Förmåga att förstå användargränssnittet – kunna uppfatta de olika delarna av skärmen 
  • Förmåga att förstå den allmänna program- och användningslogiken 
  • Förmåga att använda slutlednings- och problemlösningsstrategier 
  • Förmåga att använda instruktioner och handböcker som hjälp

Vilka av dessa som man inte lära sig på egenhand, lär man sig genom att använda iPad i skolan? Enligt mig inget. Användbarheten, i synnerhet på iPad är verkligen inte den stora tröskelfrågan idag. Jag hade i går tillfälle att intervjua en elev i en skola i huvudstadsregionen som berättade att de har två timmar obligatorisk it-undervisning. Excel hade hon aldrig hört om i skolan. Det gjorde mig rätt beklämd.

Jag anser att man egentligen borde ta något helt annat som utgångspunkt. Utgående från Mozillastiftelsens white paper i ämnet kunde man i stället tänka så här kring vad man behöver kunna i ett informationssamhälle:
  • Att söka och använda information
  • Att skapa information
  • Att samarbeta
  • Att skydda sig och sin information
För varje del bör man till möjliga delar lära sig dessa gällande den egna hårdskivan, lokala nätverk och molnet/webben. Vad barnen behöver förstå? Hur filer är arrangerade i systemet på en dator, hur de lagras, att använda olika vyer exvis trädstruktur, vad det olika värdena betyder i listvyn (filformat, storlek, datum) ikoner etc, att man kan ordna dem, hur man söker, flyttar, kopierar, vad är en alias, “spara som “ bestäm var du sparar, etc. Skillnad mellan egen hårdskiva, server, ftp, molnservers, webb. Vissa allmänna saker som är “ren IT” borde ingå varje år i skolan, men många mjukvaror och informationshantering kunde man lära sig i samband med ämnesstudier. Dessutom borde barnen lära sig maskinskrivning. Därför tycker jag man borde satsa på bärbara datorer eller bordsdatorer hellre än på pekdatorer. IT borde ju rimligtvis vara en integrerad del av undervisningen, men det förutsätter att en majoritet av lärarna är bekväma med att använda IT i undervisningen och inte minst att eleverna får jobba med olika verktyg och göra arbeten som infografik, video, webbsidor, presentationer, databaser osv. Dessutom om man i huvudsak går tillväga på detta sätt blir själva IT-biten en sorts problembaserat lärande. Som sig bör i detta fall.

En viktig sak tycker jag är att läraren inte behöver kunna allt. Eleverna kan lära varandra. Man kan ge eleverna ett verktyg: gapminder, prezi, seamonkey, excel - de kan lär sig genom att testa, och kan sedan lära sina kompisar och läraren vad de hittat på … “Wow, hur gjorde ni detta?”.  Det borde också finnas “ambulerande” skolinformatiker som kunde gästspela i undervisningsgrupperna och svara på frågor under dylika projekt. Detta är sådant jag tycker (skol)bibliotekarier borde syssla med, hjälpa med informationssökning och -hantering i själva arbetsprocesserna. Vilket förstås förutsätter att vi har utbildade informatiker i skolorna. Till att börja med kanske man kan arrangera så att de mest webbkunniga lärarna kunde få sätta lite av sin arbetstid på sådant om man inte får stöd från (skol)bibliotek?

Det känns rätt oroande att man prackar iPads (som är allt annat än öppen programvara) på skolorna, i stället för att fundera över själva IT-kompetensen. Att dela ut senaste teknik är inte en lösning, utan kan tvärtom försena att man tar i det viktiga kompetensfrågorna.

onsdag 12 september 2012

Varför betala 200 miljoner när man kan betala 1,8 miljarder?

Egentligen har jag inte tid att blogga precis nu, men jag vill ändå passa på att samla lite information här medan den ännu finns enkelt tillgänglig. Det gäller det nya patientsystemet som Helsingfors stad, en del andra städer och kommuner och HNS har tänkt skaffa. Idén om samordning är god. Det finns för många system, som upptar för mycket av vårdpersonalens tid och man kan tänka sig att till och med patientsäkerheten kan vara hotad om läkare inte har tillgång till all information. I dagens samhälle borde vilken läkare som helst kunna få tag i all information snabbt och enkelt, oberoende av var man arbetar. På grund av system man skaffat tidigare sitter man nu en snårskog av olika system. Jag har till och med hört att man i tiden avsiktligt spred ut information om folk i olika system, man ansåg det vara tryggt och bra för patienterna!

Det verkar vara ett projekt som pågått en tid, men först nu har beslutsfattare och allmänhet vaknat då kostnadskalkyler presenterats och beslut ska fattas. Tommy Pohjola på Husis har skrivit om projektet - och den minst sagt luddiga beredningen här och i dagens papperstidning. I söndagens Hesari skrev Tuomas Peltomäki om konsultfirmans dubbelroll som utvärderare av system å ena sidan, och nära koppling till det rekommenderade systemet å den andra. Grundproblemet är, enligt mig, att man bryter mot statens egna rekommendationer och försöker köpa en jättelösning av en extern leverantör. Som det framkommer av projektpresentationen är de funktioner som systemet ska omfatta otaliga och oberoende vilket system man väljer kommer det att behöva anpassas och vidareutvecklas av leverantören. Sådana arrangemang är ofta i praktiken öppna checker åt företagen, eftersom det blir ännu dyrare och svårare för köparen dra sig ur än att snällt betala. Projekten kan bli mycket komplicerade. Och dyra.

Prislappen fick en och annan att fara i taket, men orsaken är inte bara priset. Bland kodare har mycket kritiska kommentarer framförts mot hela systemets grund, koden som är gammalmodig, råddig, bitvis uppenbarligen ologisk och som få verkar vilja ta i ens med tång. Inget bra utgångsläge. Det verkar som om många it-kunniga anser att man förutom att köpa ett dyrt system, också köper ett dåligt. Själv irriterar jag mig mest på att man envisas med att upphandla jättesystem av externa leverantörer och envisas med att betala för arbete som görs i stora bolag av folk som kanske är omotiverade och suttit där hur länge som helst och är fast i storföretagets tidigare lösningar, strukturer och hela historiska barlast (ett gammalt system de ska bygga på och bygga på och som man dessutom kanske inte har  incentiv att göra väldigt snabbt och bra, varken från företagets eller den enskilda kodarens perspektiv).

Det är egentligen fullständigt ofattbart att man inte ens beaktat möjligheten att bygga ett system med öppen källkod, trots att det finns att välja på. För det priset man angett skulle man anställa flera tusen kodare för flera år. Exempel finns på att man gjort dylika lösningar till en bråkdel av detta beräknade pris i exempelvis Estland och USA. I stället för att, som man nu gjort med NDB (fi), välja öppen programvara, själv anställa kodare och framför allt framskrida iterativt och hela tiden själv ha kontrollen och kompetensen (och äganderätten) till allt, envisas man med att köpa allt av stora företag och litar på deras goda vilja att allt fixas snabbt och förmånligt. I stället kunde vi verkligen stöda och utveckla vårt eget it-kunnande med att köpa upp lämpliga bitar, så att också mindre och möjligen mer innovativa, kreativa och motiverade kodare och företag kan ge sitt bidrag.

Som sagt, inom åtminstone en del it-kretsar är man mycket kritisk, men man har också gjort annat än gnällt. Man har redan börjat crowdsourcea kring patientsystem, bara för att erbjuda ett alternativ. Ett annat intressant förslag som framkastats av Mika Höök är att man skulle bygga på FPA:s system. Det finns alternativ. Vi måste komma ifrån feltänket att dyrt är bra och gratis eller förmånligt är dåligt. Det stämmer helt enkelt inte inom it.

Den som vill veta mera kan följa denna Facebook-grupp, som satts upp för att diskutera kring ämnet.

Uppdatering: Helsingfors stad har gått ut med info, där de dementerar att kostnaden skulle vara större än för de nuvarande systemen. Alls. I sig en intressant tanke, men lite svårsmält, faktiskt. Idkar it-bolagen och konsulterna välgörenhet?

Uppdatering 2: Om ni följer Facebookdiskussionen, kan det vara bra att känna till detta. Tack Theresa Norrmén för tipset.

onsdag 30 november 2011

Öppen kunskap kom till Helsingfors

I går höll Open Knowledge Foundation sin första Meetup i Finland. Samfundet har ännu ingen finsk sektion, men att bedöma av intresset i går på Kauppis är det endast en tidsfråga när sektionen kommer till. En konferens är redan under planering för nästa höst, liksom flera idéer bollades om mindre möten och seminarier kring mer specifika frågor. Deltagarmängden var imponerande, närmare 80 personer som nåtts av kallelsen via olika vägar på webben. Närvarande fanns forskare från olika områden, it-proffs, företagare, Helsinki Region Infoshare, Finlands Creative Commons och Wikipedia m fl.

Vad är öppen kunskap och öppen data som man vill arbeta för? Det betyder gratis och öppen tillgång till material, rätt att återdistribuera och återanvända materialet utan begränsning (dvs även kommersiellt). Dessutom ska vem som helst ha denna rätt. Arbetet för öppen data och öppen kunskap är en stor rörelse som på ett mycket konkret sätt hjälper och bidrar till att tillgängligggöra i synnerhet data som uppstått i samband med verksamhet som finansierats med offentliga medel. Genom att släppa den fri och berika och återanvända den enskilt eller kollektivt ger man både demokratin och näringslivet en ansenlig vitaminspruta.

Ett par av de viktiga idéer som nämndes igår var ett krav på att alla myndigheters it-system bör vara gjorda med öppen kod (i dag en rekommendation som tyvärr få följer) samt att alla myndigheter borde ha en plan för sina informationsresurser (väldigt få har det). Om dessa krav skulle uppfyllas skulle vi sannolikt spara en hel del skattepengar, eftersom man i dag ofta(st) gör dyra och dåliga lösningar. Eller som någon sade: "Hur många patientsystem kan det behövas i vårt land, egentligen?" Min bedömning är att det ofta handlar om att man inte förstår skillnaden mellan informationsförvaltning och informationsteknik.

Demokratieffekten är också given. På Hesari har man redan en längre tid jobbat med öppen data med mycket intressanta resultat (flera av de killarna var också på plats). En duktig finlandssvensk datajournalist är Jens Finnäs, som senast gjort en visualisering kring inkomstskillnader och beskattning i Finland.

Open Knowledge Foundation har också en blogg som man kan kolla in. För den som vill hänga med är det bara att ta kontakt.

onsdag 19 oktober 2011

Komplext, helt enkelt!

Jag vet inte vilket som gör mig mer irriterad: när enkla saker trasslas till i onödan och blir svåra, eller när svåra och komplexa saker förenklas så mycket att de förvrängs till osanningar. Båda förekommer ofta, i synnerhet då det gäller två frågor: samhället och informationssystem.

Sannfinnarnas politik, liksom all populism, hör givetvis till det förenklande slaget. Genom grova förenklingar serverar man "logiska" och "rationella" lösningar, utan att beakta hälften av alla relevanta faktorer eller allmänt erkända konsekvenser av olika åtgärder. Denna det minsta intellektuella motståndets taktik är av en moraliskt så undermålig nivå, att man inte kan annat än häpna över att någon täcks gå ut med att vara populist - och samtidigt låta påskina att man besitter en bättre moral än makthavare i gemen! Denna paradox illustrerar hela det förvridna resonemanget, som ligger till grund för denna förenklandets filosofi.

Man kan hitta den i mer dolda former på många håll i vårt samhälle i form av enögda truismer och politiska "faktum", som dessutom inte sällan baserar sig på ekonomiska resonemang och argument, som är bristfälliga eller föråldrade. En av de värsta just nu är enligt min åsikt truismen att större enheter per definition är effektivare. Detta är en kopiös förenkling. Dessutom är jag fullständigt övertygad om att det kommer att visa sig att mindre enheter är effektivare, eftersom de kräver mycket mindre administration och är mer flexibla och dynamiska. Jämför en liten firma med ett stort ämbetsverk. Var jobbar man till hundra procent med relevant kärnverksamhet och har möjlighet att snabbt lägga om sina processer vid behov - och var sitter omotiverade anställda på strategimöten och använder timmar på att fylla i reseräkningsblanketter och arbetstidsuppföljningsrapporter? Förr eller senare kommer det föregående slaget av verksamhetsorganisation (som också kan appliceras inom större organisationer) att konkurrera ut de förstelnade ineffektiva organisationerna och företagen, som sätter tiotals procent av sina resurser på en administration, som de facto sänker produktiviteten på många sätt. Och som dessa "effektiveringar" genom sammanslagningar skapat och fortfarande skapar.


Men ibland fungerar det precis tvärtom: jag ser det inte sällan då det gäller informationssystem. Ta nu till exempel ett universitet, där man inte av "säkerhetsskäl" kan sätta upp trådlösa nät för besökare på exempelvis konferenser. I stället bör varje deltagare registrera sig och få ett personligt lösenord på en lapp och använda universitetets normala nät. Som om detta var en mindre säkerhetsrisk, än att sätta upp ett separat öppet nät? Man både krånglar till kommunikationen och skadar verksamheten otroligt mycket, och åstadkommer, vad jag kan förstå, i själva verket en större säkerhetsrisk. Ett praktexempel på Parkinsons lag, måste jag säga.

Tyvärr sker den här typen av missar särskilt lätt i just de stora enheterna, där rationalitet och pragmatism i hela verksamhetskulturen för länge sedan omöjliggjorts genom att man skapat administrativa system och beslutsordningar mm som hindrar folk som ser vad som enkelt borde och kunde göras för att främja verksamheten, från att komma till skott och få något gjort. Detta leder till en riktigt ond cirkel. Att man sedan försöker rädda det hela med ökad kontroll är ju snarast sorglustigt. Den offentliga sektorns inkompetens att upphandla it-system har nu exempelvis resulterat i ökad kontroll från finansministeriets sida. Det tvivelaktiga i åtgärden är just det megalomana storprojekts-perspektivet med stora upphandlingar som alltid leder till att användbarheten blir lidande, eftersom dylika projekt borde tas fram mer iterativt. Ministeriet borde erbjuda dialog, stöd och lösningar. Striktare regler leder sannolikt bara till större absurditeter i systemutvecklingen.

Vad jag hoppas på är att folk börjar agera och tänka självständigt. Vi behöver en liten revolutionsrörelse också i väst, vilket ju också på sina håll kommit i gång, inte minst på webben, där människor har möjlighet att bidra och påverka. Enkelt är enkelt och komplext komplext. Alltid är det ju inte som man först trott, och därför är flexibilitet och lösa strukturer så särskilt viktiga för att uppnå goda resultat i vår komplexa tid.

lördag 6 augusti 2011

Narrationen - en lösning?

Nu skriver jag ett inlägg à la Kemppinen, går tvärt emot alla retorikens råd och börjar nånstans långt i från ämnet, med något som har litet med själva poängen att göra. Men efter att ha läst Raattamaas text om boken Framtiden (tack till Anu Koivunen för tipset) och inte minst kommentarerna känner jag att det ändå finns en tematisk koppling här. Detta inlägg handlar nämligen egentligen om Lev Manovich bok The New Media Language.

Raattamaa kommer med ett intressant antagande: att vi kommer att få se allt mer av skönlitterära kommentarer till olika ekonomiska eller motsvarande företeelser. "Fiktionen som konsultrapport", säger han. Han har sannerligen en poäng. Storytelling har ju redan en längre tid varit ett grundelement i konsulters och olika "ledares" kommunikation. Men som Raattamaa säger är konsten mycket svårare än man först kunde tro. Dessa visioner och berättelser blir ofta pinsamt dåliga. Att kunna tala i liknelser utan att vara banal är få förunnat. Dessutom borde man ju faktiskt kunna tillföra något, rent intellektuellt eller kognitivt, eller vad man vill kalla det. Att kunna vara djupsinnig och mångbottnad utan att vara flummig kräver stor skicklighet. Det finns en helt klar orsak till att jag aldrig vågat skriva skönlitterär text. Det är alldeles för svårt. Jag hyser stor respekt för dem som kan göra det bra.

Ändå är berättelsen viktig som format för att vi ska kunna förstå oss själva och världen omkring oss, som Paul Ricoeur skrivit. Lev Manovich å sin sida lyfter fram den digitala världens i grunden motsatta struktur: den ohierarkiska, atomistiska och för människan direkt obegripliga datan. För att kunna tolkas av människan behövs en "algoritm", en process och en överbyggande struktur. På sätt och vis är dessa narrativa element. Så har berättelsen blivit tydlig och viktig i den oöverskådliga digitala verkligheten. Liksom boken och tryckkonsten och deras påverkan på vårt samhälle blev aktuella och intressanta när det digitala publicerandet blev vardag, på samma sätt har också berättelsen kommit i fokus när vi är omgivna av stora mängder data och information. Med hjälp av narration kan vi strukturera och binda ihop vår värld och oss själva som personer.

Manovich går igenom de drag man ofta förknippar med nya medier och visar att många drag, så som multimedialitet, interaktivitet och mångfaldigande, i själva verket redan funnits i tidigare media. Däremot pekar författaren på egenskaper hos nya medier som han anser vara av större betydelse: programmerbarheten som datorkoden ger, modulariteten, den ökade betydelsen av databasen som form (i motsats till det lineära eller narrativa) och framför allt gränssnittets navigerbara rymd.

Det är intressant hur Manovich knyter den tekniska utvecklingen till den samtida kulturella utvecklingen. Han ser också en framtid där de nya medierna tydligare frigör sig från den narrativa strukturen, fastän han går ändå inte riktigt lika långt som Jaron Lanier som drömmer om en kommunikation helt bortom alla språk. En sak som är viktig att minnas när man läser Manovich är att han inte likställer nya medier med digitala medier. Själv tror jag inte riktigt på att människan någonsin kan hantera stora mängder information utan att bearbeta den i form av berättelser.

torsdag 30 juni 2011

Lite till om arbetsfördelning och effektivitet

Det var ännu en poäng som inte rymdes med i gårdagens svada: den naturliga tendensen att utlokalisera kostnader/arbete. Det är ju vad man sysslat med inom handel och banker de senaste decennierna: låt kunden göra arbetet. I vissa fall har det ju blivit riktigt bra och kanske till och med bidragit till en för konsumenterna gynnsammare prisutveckling resp. högre löner.

MEN: när administrationen inom en organisation börjar bete sig lika mot resten av organisationen är det dags för ledningen att se till helhetsintresset och försvara kärnverksamheterna. All byråkrati har en tendens att börja utvecklas som en cancersvulst (observera det är ett systemfel som inte beror på människorna i systemet). Det är av största betydelse att den högsta ledningen kan prioritera god planering och informationsförvaltning som stöd för verksamheterna. Inga förändringar borde göras på administrationens villkor.

Stötte nyss på ett fint citat av Albert Einstein: "Everything that can be counted does not necessarily count; everything that counts cannot necessarily be counted."

onsdag 29 juni 2011

Avspecialisering

Jag vill minnas att vi redan i grundskolan fick lära oss om hur människans moderna kulturer hänger samman med den tillväxt som skapats genom specialisering i samhället. Genom ökad arbetsfördelning har det uppstått förutsättningar för ökad produktivitet. Resurser har frigjorts för investering och innovation, välståndet har ökat. Jag tror man sade att utvecklingen varit särskilt kraftig då man blivit bofast och börjat bruka jorden, men särskilt då större samhällen uppstått där det uppkommit ännu större utrymme för specialisering.

Människor har olika intressen och styrkor. Då man fördelar arbetet så att de mer framstående inom olika områden utför respektive arbete blir uppgifterna bättre och mer effektivt gjorda. Det här är ju också en av grundidéerna med marknadsekonomi.

Sen kom maskinerna som kunde utföra arbete än mer effektivt, snabbare och med jämnare kvalitet och dygnet runt. Det behövs ändå människor för att sköta dem och administrera verksamheten.

I och med informationsteknologin har man också kunnat överföra en del av dessa administrativa uppgifter på maskiner. Problemet är att det nu är svårt att längre mäta eller se hur mycket effektiviteten ökar. Informationssystem är mycket dyra och det är helt korrekt att man frågar sig om lönsamheten med dylika investeringar. Därav det eviga tjatet om ROI, return on investment, som är den magiska kalkylen som förväntas varje gång. I förväg, ofta i ett alldeles för tidigt skede. Enligt erfarenhet har dessa kalkyler litet att göra med verkligheten. De flesta informationschefer anser att siffrorna är mycket opålitliga.

Min personliga uppfattning är att högsta ledningen i organisationer kräver dessa uträkningar i inledningsskedet, medan uppföljningen haltar. Det beror på att operationer med systemutveckling eller -byten påverkar processer på svåröverskådliga sätt. Vad värre är har man sällan tillräckligt engagemang av slutanvändarna. Helhetsbedömningen är svår.

Ofta är stora systemleverantörer involverade. De lovar gärna guld och gröna skogar. Att inom den egna organisationen upprätthålla tillräcklig kompetens för att ha full insyn och kunna underhålla och utveckla ett system är en strategi som få väljer. Det är enklare att tänka sig att man köper in kunnandet av "experter". Experterna är ändå ofta it-experter, oftare än experter på den ifrågavarande organisationens verksamheter och processer. Siffror är väldigt lätta att presentera, men svårare att förankra eller anpassa på en specifik organisation.

Alla vet hur det gått med det "pappersfria kontoret". Kejsarens nya kläder. I kvadrat. Samma fenomen gäller tyvärr med en hel andra "rationaliseringar" genom it. Ett annat exempel är reseräkningarna, ökända inom alla organisationer jag hört om som har system för ändamålet.

Det handlar också om förvaltningens förmåga att se till sina egna intressen. Man omorganiserar arbete för att få bättre kontroll och mindre arbete (?) för förvaltningen. I praktiken gäller det att överföra arbetsuppgifter från administrationen till dem som sysslar med kärnverksamhet. För det är är ju så det går. På samma sätt som kraven på husmödrarnas arbetsresultat stigit i takt med att hushållsmaskinerna ökat. Lyckligtvis har väl resten av familjen trätt till hjälp numera i många familjer. En mer välkommen form av avspecialisering.

Vad det hela leder till är ju nämligen just avspecialisering, en bakåtutveckling. Eller vad sägs om när det tar ca 90 minuter totalt för en expert att fylla i en reseräkning (som kommit som bumerang två gånger från bokföringasavdelningen) på summa 42 euro. Eller en annan expert i en annan organisation som måste skanna in varje lilla kvitto separat och spara som pdf och mejla dem till bokföringen. Använd tid: 43 minuter.

När jag arbetade på universitetet skulle hela personalen utbildas i användningen av det nya (numera ökända) systemet. Sannolikt gick det minst 5 000 arbetstimmar på kursbänken. Möjligen det dubbla. Professorer har dessutom inte helt liten timlön. Det tar dem sannolikt minst dubbelt så länge att använda systemet, än det skulle ta en amanuens och bokförare att fixa samma sak. På ett enhetligt och korrekt sätt med en gång.

Den enda slutsatsen man kan komma till är att antingen är den administrativa personalen seriöst överbetald (ungefär tre gånger så hög lön som de som jobbar med kärnverksamhet, minst, om man räknar med systemets kostnad). Eller också skulle man uppnå bättre produktivitet genom att använda specialiserad personal för dylika rutinuppgifter.

Det värsta är, att jag kan se framför mig hur man sakta inser detta inom organisationerna om man börjar följa upp det hela på ett mer omfattande sätt. Och så klagar man på att it är dyrt. Med slutresultatet att förvaltningens personalstyrka ytterligare ökas, på bekostnad av annan verksamhet. Men själva systemen blir man inte så lätt av med. Överadministration är beklämmande och informationsförvaltning svårt.

Man borde inte spara på planering. Man borde hålla systemen så lätta som möjligt och ha mer förtroende för folk. Förtroende är faktiskt inte så dyrt. Den som vill missbruka system gör det ändå. Men det kostar både pengar och minskar motivation att idka kontroll. En liten procent skolkande sluskar är ändå billigare för organisationen än haltande kontrollsystem. Dessutom riktas då eventuell negativ uppmärksamhet och press i arbetsgemenskapen mot fuskarna och inte mot ledningen.

söndag 5 juni 2011

Journalism och kritik

De traditionella mediernas viktigaste existensberättigande är i dag den kritiska hållningen. Sådan som får ta tid, som kräver reflektion och en hel del arbete. Som ger trovärdighet. Journalisten borde i dag mer än någonsin sträva till en kritisk objektivitet vad gäller fakta. Att ta fram och analysera fakta, vad som är sant och hurdana olikadana sanningar och tolkningar det finns och varför. Det är det som i regel skiljer journalistiska material från till exempel random bloggar, där skribenter fritt får presentera subjektiva tankar utan reservationer. Mångfalden och analysen kommer där förhoppningsvis från omvärlden i form av länkar eller kommentarer på olika håll.

Man blir därför minst sagt fundersam över det sätt som Helsingin Sanomat den 1 juni på sina kultursidor presenterade de senaste resultaten av det i och för sig mycket lovvärda projektet HS Open, där Sanomakoncernens samarbete med experter på semantisk kodning tagit ett av sina konkreta uttryck. Sanoma har gjort ett strategiskt val att satsa hårt på denna typ av teknisk utveckling. Bra så.

Inom projektet har man gjort intressanta analyser av det politiska fältet både före och efter valet genom gruvdrift i olika dataresurser (t ex den politiska värdekartan). Man har också gått in på kulturens område. Genom bland annat samarbete med bibliotekssektorn och med BTJ:s välvilliga inställning hackade man hel del data om litteratur. Det var utgående från detta projekt man skrivit en artikel till kultursidan.

Det hade varit ett mycket gott tillfälle att problematisera denna typ av metod, en metod som tydligen anses vara en viktig del av framtidens grävande journalistisk. Det är ju nämligen så att de rasande mängder av data som också blir allt med öppna, kräver en hel del arbete för att analyseras. Och kritik. Både data och metoder måste utsättas för extremt noggrann kritisk analys. Därför är det bra med samarbete mellan it-kunniga och journalister. Men journalisterna borde stå för den innehållsliga kritiken, att den görs. Ni vet, det där med att kolla flera källor osv. Hesaris artikel om den genomsnittliga finska romanen var till största delen verklig pseudovetenskap. I och för sig helt skojigt diskussionsunderlag. Men det hade ju minsann varit bättre om diskussionen förts kring vad man de facto överhuvudtaget kan mäta på detta sätt, och vad som inte kan mätas. Och vad som kanske är relevant, också.

I dagens Helsingin Sanomat far Timo Harakka ut över tidningens politiska reportrar, som uppenbarligen slarvat ordentligt i hantverket. Man skulle inte ha råd med sådant. Inte pruta på journalistisk kvalitet nu!

fredag 27 maj 2011

Förstärklighet?

Augmented reality kallas teknik där man blandar information från webben med information från verkligheten. Man kan göra det till exempel genom att via mobiltelefonen hämta information om platsen där man befinner sig eller genom att berika tv-sändningar med uppgifter eller grafik från en databas.

Termen agumented reality finns i Rikstermbankens databas. Norstedts ord anger förstora, förstärka, utvidga som översättningar för augment. Så vad skulle egentligen vara ett bra svenskt uttryck?

Wikipedia uppger förstärkt verklighet, med reservationen att det inte är helt etablerat ännu. En rundringning på Twitter gav roliga förslag: Staffan Nilsson föreslog utökad verklighet som nog är bättre än Wikipedias förstärkta verklighet, enligt min mening. Micke Hindsberg föreslog virtuellt utvidgad verklighet, som jag tycker är mycket beskrivande och begripligt. Jenny Wiik föreslog utvidgad verklighet. Det är också bra, kort och klart. Fast något surrealistiskt kanske.

En av mina favoriter var ändå Pär Nilssons förstärklighet. Nog som mer som ett skämt framkastat. Men jag gillar det. Vad tycker ni? Måste ordet verklighet finnas med?

fredag 8 april 2011

Människor och system

I vårt samhälle tenderar vi tänka att ju högre grad av organisation, system och kontrollerade processer vi har, desto modernare, effektivare och bättre är verksamheten. Att processer, personer och information som inte är väl inordnade i dessa system per definition är ineffektiva eller problematiska, är ett antagande, som sitter djupt i många organisationer där man planerar förändringar och utveckling. Vilket ju är det bestående tillståndet på allt flera håll. Ve den organisation som inte har minst fem utvecklings- eller omorganiseringsprojekt eller kanske till och med strategiprojekt på gång.

I detta tankesätt finns dessutom inbakad en idé om att man bör vara kund/brukarorienterad, vilket i värsta fall tolkas så att man listar tjänster som man tänker sig att folk behöver och sedan planerar informationssystem och organisation enligt det. Detta tillvägagångssätt fokuserar i själva verket helt på den egna organisationen, processen och systemen. Dessutom är det extremt lätt hänt att man i hasten glömmer bort att i stället fundera över vilka kompetenser som egentligen finns och vad folk vill arbeta med (dvs är duktiga på och motiverade att syssla med).

Det var därför mycket befriande och roligt att i går få höra Charles Leadbeater tala i Helsingfors vid Forum Viriums femårsseminarium. Man förstår väl hans framgångar som en av de mest inflytelserika personerna i Storbritannien och en återkommande rådgivare för stora företag och organisationer. Hans förmåga att klart lyfta fram det väsentliga och se förbi och över invanda tankemönster och allmänt accepterade s k sanningar är uppfriskande och inspirerande.

Leadbeater berörde också sitt pågående arbete, sin nästa bok. Det var då han kom in på detta med systemintensiva och svagt systematiserade miljöer. Han kompletterade denna vertikala axel med en horisontell axel med grad av empati, alltså hur mycket man faktiskt beaktar det faktum att människor i gemen är extremt ointresserade av system. Systemen ska vara osynliga, det är relationerna och människorna som är det viktiga.

Det är ganska givet att de mest kreativa sakerna händer på området med låg nivå av systemintensitet och en hög grad av empati. Medan de miljöer där man har mycket fokus på system och inget intresse för människor och relationer blir stendöda, förr eller senare.

Helt konkret betyder detta ett man måste tolerera en hög grad av öppenhet och osäkerhet om man ska skapa miljöer som fungerar bra och som engagerar. Metoderna måste vara iterativa och arbetet ske i närvaro av dialog med användarna. Leadbeater återkom alltså till sitt gamla credo: arbeta inte för folk, arbeta med dem.

måndag 28 februari 2011

Tomma, kalla räknemaskiner

Äntligen har jag läst ut Jaron Laniers bok You are not a gadget. A manifesto. Jag måste börja med att säga att det för mig varit en viktig bok. Den har både direkt och indirekt hjälpt mig att formulera en del grundläggande tankar, trots att jag lite måste fundera på att förpassa Laniers bok i extremismhyllan. Författaren medger förstås själv att han provocerar och tillspetsar saker. Hans ansats är ändå mer teknisk och filosofisk än t ex Nicholas Carrs. Därför gillar jag honom bättre. Hans tänkande känns mer stringent, fast jag känner att jag som historiker "borde" ha större förståelse för Carr. Trots att det är Lanier som rör sig på gränsen till nånsorts halvflummig new age-andlighet, upplever jag honom mer saklig än Carr, som enligt min smak förfaller till en del allmänt himlande.

Lanier tekniska kompetens och långa karriär i Silicon Valley gör att han kan se hur de tekniska lösningarna som segrat i konkurrensen i datorns och inte minst programvarornas historia påverkar vår kultur och också vår självuppfattning. Han oroar sig för att människorna och mänskligheten blivit så förminskade och ibland osynliga på webben. Folk nöjer sig med att fylla i några fält och kruxa några rutor här och där och skapar sig representationer på webben, som sedan kraftigt påverkar deras självuppfattning. Tillplattade, förenklade profiler blir "personer", med vars hjälp sedan företag spionerar på oss. Lanier har många slagkraftiga formuleringar på lager: "Stop calling yourself a user. You are being used."

Det för Lanier mest absurda och oroande är att vi i dag är färdiga att betala för tekniken, men inte för innehållet. Han menar att vi måste förstå att de som skapar innehåll, kultur, texter, bilder och musik på webben är kreativa människor, som borde få den belöning och erkänsla de behöver för att klara sig. I dag har all webbkultur bara blivit en enda stor kaotisk röra, som egentligen gjort kulturell "evolution" omöjlig (samma har ju sagts om människans evolution i dag). Lanier påpekar att ingen musik gjord efter millenieskiftet går längre att identifiera på basis av stil. Det har inte kommit något nytt: medan varenda unge vet att heavymetal inte kan härstamma från 1940-talet eller en rap-låt från 1960-talet, finns det ingenting specifikt nytt stilmässigt sedan digitalkulturen (och piratismen) slagit igenom. Jag vet inte om jag kan bedöma om han har rätt. I viss mån kan man ju tänka sig att webben också leder till en massa små minisubkulturer, som man bara inte kan urskilja i dag. Om nu sedan den stora underhållningsindustrins styrning av populärkulturen var så mycket bättre. Men i alla fall fick ju en del konstnärer sitt levebröd på så sätt. I grunden har han ändå en mycket viktig poäng: "Right now we get certain free cloud services in exchange for being spied on and not being paid, while still overpaying for bandwith. It's a bad bargain. ... If online activity is ever to support a middle class, then there has to be peer-to-peer commerce, not just fluke commerce for the few who become the very most famous."

Han kommer här in på en annan central fråga, nämligen att webbekonomin också kräver stora företag, och att det dessutom i själva verket enligt honom verkar finnas starka mekanismer som driver det hela mot ett antal monopol. Han jämför utvecklingen, tycker jag skarpsynt, med allmän samhällsutveckling. " ... it is inconsistent to support the "free/open" ideal and also hope for net neutrality in the long term. ... True democracy is hard to sustain if society doesn't have a middle class."

Benhårt försvarar Lanier människan och värdet av mänsklighet och kreativitet mot allt slags "svärmtänkande". Han ser ändå också möjligheter, förstås, och vill inte vara teknikfientlig i sig. Men han oroas av hur lätt människor förleds av tekniken och företagen bakom dem. Folk är okunniga och omedvetna användare av webben och förhåller sig okritiskt, eftersom de sällan frågar sig om det finns alternativ. Samtidigt som sociala medier och öppen data framstår som mänskliga, konstruktiva och generösa fenomen, är det inte alls sagt att de är det. Datorerna är ändå bara stora räknemaskiner, som omöjligt kan förstå ett iota av någonting. Allra minst något om hur det är att vara människa.