Rubriken här ovan är påhittad av OpenAI:s gratisversion av ChatGPT baserad på GPT-4-teknologi (2025) efter en stunds chattande hit och dit om vad jag tänkt blogga om. Man kan chatta en stund gratis med GPT-4, innan man blir förvisad tillbaka till en äldre version, som nog är hackigare.
Det intressanta jag upptäckte nu var att appen meddelade mig vilken information om mig den sparade i sitt minne, t ex att jag tycker att "hajp" inte funkar för mig på finlandssvenska och att jag tycker att artificiell intelligens (AI) bara är en teknologi bland andra. (Det senare bad jag nog om ursäkt för, eftersom jag hört och också konstaterat att man får bättre resultat om man är artig ...) Självklart kändes det lite otäckt att se hur systemet profilerade mig, samtidigt som jag vet att det är just tack vare det den kan tjäna mig bättre. Och därför är det också bra att berätta för systemet vad man vill, varför och annan kontext, pladdra på och diskutera, gå i dialog, för att uppnå bästa resultat.
Poängen är, att OpenAI i detta fall är transparent. Profilering görs ju av alla (bra) tjänster idag. Att visa när och hur det sker är däremot inte självklart, i synnerhet inte så här tydligt.
Som sagt, anser jag, att AI är ett verktyg bland andra. Jag tror inte på hotet från någon
singularitet, däremot kan säkerligen enskilda AI-system löpa amok om man inte utvecklar och använder dem ansvarsfullt. Jag tror inte heller på någon noggrann teknisk reglering. Det är samma etiska principer som gäller som med vad som helst annat.
EU:s reglering är därför rätt tänkt. Ansvarsfull användning av AI kräver att man beaktar många dimensioner och gör etiska avvägningar gällande värderingar, risker och också nytta. Redan nu har AI hjälpt oss att lösa otaliga problem (se t ex
Alphafold ,
cancerscreening,
extrema väderförhållanden,
klimatförändring,
logistik). Det skulle snarast vara oetiskt att
inte försöka lösa allvarliga problem med AI. De etiska problem som oftast verkar diskuteras i samband med risker handlar dels om integritet, dels om upphovsrätter. Åtminstone i EU är de lätt dessa aspekter som väcker oro och krav på reglering.
En sak som ofta också väcker oro är att de avancerade modellerna anses vara svarta lådor, vars funktion eller logik man inte nödvändigtvis kan förstå eller reproducera. Den här oron är på sätt och vis lite lustig tycker jag: hur många av oss
förstår hur telefonen eller datorn eller webben fungerar, även frånsett AI? Vi litar på att sakkunniga och leverantörer handlar ansvarsfullt. Men vad är tillräckligt ansvarsfullt? Mycket handlar om förtroende, som kan byggas med transparens och pålitlighet gällande verksamheten. Då det handlar om AI-baserade eller -nyttjande tjänster, handlar det om hur man skapat och underhåller systemen och modellerna. Här är datahanteringen en inte obetydlig del av processen.
I dag förbättrar och anpassar man AI-modeller och -system för specifika syften. Ett företag eller en organisation har alltid (förhoppningsvis)
ett problem de vill lösa med AI, en viss kontext och vissa material och processer som är aktuella. Inlärningen kan göras endast med data, och häri ligger en praktisk utmaning för många:
man måste ha dokumenterad och bra data som man vet vad det är. Börja alltid med data, är ett återkommande råd. Data måste vara representativ och fungerande. Många gånger är det i detta skede man inom företag och organisationer på allvar inser betydelsen av informationsförvaltning. Ska du ha ett AI-system, måste du dessutom kunna hantera inte bara dataströmmar utan även följa och anpassa uppdatering av modellerna med hjälp av konstant kvalitetsuppföljning. AI-system är inte något man en gång sätter upp och sedan lämnar åt sitt öde. Världen förändras, därmed förändras också data och AI-system tickar på enligt en logik som med tiden kan bli snedvriden den också. Om man inte är på sin vakt har ens AI-system plötsligt
drivit iväg och delar glatt misinformation eller pratar strunt.
Vad är då bra data för AI? Datas kvalitet definieras helt utgående från vad de ska användas till. Det samma gäller här: vad AI-modellen eller -systemet ska användas till är helt avgörande för val av data. Oftast är mera data bättre än mindre data, data från flera källor bättre än data från en enda källa. Att kombinera dataset är också en konst och kan göras på olika sätt, med olika noggrannhet. Och förutom de enklare juridiska frågorna om personuppgifter och upphovsrätter finns också frågor om till exempel representativitet. Man måste genuint förstå sina data, de måste vara dokumenterade.
Dessutom är det viktigt att skilja på träningsdata och testdata, annars har man ingen verklig uppfattning av hur väl systemet funkar. Det blir snabbt uppenbart att man måste hålla reda på sina data för att klara av att få nån verklig nytta av AI för mer omfattade processer. Dessutom krävs det aktiv styrning av själva användbarheten och skapandet av etiska lösningar i systemen, eftersom
de inte uppstår av sig själva om man bara närmar sig uppdragen som ett tekniskt problem.
Nu har man alltså på många håll vaknat till att
datahantering och informationsförvaltning är nyckelområden i en effektiv och ändamålsenlig och "AI-färdig" organisation. För att bli "AI-färdig", dvs "kunna använda AI", som
en majoritet av företag idag vill, måste man satsa på interoperabilitet, planering, dokumentation och utbildning samt kvalitet gällande data och processer. Allt detta är saker som gynnar organisationer och i slutändan oss alla som medborgare och kunder. Mindre yrande, effektivare system, beslut fattade på basis av korrekt evidens, rätt info på rätt plats vid rätt tid. Det är inte osannolikt att denna bieffekt av AI-boomen blir stor den också. En positiv effekt, vare sig man sedan i slutändan specifikt använder AI, eller inte.