Läsningen av Berrys Understanding Digital Humanities går vidare. Nivån är fortsättningsvis hög och texten tankeväckande. För mig förädlades tanken om språkexplosionen till en lite skojig, men förstås haltande, parallell mellan latinets forna ställning och funktion vid universiteten och den ställning programmering borde ha i dag: ett universellt språk, som också fyller en instrumentell funktion av logiskt och retoriskt klarläggande. Skillnaden är förstås den, att latinet var ett språk, programkoderna är … ja, hur många? Men alla har samma krav på logisk koherens. En del mer än andra, vad jag förstått. Dessutom står ju kodlogiken ibland i direkt konflikt med hur vi uppfattar världen. Alla koder medger inte all sorts modellering av världen. Men då vi tvingas reflektera över sådant, tvingas vi också analysera hur vi själva egentligen uppfattar olika samband och strukturer i världen. Inte illa i sig.
Bernhard Rieder och Theo Röhle skriver i en av artiklarna om de fem utmaningar de digitala forskningsmetoderna medför. Detta är en ypperlig checklista, tycker jag.
1. Chimären om objektivitet
På nått märkligt sätt tycker vi att siffror är objektiva, neutrala och mer sanna än andra typer av information. Humaniora försöker kanske bli mer tungt och hårt (i Snowsk tappning) genom att anamma kalkyler som metod? Detta är en tendens som historiskt återkommit med jämna mellanrum under lärdomshistoriens gång. Jag tycker att författarna inte riktigt vederlägger detta antagande med tillräcklig kraft. Alla siffror representerar något, och de är alla delar av en modell, där någon eller några personer gjort en tolkning av något. Rieder och Röhle ser problemet mer i tolkningen av resultatet, medan jag ser redan uppkomsten av sifferdata som ytterst problematiska förenklingar som man aldrig får glömma att ifrågasätta.
2. Styrkan av visuella bevis
Detta är en mycket intressant poäng, hämtad av Bettina Heintz: Förutom siffror, tenderar också visualiseringar att tolkas som "fakta", medan bevis i textform uppfattas som "argument". Detta beror på att argumentationen är transparent i texten, medan siffror och visualiseringar ofta på ett väldigt effektivt sätt kan dölja underliggande tolkningar, antaganden och resonemang. Vi behöver definitivt lära oss källkritik på visusliseringar. Det är svårt.
3. Den svarta lådan
Datorprogrammen, algoritmerna och koden lämnas för ofta utanför ordentlig granskning. Data och kod är delar av forskningsmetoden som kan vara svåra att kontrollera. Förutom att detta kräver tillgång, som kan vara begränsad av många skäl, kan dessa också vara mycket svåra att analysera och förstå sig på. Man bör därför gärna, om möjligt, använda olika verktyg (och således metoder) för samma uppgift, exempelvis för att samla data eller göra sökningar. Då kan man också göra jämförelser och konstatera eventuella skillnader i resultatet.
4. Interdisciplinariteten
Digital humaniora kräver genuint och integrerat samarbete mellan människor från olika discipliner, med olika kompetenser. Hur klarar vi detta och vad kommer det att ha för konsekvenser i längden?
5. Jakten på universalism
Hoppet om att finna en sanning, en universell förklaring på allt, att generalisera modeller inkorrekt, på fel domäner och överföra regelbundenheter på områden där de inte stämmer är en frestelse, som växer sig ännu större med de "allmängiltiga" verktyg datorer till syner erbjuder. Idéer om nätverk, komplexitet, fraktaler, kaos, självstrukturerande system, emergens, entropi och what not kan vilseleda oss och göra att vi missar det som är unikt i olika sammanhang och dölja hur komplex verkligheten de facto är och förleda oss att glömma att modeller alltid bara är modeller och förenklingar.
Mycket bra observationer. Jag har funderat en del på "den svarta lådan"-problematiken i relationen till handläggning i offentlig sektor. Idag instrumenterar vi den i system och det är i många fall svårt att få reda på detaljer i hur handläggningen utförs (ibland automatiserat).
SvaraRaderaI relation till detta finns konsekvenserna av modellering av information i en ontologi. Konsekvenser av modellering innebär alltid en anpassning av verklighetens fakta mot modellen. Olika val av modelleringssätt och konstruktioner för data ger olika påverkan på möjligheterna att dra slutsatser av information. Här skulle man vilja se en större medvetenhet om hur information påverkas.
Absolut, jag håller med dig, Peter. Problemet gäller förvaltning, forskning och exempelvis (databas)journalistik. Berry frågar sig också om digital humaniora inte borde vara den nya grundkompetensen inom högre utbildning, så som jag tolkar honom. Digital humaniora i just den betydelsen, dvs att forska och förstå hur mjukvara påverkar allt vi gör. Hela vår värld och allt vi gör är fullt av digitala artefakter. Det estniska initiativet att lära kodning i skolan tycker jag inte heller är helt fel. Man kan förstås inte förstå allt, alla nivåer osv, men det vore viktigt att alla förstod vissa grundprinciper.
SvaraRaderaYtterligare en sak som oroar mig mycket är datans kvalitet. Ibland bygger den på undermålig information, vilket är rätt skrämmande. Kompetent kritisk analys blir allt viktigare ju "användarvänligare" system vi får, för användarvänlighet innebär ofta i praktiken att man döljer "irrelevant" information för slutanvändaren.
SvaraRaderaIntressant. Interdisciplinaritet kräver kommunikation, som kräver ett gemensamt språk (universalism och formalism), som söker efter objektivitet, som behöver bevis, som undviker svarta lådor och tar till visualisering. Men vänta, visualiseringen är en metafor och har en inbakad tolkning av siffrorna. Gå till roten, alttså, då har vi bara datan vi kan dela interdisciplinärt. Uppstår det förståelse eller sitter vi ohjälpligen i en problematiskt sluten silo? På något sätt söker jag efter en top-down metod (data skulle vara där nere, i min metafor...).
SvaraRaderaKommunikation är nyckeln, och face-to-face-kommuniktion är den verkliga bredbandskommunikationen. Som jag ser det måste man tänka på att datan inte kommer från ingenstans, utan det är en sorts rundgång från IRL -> språk (el bild) -> information (el bild) -> kod -> data och tillbaka. Men man borde checka vid varje steg hur väl det motsvarar de föregående stegen: vad har fallit bort, vad har skrivits om och förändrats eller förvrängts ... Data kommer alltid nånstans ifrån, den är aldrig sann eller falsk i sig för den saknar betydelser och mening. Därmed inte sagt att den är oviktig. Tvärtom. :)
SvaraRadera