I tisdags besökte Murthy Helsingfors och berättade om hur han använt olika metoder för att gräva i data från till exempel Twitter. Främst LDA (ett sätt att plocka fram teman/ämnen ur stora textmängder, s k topic modeling) och SNA (nätverksanalys). Det han särskilt tyckte var fint med det senare är hur man kan se saker både på mikro- och markonivå med hjälp av visualiseringarna. Han betonade också vikten av att kombinera både data och metoder. Han talade om triagulering, att pendla mellan nivåerna, mellan "närläsning" och "distansläsning" och hade rikligt med exempel på hur man meningsfullt växlar mellan metoder och perspektiv, mellan kvalitativa och kvantitativa metoder.
Timo Honkela talade, som andra keynote på det vetenskaps- och teknikhistoriska symposiet, också om hur forskningsmetoderna och -processen förändrats från att vara teoridrivna till att vara datadrivna. Vad han däremot underströk var att data också kräver modellering av variation. Logik räcker inte då vi arbetar med naturligt språk som material. Vad som behövs är enligt honom artificiell intelligens, alltså system som kan lära sig och anpassa sig till språkets otroliga rikedom, nyanser, ambiguitet och föränderlighet. Dessutom lever vi människor i en multimodal värld, där inlärning och språk förhåller sig till så mycket andra intryck, tecken och kontexter än bara text. Honkela ser också att dessa nyare metoder att närma sig textdatamaterialen gör att när- och distansläsning närmar sig varandra.
Murthy talade förresten också om insamling av data och svårigheterna för forskare att få tillgång till data som skulle vara mycket viktig för att forska i samhälleliga fenomen och problem. En oroväckande utveckling, som jag ofta brukar lyfta fram.
Bild (ström): Meg Pickard CC-BY-NC-SA
Inga kommentarer:
Skicka en kommentar