Kollektivt arbete (crowdsourcing)

Jessica Parland-von Essen

Webben erbjuder också möjligheter att samarbeta med frivilliga och intresserade lekmän, till exempel i form av det som på engelska kallas crowdsourcing. Det finns många uppgifter som inte kan utföras maskinellt, utan kräver att en människa tolkar något eller manuellt kompletterar material. I vissa fall utbetalas också ersättning för dylikt arbete inom till exempel kodningsarbete.[1] För exempelvis arkiv är denna typ av gratis crowdsourcing eller på finlandssvenska talkoarbete en värdefull resurs, eftersom behovet av metadata och förbättrade sökningar är skriande samtidigt som resurserna är mycket begränsade. Det kan diskuteras i vilken mån det handlar om en förändring av forskningsmetoden eller bara ett nytt arbetssätt, vilket inte alltid är samma sak. I vart fall kräver också detta eftertanke då man granskar forskningen och dess resultat. Hur har informationen som finns producerats och på vilket sätt har man kontrollerat kvaliteten? Vilken inverkan har enstaka fel på forskningens resultat och kan det finnas strukturella eller systematiska fel, som påverkar kvaliteten?

Artikeln om “Citizen Science” på Wikipedia (http://en.wikipedia.org/wiki/Citizen_science) är påbörjad år 2005 men ett motsvarande ord saknas i den svenska versionen av encyklopedin. Inte desto mindre är förstås fenomenet med lekmäns deltagande i forskningsarbete äldre än så. Till exempel inom biologi och astronomi har crowdsourcing vid insamling av iakttagelser eller uttolkande av bildmaterial redan rätt etablerade roller i en del forskningsprojekt, där Zooniverse (https://www.zooniverse.org) tillhör de mest kända. Ett annat, än så länge mer experimentellt projekt som kan bli intressant att följa är en så kallad MOOC (Massive Open Online Course) i bioinformatik där studenterna ska kunna delta i forskningsarbete på massiv skala eller MOOR, Massive Open Online Research.[2] Trots att samarbete med amatörer redan är viktigt inom många områden[3] har historiker hittills inte varit särskilt öppna för möjligheten att samarbeta med lekmän. Ett exempel med historisk inriktning är dock projektet Transcribing Bentham vid University College London (http://www.ucl.ac.uk/Bentham-Project/transcribe_bentham).

Det är först rätt nyligen som man ens från arkivhåll börjat ta samarbetet med släktforskare på allvar, trots ett stort behov av mer utvecklade söktjänster i material. Till exempel i Finland har släktforskare i åratal arbetat med att sammanställa en stor databas över information från kyrkböcker, HisKi (http://hiski.genealogia.fi/historia/en/ohjeet.htm). Trots att det Genealogiska samfundet som formellt upprätthåller databasen är ett vetenskapligt sällskap med publikationer som håller hög akademisk nivå, har arbetet med att samla och skriva in informationen inte haft någon koppling till akademisk forskning. Detta beror förstås delvis på de många källkritiska problem som sammanhänger med själva materialet och processen, men man har inte heller från akademiskt håll ansträngt sig för att hitta ett sätt att utveckla kvaliteten så att informationen kunde användas för vetenskaplig forskning.

Samtidigt har man till exempel i Australien genom att låta människor korrekturläsa maskinlästa digitaliserade tidningstexter i Trove-tjänsten (http://trove.nla.gov.au/newspaper) engagerat tusentals frivilliga. Genom detta har man fått en mycket bättre kvalitet på materialet. Främst handlar det om förtroende för användarna och deras engagemang och kapacitet. I Finland har man valt att konstruera ett spel för samma syfte med namnet Digitalkoot (http://www.digitalkoot.fi/index_en.html). Frågan är om skillnaden i kvalitet gjorde det värt att investera i relativt kostsam spelkonstruktion och det förarbete som antagligen behövdes. Den största enskilda insatsen i Digitalkoot var 395 timmar för en person, att jämföra med Troves flitigaste medarbetare som räknar timmarna i tusental – vilket förstås är en rätt orättvis bedömning eftersom Trove varit i gång mycket längre. I Australien räknar man med 270 arbetsår och över 100 miljoner rader korrekturläst text. Vi har heller ingen information om hur många rader text som korrigerats med hjälp av mullvadsspelet, dvs. hur effektivt det är.[4]

I fördjupningsartikeln av Sakari Katajamäki kan man läsa om andra alternativ för att säkra kvaliteten i dylika projekt. Katajamäki understryker vikten av att låta medarbetarna känna betydelse och meningsfullhet i sitt arbete. I varje projekt måste man också utvärdera hur viktigt det är att arbetet är helt felfritt eller vilken tolerans man eventuellt kan ha för felaktigheter. Då det endast gäller förbättrad sökbarhet torde toleransen för eventuella fel som gjorts av lekmän vara rätt god, i synnerhet om alternativen är ingen sökbarhet alls eller mycket dålig sökbarhet. En viktig poäng i Katajamäkis text är också att det går att göra crowdsourcing utan extra tekniska insatser.

Vi har en mycket stor resurs av människor som är intresserade av släktforskning och historia, men man måste kunna hitta på ett sätt att samarbeta som är givande för alla parter. Att nå dessa människor och värna om deras engagemang kräver att man investerar mycket tid i kommunikation, inte bara att informera utan att reagera på frågor, ge respons och verkligen lyssna och interagera. Om man bygger tekniska system för ändamålet, vilket ofta inte alls är nödvändigt att göra, bör man testa dem noga med många olika försökspersoner, så att man kan minimera antalet fel och problemsituationer som beror på dålig användbarhet eller information i användargränssnittet.

Läs också:

Fördjupning: Transkribering av manuskript och förstaupplagor med talkokrafter

av Sakari Katajamäki

< Föregående avsnitt   |   Nästa avsnitt >


[1] Se t.ex. Wikipedias artikel om Amazons ”Mechanical Turk”, http://en.wikipedia.org/wiki/Amazon_Mechanical_Turk (hämtad 2013-10-09).

[2] ”Is ’massive open online research’ (MOOR) the next frontier for education?”, KurzweilAI 2013-10-03, http://www.kurzweilai.net/is-massive-open-online-research-moor-the-next-frontier-for-education (hämtad 2013-10-09).

[3] Se t.ex. Johan Ohab, ”Top Citizen Science Projects of 2012”, PLOS Blogs 2012-12-31, http://blogs.plos.org/citizensci/2012/12/31/top-citizen-science-projects-of-2012/ (hämtad 2013-10-09).

[4] Marie-Louise Ayres, ”’Singing for their supper’: Trove, Australian newspapers, and the crowd” (IFLA WLC 2013), http://library.ifla.org/245/1/153-ayres-en.pdf (PDF, hämtad 2013-10-09).