Tillit i digitaliseringens spår
Illegitim användning av personuppgifter och slarv med datasäkerhet har lett till flera stora skandaler de senaste åren. För att inte den digitala ekonomin ska tappa fart behöver företagen slå vakt om konsumenternas förtroende.

Tillit har enligt sociologiforskaren Diego Gambetta två fiender: dålig karaktär och bristfällig information. I digitaliseringens fotspår har vi sett exempel på båda.
Allt fler aktörer loggar sina användares vanor och beteenden för att kunna presentera erbjudanden och information som matchar behov och intressen. Men vilken information som samlas in och i vilket syfte är ganska ofta höljt i dunkel.
De senaste åren har illegitim hantering av personuppgifter lett till förtroenderas för både företag och myndigheter. Det mest mediala exemplet är förmodligen Cambridge Analytica-affären där persondata från 87 miljoner Facebook-användare kunde samlas in med hjälp av en spelapp. Cambridge Analytica använde sedan informationen för att påverka det amerikanska presidentvalet med hjälp av riktade annonser. I en smygfilmad video från brittiska Channel 4 hörs höga chefer för Cambridge Analytica ta åt sig äran för Donald Trumps valseger.
Lägg till detta debatten om att Facebooks algoritmer skapar filterbubblor och spridningen av falska nyheter på plattformen och det är inte förvånande att hashtagen #DeleteFacebook under några månader blev viral när arga användare bestämde sig för att stänga ned sina konton.
Tillåtelsen att dela information med tredje part var visserligen reglerad genom medlemsavtal men den brittiska motsvarigheten till Datainspektionen ansåg att Facebook misslyckats både med att skydda användardata och med att vara transparenta gentemot sina användare. För detta dömdes företaget att betala 500 000 pund i böter.
Facebook har länge hävdat en neutral position som plattformsägare och inte ett mediebolag. Detta trots att Facebook är en distributionskanal för nyheter och information som når miljoner människor varje dag och bidrar till att forma deras världsbild.
– De som driver storskaliga digitala plattformar ser sig ofta inte som producenter av ett innehåll att ansvara för. Men designen och modereringen ger en rad effekter som vi behöver förstå bättre, även när den sker automatiserat genom algoritmer, säger Stefan Larsson, docent vid institutionen för teknik och samhälle, LTH, Lunds universitet och chef för digitala samhället-programmet vid tankesmedjan Fores.
Man har tidigare pratat om filterbubblor, idag handlar det mycket om så kallade fake news och propaganda eller informationspåverkan, och mer och mer om ansvarsfrågor i relation till en rad av de samhällets skevheter som digitala plattformar riskerar att reproducera eller rentav bidra till och förstärka.
– Hur man drar gränser för ansvarsfrågor är helt centralt och en diskussion vi måste ha mer av, och inte bara som en teknisk fråga, fortsätter Stefan Larsson.
Tjänsteleverantörerna som har en direkt relation till användare och konsument utvecklas när de granskas och marknaden och juridiken ställer krav. Men en stor utmaning i relation till personuppgifter ligger i hur man ska hantera de tredje- och fjärdeparter som konsumenten har desto svårare att förstå att de ens hanterar konsumentens information. De aktörer som verkar i det fördolda på en alltmer komplex datamarknad. Här kan man inte förlita sig på individernas agerande i förhållande till något de inte ser. Här behöver tillsynsverksamheterna växa till sig.
Äventyrad säkerhet
Frågan om datasäkerhet har seglat upp på agendan sedan företag blivit allt mer medvetna om vilka skador det kan ställa till med om den inte är tillräcklig. Den privata sektorn är inte ensam om den här typen av exempel, det finns gott om förtroendebrott även i det offentliga.
Ett av de grövsta hittar vi i Sverige där känslig information från Transportstyrelsen gjordes tillgänglig för personal i utlandet när man försökte sänka sina IT-kostnader med hjälp av outsourcing. Hela körkortsregistret med foton samt information om Sveriges vägnät låg plötsligt öppet för icke säkerhetskontrollerade personer. Regelbrottet var så allvarligt att det bedömdes som en fara för rikets säkerhet.
I Danmark avslöjade Datatilsynet 2017 att av åtta granskade myndigheter bröt sju mot den danska persondatalagen, flera av dem grovt, och de uppmanades att skyndsamt rätta till bristerna.
Förändrad tillit
Så vem kan man egentligen lita på? Ur ett samhällsperspektiv har tilliten varken försvunnit eller minskat. Men den har förändrats. Tilliten till institutioner och auktoriteter sjunker men vi litar på andra människor, framförallt dem vi känner men också på andra konsumenter vars recensioner och användaromdömen spelar en allt viktigare roll för hur vi väljer att konsumera.
Ett annat område där tilliten växer är nya tjänster och innovationer. Vi tar språnget ut i det okända varje gång vi väljer att lita på ny teknologi. Att använda AI för första gången eller att sätta sig i en självkörande bil kräver både mod och tillit, precis som det gjorde att första gången knappa in sina kortuppgifter på nätet.
Beroende på utfallet kan nya beteenden ganska snabbt bli en odramatisk del av vardagen. Men teknologin kan också svika oss om inte etiken byggs in från början. För företagen är det i många fall en fråga om att vinna eller försvinna.
– Att bli hackad och läcka användardata kan räcka för att få sitt varumärke och kundernas förtroende förstört, säger Stefan Larsson och nämner dejtingappar som exempel.
Behov av att agera proaktivt
– Det är kanske inte känsligt för användarna att företagen har deras persondata i rätt kontext men det kan vara jättekänsligt i andra sammanhang om uppgifter som rör finansiell data, hälsoinformation eller sexuell läggning får spridning till andra kontexter.
För att som konsument kunna granska användarvillkoren för en plattform eller digital tjänst krävs ofta en ganska hög insats och att skaffa sig en heltäckande bild av vart ens personuppgifter tar vägen har nära nog varit omöjligt.
När två parter ska ingå ett avtal och den ena har minde information än den andra kallar ekonomer det för informationsasymmetri. Nationalekonomen och Nobelpristagaren Kenneth Arrow var först med att använda begreppet 1963 utifrån ett sjukvårdsperspektiv, där en läkare allt som oftast har större kunskap om en behandlings värde och effektivitet än sin patient.
Ett liknande läge råder mellan företag och konsumenter på nätet där man som användare har svårt att få inblick i hur ens data lagras och delas, trots befintliga avtal.
En svaghet i dagens system är att lag och praktik kring informerat samtycke inte hänger ihop, menar Stefan Larsson:
– Vi är som människor kognitivt begränsade i vår förmåga att läsa och ta till oss information genom avtal som egentligen inte är utformade för konsumenter. Att lämna sina uppgifter till en tjänst och se att de sedan lämnar dem vidare till 14 andra aktörer är svårt att se och förhålla sig till.
Ny lagstiftning stärker konsumenten
Med den nya dataskyddsförordningen GDPR har privatpersonernas ställning stärkts i förhållande till företagen som nu måste se över sin datahantering.
– Det kan innebära mer transparens men det måste vara enkelt.
Rätten att bli glömd i GDPR bygger på att man faktiskt vet vem som har ens data. Men det är svårt för privatpersoner att få inblick i hur det ser ut.
En annan svårighet är att skaffa sig överblick över vilken data som samlats in.
– GDPR har sanktioner som gör att företag ser över sin data och rensar ut den som inte behövs. Alla är mer medvetna nu. Innan fanns det mer ohotade incitament att samla in så mycket data som möjligt, oavsett syfte.
Men även om lagen har höjt medvetenheten om datans roll sker den faktiska tillämpningen långsamt. Kontrollmyndigheterna i de europeiska länderna har begränsade resurser och det finns en gråzon innan det blir tydligt hur lagen ska tolkas och användas.
Behov av nya tjänster
Stefan Larsson tror att det kommer att finnas en marknad för nya tjänster som ökar konsumenternas möjligheter att ta kontroll.
– Till exempel AI som granskar avtal som du kan chatta med för att ställa frågor, föreslår Stefan Larsson.
Han hade också gärna sett mer arbete med certifieringar eller standarder liknande Svanen eller Bra Miljöval för persondata för att stärka tillit och transparens på datadrivna marknader. Då hade man som konsument förhoppningsvis enklare kunnat undvika obskyra företag där man inte vet vart ens uppgifter tar vägen, och förhålla sig till det.
Med digitalisering och banbrytande teknik står vi inför utmaningar inom flera olika områden, detta gäller inte bara datahantering. Hur fördelar vi till exempel ansvaret när självkörande bilar krockar eller när företagets AI agerar oväntat fördomsfullt?
Ett exempel på det senare kan vara bildigenkänning som är bättre på att tolka bilder av vita män än på svarta och kvinnor på grund av att träningsdatan är ojämnt fördelad över grupper eller innehåller kulturella värderingar.
– Har man en bilddatabas med skev fördelning när det gäller kön eller etnicitet så kommer det att återspeglas, nyckelfrågan ligger i hur man hanterar det. Den underliggande datan är avgörande, samtidigt som transparensfrågan och insynen är extra knepig när det gäller ”självlärande” algoritmer. Och samtidigt, ska vi dra nytta av och känna tillit till den rikedom och potential som artificiell intelligens och då kanske framförallt maskininlärningen erbjuder just nu så måste vi också bli bättre på att förstå de etiska, sociala och rättsliga utmaningar som medföljer.
För att lyckas behöver företag ta ansvar och slå vakt om förtroendet. Eller som Microsofts CEO Satya Nadella uttrycker det: ”Digital tillit är nödvändig. Sträva efter att öka den lite varje dag.”