”Teknologin är för farlig för att i nuläget användas för brottsbekämpande syften”. Timnit Gebru gick hårt fram i veckan. Som ansvarig för Googles avdelning för etisk artificiell intelligens (AI) borde Gebru veta.
Det går att tolka uttalandet cyniskt. Google arbetar exempelvis med att utveckla AI för övervakning i Kina. Floydprotesterna har säkerligen bidragit till behovet att ta ställning, särskilt eftersom polismyndigheter i USA förut – exempelvis vid protesterna i Baltimore 2015 efter att polis dödat Freddie Gray – använt AI för ansiktsigenkänning av demonstranter.
Annons
Annons
Men det har rumlat rejält inom AI-kretsar den senaste veckan, vilket gör Googles uttalande en smula mindre suspekt.
Först ut var dator- och datajätten IBM som i måndags meddelade att bolaget slutar sälja mjukvara för ansiktsigenkänning till amerikanska polismyndigheter som används ”för massövervakning och rasprofilering”.
Under onsdagen förklarade molntjänstjätten Amazon Web Services att Rekognition, dess kontroversiella mjukvara för ansiktsigenkänning, inte får användas av polismyndigheter under ett år.
Bolaget hoppas det ger amerikanska kongressen tid att utarbeta lagförslag om reglering och etisk användning av sådan invasiv teknologi. Rekognition används i nuläget av 1300 lokala och federala brottsbekämpande myndigheter i USA, ofta utan insyn och ansvarsutkrävande.
Under torsdagen följde Microsoft färg. Bolagets ordförande förklarade att inte heller de kommer sälja teknologi för ansiktsigenkänning till polisen – åtminstone inte tills federal lagstiftning för att reglera användningen finns på plats.
Det här är storpolitik. I USA växer diskussionen om vem som tar ansvaret för konsekvenserna, exempelvis spridning av desinformation och övervakning, som teknologin som dessa jättar ihop med plattformar som Facebook och Twitter möjliggör.
Annons
Politiken vill se mer självreglering och eget ansvar från bolagen, medan jättarna pekar på det som ett kollektivt problem större än enskilda bolag vilket kräver lagstiftning. Bolagen har en bra poäng.
Annons
Samtidigt syftar veckans pärlband av utspel till att flytta samtalets tyngdpunkt till Washington och bort från deras affärer. Att president Donald Trump nyligen hotat med att stänga Twitter ökar bolagens iver att flytta fokus.
Men det är ändå viktiga besked och en bra ambition som jättarna kommit med. ACLU, den största amerikanska organisationen för civila rättigheter, har ihop med andra länge påtalat hur bolagens ansiktsigenkänning hotar samtliga medborgares grundläggande rättigheter.
2018 visade ACLU hur Amazons mjukvara felaktigt matchade bilder av 28 ledamöter, mestadels icke-vita personer, i amerikanska kongressen med bildmaterial i databaser över arresterade.
Efter fyra månaders kamp lyckades ACLU i förra veckan stoppa ett lagförslag i Kalifornien – ett förslag som Microsoft aktivt stödjer – som skulle tillåtit ansiktsigenkänning för att bedöma om medborgare har rätt till socialbidrag, sjukvård och arbete.
Annons
Den senaste veckan lär Sveriges justitieminister Morgan Johansson (S) ha stoppat huvudet i sanden. Bara dagar före teknologijättarnas besked föreslog Johansson att Sverige ska öka användandet av ansiktsigenkänning vid gränskontroller på flygplatser.
Annons
Datainspektionen, regeringens expertmyndighet, har tidigare sagt nej till samma idé från polisen då den bryter mot lagen. Johanssons nya förslag ska överbrygga detta och ge polisen rätt att testa tekniken. Men även det dissar Datainspektionen. Biometrisk data, exempelvis från ansiktsigenkänning, får inte användas för liknande tester enligt nuvarande lagstiftning.
Därtill kräver artikel 9 i EU:s dataskyddsförordning en medborgares uttryckliga godkännande för att samla in biometrisk data. Johansson vill nu samla in alla resenärers ansikten för att identifiera kriminella utan medgivande. Det är ett oerhört ingrepp i individens privatliv och integritet.
Det verkar tyvärr vara en svensk folksport. I fredags (12/6) avslöjade Ekot hur polisen under Operation Rimfrost testat ansiktsigenkänning utan att informera Datainspektionen, även på bildmaterial med personer där ingen misstanke finns. Det är makalöst.
ACLU är inte de enda som visat att teknologin har stora inbyggda fel och fördomar. Timnit Gebru från Google har, tillsammans med Joy Buolamwini från MIT-universitetet, studerat hur IBM och Microsofts teknologi misslyckas grundläggande. Exempelvis var mjukvaran 34 procent mindre precis vid identifiering av mörkhyade kvinnor än vita män. USA:s federala forskningsinstitut NIST har i en rapport från december 2019 belagt att afroamerikaner och asiater löper upp till hundra gånger högre risk att felidentifieras än vita män.
Fel person kan alltså relativt lätt misstänkas för brott utifrån dessa kraftfulla redskap, vilket för vissa grupper oftare kan leda till dödligt polisvåld. Ansiktsigenkänning förstör snarare än skapar säkerhet.