Utrikes.

2017-10-01 12:30
Amazons algoritmer marknadsförde bombingredienser tillsammans. Bild: Louis Lanzano & AP/Mark Lennihan
Amazons algoritmer marknadsförde bombingredienser tillsammans.

Techjättar får kritik för ”terror-algoritmer”

Bomben som detonerade i Londons tunnelbana i mitten av september var hemmagjord. Bara dagar efter dådet kunde brittiska Channel 4 avslöja att Amazon marknadsför potentiella bombingredienser tillsammans.

Nu ökar trycket på techjättarna att ta ansvar för sina algoritmer.

När brittiska Channel 4 skapade en beställning av ett kemiskt ämne på annonssajten Amazon tipsade sajten om andra kemiska produkter, som tillsammans kan användas till en hemmagjord bomb. Produkterna visades under rubriken ”Ofta köpta tillsammans”.

På samma sidor som flera av kemikalierna fanns också rubriken ”Kunder som köpt denna produkt har också köpt”, som ledde till detonatorer och tändsystem.


KOM TILL BOKMASSAN!

ETC och Leopard arrangerar 29 och 30 september Bokmassan (Heden, Göteborg). Massa författare, massa böcker – och inga högerextremister.

Här hittar du all information om evenemanget.


Det var Amazons algoritmer som lade samman bombingredienserna och marknadsförde dem tillsammans.

Channel 4 lyckades skapa en varukorg med ingredienser för att producera 45 kilo svartkrut, när maxgränsen i Storbritannien för hur mycket en enskild person får producera och förvara för eget bruk är 100 gram.

Amazon meddelade att de lovade att se över detta. Företaget hamnade i blåsväder även efter terrordådet i Manchester, då det uppmärksammades att sajten sålde bombmanualer.

Kritiker mot Channel 4:s rapportering menade att sökresultaten antagligen berodde på entusiaster som just producerar eget svartkrut som del av en hobby, men Amazon sällar sig därmed till listan av techbolag som kritiseras allt mer för mönster skapade av deras algoritmer.

Efter terrorattentatet i tunnelbanan vid Parsons Green i London sköt Ubers taxa i höjden. Inte på grund av medvetet beräknande, utan för att trycket på tjänsten ökade och algoritmerna därmed höjde priset.

Facebook har de senaste veckorna kritiserats hårt efter att nyhetssajten Propublica avslöjat att annonsörer på Facebook kan välja ”judehatare” som målgrupp för sina annonser.

När reportern Lizzie Dearden på The Independent några dagar senare gjorde om Channel 4:s sökning fick hon samma rekommendationer av Amazon.

Och därefter förföljde bombingredienserna henne i form av annonser på andra sajter på internet. Precis som när man har googlat ett par sneakers och sedan får upp annonser för dem överallt.

Zeynep Tufveki är professor vid Universitetet i North Carolina, specialiserad på sociala effekter av teknologi och aktuell med den kommande boken ”Twitter and tear gas: The fragility and power of protest”.

Hon har i flera sammanhang lyft frågan om hur sociala medier formar användarnas flöde på ett destruktivt sätt och kan driva användaren längre in i ”radikaliseringens kaninhål”.

– Djävulen sitter i detaljerna som vanligt. Plattformar som Youtube har algoritmer som är designade att rekommendera saker som de tror kommer engagera dig ännu mer. Och det jag har funnit är att vad jag än har tittat på, prackar de på mig en hårdare version av det än vad jag såg, över det politiska spektrumet. Det var väldigt slående att om jag tittade på Donald Trump-möten, rekommenderades jag sedan att titta på vit makt-konspirationsteorier, berättade hon i våras i den amerikanska radiokanalen NPR.

Zeynep Tufveki menar att algoritmerna driver människor till politikens utkanter och ökar polariseringen online, och att både IS och högerextremister får hjälp av algoritmernas funktionssätt.

– De förlitar sig på rekommendationsmotorn för att dra fler och fler människor till deras budskap, helst unga, sårbara och lättlurade människor.

– Det här är något varje platformsföretag från Silicon Valley måste se över.

Enligt siffror ETC tagit del av, från en kommande studie från Henry Jacksson Society, dubblerades engagemanget i extremism online mellan 2012 och 2015.

Under tre månader har organisationen granskat extremistiskt material på Youtube och funnit att You­tubes genomsnittliga tid att ta bort islamistiskt extremismmaterial var tio dagar efter att det anmälts och för högerextremt var den genomsnittliga tiden 14 dagar. 120 av de granskade extremistvideorna togs dock inte bort.

PRENUMERERA PÅ ETC HELG

Den här artikeln kommer från veckans ETC Helg.
Vill du prenumerera för under 16 kronor numret?
Här kan du teckna en prenumeration.