Den yrvakna oron över AI:s negativa effekter bottnar i en historielös och naiv syn på teknik, ekonomi och politik, skriver German Bender.

Att den senaste vågen av artificiella intelligens lämnar en del att önska vad gäller intelligens är vid det här laget välbekant för de flesta. Föga förvånande är den inte heller så artificiell som många tror.

De stora språkmodeller som bland andra OpenAI, Anthropic och Google utvecklar kräver nämligen omfattande mänskligt arbete för att kategorisera och bedöma såväl in- som utdata som systemen tränas på och finjusteras med.

Framför allt krävs detta för att systemen bättre ska kunna kommunicera med naturligt språk och dessutom göra det på ett sätt som vi upplever som mer mänskligt.

Samlingstermen för detta är reinforcement learning from human feedback, eller RLHF. Det rör sig alltså om mänskligt arbete som har varit och är avgörande i utvecklingen av de så kallade ”stora språkmodellerna” (Large Language Models, eller LLM:s) som förbluffat världen sedan ChatGPT lanserades den 30 november 2022.

De mörka sidorna av den skinande nya digitala tekniken

I en ledartext uppmärksammar DN:s Max Hjelm att det här arbetet ofta utförs av människor i fattiga länder, med usla arbetsvillkor och till mycket låg ersättning. Dessutom är arbetet ofta djupt obehagligt och stressande, på ett sätt som påminner om det arbete som Facebooks och andra sociala mediers innehållsmoderatorer gör i fattiga länder.

De system som många tror är helautomatiserade vilar ofta på mänskligt arbete som döljs för oss användare. Och det är arbete utförs ofta (men inte alltid) av fattiga människor i Afrika och Asien.

Ett annat exempel är Amazons ”automatiserade” och nyligen skrotade kassasystem Just Walk Out, som i själva verket var beroende av mer än 1000 anställda i Indien för löpande övervakning och kategorisering av videor på kunder i butiken.

Tidskriften Tech Policy påpekar att det vi uppfattar som AI i många fall helt enkelt är outsourcing.

Det är bra och viktigt att allt detta uppmärksammas.

Men det är vare sig förvånande, nytt eller unikt för AI.

De mörka sidorna av den skinande nya digitala tekniken – som vilar på och exploaterar mänskligt arbete – har påtalats av många.

Några sentida exempel är antropologerna Mary Gray och Siddharth Suri i boken ”Ghost Work”, psykologen Shoshana Zuboff i den moderna klassikern ”Övervakningskapitalismen”, Mikael Nyberg i ”Kapitalets automatik”, Anders Teglund i böckerna ”Cykelbudet” och ”Slavdrivaren”, och tidskrifterna Fronesis i temanumret ”Algoritmer” och Jacobin i temanumret ”Artificial Intelligence”.

För några år sedan lanserades också begreppet heteromation av informatikforskarna Hamid Ekbia och Bonnie Nardi. De definierade heteromation som motsatsen till automation och menade att automation eliminerar människan ur tekniken, medan heteromation tvärtom drar in människan.

Människor har alltid behövts för att teknik ska fungera

Enligt Ekbia och Nardi skiljer sig heteromation från tidigare mekanismer i kapitalistiska ekonomier på tre sätt: den kopplar samman miljontals människor, den skapar starkt engagemang och pockar nästintill konstant på vår uppmärksamhet, och den osynliggör mänskligt arbete som krävs för att tekniken ska fungera.

Därmed, menar forskarna, innebär heteromationen nya utmaningar om vi ska kunna motverka att människors utnyttjas och övervakas, och att deras arbete exploateras utan att de själva får en rimlig del av värdet.

Allt detta är både rimligt och klokt.

Men inte särskilt nytt.

Redan 1983 noterade psykologen Lisanne Bainbridge i den inflytelserika forskningsartikeln ”Ironies of Automation” att automatisering i stort sett aldrig helt eliminerar människan ur tekniken. I stället skapas nya arbetsuppgifter och problem som behöver lösas – av människor.

Heteromation är alltså inte motsatsen till automation, utan snarare dess förutsättning.

Heteromation är dessutom i grunden en uråldrig företeelse. Människor har alltid behövts för att teknik ska fungera. Om man anlägger ett sociotekniskt perspektiv på teknik – vilket jag menar att man alltid bör göra – är detta inte särskilt förvånande.

I själva verket är ju i stort sett all teknik – och det gäller kanske i dag mer än någonsin – djupt inbäddad i komplexa sociala och ekonomiska system. I sociotekniska system är människor kort sagt omistliga.

Den här insikten tycks frånvarande, eller åtminstone mycket senkommen, hos de debattörer som yrvaket oroas över AI:s destruktiva effekter och dess exploatering av mänskligt arbete.

Det vittnar om en påtaglig historielöshet och okunskap om sociotekniska system. Men också om en förbluffande naiv syn på kapitalismen som ekonomisk-politiskt system.

Ett slående exempel på den här naiviteten är den nyutgivna ”Burn Book: A Tech Love Story”, ett bittert bokslut över den tech-bolagens första era skriven av den (på många sätt briljanta) legendariska tech-reportern Kara Swisher. Boken inleds med orden ”As it turned out, it was capitalism after all” (”Det visade sig vara kapitalism, trots allt”).

För mig är det mest förvånande att en klok och kritisk person som Swisher själv tydligen hade trott något annat.

Men varför skulle den ”nya digitala ekonomin” fungera på att ett radikalt annorlunda vis än marknadsekonomin gjort i alla tider? Oavsett teknisk innovation – och egentligen oavsett ekonomiskt system och ideologi – har stora grupper av människor i stort sett alltid exploaterats för att generera värde som de sedan inte får sin rättmätiga del av.

Tack vare digitalisering, internet och politiska beslut kan den här ackumulationen i dag ske i ännu större skala och koncentreras till ännu färre personer.

Det nya är möjligen att somliga häpnar över att detta sker och över att teknikens skinande yta inte är så teknisk som den ger sken av att vara.

Man hade trott att tekniken var omänsklig i betydelsen ickehuman, när den i själva verket är omänsklig i betydelsen inhuman.

Det enda sättet att frigöra sig från den här villfarelsen är att anamma ett helt annat synsätt på teknik, en som bygger på en mycket enkel men uppenbarligen svårsmält insikt: ingen teknik är alltigenom ”teknisk”, utan alltid mer eller mindre socioteknisk.

Teknik fungerar alltid i ett socialt sammanhang, det vill säga i relation till människor. Det nya är alltså inte att teknik är beroende av människor, utan att vi har fått för oss att den inte är det.

Och eftersom den sociala dimensionen är inbakad i all teknik är den också ekonomisk. Och därmed politisk.

German Bender är utredningschef på Arena Idé och forskare knuten till Handelshögskolan och Harvard University