Sök

Experten Evelina Anttila om orsakerna bakom det dramatiska AI-bråket – och vikten av reglering: “Dragkamp”

WellstreetOpen AIAI

Evelina Anttila, vd Wellstreet. Foto: Press

Tobias Blixt

Tobias Blixt

Reporter

Evelina Anttila är jurist och riskkapitalist som länge jobbat med etiska och legala frågor inom AI. När det stormar i AI-världen ser hon flera orsaker som ligger till grund – och hur reglering behövs för att skicka riktlinjer till alla entreprenörer.

"Vi är mitt uppe i ett AI-race som är utom kontroll just nu och den här turbulensen sätter fingret på flera aktuella frågor”, säger hon i en intervju med Breakit.

Den stora kapprustningen inom AI-utvecklingen pågår för fullt runtom i världen där jättar som Microsoft, Google, Baidu och Nvidia investerar stora summor för att bli ledande inom exempelvis generativa AI-lösningar. Parallellt pågår diskussionen om vilka risker AI kan utgöra i samhället och hur regleringen måste se ut för att skydda samhället – vilket i EU är på väg att resultera i förordningen AI Act.

Men hur regleringen exakt kommer att se ut och hur den påverkar bolagen som arbetar med AI vet ingen säkert ännu. Men det skapar en delvis osäker miljö för alla som investerar i och arbetar med AI, det berättar riskkapitalbolaget Wellstreets vd Evelina Anttila för Breakit.

“AI Act sänder en viktig signal och kommer att sätta en standard för hur AI får utvecklas och användas. Men det kommer som tidigast att bli tillämplig lag i början av 2026 som det ser ut nu och det är så mycket som kan hända inom AI-tekniken fram till dess", säger Evelina Anttila som också är jurist och har lång erfarenhet av att arbeta med legala och etiska frågor inom AI.

Hon fortsätter:

"Vi lever inte i ett rättsligt vakuum idag, det finns regler som är tillämpliga på AI, men det betyder inte att de är adekvata. Idag finns inte regler som är specifikt anpassade till AI”.

Många av AI-modellerna som används idag har olovligt tränats på data som skrapats från webben, vad händer om du framöver måste betala för det materialet?

En oro som finns enligt Evelina Anttila är hur regleringen skulle kunna påverka både affärsmodeller och i förlängningen värderingarna på bolagen.

“Vi har en teknik som ännu inte är fullt validerad och vi har en förestående risk att regleringen kan omkullkasta affärsmodellerna som finns idag. Många av de AI-modeller som används idag har olovligt tränats på data som skrapats från webben, men vad händer om du framöver måste betala för det materialet? Vi kan gå från en Napster-era till en Spotify-era och vi får fråga oss vad det kommer att innebära ur en investerares perspektiv, det kan skapa luftslott när värderingarna redan idag är skakiga”, säger hon. 

I väntan på en eventuell regulatorisk baksmälla är AI-bolagen fortsatt oerhört eftertraktade, vilket syns inte minst i värderingarna på bolag som Open AI. I början av året förvärvade Microsoft 49 procent av Open AI och när bolaget någon månad senare tog in nytt kapital låg värderingen på närmare 300 miljarder kronor. När Open AI idag pratar med investerare så ska värderingen enligt Financial Times ligga närmare 1000 miljarder kronor.

Det var åtminstone beskedet innan maktkampen på Open AI som i veckan utspelat sig inför öppen ridå efter att vd:n Sam Altman först fått sparken och bara dagar senare återvänt (läs mer om alla turer här).

Just den här maktkampen, menar Evelina Anttila, är också en av riskerna som finns när AI-utvecklingen sker i en form av vilda västern.

“Det har skapats en dragkamp mellan idealism och vinst och den här dramatiken understryker behovet av verklig tillsyn. Varför måste det finnas en konflikt i detta? Vi borde kunna ha två tankar i huvudet samtidigt. Vi är mitt uppe i ett AI-race som är utom kontroll just nu och den här turbulensen sätter fingret på flera aktuella frågor”, säger hon.

Exempelvis vadå?

“En sak är förtroende. Det är superviktigt att få med sig allmänheten i AI-utvecklingen och vad händer med förtroendet i en sån här situation?”

Det är superviktigt för förtroendet att få med sig allmänheten i AI-utvecklingen

Ett annat exempel som Evelina Anttila nämner är franska Mistral som tog in över 1 miljard kronor bara en månad efter att de lanserat. De åkte nyligen på ett bakslag när det kom fram att deras storskaliga språkmodell kunde lära användarna att bygga bomber.

“Det är så mycket riskkapital som generellt investerats i AI-bolag just nu och som investerare tycker jag att man har ett ansvar att förstå den större bilden av hur det här kan påverka det generella förtroendet för hela branschen”, säger hon.

Enligt Evelina Anttila behövs regleringen för att sätta spelreglerna inom AI-utvecklingen och skapa det här förtroendet. Men innan den är på plats finns det alltså även en farhåga för hur mycket den kan påverka bolagen som just nu har tagit in stora mängder riskkapital för att positionera sig. 

Risken är att ett fåtal bolag kommer leda utvecklingen och ta över, den maktkoncentrationen är problematisk från ett demokratiskt perspektiv

Och just positioneringen lyfter Evelina Anttila fram som en tredje stor risk för AI-bolagen.  

“Risken finns att man bara blir en funktion som Microsoft eller Google själva kan lägga till i sina produkter. Det är också en risk som finns just nu, att ett fåtal bolag kommer att leda utvecklingen och ta över. Den maktkoncentrationen är problematisk från ett demokratiskt perspektiv.”

Vad ska man som investerare tänka på där?

“I grund och botten så handlar det som vanligt om att lösa ett problem och bygga något som kunderna behöver och att inte hoppa på något bara för att det är en hajp eller ny rolig leksak. Nu när den här tekniken också är tillgänglig för många så gäller det att bygga vallgravar och differentiera sig tillräckligt mycket, exempelvis genom att äga sin data.”

Vill du vara först med det senaste? Ladda ner Breakits app här och aktivera pushar – då missar du aldrig en viktig nyhet.

Läs mer