
Vad kan AI betyda för vården?
Hur kan artificiell intelligens, AI, integreras i landets läkarutbildningar? Det är något som universiteten i Uppsala och Örebro försöker ta reda på i ett gemensamt projekt. AI kommer på bred front inom hälso- och sjukvården och personalen behöver både förstå vad olika modeller kan göra och ha med sig ett kritiskt tänkande i användningen av dem, menar forskarna bakom projektet. /Text Catarina gisby
Marcus Krantz är forskare i systembiologi vid Institutionen för medicinska vetenskaper vid Örebro universitet. Det var Örebro som tog initiativ till projektet och kontaktade det äldre lärosätet och Johan Sundström, professor vid Institutionen för medicinska vetenskaper vid Uppsala universitet.
– Vi visste att de arbetade aktivt med AI i sjukvården och att de hade en etablerad kontakt med ”sitt” läkarprogram, berättar Marcus Krantz. Utvecklingen när det gäller AI inom hälso- och sjukvården sker i högt tempo, konstaterar Marcus Krantz. När det gäller läkarstudenterna är målet att ge dem en plattform att stå på, en plattform som kan ligga till grund för ett livslångt lärande.
– Personligen tror jag att det finns fler möjligheter än risker med AI i vården, men det är viktigt att ha med sig en kritisk blick, understryker Marcus Krantz.
Johan Sundström säger ungefär detsamma. Han beskriver sig själv som en ”tekno optimist”.
– Redan nu vet vi att AI är väldigt duktig på att tolka bilder, till exempel från röntgen och ultraljud. Mängden radiologer som granskar mammografibilder har på sina ställen kunnat halveras. Om det tidigare var två läkare som gjorde en gemensam bedömning är det i dag ofta en läkare plus AI.
Det som är lite lurigt med AI är att vi vanliga dödliga som står bredvid inte alltid förstår hur den kommer fram till sitt beslut.
– AI kan säga att det inte finns någon bröstcancer när den tolkar en mammografibild, men hur vet den det? Och kan man lita på AI:s slutsats? Det är därför det är viktigt med utbildning.
Vi står inför ett gigantiskt utvecklingssprång
Vi står inför ett gigantiskt utvecklingssprång när det gäller vad maskiner klarar av.
Sjukvårdspersonal behöver förstå hur AI-modellerna fungerar. De behöver förstå dem för att kunna ifrågasätta dem. Är det här rätt modell för den här uppgiften? Är det här underlaget rätt för den här modellen?
– Men generellt är jag övertygad om att AI-modellerna kommer att leda till ett lyft, fortsätter Johan Sundström. Vi står inför ett gigantiskt utvecklingssprång när det gäller vad maskiner klarar av. En AI-modell lär sig genom att träna på väldigt många fall. Johan Sundström tar avläsning av EKG som exempel. Han som kardiolog hinner kanske se 10 000 EKG:n under ett helt yrkesliv. Den AI som hans team har tränat har sett 500 000 EKG:n.
– När det gäller EKG så läser vi kardiologer fel i upp till ett fall av fyra när det handlar om stora hjärtinfarkter. Vår AI har fel i ett fall av hundra. I vissa fall är det alltså väldigt tryggt att överlåta avläsning och slutsats åt maskinen, och ju mer vi umgås med maskinerna, desto bättre förstår vi när det är dags att vara oroliga respektive trygga.
Men då har vi det här med ansvarsfrågan. Vem har ansvaret när AI har fel?
– Det finns inte något svar på den frågan ännu, svarar Johan Sundström. Man pratar mycket om att det ska finnas en ”human in the loop”, alltså en människa som alltid har det yttersta ansvaret, men själv tror jag att den diskussionen blir mindre intressant allteftersom tiden går och AI blir allt träffsäkrare. Om det blir rätt i 99 fall av 100 i stället för i 10 fall av 100, är det då viktigt vem som bär ansvaret i det där enda fallet när det blir fel med en AI, eller ska man hålla fast vid metoden som har mer fel men där ansvarsfrågan är tydligare?
Ansvarsfrågorna och de etiska aspekterna betonas dock i det universitets gemensamma projektet.
Johan Sundström har ett bidrag för AI-utveckling för vården från ERC, European Research Council, som är en del av EU:s Horisont Europa-program 2021-2027. ERC stödjer banbrytande spetsforskning.
– Vi har tagit fram en AImodell som gissar diagnosen på akutmottagningar. Jättebra, tyckte ERC, men de ville veta mer om hur vi skulle bevaka etiken. Så det slutade med att vi inrättade en helt ny doktorandtjänst av det skälet, berättar Johan Sundström.
Han tillägger att ERC genom detta bidragit till en förbättring som han är tacksam för.
Hur är det med juridiken? Hänger den med? Och vad bestäms i Sverige respektive EU?
– Det har kommit en europeisk ”act” som talar om hur AI ska regleras inom EU, och det tycker jag är bra. Det är en fördel när EU tar täten och bestämmer ”nu gör vi så här”, för då vet hela industrin hur den ska göra. Man kan jämföra med klimatmålen. Det är bra när någon vågar peka ut riktningen./P
Bäst med AI:
”Att den ger oss förmågan att hantera
större mängder information
samtidigt.”
– Marcus Krantz
”De enorma prestandalöftena som vi
hittills bara sett skymten av.”
– Johan Sundström
Sämst med AI:
”Det finns risker om man sätter in fel
modeller i fel sammanhang.”
– Marcus Krantz
”Att det är så resurskrävande att
utveckla AI-modeller att makten ligger
i några få storbolags händer.”
– Johan Sundström

Marcus Krantz

Johan Sundström
Kontakta oss x
Produktion
Add Health Media AB
08-648 49 00
Redaktör
Magnus Jonson
magnus@erstamedia.se
Grafisk form & repro
Ersta Sthlm Media AB
info@erstamedia.se
Redaktionsråd
Staffan Gustavsson
staffan.gustavsson@boehringer-ingelheim.com
Beatrice Wieland
beatrice.wieland@boehringer-ingelheim.com
Adress
Boehringer Ingelheim AB
Box 92008, 120 06 Stockholm
Telefon: 08-721 21 00
Besöksadress: Hammarby Allé 29, 120 32 Stockholm







