”Jeg siger ikke, at maskinerne finder noget forkert. Men de rejser nogle svære spørgsmål om, hvornår vi skal reagere på deres fund. Vi kan som samfund ikke behandle alt, hvor der er to procent risiko for, at en tilstand potentielt kan udvikle sig til noget farligt. Det har vi ikke råd til,” siger Christoffer Bjerre Haase.
Forsker: Ukritisk brug af AI kan bidrage til overdiagnosticering i almen praksis
Kunstig intelligens kan afhjælpe travle læger, når det kommer til at genkende mønstre og skabe overblik. Men der er samtidig også en risiko for, at nye apps og hjælpemidler finder diagnoser hos patienten, som aldrig ville komme til at udgøre et problem.
Kommende speciallæge i almen medicin, ph.d. Christoffer Bjerre Haase har lige været en af hovedtalerne på DSAM’s årsmøde i oktober, der har AI som et centralt tema.
Christoffer Bjerre Haase ønsker at understrege, at han som ekspert og forsker på området ikke er teknologiforskrækket eller -pessimist. Han advarer dog om at give teknologien for frit lejde i lægeklinikken.
”AI kan hjælpe praktiserende læger med at lave patientresumeer, oversættelse fra andre sprog og hjælpe os med at analysere infektionstal og blodtryk og give os et hurtigt overblik på tre minutter, inden vi skal se en patient. Hvad regnekraft angår, vil vi altid være en computer underlegen. Ny teknologi kan også være en beslutningsstøtte for hjemmeplejen i borgernære tilbud, hvilket også vil aflaste den praktiserende læge,” siger han.
Der er dog et væsentligt ’men’, som skal med.
”Problemet kan opstå, når kunstig intelligens begynder at finde mønstre, som vi ikke kan være sikre på er reelle. Når Apple-ure detekterer atrieflimmer og søvnforstyrrelser, uden at det på nogen måde er klinisk relevant. Apple har vist at kunne detektere atrieflimmeren ved hjælp af deres ure, og det er vist i store, flotte studier. Men lever folk længere eller bedre af den grund? Med andre ord, får de gavn af diagnosen? Det har man ikke målt. Den uvished står samfundet tilbage med.”
Han fortsætter:
”Jeg siger ikke, at maskinerne finder noget forkert. Men de rejser nogle svære spørgsmål om, hvornår vi skal reagere på deres fund. Vi kan som samfund ikke behandle alt, hvor der er to procent risiko for, at en tilstand potentielt kan udvikle sig til noget farligt. Det har vi ikke råd til,” siger han.
Hvornår skal man handle på fund fra AI?
I forhold til EKG-målinger vil kunstig intelligens også snart kunne udføre utallige fortolkninger, vurderer forskeren, men vi ved ikke, om det har hold i noget, der kommer til at være vigtigt for patientens helbred eller trivsel.
”Med hjælp fra AI vil man sandsynligvis kunne finde en række risikomarkører hos en borger, som vi ikke kendte før, men det efterlader os som samfund med nogle svære overvejelser om, hvornår vi skal handle på de her risikomarkører.”
Ultralyd er et andet eksempel på en teknologi, der også er ved at finde indpas hos praktiserende læger. Også denne type undersøgelser kan i fremtiden meget vel blive vejledt af AI, så den praktiserende læges rolle primært består i at bede patienten om at lægge sig på lejet og smøre eksplorationsgel på området, der skal scannes.
”Ultralydsundersøgelser resultererede i Sydkorea i en enorm vækst af overdiagnostik af skjoldbruskkirtelcancer, fordi man nemt kunne undersøge halsen, men det var en fuldstændig ufarlig vækst, som maskinerne fandt. Og jeg kan være bekymret for, at AI i fremtiden vil bidrage til at finde netop den form for abnormaliteter,” siger Christoffer Bjerre Haase med reference til studiet ’Thyroid cancer: zealous imaging has increased detection and treatment of low risk tumours’, der blev bragt i BMJ 10 år tilbage.
Christoffer Bjerre Haase ønsker sig øget debat om, hvordan vi som samfund forholder os til den styrkede diagnostiske kunnen i en voksende maskinpark. Sætter vi for stor lid til computeren, kan det give anledning til pilskæve prioriteringer, da både sundhedspolitikere, patienter og borgere ikke altid er bevidste om risikoen forbundet med overdiagnostik.
”Den nemme problemstilling i den her sammenhæng er en falsk positiv, som hos Doktor Google. Man lægger to og to sammen, og det giver fem. Lægen finder ud af det. Alt er godt. Men når det kommer til overdiagnostik, er diagnosen korrekt, men borgeren bliver ikke syg af tilstanden,” siger Christoffer Bjerre Haase.
Det er normalt med eksempelvis hypertension og osteoporose, men i mange mildere tilfælde mærker patienten ikke noget til tilstandene. Og hvis AI hjælper os med at stille diagnosen oftere, vil flere patienter potentielt blive sygeliggjort og unødvendigt medicineret, påpeger han.
”Det er et dilemma, for nogle patienter får gavn af diagnosen og behandling, mens andre bliver overdiagnosticeret. Dét er et politisk og demokratisk anliggende, som ikke skal dikteres af kommercielle aktører. ”
Udfordrer gatekeeper-rollen
For Christoffer Bjerre Haase handler problemstillingen også om lægens autoritet, både som fagperson og gatekeeper.
”Udviklingen af AI ændrer lægens autoritet, det er blot en nøgtern konstatering. Men AI og kommercielle aktører har ikke det samme ansvar over for den enkelte borger og samfundets økonomi. Derfor er det helt essentielt, at vi i større grad diskuterer AI og de løsninger, der bliver udviklet af kommercielle aktører til at varetage diagnostik.
Medicinsk Tidsskrift: Hvordan skal man gå til værks?
”Det er nødvendigt, at aktører med offentlig legitimitet inden for folkesundheden som eksempelvis lægefaglige selskaber og styrelser, stiller krav om refleksion, før man aktivt eller passivt implementerer nye teknologier i sundhedsvæsnet. Det er ikke nok, at man undersøger, om et produkt er i stand til at finde det, som bliver hævdet af produktleverandørerne. Det er også nødvendigt at drøfte, om effekten af undersøgelsen er positiv for samfundet.”
Christoffer Bjerre Haase nævner endnu et eksempel, denne gang fra hjerteområdet.
Tilbage i 80’erne blev der udviklet præparater, der nedbragte arytmi hos hjertepatienter.
”Men patienterne døde, selvom arytmien blev behandlet. Det fandt man kun ud af, fordi der blev udført studier, der ikke blot undersøgte effekten af behandlingen på arytmien på den lange bane, men også behandlingens effekt på eksempelvis dødeligheden. Sådanne undersøgelser foretages ikke på samme måde med de nye dataformer. Effekten af nye data skal vi til at drøfte. For ellers tror jeg, det ofte bliver den praktiserende læge, som kommer til at sidde med aben, når patienten henvender sig i klinikken med nye fund hjulpet på vej af kunstig intelligens ”
Hvordan skal det konkret lade sig gøre?
”De forskellige lægefaglige selskaber og styrelser må blive mere konkrete i deres anbefalinger. Hvilke specifikke produkter mener de, at læger kan eller skal undgå eller bruge til hvilke diagnoser? Hvad er begrundelserne for og imod? I hvor høj grad skal producenter dokumentere effekt af deres produkter og pålægges at betale for uafhængige studier af deres produkter? Har de ikke ressourcerne til at vurdere dette, må de melde det klart ud. På den måde skabes også incitament ti,l at producenterne konkurrerer om bedre produkter, der har dokumenteret klinisk vigtig effekt. Og selskaberne og styrelserne stilles også til ansvar for kolleger og borgere om deres holdning til området, hvilket også giver dem et styrket offentligt mandat.”