Jo flere valide data, der er til rådighed, jo bedre er mulighederne. Jo hurtigere data kan beregnes, jo hurtigere kan der sættes ind med forebyggelse, behandling eller udvikling af nye vacciner. Det kræver hurtig computerkraft og pålidelige matematiske modeller. Den slags modeller og algoritmer udvikler Morten Nielsen, der er professor på DTU.
”Vi mangler stadig data nok til, at computermodeller kan give os den fuldstændige biologiske forståelse til at udvikle vacciner mod f.eks. cancer. Men de kommer. Ved hjælp af data og algoritmer er vores modellering og forudsigelser nu mere præcis end laboratorieprøver. Hvis der er uoverensstemmelse, kan vi næsten med sikkerhed sige, at vores resultat er det rigtige – og der er fejl i prøven,” siger Morten Nielsen.
Træner modeller af immunsystemet
"Nogle bliver meget syge af coronavirus og andre bliver ikke syge. Det vil vi gerne modellere i en vis grad med vores matematiske modeller. De modeller skal trænes."
Morten Nielsen
Morten Nielsens gruppe laver matematiske modeller af immunsystemet for at forudsige, hvordan det vil reagere på en vaccine mod cancer eller coronavirus.
”Vi vil gerne kunne forstå det personlige immunrespons. Altså hvorfor hver af os reagerer forskelligt på virus. Nogle bliver meget syge af coronavirus og andre bliver ikke syge. Det vil vi gerne modellere i en vis grad med vores matematiske modeller. De modeller skal trænes,” fortæller Morten Nielsen.
Nogle molekuler i immunsystemet er meget bestemmende for, hvordan immunsystemet reagerer, og de molekyler er allerede beskrevet med store mængder data.
”Det der sker er, at et molekyle tager et fragment fra f.eks. SARS-genomet og viser det fragment frem til immunsystemet på overfladen af en inficeret celle, og hvis vi kan forudsige, hvilket fragment fra SARS-genomet, som bliver fremvist, så kan vi også begynde at forstå, hvordan immunsystemet vil kunne reagere på det,” forklarer Morten Nielsen.
Algoritmer kigger efter mønstre
Morten Nielsens forskergrupper anvender maskinlæring, hvor programmer eller algoritmer kigger efter mønstre.
”De algoritmer er relativt komplekse og kræver dels noget memory og dels noget tid, fordi de skal kigge på millioner af datapunkter for at lære de mønstre. Der skal mange forskellige modeller og store ensembler til for at vi får en beskrivelse af hele diversiteten blandt alle mennesker.”
Forskerne kan træne modellerne i løbet af få dage, fordi de har adgang til Computerome, der er en national supercomputer placeret på DTU Risø Campus med meget stor regnekraft.
”Normalt træner vi 500-1000 modeller parallelt. Så man skal have adgang til 500-1000 cores, som jeg kan reservere til mig selv i tre dage, og det kan jeg kun have på en supercomputer. Hvis det var min egen lille HPC-cluster, og jeg skulle dele den med andre på instituttet, så ville det tage meget længere tid.”
Morten Nielsen har store forhåbninger til at kunne knække koden til kræft.
”Cancer er jo kendetegnet ved, at de ændrer sig i genomet, de muterer væk fra det normale genom, og hvis man kan finde de anderledes brikker i en cancergenom, som bliver fremvist på overfladen på de molekyler, jeg nævnte, så kan man bruge dem til en vaccine, som er specifik til det enkelte menneske.
På etagen under Morten Nielsen kontor, forsker professor Signe Reker, som anvender de matematiske modeller og forudsigelser til at udvælge peptider, der kan genkendes af immunceller i cancerpatienten. Med det værktøj kan man så lave en vaccine, som bliver brugt i patienten – og i mange tilfælde kan kurere eller forlænge levetiden. Dette er allerede nu i klinisk brug.
”Man giver en vaccine, som laver immunceller, der reagerer på de specifikke fragmenter, man har fundet – så vil immuncellerne dræbe canceren og ikke dræbe de normale celler, som f.eks. kemoterapi gør,” forklarer Morten Nielsen.
Et spørgsmål om tid
Da forskergruppen startede projektet for 15 år siden, havde de kun 512 datapunkter at træne på. I dag har de 6 millioner, og Morten Nielsen forventer, at mængden af datapunkter vil være fordoblet om få år og at supercomputeren i sidste ende kan spare ressourcer.
”I gamle dage skulle man måle alting i laboratoriet med pipetter og alting for at få svar. F.eks. hvad er immunugent i SARS eller cornavirus, og der er altså ca. 10.000 peptidfragmenter i den virus. Dem kan man godt tage fra en ende af og så måle på dem og så være færdig om fem år, men så vil man opdage, at ud af de 10.000 er der måske kun 50, der rent faktisk er immunugene i en given version af virus. Hvis man kan nøjes med at måle på 100 af dem, og så finde de 50, så vil man meget hurtigere komme i mål og få lavet sin behandling. Det kan vi allerede nu med vores værktøjer.”
Forskerne har fortsat en udfordring med at forstå interaktionsmønstre i biologien, altså hvorfor T-cellen ikke kan lide at binde til ét peptid, men godt det andet.
”Det er en hel ny verden, vi først lige er begyndt at få data på. For uden data kan vi ingenting i det, jeg laver. Men når vi får data – og det gør vi over tid – så tror jeg naivt, at vi vil kunne løse det ved at træne vores modeller på store datasæt, som vi har gjort tidligere. Det bliver selvfølgelig mere komplekse modeller, som vil kræve større computer power, men der er ikke nogen hindringer ud over, at vi skal have mange data. Det gælder om hele tiden at presse citronen og se, hvor langt kan vi komme, og så kommer der et gennembrud.”