Datorkraften blir allt oftare den begränsande resursen vid hjärnforskning, enligt professor Martin Ingvar.
Allt kraftfullare superdatorer med magnetkameror och simuleringsmodeller ökar förståelsen för hur hjärnan fungerar. Hjärnforskarna jobbar febrilt med att lokalisera funktioner som smärta, minne, känslor och medvetande till olika hjärnstrukturer.

Snabbt ökande datorkraft gör det möjligt att simulera hjärnan, samtidigt som magnetresonans- och petkameror i allt högre utsträckning avslöjar hjärnans hittills dolda hemligheter.

– Än så länge skrapar vi bara på ytan. Men tack vare ökande bearbetningskraft och allt högre upplösning i kamerorna lär vi oss allt mer om hur hjärnan fungerar, säger hjärnforskaren Martin Ingvar, professor i integrativ medicin på Karolinska institutet.

Rädsla, minne och smärta är några heta forskningsområden och där är den del av hjärnan som kallas amygdala involverad.

– För första gången kan vi exempelvis beskriva amygdalas funktion i rädsla och hur individer utvecklar fobier. Det sker genom att vi kombinerar en modell som både bygger på kamerastudier och med simuleringar av hur känslor aktiveras i hjärnan, säger Martin Ingvar.

Med kombinationen av kameror och avancerade bearbetningar går det att få förståelse för hur hjärnan faktiskt fungerar där det förr i tiden bara fanns teoretiska modeller.

– Genom modellerna kan vi få en grundläggande insikt i vilken typ av nervceller som är inblandade i inlärning och fobier, säger Martin Ingvar.

Via kamerabilder som bearbetas i snabba datorer går det att kartlägga hur rädsla aktiveras via trådar till och från amygdala och att börja förstå hur mekanismerna bakom smärta ser ut.

Superdatorerna används till beräkningar och bildhantering, vilka båda kräver växande datorresurser. Med hjälp av simulering har man även börjat förstå kopplingen mellan arbetsminne, alltså det vi minns medvetet med, och långtidsminnet.

– Därmed är det möjligt att förstå exempelvis medvetandet, liksom drömmar och hur vi kan minnas dem, säger Anders Lansner, som är professor i datalogi och beräkningsbiologi på KTH.

Trenden är tydlig och går mot att hjärnforskningen kräver mer datorkraft. Antingen så måste problemen förenklas, eller så måste datorkraften öka väsentligt de kommande åren.

Datorer kan användas för att simulera allt fler aspekter av den mänskliga hjärnan, än så länge i förenklad form. Nyligen genomförde Anders Lansner en simulering på världens kraftfullaste parallella Blue Gene-superdator som ligger i det tyska forskningscentret FZJ i Jülich.

– Med den kunde vi köra ett neuralt minnesnätverk som simulerade en mushjärna vilket krävde att vi använde hela superdatorn samtidigt, säger han.

Den datorkapacitet som behövs för att i realtid simulera ett neuralt nätverk av samma storlek som den mänskliga hjärnan är betydligt större och är möjlig att köra i en superdator inom femton år, spår Anders Lansner.

Stora delar av bearbetningarna körs via en Blue Gene-dator, på Paralledatorcentrum på KTH. Kombinationen av en kraftfull superdator och en pet-kamera var världsunik för några år sedan. Men det var då.

Efter fyra år betraktar forskarna datorn som närmast pensionsfärdig. En tillfällig lösning är att dela datorkraft. Bearbetningskraften hyrs ofta in från exempelvis superdatorcenter som EPFL i Lausanne, IBMs datorcenter i Zürich eller centret i Jülich.

– Datorkraften blir allt oftare den begränsande resursen. Därför kör vi ofta en kombinerad modell, med standardbearbetningar enligt en hyrmodell och jobb med höga krav på flexibilitet och snabbhet i maskinerna på KTH, säger Martin Ingvar.

– Man kan säga att vi tillämpar en molnmodell, som är bra för standardkörningar. Men molnmodellen är betydligt sämre när det gäller spetsforskning, med krav på högflexibla forskningsapplikationer, fortsätter han.

De ökande behoven leder till att nya investeringar måste göras. Det är till stor del en finansieringsfråga och inget är bestämt ännu. Beslutet kan gå i riktning mot att få loss mer Blue Gene-kraft, eller att köpa in nya resurser.

– Just nu är vi inne i en avgörandets tid, så vi kan inte säga hur det blir. Det kan bli aktuellt med en större investering inom ett halvår eller ett år, säger Martin Ingvar.

– Det är inte bara vi utan många forskningsprocesser inom KI behöver allt större datamängder för att fungera. Inte minst med tanke på att ambitionen i EU inom Human Brain Project, ett av EUs flaggskeppsprogram, är att bygga en simulerad hjärnmodell.

Enligt IBMs Tommy Auoja, som även är styrelseledamot i Stockolm Brain Institute, SBI, krävs mer datorkraft om man vill köra mer avancerade modeller.

– Det som slukar de mesta resurserna är de ökande datamängderna för bildhanteringen och allt mer avancerade matematiska beräkningar som behövs för att kunna skapa förståelse för de komplexa system som finns i hjärnan.

Till viss del är det möjligt att att göra framsteg med effektivare körningar, men generellt gäller att ju mer vi lär oss om nervsystemet, desto mer datorkraft behövs för att räkna fram vad som sker, säger han.

Tommy Auoja anser att det behövs en gemensam kraftsamling för att utveckla kompetensen kring att använda den här typen av matematiska metoder. Ett exempel samarbeten som det mellan SBI och KTH och samarbetet med andra datorcenter ute i Europa, för att få tillgång till molnmodeller via andra forskningscenter. Men det behövs inte bara mer datorkraft.

– Framför allt krävs ny kompetens inom optimering av beräkningar och inom uppskalning av de system som genomför beräkningarna, men även för nya typer av molnmodeller för att dela datorresurser.

– Först trodde man att det stora problemet skulle vara att få till stånd den datorkraft som behövdes för att hantera hjärnavbildning. Att genomföra en bearbetning av bildsekvenser kunde ta 12–15 timmar med kraftfulla Linuxkluster.

Bättre algogritmer har minskat den tid som krävs för bildbearbetning till en till två timmar i dagsläget.

– Lösningen på alla problem är inte bara mer datorkraft, utan även smartare algoritmer för att skapa bättre upplösning och kvalitet.