Funktionelle Magnetresonanz-Bildgebung (fMRI) kann sichtbar machen, welche Bereiche des Gehirns ihre Durchblutung verändern, während man sein Gehirn benutzt.
Das funktioniert, weil frisches Blut mehr Sauerstoff gebunden hat. Das sauerstoffhaltige Oxy-Hämoglobin ist weniger paramagnetisch als sauerstofffreies Hämaglobin. Damit verringert sich in frisch durchblutetem Gewebe die lokale Magnetfeldverstärkung, und das T2-gewichtete Resonanzsignal steigt.
Man nennt das blood oxygen-level dependance (BOLD). Dazu dienen stark T2-gewichtete Echoplanar-Gradientenechosequenzen. Die räumliche Auflösung liegt bei 3-5 mm, die zeitliche bei 1-2 Bildern pro Sekunde. Die farbig kodierten BOLD-Bilder überlagert man mit einem normalen, T1-gewichteten MR-Bild desselben Gehirns, um die Befunde räumlich zuordnen zu können.
Wenn man sich freut oder ärgert, entstehen leuchtende Flecke im fMRI-Bild unseres Gehirns. Ein für die psychologische Forschung revolutionäres, inzwischen unersetzliches Instrument. Jedes Jahr erscheinen tausende von fMRI-Studien von Arbeitsgruppen auf der ganzen Welt.
Einige davon schaffen es sogar in die Massenmedien.
So soll es mit der fMRI z.B. möglich sein, Trauminhalte sichtbar zu machen. Oder pädophile Neigungen zu identifizieren. Ja, selbst der Burnout von Assistenzärzten soll so objektivierbar sein.
Die aktiven Hirnbereich werden heller – allerdings nur um 1-3 %.Darin liegt das Problem: es gibt ein enormes Störpotential durch elektromagnetisches Rauschen, Störsignale, oder schlicht wackelnde Probanden.
Das untersuchte Gehirnvolumen besteht aus 100.000-150.000 Voxeln, die statistisch gesehen einzelne Experimente darstellen – signifikante Aussagen sind nur mit sehr vielen Messungen und Probanden möglich.
Viele Schlagzeilen „die Gehirnfunktion A bedeutet eine Aktivierung der Region B“ sind deshalb unbelegt oder sogar unglaubwürdig. Andere Ergebnisse sind hervorragend und gesichert. Woran kann man den Unterschied erkennen?
Wer einen Artikel oder eine Publikation mit fMRI-Bildern beurteilen möchte, kann die Handreichungen des britischen Neurowissenschaftlers Jon Simons heranziehen: wurde beispielsweise der p-Wert für die multiplen Experimente korrigiert? Wurden die Meßregionen vor der Studie festgelegt, oder erst nachdem die leuchtenden Flecken vorhanden waren? Sind genügend Personen untersucht worden, und gibt es eine Kontrollgruppe? Und so weiter.
Man sollte sich auch fragen, ob die jeweilige Fragestellung überhaupt geeignet ist, um in der höchst artefiziellen, für Probanden aufregenden und beängstigenden Situation im MR-Tomographen sinnvoll geprüft werden zu können. Xkcd bringt das auf den Punkt.
Die Daten, die letztlich auf den Monitoren als bunte Flecken erscheinen, sind vielfach umgewandelt, koregistriert, geglättet oder weichgezeichnet worden, und zuletzt einer automatischen Regressionsanalyse unterzogen, die bedeutsame Unterschiede von zufälligen Schwankungen isolieren soll. Bei jedem dieser Rechenschritte vergrößert sich der mögliche Alphafehler für falsch positive Befunde.
Der kalifornische PostDoc Craig Bennett hat das 2009 wunderbar gezeigt mit seiner berühmten „fMRI-Studie“ an einem toten Lachs (Link s.u.).
Das Versuchsobjekt stammte aus einem Fischgeschäft. Mit unsachgemäßen, aber leider häufig in solchen Arbeiten benutzten Parametern erzeugte Bennett Bilder des Lachsgehirns, die so aussahen, als ob das Tier Gehirnaktivität hätte. Der Effekt verschwindet, wenn man eine adäquate Fehlerkorrektur anwendet.
Craig Bennett und Koll. hatten zunächst Schwierigkeiten, ihren Beitrag zu veröffentlichen. Er war wohl zu humorvoll formuliert. Inzwischen wurden sie aber in Nature erwähnt (d.h. wissenschaftlich geadelt) und gewannen einen der IgNobel-Preise 2012. Es besteht also noch Hoffnung für die Neurowissenschaft!
Abbildung: Bennet et al., 2009
Bennett C: The Story Behind the Atlantic Salmon. (Blog, 18. Sept. 2009)
Bennett CM, Baird AA, Miller MB, Wolford GL: Neural correlates of interspecies perspective taking in the post-mortem Atlantic Salmon: An argument for multiple comparisons correction. Poster der HBM-Konferenz in San Francisco 2009 [Download], und Artikel im – leider nach der ersten Ausgabe wieder eingestellten – „Journal of Serendipitous and Unexpected Results.“ 1:1 (2010), pp. 1-5.