H I G H L I G H T S A U S D E M J A H R B U C H 2 01 8
2018 DIE HIGHLIGHTS AUS DEM JAHRBUCH DER MAX-PLANCK-GESELLSCHAFT
Herausgeber Max-Planck-Gesellschaft, Hofgartenstraße 8, 80539 München, Abteilung Kommunikation, Kontakt presse@gv.mpg.de, www.mpg.de Redaktion Dr. Thomas Bührke, Dr. Virginia Geisel, Dr. Jan-Wolfhard Kellmann, Dr. Felicitas Mokler, Jeanette Störtte, Mechthild Zimmermann Verlag TERRITORY Content to Results GmbH, Bei den Mühren 1, 20457 Hamburg, www.territory.de, Grafik Ngoc Le-Tümmers (Art Direction), Annalena Rebele Publishing Manager Christian Brunschede Herstellung G+J Herstellung, Sandra Merchel Lithografie Peter Becker GmbH, Frankfurter Straße 87, 97082 Würzburg; Druck raff mediagroup GmbH, Industriestraße 27,72585 Riederich
Ti t e l : ma u r i ti u s i m a ge s / Do u gl a s Sc o tt/ Al a m y ( l i nk s) , C or bi s ( Mi tte) , Geor g M ar ti us ( r ec hts )
ED ITOR IA L
Jedes Jahr legt die Max-Planck-Gesellschaft einen wissenschaftlichen Tätigkeits bericht in Form des Jahrbuchs vor, um gegenüber der Öffentlichkeit und ihren Zuwendungsgebern Rechenschaft abzulegen. Im Zentrum stehen dabei die Fragen: Wo stehen wir und wo wollen wir hin? Die Max-Planck-Institute sind dement sprechend gebeten, aus ihren wissenschaftlichen Arbeiten, soweit diese zu einem gewissen Abschluss gekommen sind, jeweils eine Arbeit oder ein Projekt heraus zugreifen, das sich für eine Darstellung im Jahrbuch eignet. Die Jahrbuch-Beiträge aller Max-Planck-Institute werden im Internet unter https://www.mpg.de/ jahrbuecher veröffentlicht. Für den hier vorliegenden gedruckten Jahrbuchband haben wir 15 aus der Sicht der Wissenschaftskommunikation besonders geeignete und gerade auch für den Nicht-Fachmann interessante Beiträge herausgesucht und ansprechend aufbereitet. Zu den Highlights des Jahrbuchs 2018 gehört zum Beispiel die spannende Entdeckung, dass Fregattvögel während des Flugs mit einer oder mit beiden Hirnhälften schlafen können. Oder die Idee, Mikroroboter zu konstruieren, die nicht einmal einen Millimeter groß sind und minimalinvasiv in der Medizin eingesetzt werden können. Auch die bislang wohl umfangreichste Studie, um Wesen und Messbarkeit von Risikobereitschaft prinzipiell zu klären, wird in diesem Band vorgestellt. Und, und, und… Fangen Sie einfach an zu lesen!
3
INHALT SEITE
4 5
K R E B S D I AG N O S E P E R AT E M T E ST
26
6
TIEFSEELEBEWESEN GEDEIHEN AU F Ö L
29
7
MIKROORGANISMUS A L S Z E L L FA B R I K
18
GEISTESWISSENSCHAFTLICHE SEKTION C H E M I S C H - P H Y S I K A L I S C H -T E C H N I S C H E S E K T I O N
22
1 2
3
SCHLAF ZWISCHEN HIMMEL UND ERDE
6
DIE VERMESSUNG DER R I S I KO B E R E I T S C H A F T
10
M I T M I K R O R O B OT E R N GEGEN KREBS
4
14
T S U NA M I S IM FOKUS
Bilder: Corbis, shutterstock, Illustrationen: Max Birkl
BIOLOGISCH-MEDIZINISCHE SEKTION
B i l d e r : N u m e r i s c h - r e l a t i v i s t i s c h e S i m u l a t i o n : T. D i e t r i c h ( M a x - P l a n c k - I n s t i t u t f ü r G r a v i t a t i o n s p h y s i k ) u n d B A M - Ko l l a b o r a t i o n ; W i s s e n s c h a f t l i c h e V i s u a l i s i e r u n g : T. D i e t r i c h , S . O s s o k i n e , H . P f e i f f e r , A . B u o n a n n o ( M a x - P l a n c k - I n s t i t u t f ü r G r a v i t a t i o n s p h y s i k , o b e n ) , D a r i o Va l e n z a n o ( u n t e n ) , R y o h e i Ya s u d a ( r e c h t s )
SEITE
8 DIE FLÜCHTLINGSKRISE IN DEN MEDIEN 32
9 E D E L M E TA L L AU S HIMMLISCHER QUELLE 36
10 D I E V I RT U E L L E LEBER 39
11 DARMFLORA FÜR EIN LANGES LEBEN 42
46
12 R O B OT E R M I T TAT E N D R A N G
50
13 H O M O SA P I E N S I ST Ä LT E R A L S G E DAC H T
53
14 GENOM-EDITIERUNG VO N N E RV E N Z E L L E N
56
15 K N O C H E N STA R K E R STA H L
5
BIOLOGISCH-MEDIZINISCHE SEKTION
1
SCHLAF ZWISCHEN HIMMEL UND ERDE Manche Vögel verbringen einen Großteil ihres Lebens in der Luft. Ob sie auf langen Nonstop-Flügen schlafen, beschäftigt Menschen schon seit Jahrhunderten. Bis vor Kurzem jedoch fehlte ein eindeutiger Beweis. Meine Kollegen und ich haben nun erstmals die Gehirnaktivität von Fregattvögeln in freier Wildbahn gemessen und so das Schlafverhalten in der Luft untersucht.
N I E L S C . R AT T E N B O R G , MAX-PLANCK-INSTITUT FÜR
Von der Qualle bis zum Menschen: Schlaf ist für Lebewesen ein essenzieller Bestandteil ihres Daseins. Obwohl es gefährlich ist, die Umgebung aus den Augen zu lassen, ist Schlafen zwingend notwendig. Warum dies so ist, ist noch immer nicht restlos geklärt. Offenbar finden im Schlaf wichtige Vorgänge im Gehirn statt, die im Wachzustand nicht oder nur eingeschränkt ablaufen können. Schlaf ist sogar derart wichtig, dass das Gehirn Schlafmangel anschließend mit tieferem Schlaf ausgleicht und so eine Mindestmenge davon sicherstellt. Der Zwang, den Schlafmangel auszugleichen, kann dabei so stark sein, dass wir selbst dann einschlafen, wenn es lebensbedrohliche Konsequenzen hat, etwa am Steuer eines Autos. Auch Vögel müssen demnach schlafen – manche möglicherweise sogar im Flug. Pfuhlschnepfen (Limosa lapponica baueri) etwa fliegen in acht Tagen von Alaska nach Neuseeland und legen dabei 12.000 Kilometer zurück. Der Binden fregattvogel (Fregata minor) umkreist bis zu zwei Monate lang den Indischen Ozean, ohne jemals auf dem Wasser zu landen. Der Rekordhalter der Vogelwelt ist aber wohl der Mauersegler (Apus apus), der nahezu die gesamten zehn Monate zwischen den Brutzeiten in der Luft verbringt. Aber wie kann ein Vogel im Flug schlafen, ohne mit möglichen Hindernissen zu kollidieren oder vom Himmel zu fallen? Eine Lösung wäre, immer nur eine Hälfte des Hirns schlafen zu lassen. Diesen sogenannten unihemisphärischen Schlaf haben Forscherkollegen und ich bei Stockenten (Anas platyrhynchos) beobachtet. In einer Gruppe schlafender Enten halten jene Tiere, die am Rand sitzen, das nach
6
Fregattvögel können mehrere Wochen ununterbrochen in der Luft bleiben.
Bild: mauritius images/Douglas Scott/Alamy
ORNITHOLOGIE, SEEWIESEN
außen gerichtete Auge offen und die dazugehörige Gehirnhälfte wach. Möglicher weise können sich auch andere Vögel auf eine Art Autopilot verlassen, während sie in der Luft navigieren und die Aerodynamik aufrechterhalten. Vielleicht haben Vögel aber auch einen Weg gefunden, um ihr Schlafbedürfnis auszutricksen. Zusammen mit Bart Kempenaers, Direktor am Seewiesener Planck-Institut für Ornithologie, haben wir herausgefunden, dass sich einige männliche Graubruststrandläufer (Calidris melanotos) im Dauerwettstreit um die Weibchen während der Brutzeit derart anpassen, dass sie über mehrere Wochen hinweg nur sehr wenig schlafen. Es wäre also möglich, dass Vögel während ihrer langen Flüge auf Schlaf verzichten. Um herauszufinden, ob und wie Vögel im Flug schlafen, mussten wir eine Möglichkeit finden, die Gehirnaktivität der Tiere aufzuzeichnen. Derartige Aufzeich nungen ermöglichen es nicht nur, Wach- und Schlafzustand zu unterscheiden, sondern auch zwischen den beiden unterschiedlichen Schlafarten – SW-Schlaf (slow-wave sleep) und REM-Schlaf (rapid eye movement) zu unterscheiden: Während im SW-Schlaf die Gehirnwellen langsam schwingen, sind für den REMSchlaf schnell schwingende Wellen charakteristisch. R E KO R D E R F Ü R F L U G D AT E N Alexei Vyssotski, Wissenschaftler an der Universität Zürich und an der Eidgenös sischen Technischen Hochschule Zürich, hat ein Gerät entwickelt, das klein genug ist, um die elektrische Aktivität und die Kopfbewegungen fliegender Vögel aufzu zeichnen. Damit haben wir das Schlafverhalten von Fregattvögeln untersucht. Für unsere Studie sind wir auf die Galapagosinseln gereist, ein wichtiges Brutgebiet für Fregattvögel, und haben mehrere Fregattvogel-Weibchen mit einem „Flugdatenrekorder“ ausgestattet. Die großen Seevögel kreisen nonstop, ohne zu landen, über dem Ozean auf der Suche nach Fliegenden Fischen und Kalmaren, die von Delfinen und Raubfischen an die Wasseroberfläche getrieben werden. Der Rekorder zeichnete die elektrische Aktivität beider Gehirnhälften und die Kopfbewegungen während des Flugs auf. Ein GPS-Gerät am Rücken des Vogels bestimmte darüber hinaus die Positionen und die Flughöhen. Da sich die Weibchen gerade um ihre Jungen kümmerten, kehrten alle nach spätestens zehn Tagen zu ihren Nestern zurück. Während dieser Zeit hatten sie bis zu 3000 Kilometer zurückgelegt. Sobald die Vögel wieder auf ihren Nestern saßen, wurden sie noch mals gefangen und die Rekorder entfernt. Die Datenauswertung gewährte erstmals Einblicke in das Schlafverhalten fliegender Vögel. Demnach bleiben die Tiere tagsüber wach, während sie nach Nahrung suchen. Nach Sonnenuntergang jedoch verändert sich die Gehirnaktivität, und der Wachzustand wird von SW-Schlafperioden abgelöst, die teilweise mehrere Minuten andauern. Überraschenderweise tritt der SW-Schlaf dabei nicht nur in einer Gehirnhälfte auf, sondern auch in beiden gleichzeitig. Um in der Luft die aerodynamische Kontrolle zu wahren, ist es für die Vögel also nicht unbedingt notwendig, eine Gehirnhälfte wach zu halten. Trotzdem schlafen die Vögel im Flug deutlich häufiger als an Land mit nur einer Gehirnhälfte. Die Aufzeichnungen der Kopfbewegungen liefern Hinweise, warum die Vögel im Flug einseitig schlafen: Beim Segeln in den Luftströmungen bleibt meistens die Seite wach, die mit dem in Flugrichtung blickenden Auge verbunden ist. Die Vögel achten also sehr wohl darauf, wohin sie fliegen. Neben dem SW-Schlaf haben die
8
< 0,75 Stunden
Schlaf im Flug
> 12 Stunden
Illustration: Max Birkl
Schlaf am Boden
Messgeräte hin und wieder auch kurze Episoden von REM-Schlaf registriert. Typisch für diese Phasen war ein kurzes Absinken des Kopfs, wie es auch während des REM-Schlafs an Land auftritt. Die Flugrichtung wird davon jedoch nicht beeinflusst. Die größte Überraschung aber war, dass sich die Vögel trotz ihrer Fähigkeit, im Flug zu schlafen, kaum Schlaf gönnen: Die Fregattvögel kommen während des Flugs mit nur 42 Minuten pro Tag aus. Im Vergleich dazu schlafen sie täglich mehr als 12 Stunden, sobald sie wieder festen Boden unter den Füßen haben. An Land sind die einzelnen Schlafphasen zudem deutlich länger und tiefer. Daraus lässt sich schließen, dass die Fregattvögel während des Fluges unter Schlafmangel leiden. Wie auch die Graubruststrandläufer-Männchen scheinen sie sich an diesen Mangel jedoch anzupassen. Wie Fregattvögel und Graubruststrandläufer die negativen Effekte des Schlafmangels kompensieren, ist bislang ein Rätsel. Durch einen Vergleich der Bedeutung des Schlafs bei anderen Tierarten wollen wir das Phänomen Schlaf und die negativen Auswirkungen von Schlafmangel besser verstehen lernen.
Fregattvögel können im Flug mit einer Gehirnhälfte schlafen. Dabei bleibt das Auge geöffnet, das in Flugrichtung blickt. Insgesamt schlafen sie im Flug jedoch viel kürzer als am Boden.
9
GEISTESWISSENSCHAFTLICHE SEKTION
2
DIE VERMESSUNG DER R I S I KO B E R E I T S C H A F T Wie risikobereit Menschen sind, ist individuell sehr unterschiedlich. Gleichzeitig kann eine Person je nach Lebensbereich mal mehr, mal weniger risikofreudig agieren. Lange war unklar, ob Risikobereitschaft – ähnlich wie Intelligenz – ein psychologisches Persönlichkeitsmerkmal ist, das über die Zeit stabil ist. Auch die geeigneten Messmethoden waren umstritten. Am Max-Planck-Institut für Bildungsforschung haben wir gemeinsam mit Kollegen von der Universität Basel die bislang wohl umfangreichste Studie d urchg eführt, um Wesen und Messbarkeit von Risikobereitschaft prinzipiell zu klären.
RALPH HERTWIG, MAX-PLANCK-INSTITUT FÜR
Darf ich Sie zu einem Gedankenexperiment einladen? Sie stehen in der Fußgängerzone einer Großstadt und sind Zuschauer eines Hütchenspiels – eines illegalen, aber verführerischen Glücksspiels. Wenn Sie richtig erraten, unter welchem Hütchen die Kugel liegt, bekommen Sie Ihren Einsatz verdoppelt zurück. Würden Sie 50 Euro oder 100 Euro riskieren, um mitzuspielen? Szenenwechsel: Sie sind auf einer Party und unterhalten sich seit Stunden mit einem unbekannten Gegenüber, zu dem Sie sich hingezogen fühlen. Würden Sie, sofern es sich in dieser magischen Nacht ergibt, ungeschützten Sex haben? Kulissenwechsel: Sie möchten ein Start-up gründen. In einer Gründerberatung erfahren Sie, dass nur 30 Prozent der Neugründungen nach einem Jahr auf dem Markt überleben. Wagen Sie es? Letzte Szene: Sie leiden an einem Aneurysma, einer Arterienerweiterung, die jederzeit „platzen“ kann. Riskieren Sie eine sehr gefährliche, möglicherweise tödliche Operation? Diese Beispiele illustrieren, dass kaum ein Bereich in unserem Leben frei von Risiken ist. Aber wir haben durch die Wahl unseres Verhaltens zumindest teilweise Einfluss darauf, wie groß das Risiko ist, dem wir uns aussetzen. Risiko ist ein Begriff, unter dem verschiedene Disziplinen Unterschiedliches verstehen.
10
Springen oder nicht? Viele Entscheidungen hängen von der individuellen Risikobereitschaft ab.
Bild: Corbis
BILDUNGSFORSCHUNG, BERLIN
WIR HABEN DURCH DIE WAHL UNSE RE S VERHALTENS Z UMIN DE ST TEILWEISE EINFLUSS D ARAUF, WIE GROSS DAS RISIKO IST, DEM WIR UNS AUSSETZEN.
Für Entscheidungen, die mit Risiko behaftet sind, gilt gemeinhin, dass diese sowohl negative wie auch positive Auswirkungen haben können. Wie wahrscheinlich diese möglichen Folgen sind, ist oft unbekannt oder lässt sich nur grob abschätzen. Noch etwas lernen wir aus den Beispielen. Menschen entscheiden sich angesichts von Risiken nicht alle gleich. Das spricht für eine Standardannahme in der ökonomischen Theorienbildung, nach der Menschen stabile, aber durchaus unterschiedliche Dispositionen haben, Risiken einzugehen. Diese Risikobereitschaft ist der zentrale Baustein klassischer Entscheidungstheorien. Sie wird quasi als ein Persönlichkeitsmerkmal verstanden, welches Entscheidungsverhalten in risiko behafteten Situationen abbildet. Diese Annahme hat große praktische Bedeutung. Möchte man eine Person in wichtigen Entscheidungen gut beraten, muss man zunächst ihre Risikobereitschaft erschließen. Einem Menschen, der Risiken scheut und daher große Verluste nicht tolerieren kann, sollte man nicht zu Investitionen in potenziell hochprofitablen, aber schwankenden Anlagen raten. Umgekehrt ist einem risikoliebenden Kunden mit einer sicheren Anlage bei niedrigem Festzins kaum gedient. G E S U N D H E I T S B E W U S ST, A B E R WA G H A L S I G ? Stimmt aber die Vorstellung, dass Risikobereitschaft ein stabiles Persönlichkeitsmerkmal ist? Möglicherweise findet die zockende Investmentbankerin ihren Ausgleich beim Nordic Walking, und der gewissenhafte Beamte experimentiert am Wochenende mit Drogen. Seit Jahrzehnten beschäftigt sich die Verhaltenswissenschaft schon mit dem Wesen des Konstrukts Risikobereitschaft: Ist es ein eher
12
übergreifendes oder ein je nach Situation völlig variables Persönlichkeitsmerkmal? Oder könnte es so sein, dass jeder Mensch eine bestimmte generelle Risikobereitschaft hat, die sich aber in verschiedenen Bereichen wie Gesundheit, Beruf oder Straßenverkehr unterscheidet? Dies wäre mit dem generellen Intelligenzfaktor vergleichbar, der durch bereichsspezifische Komponenten – etwa der verbalen, sozialen und musikalischen Intelligenz – ergänzt wird. Daneben gibt es noch weitere Fragen, welche die Verhaltenswissenschaften seit Langem beschäftigen. Wie soll man Risikobereitschaft bestimmen? Durch die Messung konkreten Verhaltens mit finanziellen Konsequenzen? Weil, so die Überzeugung vieler Ökonomen, Selbstauskünfte sonst nur leere Reden sind. Oder doch mittels Selbstauskunft, bei der man ein Individuum bittet, sich zum Beispiel auf einer Skala von „gar nicht risikobereit“ bis „sehr risikobereit“ einzuschätzen. Oder fragt man Menschen am besten nach der Häufigkeit von konkreten Verhaltensweisen, die mit Risiken und Gefahren verbunden sind, wie Drogengebrauch oder riskanten Sportarten? S E L B ST E I N S C H Ä T Z U N G A L S V E R L Ä S S L I C H E R M A S S STA B In der bislang vermutlich umfangreichsten Studie zu diesem Thema haben wir am Max-Planck-Institut für Bildungsforschung zusammen mit Wissenschaftlern der Uni Basel wichtige neue Erkenntnisse zu beiden Fragen – Wesen und Messbarkeit von Risikobereitschaft – gewonnen. Im Unterschied zu bisherigen Studiendesigns, die meist auf einzelnen oder nur wenigen Messinstrumenten für Risikobereitschaft beruhen, untersuchten wir die Risikobereitschaft von mehr als 1500 Erwachsenen im Alter von 20 bis 36 Jahren mit drei verschiedenen Messansätzen und insgesamt 39 Tests. Dazu zählten: Selbstauskünfte über hypothetische Risikoszenarien, Verhaltenstests mit finanziellen Anreizen sowie Angaben zu risikoreichem Verhalten im Alltag. Eine Personengruppe wiederholte die Messung nach sechs Monaten, um die Stabilität der Resultate zu ermitteln. Ein zentrales und zugleich verblüffendes Ergebnis ist, dass die Selbstauskünfte und die eigenen Angaben zu risikoreichem Verhalten im Alltag ähnliche Ergebnisse zur Risikobereitschaft einer Person liefern. Im Gegensatz hierzu zeichnen Verhaltenstests, die das dominante Messinstrument in der Ökonomie sind, ein davon abweichendes Bild. Noch verblüffender: Die Ergebnisse der Verhaltenstests waren auch untereinander widersprüchlich – selbst dann, wenn anstelle von Verhalten nicht unmittelbar beobachtbare, sondern indirekt erschlossene (sogenannte latente) Konstrukte wie etwa Verlustaversion analysiert wurden. Mit den oft eingesetzten Verhaltenstests scheint die situationsübergreifende Risikopräferenz demnach nicht erfassbar zu sein. Gleichzeitig zeigt die Studie, dass es offensichtlich einen allgemeinen Faktor der Risikobereitschaft gibt. Dies legt nahe, dass Menschen in verschiedenen Lebensbereichen zwar unterschiedlich risikobereit sein können, der allgemeine Faktor aber als Dirigent mitwirkt. Diese Erkenntnisse differenzieren und modernisieren die ökonomische Vorstellung einer stabilen Risikopräferenz – ironischerweise erschließt sich dieser allgemeine Faktor aber durch die in der Ökonomie so wenig geschätzten subjektiven Aussagen der einzelnen Person.
13
C H E M I S C H - P H Y S I K A L I S C H -T E C H N I S C H E S E K T I O N
3
M IT MIK R O R O BOT E R N G E G E N K R E BS Mikroroboter, die einem Patienten zu Hilfe eilen – das ist eine durchaus r ealistische Vision. In Zukunft könnten Roboter der Größe einer einzelnen Zelle zuvor unzugängliche Regionen im Körper e rreichen. Sie herzustellen ist jedoch eine Herausforderung: Ist es möglich, solch ein autonomes, i ntelligentes System zu konstrui eren, das selbst entscheidet, wann es wo im K örper aktiv wird, und dabei nicht einmal einen Millimeter groß ist? Ein m edizinischer Eingriff mittels eines solchen Mikroroboters wäre der In begriff e iner fortschrittlichen minimalinvasiven Behandlung. Und er ließe sich beliebig oft w iederholen, ohne dem Patienten zu schaden – eine Revolution.
HAKAN CEYLAN, METIN SITTI, MAX-PLANCK-INSTITUT FÜR INTELLIGENTE S Y S T E M E , S TA N D O R T S T U T T G A R T
Minimalinvasive Therapien wie Endoskopie oder Roboter-assistierte chirurgische Eingriffe sind bereits Standard in der Medizin. Heutzutage ist es möglich, am Patienten zu operieren, indem ein nur wenige Millimeter kleines Loch geschnitten wird. Das reduziert das Risiko von Komplikationen nach einer Operation und verkürzt die Genesungszeit des Patienten. Die chirurgischen Instrumente benötigen jedoch zur Steuerung eine Kabelverbindung mit der Außenwelt. Das schränkt ihre Einsatzmöglichkeiten immer noch stark ein. Die Entwicklung nicht-kabelgebundener, mobiler Roboter könnte eine weitere Revolution im Bereich der minimalinvasiven Chirurgie einläuten. Mittels solcher Mikroroboter hätte ein Chirurg direkten Zugang und die genaue Kontrolle in schwer zugänglichen Bereichen des Körpers, zum Beispiel im zentralen Nervensystem, in der Blutbahn oder im Auge. Einen solchen Mikroroboter herzustellen ist allerdings technisch eine Herausforderung. Das System erfordert ein hochkomplexes
14
Design hinsichtlich Struktur, Material, Energieversorgung und Funktionen. Zudem soll es biologisch abbaubar sein. Die Abteilung Physische Intelligenz des Max-Planck-Instituts für Intelligente Systeme in Stuttgart forscht an neuen Designs und Technologien solcher nicht- kabelgebundener Mikroroboter. Eines Tages sollen diese in der Lage sein, sicher und selbstständig durch einen menschlichen Körper zu navigieren und auf veränderte physiologische Bedingungen zu reagieren. Sie sollen die Medikamente, die sie transportieren, automatisch und autonom in jener Körperregion abliefern, in der diese auch tatsächlich am nötigsten gebraucht werden. Die Wissenschaftler unserer Abteilung versuchen derzeit herauszufinden, wie sich ein entsprechend intelligentes System konstruieren lässt, und das im Mikrometerbereich. Wir definieren ein System als intelligent, wenn es in einem stetigen Kreislauf mittels seiner eingebauten Sensoren wahrnimmt, handelt und lernt. So kann es sich einer neuen Situation eigenständig anpassen. Doch wie kann man einem künstlichen System, das kleiner ist
c) b)
Il l u s t ra t i o ne n : M a x Bi r k l
Vision des Designs eines Mikror oboters, der über viele Funktionen und Sensoren verfügt.
a)
1–1000 µm
a) Z ell-Targeting: Aufspüren von Krebszellen und Andocken b) MRI-Kontrastmittel c) Fortbewegung mit Rückmeldung
15
als der Durchmesser eines menschlichen Haares, eine derartige Intelligenz verschaffen? Denn bei dieser Größe lässt sich keine Rechenkapazität wie bei einem Com puter einbauen. Die Antwort hierzu liefert die Natur: Mikroorganismen wie zum Beispiel Bakterien nutzen grundlegende biologische, chemische und physikalische Mechanismen, um Entscheidungen zu treffen und sich ihrer komplexen Umwelt anzupassen. Bakterien verhalten sich also nicht deshalb intelligent, weil Neuronen aktiv sind und sie denken können. Bakterien besitzen eine andere Form der Intelligenz, und zwar integriert in ihre Struktur und in ihren Aufbau: Wir nennen das die physische Intelligenz. Kurz gesagt, auch die Hardware ist schlau, nicht nur die Software in einem Gehirn. Diese „eingebaute“ Intelligenz signalisiert dem Bakterium zum Beispiel, wann es auf Glukose trifft – eine chemische Verbindung, die es zum Wachsen braucht. I N S P I R AT I O N A U S D E R N AT U R Die physische Struktur eines Bakteriums bietet ein breites Spektrum an Inspiration für die Erschaffung künstlicher Systeme. Wir wollen ein Konstrukt nachbauen, das ähnlich gestaltet ist, ähnliche Mechanismen nutzt, sich anpasst, sich verändert, sich selbst organisiert und kontrolliert. Dabei schauen wir uns nicht nur die physikalischen, sondern auch die chemischen Eigenschaften eines Bakteriums an. Auf dieser Grundlage konnten wir erstmals einen magnetischen Mikroroboter aus Hydrogel im 3D-Druckverfahren konstruieren, dessen Aufgabe es ist, eine Krebszelle zu zerstören. Er kann sich allmählich auflösen und währenddessen ein Medikament sowie ein Kontrastmittel ausschütten. So lassen sich Medikamente zielgerichtet dort verabreichen, wo sie am meisten benötigt werden, nämlich direkt am Tumor. Zudem enthält der Mikroroboter ein Kontrastmittel, das von der Krebszelle aufgesogen wird. Bei späteren Untersuchungen zum Fortgang der Krankheit sollte das Kontrastmittel nicht mehr im MRT zu sehen sein – schließlich hoffen Arzt und Patient darauf, dass die Krebszelle durch die Medikamente aus dem Roboter zerstört wurde. Sollte die Krebszelle noch zu sehen sein, kann der Arzt die Mikroroboter erneut losschicken, um dem Tumor den Garaus zu machen. Doch wie weiß der Mikroroboter, wann er auf eine Krebszelle und nicht auf eine normale Zelle trifft? Wie unterscheidet er bösartig von gutartig? Eine Krebszelle ist von besonders vielen Molekülen eines Enzyms umgeben; dadurch lässt sie sich von einer gesunden Zelle unterscheiden. Dieses Enzym heißt MatrixMetalloprotease oder MMP – ein besonderes Enzym, das einer Krebszelle hilft sich fortzubewegen. Dieses Enzym funktioniert wie ein Buschmesser, das den Weg durchs Dickicht frei macht. Es arbeitet sich durch gesundes Gewebe, sodass die Krebszelle freie Fahrt hat. Die Metastasen verbreiten dann den Krebs im ganzen Körper. Am Rand des Mikroroboters sitzen Antikörper, die erkennen, wenn solche Enzyme vermehrt auftreten. Da mit allen Krebsarten eine Häufung dieser sogenannten MMPs einhergeht, ist die Menge an Enzymen für den Mikroroboter ein guter Indikator dafür, ob er auf eine Krebszelle trifft. Er dockt dann mittels Antikörper an einen Rezeptor der Krebszelle an. Nun beginnt der Zersetzungs prozess des Roboters, und er setzt dabei Medikament und Kontrastmittel frei.
16
EINES TAGES SOLLEN MIKRO ROBOTER I N DER LAGE SEIN, SI C HER UND SEL BSTSTÄNDIG DURCH EINEN MENSCH LICHEN KÖRPER ZU NAVIGIEREN.
0 s
Ein biologisch abbaubarer Mikroroboter aus Hydrogel ist so magnetisiert, dass er sich in einem rotierenden Magnetfeld wie ein Korkenzieher vorwärtsschraubt. Dabei legt er in 30 Sekunden etwa 50 Mikrometer zurück.
30 s
20 µm
ERSTE TESTS AN BRUSTKREBSZELLEN In ersten Laborversuchen haben wir unseren Mikroroboter mit Eisenoxid-Nano partikeln als Kontrastmittel versehen und ihn – allerdings noch ohne Medikamente – auf Brustkrebszellen angesetzt. Wie das MRT zeigte, hatte er sich 48 Stunden später aufgelöst. 39,3 Prozent aller Krebszellen absorbierten das dabei freigesetzte Kontrastmittel. Später konnten wir diese Krebszellen im MRT wiedererkennen und so den Tumor lokalisieren. Die biologische Abbaubarkeit des Mikroroboters ist für medizinische Anwendungen entscheidend. Dieser Ansatz schlägt zwei Fliegen mit einer Klappe: Indem sich der Roboter vollständig zersetzt, entlädt er alle eingelagerten Medikamente. Ohne Zersetzung würde schätzungsweise die Hälfte der Medikamente im Roboter verbleiben. Zusätzlich löst sich dadurch das Problem, wie man den Roboter wieder aus dem Körper entfernen könnte – die biologische Abbaubarkeit ist dafür die sicherste aller möglichen Optionen. Zusammenfassend lässt sich festhalten: Unser wichtigstes Ziel ist es, neue Möglichkeiten zu erforschen, mittels Mikroroboter Therapeutika und Kontrastmittel im menschlichen Körper gezielt dort einzusetzen, wo sie gebraucht werden. Mikroroboter könnten die Medizin der Zukunft grundlegend verändern. So könnten sie eines Tages Chirurgen bei ihrer Arbeit unterstützen, um sicherzustellen, dass alle Tumorzellen bei einer Behandlung zerstört werden. Der Kampf gegen Krebszellen „auf Augenhöhe“ im Mikrometerbereich wäre erst der Anfang für eine Revolution der minimalinvasiven Medizin.
17
BIOLOGISCH-MEDIZINISCHE SEKTION
4
K R E BSD IAG N O SE PE R AT E MT E ST Lungentumore werden oft erst in einem fortgeschrittenen Stadium erkannt. Lungenkrebs ist daher die weltweit häufigste krebsbedingte Todesursache. Am Max-Planck-Institut für Herz- und Lungenforschung haben meine Kollegen und ich einen Test entwickelt, der Lungenkrebs bereits im Frühstadium nachweist. Er beruht auf dem Nachweis von RNA in Atemproben.
GUILLERMO BARRETO, MAX-PLANCK-INSTITUT FÜR HERZ- UND L U N G E N F O R S C H U N G , BA D NAU H E I M
Lungenkrebs beginnt meist harmlos, mit Husten, Heiserkeit oder Kurzatmigkeit – daher bleibt er in vielen Fällen lange unerkannt. Wenn schließlich bildgebende Verfahren und Gewebeproben die Diagnose liefern, ist es für eine Heilung oft zu spät. Mit jährlich weltweit rund 1,6 Millionen Menschen ist Lungenkrebs die häufigste Krebsart, 86 Prozent der Patienten sterben innerhalb von fünf Jahren nach der Diagnose. Beginnt man eine Behandlung dagegen bereits im Frühstadium, steigt die 5-Jahres-Überlebensrate dramatisch: Anstelle von 20 Prozent überleben rund 70 Prozent der Patienten. Lungenkrebs früher nachweisen zu können, ist daher ein Anliegen vieler Forschergruppen weltweit. CHEMISCHE SPÜRNASEN GESUCHT Tatsächlich macht er sich bereits früher bemerkbar, als man denkt, nämlich in der exhalierten Atemluft des Patienten. Bereits vor 30 Jahren fand man heraus, dass Hunde mit ihren feinen Riechorganen flüchtige Substanzen in der Atemluft von Krebspatienten mit erstaunlich hohen Trefferquoten erschnuppern können.
18
Die Leistung eines solchen tierischen Assistenten hängt unter anderem von seiner Tagesform ab. Klinische Diagnostik muss jedoch zu jeder Sekunde höchsten Anforderungen an Reproduzierbarkeit, Quantifizierbarkeit und Zuverlässigkeit genügen. Bei Krebsverdacht fürchten Ärzte auch die falsch-positiven Befunde: Sie bedeuten immense psychische Belastungen, unnötige Bestrahlungen und riskante operative Eingriffe für den Patienten sowie überflüssige Kosten für das Gesundheitssystem. Während daher in den USA Frühtests mit Atemluft bereits routinemäßig bei Risikogruppen zur Anwendung kommen, sind sie in Europa jedoch aufgrund der hohen Rate falsch-positiver Befunde und ihrer relativ geringen Spezifität noch nicht in die klinischen Leitlinien aufgenommen worden. V O M AT E M T E ST Z U M „ L U N G E N A B D R U C K “
Illustration: Max Birkl
Die Ausatemluft des Menschen ist zunächst ein stark verdünntes Gemisch aus flüchtigen und nicht-flüchtigen Substanzen. Das Bier vom Vorabend, körperliche Anstrengung, hormonelle Schwankungen, Infektionen – das alles kann sich in ihr niederschlagen. Welche Biomarker sind also dazu geeignet, den hohen wissenschaftlichen Anforderungen an eine verlässliche Diagnose zu genügen? Zahlreiche Studien haben sich bereits mit den flüchtigen Substanzen beschäftigt mit dem Ziel, einen Fingerabdruck – einen „Lungenabdruck“ – flüchtiger Substanzen zu erstellen, der sich zwischen Gesunden und Krebspatienten unterscheidet. Diese Methoden sind sehr empfindlich, haben aber auch Schwächen in Robustheit und Anwendbarkeit. Die Übertragbarkeit in den klinischen Alltag war eine Hürde, die es noch zu überwinden galt.
Das Lungengewebe von Krebspatienten gibt bereits im Frühstadium der Erkrankung R NA-Moleküle ab. Diese lassen sich dann in der Atemluft nachweisen.
19
LUNGE N KREBS BEGINNT MEIST HA RMLO S MIT HUSTEN, HEISERKEIT ODE R KURZATMIGKEIT – DAHER BLEIBT E R OFT LANGE UNERKANNT.
Wir haben daher einen anderen Weg verfolgt: die Analyse nicht-flüchtiger Substanzen. Diese finden sich im Atemluftkondensat. Dieses entsteht, wenn Probanden mehrere Minuten lang in eine gekühlte Kammer hineinatmen, in der die Luft und damit auch darin befindliche Moleküle kondensieren und gesammelt werden. Das Atemluftkondensat enthält zahlreiche Moleküle wie ATP, Botenstoffe, Peptide und sogar Gene. Wie diese Substanzen aus den Zellen in die Atemluft gelangen, ist noch unklar. Doch sie ergeben einen „Lungenabdruck“, der zum Teil direkt aus dem Stoffwechsel der Zelle stammt. RNA-MOLEKÜLE ALS BIOMARKER Unsere Überlegung zu Beginn war, dass Gene, die für die Embryonalentwicklung wichtig sind, auch in den Anfangsstadien von Lungentumoren eine Rolle spielen könnten. Wir entschieden uns für zwei Gene: GATA6 and NKX2-1, Schlüsselregulatoren der Lungenentwicklung in der Maus. Diese Gene sind bei Maus und Mensch sehr ähnlich. Untersuchungen an Gewebeproben aus der Lunge haben ergeben, dass Lungenkrebspatienten die Genprodukte von GATA6 und NKX2-1 anreichern, während diese in den Lungen gesunder erwachsener Menschen nicht aktiv sind. Als Nächstes haben wir die Genprodukte auch im Atemluftkondensat nachgewiesen. Um unsere Ergebnisse abzusichern, haben wir die Daten aus der Atemluft mit denen aus dem Lungengewebe derselben Patienten verglichen und herausgefunden, dass sie weitgehend übereinstimmen. Was noch wichtiger war: Bei positiven Befunden klassischer Diagnosemethoden zum Nachweis von Lungenkrebs waren in allen untersuchten Fällen auch die Genprodukte von GATA6 and NKX2-1 erhöht. Insgesamt betrug die Sensitivität des Tests 98,3 Prozent. Und auch die Spezifität war mit einem Wert von 89,7 Prozent außerordentlich gut. Das bedeutet eine relativ geringe Wahrscheinlichkeit falsch-positiver Ergebnisse. Im Vergleich zu vorhergehenden Arbeiten, die auf der Analyse von Atemluftkondensat beruhten, finden sich oft Diskrepanzen. Ein Grund dürfte die hohe Verdünnung unserer
20
Krebszellen eines Tumors im Lungengewebe. Ein Atemtest soll Ärzten künftig helfen, den Krebs im Frühstadium zu erkennen, damit sie die Erkrankung besser behandeln können.
Ausatemluft sein: Sie besteht zu 99 Prozent aus Wasser. Umso wichtiger sind genaueste und standardisierte Vorgehensweisen. Deshalb haben wir die Standardprozedur von der Nahrungsaufnahme vor der Probenentnahme über die Dauer des Ausatmens, die Temperatur im Auffanggerät und die Probenlagerung bis hin zur eigentlichen Auswertung optimiert.
Bild: Science Photo Library/Moredun Animal Health Ltd
DER WEG ZUR KLINISCHEN ANWENDUNG Noch sind die Daten nicht ausreichend, um die Zuverlässigkeit unter klinischen Bedingungen sicher vorherzusagen. 2018 wurde eine klinische Studie unter Beteiligung von fünf Kohorten im Rahmen des Deutschen Zentrums für Lungenforschung gestartet. Zwei weitere klinische Studien in Deutschland und im Ausland werden zurzeit geplant. Die Ergebnisse sind vielversprechend – vor allem, weil mit dieser Untersuchung Lungenkrebs im frühen Stadium nachgewiesen werden konnte. Es liegt daher nahe, den Atemtest als zusätzliche Diagnosemaßnahme einzusetzen, zum Beispiel für das Screening von Risikopatienten (etwa Rauchern, bei erblicher Vorbelastung oder bereits bestehenden Lungenerkrankungen). Auch wäre der Test eine Alternative für Patienten, bei denen eine invasive Probenentnahme nicht möglich ist. Unser Atemtest könnte in Zukunft eine wertvolle Ergänzung der herkömmlichen Diagnoseverfahren zur Erkennung von Lungentumoren sein: nicht-invasiv, zuver lässig, genau und kostengünstig. Mit seiner Hilfe wäre vor allem eine frühere Diagnose von Lungenkrebs möglich – und damit eine wesentlich höhere Überlebensrate.
21
C H E M I S C H - P H Y S I K A L I S C H -T E C H N I S C H E S E K T I O N
5
TSUNAMIS IM FOKUS Ein Tsunami kann die Energie eines Seebebens in bestimmten Richtungen bündeln und dort verheerende Zerstörungen anrichten. Aktuelle Forschungsergebnisse aus unserem Institut zeigen, dass selbst sehr geringe Variationen in der Ozeantiefe zu solch einer Fokussierung und damit zu starken Fluktuationen in der Höhe von Tsunamis führen können. Dieser Effekt hat entscheidende Bedeutung für die Vorhersage eines solchen Ereignisses.
RAGNAR FLEISCHMANN, THEO GEISEL, M A X - P L A N C K - I N S T I T U T F Ü R DY N A M I K U N D S E L B S T O R G A N I S AT I O N , GÖTTINGEN
Am 26. Dezember 2004 ereignete sich die schwerste durch einen Tsunami ausgelöste Katastrophe in der Geschichte. Ein Seebeben der Stärke 9,3 vor der Insel Sumatra hatte eine Flutwelle ausgelöst, der in Asien mehr als 230.000 Menschen zum Opfer fielen. Im März 2011 verursachte ein Beben vor der japanischen Küste einen Tsunami, der rund 20.000 Menschen tötete und das Atomkraftwerk von Fukushima zerstörte. Frühwarnsysteme existierten vereinzelt bereits vor diesen beiden Ereignissen, doch insbesondere der Tsunami von 2004 verstärkte die Anstrengungen, solche zu entwickeln, ganz erheblich. Wie zuverlässig können Frühwarnsysteme aber überhaupt sein? Fehlalarme, wie sie in den vergangenen Jahren häufiger auftraten, verursachen nicht nur Kosten, sondern untergraben das Vertrauen der Menschen in die Prognosen. Aus physikalischer Sicht spricht zunächst vieles für die Möglichkeit zuverlässiger Vorhersagen, dies stellen unsere neuen Forschungsergebnisse jedoch infrage.
Tsunamis sind Wasserwellen, die auf hoher See mehrere Hundert Kilometer Wellenlänge besitzen, aber nur bis etwa einen Meter hoch sind. Erst im flachen Gewässer können sich diese Wellen bis zu mehreren zehn Metern aufsteilen. Sie breiten sich mit Geschwindigkeiten von mehreren Hundert Kilometern pro Stunde über Tausende von Kilometern hinweg zu den Küsten aus. Die von dem Beben ausgelösten seismischen Wellen bewegen sich jedoch mit sehr viel höheren Geschwindigkeiten durch den Erdkörper. Sie werden von einem weltweiten Netz geophysikalischer Stationen gemessen, sodass sich das Bebenzentrum binnen Minuten lokalisieren lässt. Zwischen der Detektion eines Seebebens und dem Auftreffen des Tsunamis an einer Küste können daher mehrere Stunden liegen. Diese Zeitspanne lässt sich prinzipiell für Tsunami-Vorhersagen nutzen. Frühwarnsysteme verfügen je nach technischer Auslegung über eine Reihe von Informationen, wie seismische Veränderungen am Meeresboden, Wellenbewegungen, Änderungen des Meeresspiegels und Druckänderungen im Wasser. Das allein reicht jedoch nicht aus. Messungen und Rekonstruktionen vergangener Ereignisse
22
Wellen können zerstörerische Kraft entfalten. Das gilt schon für solche Riesenwellen, die bei starkem Wind entstehen, und noch viel mehr für Tsunamis.
Bild: shutterstock
DIE AUSBREITUNG VON TSUNAMIS
Bild: xxx
WELLENHÖHE IN ZENTIMETERN
haben gezeigt, dass sich Tsunamis nicht gleichmäßig in alle Richtungen ausbreiten: Die Wellen können auf ihrem Weg ausgeprägte Schwankungen in der Höhe entwickeln, deren Verständnis essenziell ist für die zuverlässige Warnung der Küstenbewohner. Will man diese Schwankungen in der Tsunami-Höhe für verlässliche Vorhersagen vorausberechnen, so benötigt man schnelle Computer und ausgeklügelte Algorithmen. Besonders aber ist ein detailliertes physikalisches Verständnis der Mechanismen gefragt, die einen Tsunami von seinem Weg ablenken, streuen und fokussieren. Hierbei kann man die Ausbreitung dieser Wellen in gewisser Hinsicht mit dem Verhalten von Lichtwellen vergleichen: So können große Unterwasserberge für Tsunamis wie Brenngläser wirken, oder eine gekrümmte Struktur kann sie wie ein Hohlspiegel fokussieren. Unsere Studie identifiziert einen neuen Fokussierungsmechanismus bei der Ausbreitung im tiefen Ozean, der eine besonders große Herausforderung für Vorhersagen darstellt: die Flussverästelung.
Das NOAA Center for Tsunami Research hat den Tsunami am 11. März 2011 im Pazifischen Ozean rekonstruiert und die Wellenhöhe dabei farblich codiert. Demnach schwankte die Höhe der sich ausbreitenden Welle stark.
Die Geschwindigkeit eines Tsunamis hängt von der Wassertiefe ab: Je tiefer das Meer, desto höher die Geschwindigkeit. Deshalb wirken Schwankungen in der Tiefe für Tsunamis in gleicher Weise wie Änderungen des Brechungsindexes bei der Ausbreitung von Licht. So erklärt sich auch, dass große Unterwasserberge wie Sammellinsen und Täler wie Streulinsen wirken können. Wie wir nun demonstriert haben, kann jedoch selbst ein zufälliges Muster von kleinen Hügeln und Tälern am Meeresboden zu einer ausgeprägten Verästelung des Tsunamis führen. Dieser Effekt ist verbunden mit dem zufälligen Auftreten von sogenannten Kaustiken. Auch sie treten in der Optik auf und sind wohlbekannt: Kaustiken ähneln dem Brennpunkt einer Linse und sind Bereiche stark erhöhter Intensität. Sie können punkt-, linien- oder flächenförmig sein. Ein alltägliches Beispiel solcher zufällig auftretenden Kaustiken ist das Geflecht heller Linien, die man an sonnigen Tagen auf dem Boden eines Schwimmbeckens sieht. Wir haben untersucht, wo solche Kaustiken auch in der Tsunami-Ausbreitung auftreten. Hier sind sie von großer Bedeutung, weil die Energiedichte und damit die Zerstörungskraft der Welle dort lokal enorm ansteigt.
24
Bild: National Oceanic and Atmospheric Administration (NOAA)
FLUSSVERÄSTELUNG – KLEINE URSACHE, GROSSE WIRKUNG
Für unsere Simulationen griffen wir auf reale Daten der Meeresbodentopografie zurück (www.gebco.net) und wählten einen Bereich des Indischen Ozeans, in dem sich keine sehr hohen Unterwasserberge und keine Inseln befinden. Auf diese Weise konnten wir gezielt den Einfluss kleiner Höhenschwankungen auf die Tsunami-Ausbreitung analysieren. Der Tsunami wurde von einer fiktiven Quelle angeregt und breitete sich in dem im Mittel 4000 Meter tiefen Ozean aus. Das Ergebnis demonstrierte eindeutig das Auftreten von Kaustiken, obwohl die Meerestiefe im statistischen Mittel lediglich um sieben Prozent variierte. Aus weiteren Simulationen und theoretischen Betrachtungen können wir folgern, dass selbst Meerestiefenschwankungen von nur ein bis zwei Prozent (entsprechend von nur etwa hundert Metern) in einem Abstand von wenigen Tausend Kilometern vom Ort des Seebebens zu Kaustiken führen können – Entfernungen, die für Tsunami-Vorhersagen sehr relevant sind. Das Zusammenwirken vieler kleiner Schwankungen in der Ozeantiefe von nur einigen wenigen Prozent kann also zur Fokussierung der Tsunamis in verästelte Strukturen führen. Die Energiedichte kann dabei in den einzelnen Ästen das Zehnfache des mittleren Wertes erreichen. Hierbei handelt es sich um ein lange übersehenes, universelles Verhalten der Wellenausbreitung in ungeordneten Medien. Das Zusammenspiel vieler schwacher Störstellen führt zu einer Flussverästelung (Branched Flow). Dieses Phänomen findet man in ganz unterschiedlichen physikalischen Systemen und in ganz unterschiedlichen Größenordnungen. Sie reichen von der Elektronenleitung in HalbleiterNanostrukturen bis hin zur Tsunami- und auch der Schallwellenausbreitung in den Ozeanen auf der Skala von Tausenden von Kilometern. In der Tat wurde unsere Studie motiviert von unseren früheren Arbeiten zur Flussverästelung von Elektronenwellen in Halbleiter-Nanostrukturen. FOLGENSCHWER FÜR VORHERSAGEN Nun liegt der Verdacht nahe, dass Flussverästelung wegen der mit ihr verbundenen starken, zufälligen Fokussierungen einen bedeutenden Einfluss auf die Vorhersage von Tsunamis hat. Die Messunsicherheit in der Topografie des Meeresbodens kann einige Hundert Meter betragen. Bei einer Wassertiefe von 4000 Metern entspricht das mehr als fünf Prozent. Wir gingen nun also der Frage nach, wie stark kleine, unbekannte Tiefenschwankungen die Ausbreitung von Tsunamis und damit deren Vorhersagbarkeit beeinflussen können. Um dies zu testen, haben wir im Computer der gemessenen Topografie zusätzliche Fluktuationen mit Amplituden bis zu vier Prozent der Meerestiefe überlagert. Diese sind kleiner als die Messungenauigkeit, sodass also beide Topo grafien den wahren Ozeanboden beschreiben könnten. Die Simulationen demonstrieren eindrücklich, dass sich der Tsunami völlig anders verhält. Die Flussverästelung führt in beiden Topografien zu lokaler Erhöhung der Tsunami-Energiedichte auf das Fünf- bis Sechsfache, jedoch in völlig unterschiedlichen Richtungen und Positionen. Das Verständnis des Mechanismus der Flussverästelung ist daher essenziell für die Verlässlichkeit von Tsunami-Vorhersagen. In vielen Fällen werden sie nur von statistischem Charakter sein können. Das Studium der Flussverästelung von Tsunamis führt auch zu neuen Erkenntnissen in anderen Gebieten der Physik, wie der Optik oder Halbleiterphysik, denn die Anisotropie des Mediums erzeugt überraschend komplexes Verhalten in der Wellenausbreitung, wie wir jüngst zeigen konnten.
25
BIOLOGISCH-MEDIZINISCHE SEKTION
6
TIEF SE E L E BE W E SE N G E D E IHE N AU F Ö L In der Tiefsee gibt es Lebewesen, die Öl als Energiequelle verwenden. Dazu gehören teambildende Mikroorganismen, die sich gemeinsam von flüchtigen Bestandteilen des Öls wie Ethan, Butan und Propan ernähren können. Interessant ist, dass es sich um sehr unterschiedliche Arten von Mikroorganismen handelt, die in Symbiose mit Meerestieren leben und diese mit Nahrung versorgen.
G U N T E R W E G E N E R & C H R I S T I A N B O ROW S K I , MAX-PLANCK-INSTITUT FÜR MARINE MIKROBIOLOGIE, BREMEN
In der Tiefsee gibt es natürliche Austritte von Öl und Gas aus dem Meeresboden. Für die meisten Lebewesen sind die Umweltbedingungen dort toxisch, aber einige haben sich hervorragend daran angepasst. Manche Mikrobenarten leben sogar sehr gut davon, dass sie Bestandteile des Öls abbauen und so Nahrung erzeugen können, etwa im Golf von Mexiko an den in 3000 Meter Wassertiefe gelegenen Campeche-Asphaltvulkanen. Einige Meerestiere leben in Symbiose mit diesen speziellen Mikroben, die Öl abbauen und ihre Wirte dadurch am Leben erhalten. An den heißen Quellen im 2000 Meter tiefen Guaymas-Becken im Golf von Kalifornien haben wir zusammen mit unseren Kollegen am Bremer Max-Planck-Institut ein anderes Phänomen entdeckt: Hier gibt es Mikroorganismen, die bis vor rund dreißig Jahren noch Archaebakterien genannt wurden, heute aber als Archaeen bezeichnet werden, und die mit bestimmten Bakterien gemeinschaftlich zusammenleben. Archaeen bilden neben den Bakterien und den die Pflanzen, Tiere und Pilze umfassenden Eukaryonten eine der insgesamt drei Domänen des Lebens, in die alle zellulären Lebensformen eingeteilt werden. Vielen Archae- en ist eine besondere Lebensweise eigen: Sie sind extremophil und leben in für uns Menschen
26
und viele andere Lebewesen äußerst unwirtlichen Biotopen, beispielsweise in heißen Quellen oder in der Tiefsee. Sie schaffen dies durch ungewöhnliche Stoffwechselleistungen, auf die sich diese Mikrobenarten spezialisiert haben, und nicht zuletzt deswegen sind extremophile Archaeen in unserer Zeit für biotechnologische Verfahren von steigendem Interesse. Weiter unten werden wir vorstellen, wie durch Arbeitsteilung Archaeen zusammen mit Bakterien dazu imstande sind, Bestandteile des Öls in Biomasse umzuwandeln. NAHRUNG FÜR SCHWÄMME UND MUSCHELN Auf den Campeche-Asphaltvulkanen leben an der Grenzschicht zwischen öligem Asphalt und sauerstoffreichem Meerwasser Schwämme und Muscheln, die entfernt mit den Miesmuscheln der Nordsee verwandt sind. Diese Tiere tragen in ihrem Körper Bakterien der Gruppe Cycloclasticus, die aus Öl sowohl Energie als auch lebenswichtige Kohlenhydrate gewinnen können. Ihren Namen Cycloclasticus, der „Ringbrecher“ bedeutet, verdankt diese Gruppe von Bakterien übrigens einer besonderen Fähigkeit: Sie können chemische, schwer abbaubare Ringstrukturen im Öl, sogenannte
PAKs – polyzyklische aromatische Kohlenwasserstoffe –, knacken und verwerten. Überraschenderweise haben aber die symbiontischen Cycloclasticus-Arten, die in diesem speziellen Tiefseebiotop leben, ihre ringbrechende Fähigkeit verloren: In ihrem Genom fehlen die dafür notwendigen Gene. Unseren Untersuchungen zufolge haben sich diese Bakterien stattdessen auf viel leichter abbaubare Bestandteile des Öls spezialisiert, nämlich auf die sogenannten kurzkettigen Alkane wie Butan, Ethan und Propan, deren Moleküle keinerlei feste Ringstruktur aufweisen. Solche Cycloclasticus-Bakterien, die nur noch kurzkettige Alkane verstoffwechseln und keine Ringe mehr aufbrechen können, waren bislang unbekannt. Trotzdem besitzen diese Einzeller einen effektiven Stoffwechsel: Zunächst oxidieren sie die Alkane zu Alkoholen unter Verwendung von Sauerstoff. In weiterer Folge bauen sie die Alkoholmoleküle in mehreren Schritten zu Kohlenhydraten um, mit denen die symbiontischen Bakterien sich selbst und ihre Wirte ernähren können. Mit diesem Stoffwechselweg können die Mikroben viel mehr Biomasse aufbauen, als wenn sie aromatische Ringstrukturen, die PAKs, aufbrechen müssten, denn dieser Prozess ist aufwendig und verschlingt viel zelluläre Energie.
Il l u s t ra t i o n: M a x B i rk l
ÜBERFLÜSSIGE GENE Aber warum haben die symbiontischen Cycloclasticus-Arten die Fähigkeit gänzlich verloren, PAKs abzubauen? Der Schlüssel dafür liegt vermutlich in ihrer symbiontischen Lebensweise: Ihre Wirte, Muscheln und Schwämme, filtrieren Meerwasser aus der Grenzschicht zum öligen Asphalt. Darin sind die kurzkettigen Alkane gelöst und somit für das Stoffwechselgeschehen leicht verfügbar. PAKs hingegen sind kaum wasserlöslich und damit für die Mikrobenzellen schwer zugänglich.
An den Rändern von Asphaltvulkanen kommen Muscheln vor, die sich mit Haftorganen (großer Kreis) am Untergrund festhalten können. In ihren Kiemen (kleiner Kreis) leben Bakterien als Symbiosepartner. Die Muscheln versorgen die Mikroben mit frischem Wasser und darin gelösten Kohlenwasser stoffen. Die Bakterien wiederum wandeln diese Substanzen in Kohlenhydrate um und liefern ihren Wirten dadurch Ener gie zum Überleben.
Die Aufrechterhaltung und Vererbung eines umfangreichen Geninventars für den Abbau von PAKs erscheint daher als verzichtbarer Luxus, der keinen Selektionsvorteil mehr bietet. Hinzu kommt, dass die Symbionten im Gewebe ihrer Wirte an einem geschützten Standort leben, an dem sie kontinuierlich mit reichlich frischer Nahrung versorgt werden und nicht mit frei lebenden Bakterien konkurrieren müssen. An einem anderen Standort, nämlich den heißen Quellen des Guaymas-Beckens im Golf von Kalifornien, haben wir außerdem Archaeen und Bakterien entdeckt, die partnerschaftlich in Konsortien zusammenleben und Butan aus dem Öl auch ohne Sauerstoff abbauen. Wie in vielen anderen Meeressedimenten verschwindet der Sauerstoff auch im Boden des GuaymasBeckens innerhalb weniger Millimeter, und die Mikroorganismen unterhalb dieser Zone benutzen stattdessen das reichlich vorhandene
27
Sulfat zur Energiegewinnung. Sowohl die Sulfatreduktion als auch der anaerobe, das heißt sauerstofffreie, Abbau von Butan sind längst bekannte Vorgänge; die im GuaymasBecken neu entdeckten Konsortien aus Archaeen und Bakterien überraschten jedoch mit ihren bislang unbekannten Stoffwechselwegen. Bisher kannte man Bakterien, die kurz kettige Alkane wie Butan mithilfe der Energie aus der Sulfatreduktion oxidieren können. Genomanalysen der Guaymas-Konsortien, mit denen Forscher Mikrobenarten identifizieren und ihre physiologischen Fähigkeiten aufdecken können, haben jedoch ergeben, dass das hier nicht der Fall ist. Stattdessen haben wir Gene entdeckt, die eigentlich aus einem ganz anderen Stoffwechselweg bekannt sind, nämlich dem anaeroben Abbau von Methan. Solche Gene werden eigentlich ganz anderen als den hier gefundenen Mikrobenarten zugeordnet, nämlich den sogenannten anaeroben Methanoxidierern (ANMEs). Diese bereits gut erforschten Mikroorganismen benutzen ein spezielles Enzym, um das chemisch stabile Methanmolekül in eine leichter abbaubare Methylverbindung zu überführen, die in der Folge über mehrere Schritte zu CO2 oxidiert wird. Die spannende Aussicht, dass die neuen Konsortien einen ähnlichen Weg auch für den Abbau von Butan nutzen könnten, wurde schnell bestätigt: Ähnlich wie bei den bereits bekannten ANMEs haben wir in den Zellen der Butanoxidierer große Mengen des neu entdeckten Enzyms und auch der Produkte des Butanabbaus nachgewiesen. BRÜCKEN AUS PROTEINEN Die Kopplung der Archaeen- und Bakterienzellen ist für Wissenschaftler ungeheuer spannend: Die Oxidation des Butans durch die Archaeen setzt Elektronen frei, die auf das Sulfat über tragen werden müssen. Aber genau wie ihre verwandten ANMEs können auch die ButanArchaeen dies nicht selbst bewerkstelligen. Stattdessen reichen die Zellen die Elektronen über kabelähnliche Proteinbrücken an die Partnerbakterien weiter, die damit nachfolgend das Sulfat reduzieren. Dieses Zusammenwirken
28
so unterschiedlicher Organismen erlaubt es den Archaeen und Bakterien, g emeinsam die Energie für ihren Stoffwechsel zu gewinnen. TEAMWORK ALS SCHLÜSSEL ZUM ERFOLG Unsere Untersuchungen liefern äußerst spannende Einblicke in die Umwandlung von Ölabbauprodukten in Biomasse durch spezialisierte Organismen an gemeinhin als unwirtlich angesehenen Standorten. Die kurzkettigen Alkane sind dort eine wichtige Energiequelle, die am Ende die Grundlage für höheres Leben liefert. Die Zusammenarbeit von grundverschiedenen Organismen wie Archaeen und Bakterien oder Bakterien und Tieren zeichnet sich einmal mehr als außergewöhnlich erfolgreich aus, und die neu entdeckten Stoffwechselwege verdeutlichen eindrucksvoll die physiologische Vielseitigkeit der beteiligten Akteure. Darüber hinaus sind die hier vorgestellten Ergebnisse ein Wegweiser, besonders bei ökologischen Betrachtungen wie hier am Beispiel extremer Standorte neben der taxonomischen Identifizierung der dort zusammenlebenden Arten besonders auf das physiologische und biochemische Zusammenspiel aller dort vorkommenden Lebensformen zu achten. Was uns Menschen artüberschreitend und damit vielleicht wunderlich vorkommt, sind aus Sicht der Natur ganz einfach Tricks, um durch Kooperation an Energie- und Nahrungsquellen zu gelangen, die anderweitig wenig ertragreich oder gar verschlossen sind. Mit anderen Worten: Anstatt frei lebende Alkan verwertende Bakterien einfach einzustrudeln und zu verdauen, kultivieren die Muscheln im Golf von Mexiko ihre Symbionten im eigenen Körper und ernten dabei ein Vielfaches der erwirtschafteten Erzeugnisse; und anstatt dass Archaeen und Bakterien im GuaymasBecken ihre jeweiligen Fähigkeiten ungenutzt ins Leere laufen lassen, werden die bei der Butanoxidation anfallenden überschüssigen Elektronen, derer sich die Archaeen dringend entledigen müssen, direkt über Eiweißbrücken auf die Bakterien übertragen. Das ist molekulare Teamarbeit in einer ihrer schönsten Erschei nungen.
C H E M I S C H - P H Y S I K A L I S C H -T E C H N I S C H E S E K T I O N
7
M IKR O O R G A N ISMU S A L S Z E L L FA BR IK Mit Modellen und neuen Computeralgorithmen haben wir fünf der wichtigsten biotechnologischen Produktionsorganismen daraufhin untersucht, ob sich das Wachstum der Zellen mit der Produktion von Chemikalien koppeln lässt. Die Berechnungen zeigen überraschenderweise, dass dies für fast jedes Stoffwechselprodukt möglich ist. Das konkrete Beispiel der erzwungenen Produktion von Itaconsäure durch das Bakterium Escherichia coli bestätigt das Potenzial unserer Methode. Die Studie trägt grundlegend zur Entwicklung von neuen biotechnologischen Prozessen bei.
S T E F F E N K L A M T, M A X - P L A N C K - I N S T I T U T F Ü R DY N A M I K KO M P L E X E R T E C H N I S C H E R S Y S T E M E , MAGDEB URG
Mikroorganismen können ein breites Spektrum an Chemikalien und Biokraftstoffen synthetisie ren und gewinnen in einer stärker biobasierten Industrie immer weiter an Bedeutung. Oftmals produzieren die Zellen die gewünschten Substan zen allerdings nicht von allein oder nicht effizient genug und müssen durch geeignete genetische Eingriffe im Stoffwechsel zu Hochleistungspro duzenten umfunktioniert werden. Der Stoffwechsel (Metabolismus) selbst eines recht einfachen Mikroorganismus ist hoch gradig komplex und umfasst in der Regel Hunderte oder gar Tausende Metaboliten (wie Zucker oder organische Säuren) und bioche mische Reaktionen. Um im Labyrinth der sich daraus ergebenden Stoffwechselnetzwerke nicht den Überblick zu verlieren, verwenden
Wissenschaftler neben Laborexperimenten verstärkt mathematische Modelle und Com putersimulationen. Diese helfen unter anderem bei der Suche nach Kombinationen von genetischen Eingriffen, die eine normale Zelle in eine biochemische Fabrik zur Synthese eines gewünschten Produktes umwandeln. Im Idealfall lässt sich dabei das Wachstum der Zelle mit der Synthese des Produkts koppeln: Die Zelle kann sich dann nämlich nur noch vermehren, wenn die gewünschte Chemi kalie als Nebenprodukt entsteht. Eine solche Kopplung läuft zum Beispiel in natürlicher Art und Weise ab, wenn Hefen unter Sauerstoffaus schluss den Metaboliten und das Gärprodukt Alkohol produzieren (müssen). Da Mikroorga nismen gewöhnlich immer nach maximalem
29
Wachstum streben, vereinen die Ingenieure dadurch geschickt ihre Interessen mit denen des Lebewesens. Man spricht von einer wachstums gekoppelten Produktion. Für ausgewählte Produkte konnte in früheren Arbeiten von verschiedenen For schungsgruppen nachgewiesen werden, dass eine Kopplung von Wachstum und bioche mischer Produktsynthese erzwungen werden kann. Bisher war aber unklar, inwieweit sich ein solches Designprinzip auf ein breites Spektrum von anderen Produktklassen und für verschiedene Mikroorganismen verall gemeinern und anwenden lässt. WA C H ST U M S G E KO P P E LT E Ü B E R P R O D U K T I O N IST FAST UNIVERSELL MÖGLICH
30
Lassen sich zur Zellfabrik umprogrammieren: Max-Planck-Forscher haben den Stoffwechsel von E. coli - Bakterien an wenigen Stellen so verändert, dass die Mikroorganismen nur wachsen, wenn sie Itaconsäure produzieren. Aus dieser Substanz werden Kunststoffe und Pharmazeutika hergestellt.
umfassen. Als entscheidenden methodischen Schritt mussten wir dann einen effizienten Algorithmus entwickeln, der mithilfe des Modells Angriffspunkte identifiziert, um die wachstumsgekoppelte Synthese eines gewünsch ten Metaboliten zu erzwingen. Wichtig ist hierbei, dass wir keinerlei Informationen über Geschwindigkeiten oder Raten der einzelnen Reaktionen benötigen, die ohnehin in vielen Fällen entweder gar nicht oder nur mit großen Unsicherheiten behaftet vorliegen. Als zentrales und zugleich überraschendes Ergebnis konnten wir damit zeigen, dass sich in den fünf untersuchten Organismen für fast jeden Metaboliten eine Möglichkeit finden lässt, das Wachstum des Organismus zu einer effizienten Überproduktion des gewünschten Stoffes zu veranlassen. Konkret gilt dies für
Bild: Björn Schwentker
Dieser Frage ist unsere Gruppe in den vergan genen Jahren auf den Grund gegangen. Wir untersuchten fünf der wichtigsten biotechnologi schen Produktionsorganismen in Hinblick auf die Frage, für welche Metaboli ten in diesen Organismen eine wachstumsge koppelte Produktion möglich ist, wenn man sie auf geeignete Weise gentechnisch verändert. Wir analysierten dabei sowohl klassische „Arbeitspferde“ der Biotechnologie wie Escherichia coli und Bäckerhefe als auch komplexere photosynthetische Bakterien. Wie geht man für die Analyse vor? Ausgangspunkt ist die sequenzierte DNA des Organismus, aus welcher die vorhan denen Gene abgeleitet werden können. Die Gene wiederum codieren unter anderem für meta bolische Enzyme, welche die biochemischen Reaktionen in der Zelle katalysieren. Daraus resultiert ein komplexes Stoffwechselnetzwerk, mit dem die Zelle all jene Substanzen produ ziert, die sie zum Leben benötigt. In dieses Netzwerk wollen wir an bestimmten Stellen eingreifen, um die Zelle zur Produktion von Stoffen zu zwingen, die von industriellem Interesse sein könnten. Für die computergestützte Identifikation solcher Eingriffspunkte verwendeten wir mathematische Modelle von Stoffwechselnetz werken, die alle relevanten Reaktionen und beteiligten Metabolite im jeweiligen Organismus
mindestens 94 Prozent der Stoffwechselpro dukte im jeweiligen Organismus, in einem Fall sind theoretisch sogar 100 Prozent möglich. Die fünf untersuchten Organismen decken ein breites Spektrum relevanter Produkte für die chemische Industrie ab. Dazu zählen Biokraft stoffe, Biopolymere, Nahrungsergänzungsmittel oder Grundchemikalien zur Synthese anderer Substanzen. Somit sind diese Ergebnisse von weitreichender Bedeutung für die Entwicklung neuer biotechnologischer Prozesse. E. COLI WIRD ZUM I TA C O N S Ä U R E - P R O D U Z E N T E N Am Beispiel des Bakteriums Escherichia coli demonstrierten wir unsere Methode im Detail. Das Stoffwechselmodell dieses Organismus umfasst rund 1800 Metaboliten und mehr als 2500 Reaktionen und hat damit bereits eine hohe Komplexität. Wie beschrieben haben wir zunächst untersucht, wie viele dieser Metaboliten sich durch geeignete Genmanipulation erzwunge nermaßen von dem Bakterium herstellen lassen. Das Ergebnis: über 99 Prozent. In einem zweiten Schritt haben wir unsere wachstumsgekoppelte Strategie dann für die Synthese eines konkreten Stoffes im Labor getestet. Ziel war es, das Bakterium Itaconsäure produzieren zu lassen. Das ist eine Grund chemikalie, die für die Synthese zahlreicher Stoffe wie Polyacrylate, Gummi oder für Pharmazeutika benötigt wird. E. coli kann Itaconsäure zunächst einmal gar nicht produzieren, da es ein bestimmtes Enzym, das den letzten Schritt der Itaconsäuresynthese katalysiert, nicht besitzt. Deshalb haben wir das fehlende Gen aus einem anderen Organismus (Aspergillus terreus; ein pilzartiger natürlicher Produzent von Itaconsäure) in E. coli eingebracht. Das allein reichte jedoch nicht aus, um das Bakterium zur Synthese von größeren Mengen an Itaconsäure zu zwingen. Deshalb suchten wir mithilfe des Stoffwechselmodells von E. coli und der von uns entwickelten Software CellNetAnalyzer nach Kombinationen von genetischen Eingriffen, die zur wachstums gekoppelten Synthese dieses Produkts führen.
Dann wählten wir eine konkrete Interventions strategie aus und setzten sie im Labor um: Fünf vom Algorithmus vorgeschlagene metabo lische Gene wurden entfernt, wodurch bestimmte Stoffwechselwege in E. coli blockiert wurden. Dies hatte zur Folge, dass das neue Bakterium wie gewünscht nur noch wachsen konnte, wenn es Itaconsäure in größeren Mengen als Nebenprodukt synthetisierte. Hierfür „fütterten“ wir das Bakterium mit Glukose, die es zu 68 Prozent in Itaconsäure umsetzte. Dieses konkrete Anwendungsbeispiel demonstriert eindrucksvoll das Potenzial unserer Methode. Die computergestützte Umgestaltung von Mikroorganismen zu Zellfabriken kam vor 15 bis 20 Jahren als Alternative zu zufalls basierten Verfahren (mittels Mutagenese) in der sogenannten Stammentwicklung auf und wird seitdem ständig fortentwickelt. Mit unserer Arbeit ist erstmals eine vollständig Analyse der Machbarkeit der wachstumsgekoppelten Produktion für alle Metaboliten in fünf der wichtigsten Produktionsorganismen gelungen. Auch die konkrete Umsetzung der Methode zur Produktion von Itaconsäure war neu. Ein großer Vorteil bei dieser Arbeit bestand darin, dass wir im Haus sowohl die Fachleute am Computer (Modellierer) als auch im Labor (Genetiker) haben. Die neue Methode ist wesentlich zielgerichteter als bisherige Verfahren. Dennoch können wir bislang nur Aussagen darüber machen, ob ein bestimmter Organismus grund sätzlich dazu in der Lage ist, eine gewünschte Substanz (wachstumsgekoppelt) zu synthetisie ren. Wir sind noch weit davon entfernt, das Verhalten einer Zelle exakt vorherzusagen. In einem neuen Forschungsprojekt sollen nun weitergehende Entwicklungen stattfinden, um mit gezielten Manipulationen im Energiestoffwechsel die Produktsynthese nicht nur mit hoher Ausbeute (pro Substrat), sondern auch mit hoher Rate (pro Zeiteinheit) zu optimieren. Für diese Forschung wird unsere Gruppe bis 2022 mit zwei Millionen Euro im Rahmen eines Consolidator Grant des Europäischen For schungsrats (European Research Council, ERC) gefördert.
31
GEISTESWISSENSCHAFTLICHE SEKTION
8
DIE FLÜCHTLINGSKRISE IN DEN MEDIEN Das Jahr 2015 war geprägt von der sogenannten Flüchtlingskrise. Mehr als eine Million Menschen vor allem aus Syrien, Afghanistan und Irak kamen in die Europäische Union. Die Medien arbeiteten die Ereignisse sehr unterschiedlich auf: Das Spektrum reichte von Offenheit und Anteilnahme bis zur Forderung nach Abschottung. Eine Studie hat sich mit der Frage befasst, ob und wie die Einwanderungswelle das Wohlergehen älterer Einheimischer in Europa veränderte. Dabei zeigte sich in einigen Ländern ein überraschend deutlicher Zusammenhang mit der medialen Berichterstattung.
GREGOR SAND, MAX-PLANCK-INSTITUT FÜR SOZIALRECHT UND SOZIALPOLITIK,
Im Allgemeinen ist es schwierig festzustellen, wie sich Einwanderung – gerade in Abgrenzung zu anderen Faktoren – auf das Wohlergehen der angestammten Bevölkerung auswirkt. Bisher gab es kaum derartige Untersuchungen. Ziel dieser Studie war herauszufinden, wie sich die Wahrnehmung des großen Zustroms von Migranten 2015 auf das Wohlergehen älterer Menschen in den zehn europäischen Staaten Österreich, Belgien, Tschechien, Dänemark, Frankreich, Deutschland, Italien, Slowenien, Spanien und Schweden ausgewirkt hat. Der Einfluss wurde auf Basis von Daten des Survey of Health, Ageing and Retirement in Europe (SHARE) ermittelt, einer interdisziplinären Langzeitbefragung von Menschen über 50 Jahre. Mithilfe der „Difference-in-Differences Method“ wurden Befragungsergebnisse, die vor dem großen Zustrom von Februar bis Juni 2015 gewonnen wurden, mit den Angaben von Studienteilnehmern verglichen, die von Juli bis November 2015 befragt wurden, also zu einem Zeitpunkt, als das Thema in der Presse im Vordergrund stand. Daraus ließ sich abschätzen, wie sich das subjektive Wohlergehen beider Gruppen über die Zeit verändert hat. Subjektives Wohlbefinden ist durch eine gute psychische Verfassung und ein hohes Maß an Lebenszufriedenheit gekennzeichnet. Es umfasst Gesundheit, Produktivität und soziale Kontakte. Für die Studie haben wir das subjektive Wohlbefinden an der „Satisfaction with Life Scale“, also der Skala für Lebens
32
Ablehnung oder Solidarität? Der Tenor der Medienb erichte beeinflusste nicht nur die Wahrnehmung, sondern auch das Wohlbefinden vieler Menschen in Europa.
Bild: picture alliance/AP Photo
MÜNCHEN
zufriedenheit gemessen. Bei dieser Methode werden die Studienteilnehmer gebeten, ihre allgemeine Lebenszufriedenheit auf einer Skala von 0 bis 10 zu bewerten (0 für völlig unzufrieden und 10 für rundum zufrieden). Nach der sogenannten Set-Point-Theorie ist das subjektive Wohlbefinden von Individuen über die Zeit relativ konstant, da es überwiegend von Persönlichkeitsmerkmalen abhängt. Bestimmte Ereignisse im Leben können jedoch erhebliche Abweichungen verursachen. Positive Erfahrungen wie die eigene Hochzeit oder ein Lottogewinn und negative Ereignisse wie der Tod eines nahestehenden Menschen oder Arbeitslosigkeit können das subjektive Wohlbefinden vorübergehend oder langfristig verändern. Wie stark die Auswirkungen sind, hängt von der Schwere und Art der Ereignisse ab. Der Verlust des Ehepartners senkt beispielsweise das subjektive Wohlbefinden im ersten Jahr um rund 0,9 Punkte, eine Heirat steigert es im ersten Ehejahr um etwa 0,3 Punkte. ÜBEREINSTIMMUNGEN ZWISCHEN STIMMUNG UND WOHLBEFINDEN Im Rahmen der Studie betrachteten wir die Flüchtlingskrise als wichtiges Ereignis im sozialen Bereich, das sich überall in Europa auf das subjektive Wohlbefinden der Menschen auswirkte, und zwar insbesondere durch die Präsenz und Wahrnehmung in den Medien. Wie frühere Untersuchungen gezeigt hatten, können Medienaufmerksamkeit und Berichterstattung öffentliche Debatten und die politische Schwerpunktsetzung beeinflussen. In diesem Kontext konnte die Flüchtlingskrise entweder als negatives Ereignis wahrgenommen werden, das viele logistische, administrative, wirtschaftliche und soziale Kosten nach sich zieht, oder als positive Erfahrung mit Potenzial für die Zukunft und als Chance zu helfen. DK TENDEN Z DE R BERICH TE RS TA TTUNG IM JAH R 20 15
BE
POSITIV : Deutschland, Schweden, Italien GEMISCHT : Österreich, Belgien, Spanien NEGATIV : Tschechien, Dänemark,
DE CZ
Frankreich, Slowenien
AT
FR IT ES
34
SI
Il l u s t ra t i o n: A nn a l e na R e b e l e , E ur o pä i s c he r Ra t , UN H C R , Ethi c al J our nal i s m N etw or k u. a.
SE
Die Annahme war, dass das große Medieninteresse am Thema Flüchtlingskrise das subjektive Wohlbefinden beeinflusst haben könnte. Dieser Effekt könnte mit der Tendenz der Berichterstattung in Zusammenhang stehen: positive Berichterstattung mit einer Steigerung, negative mit einer Verschlechterung und gemischte mit keiner Änderung des subjektiven Wohlbefindens. Für die Analyse dienten die Befragungswellen 5 und 6 von SHARE. Das Projekt SHARE, das es seit 2004 gibt, ist eine alle zwei Jahre stattfindende multidisziplinäre Panelstudie. Sie umfasst die Themen Gesundheit, Alterungsprozess, sozioökonomischer Status und soziale Netzwerke und basiert auf Interviews mit Menschen im Alter von 50 bis 85 Jahren in mittlerweile 28 europäischen Ländern und Israel. Insgesamt wurden mehr als 120.000 Personen befragt. Die Stichprobe für die Studie umfasste 25.362 ältere Bürgerinnen und Bürger, die in den jeweiligen Ländern geboren wurden. Tatsächlich zeigten sich in verschiedenen Ländern kurzzeitige Unterschiede im subjektiven Wohlbefinden, die vermutlich in Zusammenhang stehen mit der Präsenz und Tendenz der damaligen Berichterstattung über die Flüchtlingskrise und der in den Ländern herrschenden Stimmung: In Deutschland, Italien und Schweden – Länder mit positiver Berichterstattung – stieg das subjektive Wohlbefinden um 0,18 Punkte auf der Skala der Lebenszufriedenheit. Dagegen verringerte es sich um 0,14 Punkte in Tschechien, Dänemark, Frankreich und Slowenien, wo die Medien eher negativ berichteten. Die größten Auswirkungen ließen sich jeweils in Deutschland (+0,26) und Tschechien (-0,48) feststellen. In Österreich, Belgien und Spanien – Länder ohne eindeutige Tendenz in der Berichterstattung – waren keine Unterschiede sichtbar. S Y M PAT H I E U N D M I T G E F Ü H L W I R K T E N P O S I T I V Das gesunkene Wohlbefinden in den Ländern mit negativer Berichterstattung könnte daraus resultieren, dass die Menschen dort dem Zustrom von Flüchtlingen gegenüber skeptischer waren. Sie nahmen möglicherweise eher die Kosten als die Vorteile wahr und betrachteten die Neuankömmlinge als Belastung für den Sozialstaat, als Konkurrenten im Gesundheitswesen und als Bedrohung für den sozialen Zusammenhalt. Im Gegensatz dazu dominierte in den Ländern mit positiver Berichterstattung, vor allem in Deutschland, ein regelrechter Hype um die Flüchtlinge die Stimmung in den meisten Medien und teilweise auch bei Politikern. Sympathie, Einfühlungsvermögen, Mitgefühl, vielleicht das Gefühl der Erleichterung darüber, es besser zu haben, und die von Kanzlerin Merkel verkündete „Wir schaffen das“-Einstellung, scheinen die Stimmung und das gesellschaftliche Engagement beflügelt zu haben. Die Studie zeigt: Wenn das Thema Einwanderung in den Medien stark präsent ist, kann das Auswirkungen auf das Wohlbefinden der angestammten Bevölkerung haben, insbesondere bei den älteren Altersgruppen. Sie sind ein wichtiger Teil der Bevölkerung, da sie mehr Nachrichten konsumieren und sich stärker an Wahlen beteiligen als andere soziale Gruppen. Daher sollten Forscher und politische Entscheidungsträger die Medien und das Wohlbefinden älterer Menschen im Auge behalten, wenn es um die öffentliche Meinungsbildung zum Thema Migration geht.
35
C H E M I S C H - P H Y S I K A L I S C H -T E C H N I S C H E S E K T I O N
9
EDELMETALL AUS HIMMLISCHER QUELLE Der erste direkte Nachweis einer Gravitationswelle am 14. September 2015 mit den b eiden LIGO-Detektoren in den USA war eine wissenschaftliche Sensation, die in der Ö ffentlichkeit auf großes Interesse stieß. Sowohl diese wie auch vier weitere gemessene Gravitationswellen stammten jeweils von zwei schwarzen Löchern, die zusammenges toßen und miteinander verschmolzen waren. Die mit dem Physik-Nobelpreis g ew ürdigten Entdeckungen wurden noch getoppt, als am 17. August 2017 erstmals G ravitationswellen von zwei verschmelzenden Neutronensternen ins Netz gingen. Viele Observatorien weltweit beobachteten das Ereignis. Dabei fanden die Forscher h eraus, dass bei solchen kosmischen Kollisionen schwere Elemente wie Gold und Platin entstehen und ins All gelangen.
ANDERS JERKSTRAND, HANS-THOMAS JANKA, R A S H I D S U N Y A E V, M A X - P L A N C K - I N S T I T U T FÜR ASTROPHYSIK, GARCHING
Die erste Messung einer Gravitationswelle erfolgte 100 Jahre nach Einsteins Vorhersage im Rahmen seiner allgemeinen Relativitätstheorie. In dieser ist die Schwerkraft gar keine Kraft, sondern eine Eigenschaft von Raum und Zeit: dieser Himmelskörper krümmen den Raum und erzeugen eine Art Mulde um sich herum. Dieser Raumkrümmung müssen alle anderen Körper und auch Licht folgen. Das erweckt den Anschein, als würden sich Körper gegenseitig anziehen; tatsächlich aber folgen sie nur ihren Bahnen im gekrümmten Raum. Albert Einstein sagte voraus, dass Körper, die sich beschleunigt bewegen, zudem Raum kräuselungen auslösen und diese mit Lichtge schwindigkeit vom Ursprung fortstreben. Man kann sich das ungefähr so vorstellen wie Wellen, die von einem ins Wasser geworfenen Stein ausgehen. Wo eine Gravitationswelle auftritt, staucht und dehnt sie kurzzeitig den Raum – durch diesen Effekt lässt sie sich messen.
36
Die beiden schwarzen Löcher, deren Gravita tionswelle im September 2015 detektiert wurde, strahlten innerhalb von einer Zehntelsekunde etwa 50-mal mehr Energie ab, als alle Sterne im Universum zusammen in Form von elektromag netischen Wellen aussenden. Es war das zu diesem Zeitpunkt mit Abstand energiereichste Ereignis im All. Dennoch wurden hierbei kein Lichtblitz oder andere elektromagnetische Strahlung frei, denn es kollidierten keine festen Körper miteinander, sondern zwei Raumberei che mit extrem hoher Raumkrümmung. Am 17. August 2017 hingegen war das anders. An diesem Tag informierten Wissenschaft ler des Gravitationswellen-Observatoriums LIGO die Teams aus dem Konsortium darüber, dass sie erstmals die Welle von zwei verschmel zenden Neutronensternen aufgefangen hatten – also von extrem kompakten Endstadien zweier ausgebrannter Sterne. In einer solchen Neutronensternkugel mit etwa 20 Kilometer
B i l d : N u m e r i s c h - r e l a t i v i s t i s c h e S i m u l a t i o n : T. D i e t r i c h ( M a x - P l a n c k - I n s t i t u t f ü r G r a v i t a t i o n s p h y s i k ) u n d B A M - Ko l l a b o r a t i o n ; W i s s e n s c h a f t l i c h e V i s u a l i s i e r u n g : T. D i e t r i c h , S . O s s o k i n e , H . P f e i f f e r , A . B u o n a n n o ( M a x - P l a n c k - I n s t i t u t f ü r G r a v i t a t i o n s p h y s i k )
Durchmesser steckt die Masse von bis zu zwei Sonnen. Innerhalb weniger Stunden richtete unsere Gruppe optische Teleskope an vier Orten weltweit auf die angegebenen Koordinaten aus und entdeckte einen aufleuchtenden Himmels körper. Es war die erste beobachtete Kilonova. Darunter versteht man den Helligkeitsausbruch, ausgelöst von den radioaktiven Trümmern, die bei der Kollision der beiden Neutronen sterne ausgestoßen werden. Die Quelle mit der Bezeichnung AT2017gfo befand sich in der etwa 130 Millionen Lichtjahre entfernten Galaxie NGC 4993 und war so hell wie eine Supernova, also ein explodierender Stern. Sie zeigte anfangs blaue Farben, was auf eine hohe Temperatur hindeutete. Im Laufe eines Tages erreichte sie die höchste Helligkeit. Dann wurde sie schwächer und kühlte deutlich ab, wobei die Farbe der Strahlung immer roter wurde. Was war passiert? CRASH DER NEUTRONENSTERNE Die beiden Neutronensterne waren beim Zusam menbruch von zwei massereichen Sternkernen entstanden und umkreisten einander in einem Doppelsystem. Dabei strahlten sie Gravitations wellen ab und näherten sich langsam einander an, bis sich schließlich ihre Oberflächen berühr ten und es zum Crash kam. Obwohl dieser Prozess des Verschmelzens zweier Neutronensterne bis zum 17. August 2017 nie direkt beobachtet worden war, gingen einige Theorien davon aus, dass kurze Gam mastrahlenausbrüche von solchen Kollisionen herrühren könnten. Sie entstehen, wenn bei der Explosion kleine Mengen der ausgestoßenen Materie fast auf Lichtgeschwindigkeit beschleu nigt werden. Computersimulationen zeigten, dass bei dem Verschmelzen von Neutronen sternen außerdem beträchtliche Mengen sehr neutronenreicher Materie ausgeschleudert werden. Aufgrund der vorhergesagten extrem hohen Neutronendichten und Expansions geschwindigkeiten sollte in diesem heißen Material die sogenannte r-Prozess-Nukleosyn these ablaufen. Das „r“ steht für rapid (schnell),
Tanz der Schwergewichte: Zwei Neutronen sterne (weiße Punkte) umkreisen einander auf immer engeren Bahnen. Dabei werden Gravitationswellen ausgesendet.
37
herausgequetscht worden sein. Die relativ hohe Durchsichtigkeit macht es jedoch wahrschein licher, dass ein Großteil der Elemente von einer umgebenden Gasscheibe stammt, die teilweise durch starke Magnetfelder weggeblasen wurde. Die Spektren der Kilonova AT2017gfo lieferten Hinweise auf die während des Aus bruchs entstandenen Elemente. Es fanden sich breite und diffuse Signaturen, deren Herkunft noch nicht vollständig bekannt ist. Dennoch konnten zwei leichte r-Prozess-Elemente nachgewiesen werden: Caesium und Tellur.
denn hierbei fangen Atomkerne Neutronen in schneller Folge ein und wandeln sich zu den schwersten Elementen des Periodensystems wie Silber und Gold um. Durch die Anpassung von Modellen mit unterschiedlicher Masse, Energie und Zusammen setzung an die beobachtete Lichtkurve konnten wir eine Auswurfmasse von einigen Hundertsteln einer Sonnenmasse (mehr als 10.000 Erdmassen) ableiten, was etwa einem Prozent der Gesamt masse der verschmelzenden Neutronensterne entspricht. Die mittlere Geschwindigkeit des ausgestoßenen Materials betrug mehr als 60.000 Kilometer pro Sekunde, entsprechend einem Fünftel der Lichtgeschwindigkeit. Diese Werte stimmen gut mit den Vorher sagen aus hydrodynamischen Simulationen überein – ein beeindruckender Erfolg für die Theorie der vergangenen 20 Jahre, bei deren Ausarbeitung das Max-Planck-Institut für Astrophysik eine führende Rolle gespielt hat. ELEMENTE AUS EINER GASSCHEIBE Die schnelle Entwicklung der Kilonova weist darauf hin, dass das Licht nicht extrem stark mit der Materie interagierte. Das heißt, die Materie war durchsichtiger als von den meisten Modellen vorhergesagt. Dies deutet eher auf leichtere r-Prozess-Elemente hin, und dies wiederum liefert Hinweise auf die Prozesse, durch die Material ausgestoßen wird. So könnte das Material direkt beim Zusammenprall der beiden Neutronensterne von deren Oberflächen
38
Lichtpunkt im Fadenkreuz: Das Bild zeigt die etwa 130 Millionen Lichtjahre von der Erde entfernte Galaxie NGC 4993 im Sternbild Hydra, in der die beiden Neutronensterne explodierten. Diese sogenannte Kilonova erscheint als heller Stern.
Derzeit laufen weitere Arbeiten zur Analyse der Spektren sowie Vorbereitungen für die zukünftig zu erwartenden Gravitationswellen-Messungen von LIGO und dessen Pendant in Italien, Virgo. Damit beginnt eine goldene Ära für die Erfor schung von Neutronenstern-Verschmelzungen, und zwar in doppelter Hinsicht: Zum einen erreichten wir einen wichtigen Meilenstein, weil wir einen Entstehungsort für mehr als die Hälfte aller Elemente im Periodensystem mit Atom massen schwerer als Eisen direkt beobachten konnten. Zum anderen erwies sich mit dieser Beobachtung die Theorie der kurzen Gam mastrahlenausbrüche als korrekt – zwei Sekun den nach dem Gravitationswellensignal detek tierten die Weltraumobservatorien Fermi und Integral einen kurzen Gammastrahlenausbruch. Dies deutet darauf hin, dass die beiden Neutronensterne miteinander verschmolzen und dann wegen ihrer großen Masse zu einem schwarzen Loch kollabierten. Die Zeitverzöge rung von zwei Sekunden zwischen dem Eintref fen der Gravitationswelle und des Gammastrah lenpulses sowie die Art der Gammastrahlung liefern wichtige neue Informationen, um die Entstehung von schwarzen Löchern, das Verhal ten von Materie bei extremen Dichten und die Bildung einer Kilonova besser zu verstehen. Unser Institut war maßgeblich am Bau von Integral beteiligt. Mit diesem Teleskop werden pro Jahr etwa 20 Gammastrahlenaus brüche entdeckt, von denen der zur Kilonova AT2017gfo gehörende besonders spektakulär und aufschlussreich war.
B i l d : E S O / S . S m a r t t & T. - W. C h e n
THEORIE ERWEIST SICH ALS KORREKT
BIOLOGISCH-MEDIZINISCHE SEKTION
10
D IE V IRT U E L L E L E BE R Die Leber ist von Millionen feinster Gallenkanälchen durchzogen, die den Gallensaft von den Leberzellen aufnehmen, sich zu immer größeren Kanälen vereinigen und so die Galle zum Darm transportieren. Am Max-Planck-Institut für molekulare Zellbiol ogie und Genetik in Dresden haben wir ein dreidimensionales Mehrskalenmodell entwickelt, mit dem wir den Gallenfluss simulieren können. Es ermöglicht Vorhers agen der Auswirkungen von M edikamenten und ist ein vielversprechendes Werkzeug zur Untersuchung cholestatischer Lebererkrankungen. Außerdem könnte es dazu beitragen, die Zahl von Tierversuchen zu verringern.
K I R S T I N M E Y E R , R O B E R T O W E I G E R T, MARINO ZERIAL, MAX-PLANCK-INSTITUT FÜR MOLEKULARE ZELLBIOLOGIE UND GENETIK, DRESDEN
Unsere Leber ist das zentrale Stoffwechselorgan des Körpers. Eine ihrer wesentlichen Funktionen ist die Produktion von Galle, welche im Darm wie ein Spülmittel wirkt, um Fette im Nahrungsbrei zu lösen. Doch was womöglich noch wichtiger ist: Mit dem Gallenfluss werden auch Giftstoffe und Abfallprodukte entsorgt. Ihre Entgiftungsfunktion macht die Leber im Falle einer Beeinträchtigung des Abtransports selbst zum Angriffspunkt der Giftstoffe. Überdosierungen von Arzneimitteln oder ein Stau von Gallenflüssigkeit (cholestatische Lebererkrankung) können die Leberzellen schädigen und zu Leberfibrose, Leberzirrhose und anderen lebensbedrohenden Erkrankungen führen. Die Leberfunktion und die Lebertoxizität eines Medikamentes hängen daher stark von der Funktion des Gallenflusses ab, und ein genaues Verständnis der Funktionsweise dieses Netzwerks ist von zentraler Bedeutung.
Um die Leberfunktion zu messen, kommen in der Regel Serumdiagnostik oder bildgebende Verfahren zum Einsatz, wie zum Beispiel Computertomografie. Diese Verfahren haben jedoch eine relativ niedrige Auflösung und bieten nur einen eingeschränkten Einblick in die zugrunde liegende Krankheitsursache. Daher ist ein quantitatives Verständnis der Dynamik von Gallenflüssigkeit unabdingbar. Dieser Herausforderung sind wir am Max-Planck-Institut für molekulare Zellbiologie und Genetik mit einer Zusammenarbeit unterschiedlicher Disziplinen im Rahmen des Programms „Liver Systems Medicine Network“ (auch als „Virtual Liver Network“ bekannt) begegnet, dem mit 40 Teilprojekten derzeit größten Projekt seiner Art in Europa. Unsere Forschung erstreckt sich von Zellen bis hin zu Geweben und Organen. Die Leber ist jedoch so komplex, dass wir zu ihrer Erforschung eine
39
DREIDIMENSIONALES GALLENFLUSS-MODELL Wir haben die Eigenschaften des Gallentransports in Mäusen sowohl experimentell als auch theoretisch untersucht. Zur Messung diente die sogenannte Intravitalmikroskopie, die die Abbildung dynamischer biologischer Prozesse in lebenden Organismen ermöglicht. Dazu haben wir ein Molekül in die Leber eingeschleust, das den Gallentransport von der Aufnahme in die Leberzellen bis zum Abtransport aus der Leber mittels Fluoreszenz sichtbar macht. Von großer Bedeutung für unser Modell war die Entwicklung von
Digitale 3D-Rekonstruktion des Gallennetzwerks der Leber. Der Farbcode zeigt die Flussg eschwindigkeit der Galle innerhalb des Netzwerks an (blau: langsam, rot: schnell).
40
Algorithmen für die Bildanalyse, um das Verhalten der Gallenflüssigkeit präzise und hochaufgelöst simulieren zu können. Diese experimentellen Daten haben wir mit einem dreidimensionalen Modell der Leber ergänzt. Zur Ermittlung der exakten geome trischen Verhältnisse mussten wir modernste elektronenmikroskopische Verfahren einsetzen, damit selbst kleinste Strukturen berücksichtigt werden wie die Krümmungen der Gallenkanälchen sowie die unzähligen winzigen Zellfortsätze im Kanalinneren. So konnten wir die Struktur und die Flussdynamik der Galle auf den verschiedenen Organisationsebenen der Leber analysieren. Unsere Ergebnisse zeigen zwei Gradienten der Gallengeschwindigkeit und des Gallendrucks im Leberläppchen, die sich umgekehrt zueinander verhalten. Die Gallengeschwindigkeit nimmt vom Zentrum des Läppchens in Richtung des Gallenganges allmählich zu, während der Druck der Galle abnimmt. Dabei entsteht
Bild: Max-Planck-Institut für molekulare Zellbiologie und Genetik/Zerial
Kombination unterschiedlicher und modernster Ansätze benötigen. Wir haben deshalb gemeinsam mit Kollegen der Technischen Universität Dresden und der National Institutes of Health (Bethesda, USA) Mikroskopieverfahren mit quantitativen Messungen und mathematischen Modellen vereint, um so ein Mehrskalenmodell des Gallenflusses zu erstellen.
eine komplexe Dynamik: In manchen Bereichen der Leber steigt die Flussgeschwindigkeit allmählich, in anderen im Abstand weniger Zelllagen dramatisch an. Eine weitere Erkenntnis der Forscher ist, dass der Gallenfluss nicht nur durch die osmotischen Effekte der Ausscheidung von Gallenflüssigkeit aus der Leberzelle in die Gallenkanälchen gesteuert wird, sondern auch durch die Kontraktionskraft der Gallenkanälchen. Neu ist dabei die Erkenntnis, dass der osmotische Druck allein nicht ausreicht, um den Gallenfluss in dem Modell eindeutig zu erklären. Die gerichteten Kontraktionen der Gallenkanälchen sind ebenfalls ein Schlüsselfaktor. MENSCHLICHE LEBERERKRANKUNGEN BESSER VERSTEHEN Die Genauigkeit des Modells lässt sich am Beispiel von Paracetamol zeigen: Das Modell kann die Wirkung von Paracetamol auf den Gallenfluss und somit auf die Funktion der Leber korrekt vorhersagen. Das Modell ist also in der Lage, den Einfluss von Medikamenten auf das Verhalten des Gallentransports im Voraus zu berechnen. Dies könnte helfen, Leberschäden durch Medikamente zu vermeiden. Neben den Ergebnissen zur Simulation der Medikamententoxizität lieferten die Arbeiten grundlegende Einsichten in die Wechselbeziehungen zwischen Leberstruktur und -funktion, die es ermöglichen, Erkrankungen der Leber, die auf Störungen des Gallenflusses beruhen, besser zu verstehen. Obgleich die Ergebnisse aus Studien mit Mäusen stammen, könnten die Analysen auch auf andere Tiere angewandt werden. Außerdem glauben wir, dass unser Modell in Zukunft auch auf die menschliche Leber übertragen werden kann. ZUKÜNFTIG WENIGER TIERVERSUCHE Zurzeit ist die tierexperimentelle Forschung eine gesetzliche Anforderung, um die Lebertoxizität neuer Medikamente nachzuweisen. Tierversuche
DAS MODELL KANN DIE WI RK UNG VON PARACETAMOL AUF DEN GAL LENFLUSS KORREKT VORHERSAGEN.
werden leider dafür auch in absehbarer Zukunft notwendig sein. Die Max-Planck-Gesellschaft hat sich jedoch dazu verpflichtet, die Entwicklung von Alternativmethoden zu fördern. Ihre Wissenschaftler erforschen Alternativmethoden wie Zellkulturen aus Stammzellen, Computermodelle oder bildgebende Verfahren. Auch unser Multiskalenmodell des Gallenflusses trägt zu dieser Forschung bei: Da es wesentlich sensitiver ist als die derzeitigen toxikologischen Tests, liefert es weitere Informationen zur potenziellen Wirkung von Arzneimitteln. Damit könnte es in Zukunft helfen, die Arzneimittelentwicklung gezielter zu machen und die Anzahl von Tierversuchen zu reduzieren.
41
BIOLOGISCH-MEDIZINISCHE SEKTION
11
DA R M F L O R A F Ü R EIN LANGES LEBEN Unsere Forschung mit einem kurzlebigen Süßwasserfisch zeigt, dass Darmmikroben den Gesundheitszustand und sogar die Lebenserwartung gesund alternder A rtgenossen beeinflussen. Dies ist ein weiterer Hinweis auf die entscheidende Rolle, die Mikroo rganismen für die Gesundheit eines Organismus spielen.
D A R I O R I C C A R D O VA L E N Z A N O , MAX-PLANCK-INSTITUT FÜR DIE
Jeder Mensch beherbergt neben seinen eigenen Zellen ungefähr genauso viele Bakterien – die meisten davon im Dickdarm. Die Anzahl ihrer Gene ist dabei um das Hundertfache höher als die Zahl der menschlichen Gene. Allein diese Tatsache zeigt das enorme, das menschliche Genom weit übersteigende genetische Potenzial, das in der Welt der Mikroorganismen verborgen liegt. Nicht umsonst werden sie auch deswegen gern als die heimlichen Herrscher auf unserem Planeten bezeichnet. Immer mehr Biologen und Biomediziner beschäftigen sich weltweit mit den molekularen Mechanismen, mit denen Mikroben untereinander oder aber mit ihrem Wirt oder ihrer Umwelt kommunizieren, um ihre genetische Information zu platzieren, einzusetzen, zu teilen oder gar zu tauschen. Die Wechselwirkungen zwischen Organismen, ob zellulär oder auf molekularer Ebene, und ihrer Umgebung gestalten sich komplex und vielschichtig. Es gilt, Barrieren zu überwinden. Dazu gehören nicht nur die Zellwände ein- oder mehrzelliger Lebensformen. Es sind vor allem die Zellmembranen und inneren Kompartimente, über die der Informationsaustausch stattfinden muss. Sie müssen Kommunikation und Austausch zwischen der Bakterienwelt und dem jeweiligen Organismus ermöglichen. Bemerkenswerterweise wird der Kontakt zum Wirt oft über eine komplexe Gemeinschaft verschiedener Mikroorganismen vermittelt, die die Grenzflächen des Körpers wie Haut oder Darm reichlich bedecken. WECHSELWIRKUNGEN ZWISCHEN WIRT UND DARMFLORA Schon länger ist bekannt, dass unter normalen Umständen mikrobielle Lebensgemeinschaften, auch als Mikrobiota bezeichnet, neben Verdauung und Stoffwechsel auch die Abwehrmechanismen des Wirts gegen Krankheitserreger beeinflussen und fördern können. Ein Auszehren dieser Gemeinschaften, wie es beispielsweise nach einer Gabe von Antibiotika passieren kann, könnte sich zu einer Hauptursache für schwerwiegende Infektionen entwickeln. Trotz der langen Koevolution von Wirt und
42
Der Türkise Prachtgrund kärpfling wird nur wenige Monate alt. Er hat sich an die kurzen Regen- und langen Trockenz eiten in seiner Heimat im südlichen Afrika angepasst.
B i l d : D a r i o Va l e n z a n o / M P I f ü r d i e B i o l o g i e d e s A l t e r n s
B I O L O G I E D E S A LT E R N S , KÖ L N
Mikroorganismen, die ein gesundheitsförderndes und wohltuendes Gleichgewicht hervorgebracht hat, bricht dann schlagartig das vormals vitale Gleichgewicht zusammen, weil sich mikrobielle Gemeinschaften von kommensalen, also gutmü tigen, in hartnäckige pathogene Faktoren verwandelt haben. Umgekehrt zeigte sich, dass die Wiederherstellung nicht-pathogener Mikrobengemeinschaften durch eine mikrobielle Transplantation eine wirksame Behandlung gegen lebensbedrohliche Infektionen, beispielsweise mit dem Bakterium Clostridium difficile, sein kann. Allerdings war bis vor Kurzem nicht klar, ob die Wiederherstellung einer jugendlichen Darmflora im normal verlaufenden Alterungsprozess für den Wirt von Nutzen sein und seine Lebenserwartung letztendlich verlängern kann. K U R Z L E B I G E R F I S C H A L S M O D E L L F Ü R D A S A LT E R N Labormäuse und Zebrafische weisen eine äußerst komplexe Zusammensetzung ihrer Darmflora ähnlich der des Menschen auf, die aus Hunderten oder sogar Tausenden von verschiedenen Bakterienarten besteht. Die Haltung von Mäusen und Zebrafischen ist, verglichen mit kurzlebigen wirbellosen Arten, arbeitsintensiv und zeitaufwendig. Unter Laborbedingungen werden die Tiere zweieinhalb bis drei Jahre alt. Der Türkise Prachtgrundkärpfling (Nothobranchius furzeri) ist ein im Süßwasser lebender Bodenfisch, der sich an extrem raue Umweltbedingungen mit kurzen Regenzeiten und lang anhaltend Trockenzeiten angepasst hat. Diese Fische können bereits drei bis vier Wochen nach dem Schlüpfen Geschlechtsreife erreichen. Zudem haben sie eine spezielle Anpassung entwickelt, die man als „Diapause“ bezeichnet, um in der Trockenzeit im ausgedörrten Boden als Embryonen im Dauerruhestand überleben zu können. Der auch Killifisch genannte Kärpfling ist ein von Natur aus kurzlebiger Süßwasserfisch mit einer Lebensdauer von nur vier bis acht Monaten. Durch diese im Vergleich zu Labormäusen oder Zebrafischen kurze Lebensspanne hat er sich zunehmend zu einem populären Alterungsmodell entwickelt, an dem sich der Effekt experimenteller Manipulationen bezüglich der Lebenserwartung von Wirbeltieren schnell und innerhalb eines Zeitrahmens untersuchen lässt, der mit wirbellosen Tieren vergleichbar ist. F I T D U R C H B A K T E R I E L L E F R I S C H Z E L L E N K U LT U R E N Der Killifisch ist mit einer komplexen mikrobiellen Darmflora ausgestattet, die in der Zusammensetzung ihrer Artenvielfalt der von anderen Wirbeltieren gleichkommt. Unsere Experimente haben gezeigt, dass mittelalte Fische ohne eigene Darmflora länger leben, wenn sie den Darminhalt junger Artgenossen verabreicht bekommen. Dies deutet darauf hin, dass die mikrobielle Zusammensetzung der Darmflora die Lebensdauer ursächlich beeinflussen kann. Auffallend war besonders, dass bei Fischen der Kontrollgruppe ein rapider altersabhängiger Verfall des Bewegungsapparats einsetzte, während diejenigen Fische, die zuvor Darminhalte von jungen Spendern erhalten hatten, bis in die spätere Lebensphase körperlich aktiv blieben. Dank der heute vorhandenen Methoden zur Entschlüsselung der Artenvielfalt von Mikrobengemeinschaften haben wir eine ganze Reihe von Bakterienarten in der Darmflora der jungen Fische identifiziert. Die Analysen bedienen sich bei Weitem nicht mehr mikrobiologischer Techniken (etwa Kultivieren, Ausstrich
44
Zugabe Antibiotika und Darmmikroben von sechs Wochen alten Fischen
Junge Fische mit vielfältigen Darmmikroben
a) Mehr Krankheitserreger und artenärmere Darmflora
b)
0
9,5 Wochen
Im Darm der Prachtgrundkärpflinge nimmt die Anzahl von Krankheitserregern mit dem Alter zu, die Vielfalt der Darmmikroben jedoch ab. In einem Experiment haben Forscher die bakterielle Darmg emeinschaft ausgewachsener Kärpflinge mithilfe von Antibiotika entfernt und durch B akterien von jungen und alten „ Spender“-Tieren ersetzt.
Illustration: Max Birkl
a) Fische, die Darmmikroben von sechs Wochen alten Jungtieren erhalten haben, leben länger. b) Unbehandelte Fische oder solche, die Bakterien von älteren Artgenossen erhalten haben, sterben früher.
Lebensspanne
oder Mikroskopieren), sondern der schnellen und automatisierten Sequenzierung von DNA. Mithilfe der daraus resultierenden Sequenzinformationen lassen sich durch Vergleich mit Gendatenbanken zusammen mit hochentwickelten bioinformatischen Analysen die dazugehörigen Mikroben eindeutig identifizieren. Dadurch haben wir Bakterien der Gattungen Exiguobacterium, Planococcus, Propionigenium und Psychrobacter nachgewiesen, deren reichhaltiges Vorkommen in den Därmen der Wirtstiere mit dem jugendlichen Zustand und einer längeren Lebenserwartung zusammenhängt. Darmmikroorganismen innerhalb einer komplexen Mikrobengemeinschaft können demnach die Lebenserwartung und Alterung enorm beeinflussen. Aber wie funktioniert das? Wird lediglich das Stoffwechselgeschehen positiv beeinflusst? Oder geben die Mikroben Signale ab, die den Stoffwechsel oder die Zellteilungen – und damit den Alterungsprozess – im Sinne ihres Wirts, von dem sie ja abhängen, steuern? Welche Rolle spielt die Interaktion der einzelnen Spezies innerhalb der Mikrobengemeinschaft? Beeinflussen diese gegenseitig ihre Populationsdichten im Darm? Oder tauschen sie sogar untereinander Gene aus, um sich selbst und ihre Umgebung, also den Darm, optimal für alle Beteiligten einzurichten? Hier bahnen sich viele verschiedene Untersuchungen an, die in den großen Bereich der noch jungen Disziplin der molekularen Ökologie gehören. Unsere Experimente haben gezeigt, dass sich Darmmikroorganismen insgesamt vorteilhaft auf Gesundheit und Alterung auswirken können. Die Manipulation mikrobieller Gemeinschaften könnte also eines Tages eine neuartige Strategie für die Medizin sein. Wir wollen nun als Nächstes untersuchen, ob die Übertragung der Darmflora zwischen Individuen auch den Alterungsprozess von Laborsäugetieren und sogar des Menschen positiv beeinflussen kann. Die Experimente haben bereits die Planungsphase verlassen, und wir hoffen schon bald auf neue Ergebnisse.
45
C H E M I S C H - P H Y S I K A L I S C H -T E C H N I S C H E S E K T I O N
12
R O B OT E R M I T TAT E N D R A N G Roboter als Helfer im Alltag könnten in Zukunft unser Leben besser machen. Zum einen fehlt es dazu bisher an geeigneter Hardware. Vor allem aber muss das richtige „Gehirn” erst noch entwickelt werden. Denn um auch nur annähernd an die menschlichen Fertigkeiten heranzureichen, muss ein Roboter vieles selbst lernen können. In unserer Arbeitsgruppe Autonomes Lernen entwickeln wir, b asierend auf der Informationstheorie, Methoden, die es Robotern erlauben, sich durch künstlichen Spieltrieb neue Fähigkeiten anzueignen.
GEORG MARTIUS, MAX-PLANCK-INSTITUT FÜR INTELLIGENTE SYSTEME,
Wer träumt nicht hin und wieder davon, dass sich die Hausarbeit ohne sein Zutun erledigt? Bügeln, Putzen, Kochen – diese und andere lästige Tätigkeiten könnten in Zukunft Roboter übernehmen und uns damit im Alltag entlasten. Insbesondere könnten solche flexiblen Helfer auch älteren und behinderten Menschen assistieren und ihnen zu einem unabhängigeren Leben verhelfen. Doch bis sich diese Vision verwirklichen lässt, ist der Weg noch weit. Heutige Roboter, wie sie etwa in der industriellen Produktion zum Einsatz kommen, sind zu schwer und im Umgang mit dem Menschen nicht sicher genug für die Aufgaben im Alltag. Assistenzroboter im Operationssaal dagegen sind dafür nicht stark und robust genug. Beiden Typen von Robotern fehlt es zudem an geeigneten Sensoren, mit denen sie ihre Umgebung ebenso wie sich selbst wahrnehmen können. Das weitaus größere Problem ist aber das Innenleben für alltagstaugliche Roboter: Das richtige „Gehirn“ für sie muss erst noch entwickelt werden. Denn ein bestimmtes Verhalten zu programmieren, wie bisher üblich, ist nur bedingt erfolg versprechend, weil man schon zur Entwicklungszeit sämtliche Eventualitäten, die im künftigen Handeln des Roboters einmal eintreten könnten, vorhersehen müsste. Dafür enthalten realistische Alltagssituationen aber viel zu viele Ungewissheiten, und darüber hinaus können ständig neue, unvorhersehbare Situationen auftreten. Der Mensch hingegen kann nur auf sehr wenig programmiertes Verhalten zurückgreifen. Stattdessen lernt er kontinuierlich: Bereits als Fötus knüpft er erste Zusammenhänge zwischen Muskelaktionen und sensorischen Signalen; als Baby erlernt er erste koordinierte Bewegungen. Und während des gesamten Entwicklungsprozesses baut er sein Verständnis von der Welt aus und verfeinert dieses immer mehr. Mit der Welt zu interagieren, scheint uns keinerlei Mühe zu kosten: Das Einschenken einer Tasse Kaffee oder das Laufen durch den Wald funktionieren scheinbar wie von selbst. Das war aber nicht von Anfang an so, diese Fähigkeiten hat jeder von uns erlernt.
46
Ein sehnengetriebener Roboterarm, der darauf programmiert ist, neue Bewegungen auszuprobieren. So lernt er allmählich, eine Fläche zu schrubben. Am rechten Rand sieht man das Kugelgelenk in der Schulter und die Seile als Sehnen.
Bild: Georg Martius
S TA N D O R T T Ü B I N G E N
Um auch nur annähernd an diese menschlichen Fertigkeiten heranzureichen, muss auch ein Roboter in der Lage sein, vieles selbst zu erlernen. Dazu sind Kinder ein ideales Vorbild: Sie entdecken die Welt spielerisch. Dabei versuchen sie, das eigene Verständnis der Welt immer weiter zu verbessern, indem sie kleine Experimente ausführen. Jeder kennt die Situation, wenn ein Kleinkind untersucht, was passiert, wenn es eine Tasse vom Tisch schiebt. Bei den Eltern unbeliebt – aber notwendig, um zu verstehen, dass Dinge herunterfallen, wenn man sie nicht festhält. In der Gruppe Autonomes Lernen des MPI für Intelligente Systeme arbeiten wir an einer Software für künstlichen Spieltrieb, die robotische Systeme in Zukunft dazu befähigen soll, eigenständig zu lernen und ihre Handlungen selbst zu ver bessern. Wie aber lässt sich einem Roboter der Spieltrieb einprogrammieren? Hierzu muss man sich zunächst von der herkömmlichen Erwartungshaltung lösen, der Roboter solle bestimmte vorgegebene Aufgaben erledigen. Denn Lernen durch Spieltrieb funktioniert keineswegs anhand vorgefertigter Muster oder Abläufe, sondern vielmehr über allgemeine Konzepte wie jenes des Informations gewinns. Mathematisch lässt sich diese Größe mit Methoden der Informations theorie darstellen, die ursprünglich entwickelt wurden, um die Informationsübertra gung in der Telekommunikation zu beschreiben und zu optimieren. Entsprechend soll sich ein Roboter derart verhalten, dass ein spezielles Informationsmaß auf den Sensorwerten maximiert wird. Dieser Parameter misst einerseits die Menge der Information, aber auch wie gut sich die Zukunft anhand der gesammelten Information vorhersagen lässt. Wenn der Roboter nichts tut, lässt sich sein Verhalten wunderbar vorhersagen, aber er kann dabei keine neuen Informationen über seine Umgebung oder sein eigenes Verhalten sammeln. Eine völlig chaotische Bewegung wie Hin-und-her-Zappeln würde ihm hingegen sehr viele Informationen einbringen. Dies macht eine zuverlässige Vorhersage seines Handelns aber fast unmöglich, da darin zu viele Möglichkeiten enthalten sind. Letztlich ist es eine Gratwanderung, einerseits möglichst viele Informationen zu sammeln, andererseits eine gute Vorhersagbarkeit zu erhalten. EINE LERNREGEL GEGEN LANGEWEILE So haben wir – basierend auf dem Kriterium der Optimierung des Informations gewinns – eine Lernregel abgeleitet, die es einem Roboter erlaubt, verschiedene Verhaltensmuster eigenständig zu erproben. Auch hier liefern Kinder ein gutes Vorbild: Sie wiederholen eine neue Handlung so häufig, bis sie den Eindruck bekommen, dabei nichts Neues mehr zu erleben. Dann können sie sich weitgehend sicher sein, dass sie sie auch in Zukunft fehlerfrei beherrschen. Dem Kind wird langweilig, und es wendet sich einer neuen Handlung zu. Ganz ähnlich ergeht es dem Roboter: Hat er sein Verhalten eine Weile durchgespielt, sinkt der Informa tionsgewinn. Ab einer gewissen Untergrenze wird die Lernregel instabil. Das signalisiert dem Roboter, dass er anderswo noch mehr Informationen sammeln könnte, und er startet eine andere Aktivität. Die Steuerung des Roboters übernimmt ein kleines künstliches neuronales Netz. Die Verbindungsstärke zwischen den künstlichen Neuronen, die durch Summen gewichteter Parameterwerte repräsentiert werden, ändert sich aufgrund der Lernregel ständig, ähnlich wie im menschlichen Gehirn. Was mit dem Roboter passiert, hängt entscheidend von seinem Aufbau und seiner Interaktion mit der Umwelt ab. Getestet haben wir diese Systeme zunächst mit physikalisch realisti
48
Die simulierten Roboter versuchen s pielerisch, ihren Körper und die Interaktion mit der Umwelt zu entdecken. Das gilt für humanoide Modelle ebenso wie für käferartige oder schlangenförmige.
schen Simulationen und schließ lich auch an echten Hardware systemen. Um diese oder andere selbstlernende Systeme besser charakterisieren zu können, bedarf es neuer Methoden in der Auswertung durch Informationsund Komplexitätsmaße. Inzwi schen hat unsere Forschungs gruppe die oben erwähnte Lernregel so weit optimiert, dass ein simulierter humanoider Roboter in wenigen Minuten lernt, zu kriechen oder an einem Fitnesstrainer Rad zu fahren. Doch auch unter einem anderen Aspekt wird das Lernen durch künstlichen Spieltrieb immer interessanter: Noch haben zumindest die meisten Industrieroboter starre Glieder und Getriebe in den Gelenken, das macht sie hochpräzise und sehr robust. Diese Roboter sind gut für den industriellen Einsatz, aber auch schwer und starr. Im Umfeld von Menschen sind jedoch weichere Roboter, die nachgeben, wenn man sie wegdrückt oder wenn sie auf einen starken Widerstand stoßen, deutlich weniger gefährlich. In Anlehnung an die menschliche Anatomie wurden vor Kurzem Roboter mit künstlichen Sehnen und Muskeln konstruiert. Da diese wesentlich komplexer sind, lassen sie sich mit herkömmlichen Methoden kaum noch ansteuern, und das Lernen durch künstlichen Spieltrieb wird noch essenzieller. Die in unserer Forschungsgruppe entwickelten Verfahren kommen auch mit solchen Systemen klar und befähigen einen solchen Roboter, viele ver schiedene und potenziell nützliche Verhaltensmuster zu erlernen wie das Schütteln einer Flasche oder das Abschrubben eines Tisches.
Bild: Georg Martius
AUSBLICK Die Roboter sollen zum einen lernen, beliebige Bewegungen auszuführen, zum anderen, gewünschtes Verhalten zu zeigen und darüber hinaus ein gewisses Verständ nis von der Welt und von ihren eigenen Fähigkeiten zu erlangen. Um das zu erreichen, arbeiten wir am Verstärkungslernen, dem Erlernen von Repräsentationen und internen Modellen, die es den Robotern erlauben, genaue Vorhersagen zu machen. Denn um nicht nur zufällig gleichzeitig auftretende Ereignisse zu verknüpfen, sondern die tatsächlichen Zusammenhänge aufzudecken, bedarf es neuer Lernverfahren. Ein kleiner Schritt in diese Richtung ist uns schon gelungen: Wir konnten dem Roboter ein Lernverfahren implementieren, das ihm erlaubt, in gewissen Situa tionen aus seinen Beobachtungen die richtigen Schlussfolgerungen zu ziehen und die den tatsächlichen Zusammenhängen zugrunde liegenden Gleichungen selbst herauszufinden. Damit kann er wiederum Vorhersagen in unbekannten Situationen treffen. Bis jetzt sind die selbstlernenden Roboter noch im „Babystadium“, aber sie lernen schon, zu kriechen und einfache Dinge zu tun. Das langfristige Forschungs ziel ist, dass sie eines Tages zu zuverlässigen Helfern in allen möglichen Situationen heranwachsen werden.
49
GEISTESWISSENSCHAFTLICHE SEKTION
13
HO MO SA PIE N S IST ÄLT E R A L S G E DAC HT Als am Jebel Irhoud, einem Hügel zwischen Safi und Marrakesch in Marokko, Anfang der 1960er-Jahre bei Minenarbeiten zufällig fossile Knochen von Tieren und frühen Menschen sowie Steinwerkzeuge entdeckt wurden, war das schon eine Sensation. Dass seit 2004 wieder Paläoanthropologen dort graben, ist ein weiterer Meilenstein in der Erforschung der menschlichen Evolution. Denn inzwischen sind die Forschungsmethoden weiter fortgeschritten, und dadurch können die Funde erst richtig gewürdigt werden: Es gibt nun deutliche Belege dafür, dass der Homo sapiens älter ist als bislang angenommen und dass der gesamte Kontinent Afrika die Wiege der Menschheit ist.
JEAN-JACQUES HUBLIN, PHILIPP GUNZ, MAX-PLANCK-INSTITUT FÜR E VO L U T I O N Ä R E A N T H R O P O L O G I E , LEIPZIG
Wo heute Jebel Irhoud in der kargen Wüstenlandschaft der Sahara liegt, befand sich vor rund 300.000 Jahren eine fruchtbare Savanne, durch die Gnus, Zebras, Gazellen und allerlei Raubtiere streiften. Reiche Beute und tödliche Gefahren für die ebenfalls dort lebenden steinzeitlichen Jäger, von denen unser Team um Jean-Jacques Hublin vom Max-Planck-Institut für evolutionäre Anthropologie und Abdelouahed Ben-Ncer vom Nationalen Institut für Archäologie (INSAP, Rabat, Marokko) dank Computertomo-
50
grafie, virtuellen Rekonstruktionen, statistischen Analysen und Thermolumineszenzdatierung sagen können: Sie waren schon frühe Vertreter des modernen Menschen Homo sapiens. Lange Zeit glaubte man, dass alle heute lebenden Menschen von einer Population abstammen, die vor etwa 200.000 Jahren in Ostafrika lebte. Bei den neuen Ausgrabungen in Jebel Irhoud wurden jedoch deutlich ältere fossile Knochen des Homo sapiens entdeckt. Die Fundstücke sind rund 300.000 Jahre alt und damit die
ältesten sicher datierten fossilen Belege unserer eigenen Art – mehr als 100.000 Jahre älter als Homo-sapiens-Funde in Äthiopien. Schon in den 1960er-Jahren stießen Minenarbeiter in der Jebel-Irhoud-Höhle durch Zufall auf menschliche Fossilien und Steinwerkzeuge. Die Interpretation dieser Funde wurde allerdings durch eine unsichere Datierung erschwert, was zur Folge hatte, dass Nordafrika in den Debatten um den Ursprung unserer Spezies jahrzehntelang vernachlässigt wurde. Als frisch berufener Direktor am Max-Planck-Institut für evolutionäre Anthro pologie begann Jean-Jacques Hublin 2004 mit einem internationalen Team die Fundstelle neu zu untersuchen. Die Ausgrabung führte zur Entdeckung weiterer Skelettteile des Homo sapiens (die Zahl der Fossilien erhöhte sich so von ursprünglich sechs auf 22) sowie zum Fund fossiler Tierknochen und Steinwerkzeuge.
B i l d e r : P h i l i p p G u n z , M P I E VA L e i p z i g ( L i z e n z C C - B Y- S A 2 . 0 )
ST E I N W E R K Z E U G V E R R Ä T D A S A LT E R Die Überreste von Schädeln, Unterkiefern, Zähnen und Langknochen von mindestens fünf Individuen dokumentieren eine frühe Phase der menschlichen Evolution. Die Steinwerkzeuge aus Jebel Irhoud sind mit der sogenannten Levalloistechnik, einer charakteristischen Art der Steinbearbeitung, vor allem aus hochwer tigem Feuerstein hergestellt. Dieses Rohmaterial muss über weite Strecken transportiert worden sein. Unser Kollege Daniel Richter, Experte für Geochronologie, bestimmte zusammen mit seinem Team das Alter erhitzter Feuersteine aus den archäologischen Fundschichten mithilfe der Thermolumineszenzmethode auf rund 300.000 Jahre. Die Funde von Jebel Irhoud sind daher die derzeit besten Belege für die frühe Phase der Evolution des Homo sapiens in Afrika. Die Schädel heute lebender Menschen zeichnen sich durch eine Kombination von Merkmalen aus, die uns von früheren Vertretern der Gattung Homo unterscheiden: Das Gesicht ist klein, und der Hirnschädel ist rund. Die Fossilien von Jebel Irhoud haben einen modernen Gesichtsschädel und eine moderne Form der Zähne und einen großen, aber archaisch anmutenden Gehirnschädel. Modernste Computer-
Der älteste Homo sapiens . Zwei Ansichten einer Computer rekonstruktion der Funde aus Jebel Irhoud (Marokko). Die Funde sind auf 300.000 Jahre datiert und zeigen einen modernen Gesichtsschädel, aber einen archaisch anmutenden Hirnschädel. Die Gestalt des Gehirns (blau) und möglicherw eise auch die Funktion des Gehirns haben sich innerhalb der Homo-sapiens- Linie weiterentwickelt.
51
DIE NEUEN FORSCHUNGSERGEBNISSE VON JEBEL IRHOUD VERÄNDERN U N S E R V E R ST Ä N D N I S V O N DER FRÜHEN PHASE DER EVOLUTION VON HOMO SAPIENS GRUNDLEGEND.
tomografie (micro-CT) und statistische Analysen der Schädelformen auf Basis von Hunderten von Messpunkten zeigen, dass sich der in Jebel Irhoud gefundene Gesichtsschädel kaum von dem heute lebender Menschen unterscheidet. Allerdings ist der fossile Hirnschädel eher länglich und nicht rund wie beim modernen Homo sapiens. Die Gestalt des inneren Hirnschädels lässt Rückschlüsse auf die Gestalt des Gehirns zu. Die Fossilien aus Marokko zeugen daher von einer evolutionären Veränderung der Gehirn organisation – und damit möglicherweise auch der Gehirnfunktion – innerhalb unserer Art. Dazu passen auch die Erkenntnisse der Gene tiker unseres Instituts. Vergleicht man die DNA heute lebender Menschen mit der DNA von Neandertalern und Denisovamenschen – also ausgestorbenen archaischen Menschenformen –,
52
zeigen sich Unterschiede in den Genen, die das Gehirn und das Nervensystem beeinflussen. Evolutionäre Veränderungen der Gehirngestalt stehen daher vermutlich im Zusammenhang mit genetischen Veränderungen der Organisation, Vernetzung und Entwicklung des Gehirns, die den Homo sapiens von seinen ausgestor benen Vorfahren unterscheiden. FRÜHE AUSBREITUNG IN GANZ AFRIKA Die neuen Forschungsergebnisse von Jebel Irhoud verändern unser Verständnis von der frühen Phase der Evolution von Homo sapiens grundlegend. Die ältesten Homo-sapiens-Fossilien finden sich auf dem gesamten afrikanischen Kontinent: Jebel Irhoud in Marokko (300.000 Jahre), Florisbad in Südafrika (260.000 Jahre) und Omo Kibish in Äthiopien (195.000 Jahre). Die Ähnlichkeit dieser fossilen Schädel spricht für frühe Wanderungsbewegungen innerhalb Afrikas. Lange bevor Homo sapiens vor etwa 100.000 Jahren Afrika verließ, hatte er sich bereits auf dem Kontinent ausgebreitet. Für eine frühe Ausbreitung innerhalb Afrikas sprechen auch die steinernen Klingen und Speerspitzen, die gemeinsam mit Homosapiens-Fossilien und mit Knochen von gejagten Tieren in Jebel Irhoud gefunden wurden. Da vergleichbare Steinwerkzeuge aus ganz Afrika dokumentiert sind, vermuten die Leipziger Forscher, dass die technologische Entwicklung der Afrikanischen Mittleren Steinzeit vor mindestens 300.000 Jahren mit der Entstehung des Homo sapiens zusammenhängt. Die Ausbreitung in ganz Afrika bezeugt also eine Veränderung der menschlichen Biologie und des Verhaltens. Die weit verstreuten Homo-sapiens-Populationen waren aufgrund der Größe Afrikas und durch sich verändernde Umweltbedingungen (wie etwa der Wandel der Sahara von einer Savanne zur Wüste) oft für viele Jahrtausende nicht nur geografisch, sondern auch genetisch vonein ander getrennt. Diese Komplexität spielte für unsere Evolution eine wichtige Rolle. So ist der gesamte afrikanische Kontinent die Wiege der Menschheit.
BIOLOGISCH-MEDIZINISCHE SEKTION
14
G E N O M- E D IT IE R U N G VON N E RV E N Z E L L E N Mit der CRISPR/Cas9-Methode kann Erbgut mit bisher unübertroffener Einfachheit präzise verändert werden. Am Max Planck Florida Institute for Neuroscience haben meine Kollegen und ich es geschafft, mit CRISPR/Cas9 zu Forschungszwecken Mutationen in a usgereiften Nervenzellen hervorzurufen. Nukleinsäuren von Viren waren dabei der Schlüssel zum Erfolg.
RYO H E I YA S U DA , M A X P L A N C K F L O R I DA I N S T I T U T E F O R N E U RO S C I E N C E , J U P I T E R , F L O R I DA ( U S A ) , ARBEITSGRUPPE NEURONALE SIGNALÜBERTRAGUNG
Lebenswissenschaften und Medizin durchleben seit einigen Jahren eine Revolution. Bahnbrechende neue Methoden erlauben es, mit höchster Präzision das Erbgut von Zellen umzuschreiben. Prozesse, für die man früher mehrere Jahre brauchte, können jetzt innerhalb von Wochen und Monaten erledigt werden. Allen voran steht die CRISPR/Cas9-Methode, die es Wissenschaftlern erstmals erlaubt, gezielt, schnell und effizient Stücke aus dem Genom einer Zelle herauszuschneiden und durch völlig neue Sequenzen zu ersetzen. Die damit verbundene Möglichkeit, einzelne Gene gezielt an- oder auszuschalten oder gar umzuschreiben, erlaubt es den Forschern, die Bedeutung einzelner Gensequenzen und die Wichtigkeit individueller Genprodukte wie beispielsweise von Enzymen oder anderen essenziellen Zellbestandteilen nachzuvollziehen und zu entschlüsseln. Exakte und aussagekräftige Untersuchungen zur Rolle und Funktion von Gensequenzen oder anderen, soge-
nannten nicht-codierenden Bereichen auf der DNA bedürfen nämlich genau solcher präziser Eingriffe in das Erbgut, wie sie jetzt durch CRISPR/Cas9 möglich sind. Die herkömmlichen Methoden zur Erzeugung von Mutationen durch radioaktive energiereiche Gammastrahlen oder durch den Einsatz von gefährlichen, mutagenen Chemi kalien versagen an dieser Stelle. Zwar können auch hier Mutationen an derjenigen Position im Erbgut auftreten, die für die Wissenschaftler von Interesse sind. Gleichzeitig treten aber Tausende zusätzlicher unerwünschter Mutationen im gesamten Erbgut auf, die sich nicht ohne Weiteres identifizieren lassen. Untersucht man solche „wilden“ Mutanten, lassen sich die Ergebnisse nicht sofort einer einzelnen Mutation zuordnen. Es dauert, wie eingangs gesagt, mehrere Jahre, bis man einen Phänotyp einem definierten Genotyp zuordnen kann. Die Grundlagen der CRISPR/Cas9-Technik sind überraschend simpel: Einmal in eine Zelle
53
eingebracht, lokalisiert das CRISPR/Cas9-System eine spezifische Stelle im Genom, an der die DNA mithilfe des Cas9-Enzyms gezielt durch trennt wird. Die Zelle versucht sofort, diese Schnittstelle auf eine von zwei Arten zu reparieren: Meist dominiert der einfache Mechanismus des ungesteuerten Zusammenfügens von DNA-Abschnitten, bei dem die Schnittkanten des Erbmoleküls ohne Reparaturanleitung wieder zusammengefügt werden, was häufig zur Beschädigung des genetischen Codes führt, weil zum Beispiel das Leseraster aus dem Takt kommen kann mit der Folge, dass ein Protein nicht mehr synthetisiert wird. Die Zelle beherrscht aber auch den präzisen, jedoch ineffizienteren Mechanismus der homologen Reparatur, bei der der Schaden an der Gensequenz anhand einer Schablone wieder repariert wird. Fügt man der Zelle währenddessen ganz gezielt eine modifizierte Reparaturvorlage ein, übernimmt sie statt der Originalsequenz die vom Forscher gewünschten genetischen Änderungen und schreibt ihr eigenes Genom dabei um. Genau auf diese Weise können die gezielten Veränderungen im Erbgut an einer definierten Position auf der DNA hervorgerufen werden. NEUROWISSENSCHAFTEN PROFITIEREN KAUM VON CRISPR/CAS9 Während diese genetischen Techniken, wie gesagt, völlig neue Wege für die biomedizinische und Pflanzenzüchtungsforschung eröffnet haben, konnten Neurowissenschaftler bisher kaum von diesen Methoden profitieren. Das Problem war nämlich, dass in der Regel nur solche Zellen ihr Erbgut mittels homologer Reparatur reparieren können, die noch aktiv Zellteilung betreiben. Neuronale Vorgängerzellen können sich im Gehirn noch aktiv vervielfältigen, dieser Prozess endet aber, sobald sie zu vollwertigen Neuronen ausgereift sind – und dies ist bereits zum Zeitpunkt der Geburt bis auf wenige Ausnahmen vollständig abgeschlossen. Solange aber ausgewachsene Nervenzellen nicht dazu gebracht werden können, ihr Erbgut umzuschreiben, versagen auch die Geneverän
54
derungsmöglichkeiten von CRISPR/Cas9 in ausgereiften Gehirnen. GENETISCHE VERÄNDERUNG VON REIFEN NERVENZELLEN Um dennoch das CRISPR-Cas9-System im Gehirn einsetzen zu können, haben wir am Max-Planck Florida Institute die Behelfsmethode SLENDR (single-cell labeling of endogenous proteins by CRISPR-Cas9-mediated homologydirected repair) entwickelt. Anstatt CRISPR/ Cas9 in ausgereiften Gehirnzellen einzusetzen, haben wir mit der Genmodifikation während der neuronalen Entwicklung des Gehirns im Mutterleib begonnen, bevor sich die neuronalen Vorgängerzellen zu erwachsenen Nervenzellen entwickeln. Die heranreifenden Zellen sind ja noch empfänglich für CRISPR/Cas9, und sie behalten die genetischen Änderungen auch nach ihrer Differenzierung zu Neuronen. So konnten wir über den „Umweg“ der Embryonalentwicklung zum ersten Mal auch Nervenzellen im ausdifferenzierten Gehirn mit ganz gezielten Mutationen untersuchen. Das war aber noch nicht alles. Während meine Kollegen und ich weiter mit unterschiedlichen Methoden zur Übertragung der für die gezielten Mutationen benötigten CRISPR/ Cas9-Komponenten experimentierten, haben wir eine weitere erstaunliche Entdeckung gemacht: Obwohl ausgereifte Neurone von sich aus keine homologe Reparatur betreiben können, scheint es dennoch möglich, diese Art der DNA-Reparatur „künstlich“ auszulösen. Der Trick liegt in der Kombination von CRISPR/Cas9 mit einem Virus als Übermittler. Es handelt sich um das Adeno-assoziierte Virus, das oft als effiziente nicht-toxische Methode benutzt wird, um genetisches Material einfach und unkompliziert in eine Zelle einzubringen. Die Viren schleusen aber nicht nur hocheffizient die benötigten Gensequenzen in Nervenzellen ein, sondern sie steigern gleichzeitig auch die Effizienz der homologen Reparatur innerhalb der Zelle um Größenordnungen. Dies ermöglicht CRISPR/Cas9-induzierte Genmodifikationen in ausdifferenzierten Nervenzellen.
Wir haben die neu entwickelte vSLENDRMethode (viral-mediated SLENDR) zuerst mit transgenen, also noch auf „klassische“ Art erzeugten gentechnisch veränderten Nervenzellen getestet, die eigenständig und permanent das Enzym Cas9 produzieren. Nach dem Einschleusen der Zielsequenzen und Reparaturschablonen in die Zellen mittels AAV konnten wir eine sehr effiziente homologe Reparatur in den sich nicht mehr teilenden, postmitotischen Gehirnzellen beobachten. Als einfache Markierung, an der wir den Erfolg des Experiments ablesen können, diente ein durch vSLENDR eingefügtes Gen, dessen Produkt durch grün leuchtende Zellen im Mikroskop nachgewiesen werden kann. Um diese Methode weiter zu vereinfachen, haben wir ein zweites Virus entwickelt. So können wir zusätzlich die Gensequenzen zur Anleitung der Herstellung des Cas9-Enzyms einschleusen. Mit diesem Doppel-Viren-System können wir nun auch in herkömmlichen Nervenzellen effiziente und spezifische genetische Veränderungen mittels homologer Reparatur hervorrufen.
bis hin zur medizinischen Therapie eröffnet vSLENDR völlig neue Möglichkeiten. Auf Youtube wird in einem kurzen Videoclip diese neue Methode eindrucksvoll und mit aussagekräftigen Grafiken erläutert. Das Video ist über diesen Link abrufbar: www.youtube.com/ watch?v=LhnDyHK7RDA
B i l d : M a x P l a n c k F l o r i d a I n s t i t u t e f o r N e u r o s c i e n c e / Ya s u d a
ERFORSCHUNG VON ALZHEIMER Wir haben darüber hinaus gezeigt, dass vSLENDR erfolgreich in verschiedenen Nervenzelltypen in unterschiedlichen Gehirnregionen angewendet werden kann, und dies nicht nur in Zellkulturen und Gewebeschnitten, sondern auch in lebenden Mäusen und Ratten verschiedenen Alters. So haben wir vSLENDR erfolgreich im gealterten Gehirn eines Mausmodelles zur Untersuchung der Alzheimer-Krankheit eingesetzt, was die vielfältigen Anwendungsmöglichkeiten der neuen Methode bei der Erforschung zahlreicher neurologischer und neurodegenera tiver Erkrankungen demonstriert. Damit ermöglicht vSLENDR erstmalig die unkomplizierte Anwendung der revolutionären CRISPR/Cas9-Methode beinahe uneingeschränkt in den Neurowissenschaften. Mit ihr sind präzise Veränderungen im Genom einer Nervenzelle möglich, und dies ungeachtet des Zelltypus, der Zelldifferenzierung, der Gehirnregion oder des Alters. Angefangen von der Grundlagenforschung
50 µm
Ausgewachsene Nervenzellen produzieren einen grünen Fluoreszenzfarbstoff, dessen Gen mithilfe einer neuen CRISPR/Cas9-Methode ins Erbgut der Zellen eingeschleust wurde.
55
C H E M I S C H - P H Y S I K A L I S C H -T E C H N I S C H E S E K T I O N
15
KNOCHENSTARKER STAHL Materialien, die regelmäßiger Belastung ausgesetzt sind, sind anfällig für Materialermüdung und -bruch. In einem internationalen Forscherteam haben wir e inen neuen Stahl entwickelt, dessen Struktur sich am lamellenartigen Aufbau von Knochen orientiert. Auf diese Weise können wir verhindern, dass sich auf der Mikroebene Risse bilden, die zur Materialermüdung führen würden.
DIRK PONGE, DIERK RAABE, MAX-PLANCK-INSTITUT FÜR E I S E N F O R S C H U N G G M B H , D Ü S S E L D O R F
AUFWÄNDIG, KOSTSPIELIG, UNSICHER Dieses Verfahren ist zum einen teuer, da Bauteile aufgrund der hochgerechneten Werte gegebenen
56
falls zu früh ausgetauscht werden und zahlreiche Kontrollen notwendig sind. Zum anderen ist es unzuverlässig, da die Berechnungen ein Restrisiko bergen. Zudem gehen herkömmliche Modelle häufig von einem Material als Kontinuum aus, das heißt, sie ignorieren die Mikrostruktur von Baustoffen, obwohl gerade in dieser Größenord nung die Materialermüdung ihren Anfang nimmt. So breiten sich etwa Mikrorisse, die unter regelmäßiger Belastung entstehen und mit der Dauer der Belastung fortschreiten, gerne entlang der Grenzen zwischen den Mikrokristallen aus, aus denen ein Material besteht. In unserem internationalen Forscherteam haben wir uns deshalb das Ziel gesetzt, ein Material zu entwickeln, das die Ausbreitung dieser Risse auf der Mikro- und Nanoebene frühestmöglich stoppt. Denn je länger ein Riss bereits ist, desto größer ist die Spannungsinten sität vor der Spitze, und desto schneller schreitet dieser fort.
Die Fahrgestelle von Flugzeugen müssen immer wieder große Belastungen aushalten. Noch besser als bisher ließen sie sich vor Ermüdungsbrüchen schützen, wenn ihr Werkstoff – meist Stahl oder Titan – eine Mikrostruktur nach dem Muster von Knochen erhielte.
Bild: shutterstock
Materialermüdung verursacht immer wieder teils gefährliche Unfälle. Ein tragisches Beispiel dafür ist eines der schwersten Zugunglücke in Deutsch land: Im Jahr 1998 entgleiste im niedersächsi schen Eschede ein ICE, nachdem ein Radreifen gebrochen war. Zyklische, also immer wieder auftretende Belastung bestimmter Bauteile etwa in Zügen, Flugzeugen oder auch Kraftwerken und Brücken birgt ein hohes Risiko für Material ermüdung und -bruch. Um dieses Risiko zu mindern, testet man Materialien und Bauteile in aufwändigen Versuchsserien im Labor. Allerdings lassen sich die realen Bedin gungen im Experiment nur näherungsweise nachstellen. So sollen etwa Flugzeugteile oder eine Brücke mehrere Jahre oder gar Jahrzehnte ihren Dienst tun. Eine entsprechend lange Untersuchung in Labortests ist jedoch kaum möglich. Daher setzt man die zu testenden Materialien oder Bauteile im Labor in der Regel über kürzere Zeiträume höheren Belastungen aus, als sie in der Realität auftreten, und berechnet dann anhand der dabei gewonnenen Ergebnisse die Wahrscheinlichkeit, dass die Werkstoffe ermüden.
Dabei haben wir uns von der Struktur von Knochengewebe inspirieren lassen. Es besteht aus zwei Gewebearten, die lamellenartig angeordnet sind und dem Knochen Elastizität sowie Festigkeit zugleich verleihen. Kleinste Risse werden an jeder Grenze zwischen den beiden unterschiedlichen Gewebetypen daran gehindert, sich auszubreiten. Das macht das Knochengewebe besonders ermüdungsresistent. Die Eigenschaft haben wir uns bei der Entwick lung des neuen Stahls abgeschaut und so eine Legierung kreiert, die resistent gegen multiple Rissbildung auf der Mikroebene ist und einen ähnlich hohen Ermüdungswiderstand wie Knochen aufweist. Dazu haben wir eine Metallkombination aus Eisen, Mangan, Nickel und Aluminium aufgeschmolzen. Durch Abkühlen und wieder holte Wärmebehandlung bei mittleren Tempera turen entstehen Bereiche mit zwei verschiedenen Kristallstrukturen – wir sprechen von zwei verschiedenen Phasen. Eine der Phasen ist sehr fest (Martensit), die andere hingegen zäher (Austenit); beide sind in dieser Legierung in nanometergroßen Lamellen angeordnet. Entsteht in einem der festen Bereiche ein Mikro riss und trifft dieser auf eine zähe Lamelle, wird er dort abgestumpft und kann sich nicht weiter ausbreiten. Zudem sind die zähen Gebiete metastabil und können sich unter der hohen Spannung, wie sie an einer Rissspitze herrscht, in die feste Phase umwandeln. Durch diese Phasenumwandlung dehnen sich diese Areale aus, sodass Zugspannungen in dem Material kompensiert werden und der Mikroriss an seiner Spitze quasi versiegelt wird. M I T M U LT I TA S K I N G Z U R ERMÜDUNGSRESISTENZ Doch kommt der exzellente Ermüdungswider stand der neuen Legierung tatsächlich durch diese lamellenartige Struktur, kombiniert mit dem Mechanismus der Phasenumwandlung, zustande? Um diese Frage zu beantworten,
58
verglichen wir die Ermüdungseigenschaften des neuen Stahls und dreier bereits häufig verwen deter Stähle: eines Dual-Phasen-Stahls, der Bereiche mit zwei unterschiedlichen Kristall strukturen aufweist und typischerweise für Kraftfahrzeuge verwendet wird; eines perliti schen Stahls, der auf Mikroebene lamellenartig strukturiert ist und in Stahlseilen für Brücken eingesetzt wird; und eines TRIP-Stahls, bei dessen Verformung eine Phasenumwandlung auftritt und der vor allem in Fahrzeugkarossen verbaut ist. Jeder dieser Stähle nutzt also bereits einen Mechanismus, um den Ermüdungswiderstand zu verbessern. Beim neu entwickelten Stahl kombinierten wir die Mechanismen aller drei Stahltypen und vereinten somit die Effekte der Mehrphasigkeit, der lamellaren Mikrostruktur und der verformungsinduzierten Phasenum wandlung (TRIP-Effekt). Zudem veränderten wir testweise die Mikrostruktur der neuen Legierung und beobachteten dabei eine Ver schlechterung der Ermüdungsresistenz. Das bestätigte unsere Annahme, dass der verbesserte Ermüdungswiderstand des neu entwickelten Stahls auf seine lamellenartige Multiphasen- Mikrostruktur zurückzuführen ist. ZIEL IST DIE OPTIMIERUNG WEITERER LEGIERUNGEN In weiteren Schritten planen wir, die Bereiche mit unterschiedlichen Kristallstrukturen in der neuen Legierung weiter zu stabilisieren und so die Ermüdungsresistenz zu optimieren. Unser Team aus Wissenschaftlern des Max-Planck- Instituts für Eisenforschung, der Kyushu University Japan und des Massachusetts Institute of Technology, USA, geht zudem davon aus, dass sich unter Anwendung des gleichen Materialaufbaus auch weitere Legierungen verbessern lassen. Somit birgt diese Strategie ein enormes Potenzial, die Sicherheit von Strukturwerkstoffen, die regelmäßiger Belas tung ausgesetzt sind, zu optimieren.
Die Max-Planck-Gesellschaft (www.mpg.de) ist eine der führenden Forschungseinrichtungen weltweit mit mehr als 23.000 Mitar beiter*innen. In den derzeit 84 Max-Planck-Einrichtungen betreiben rund 6.800 Wissen schaftler*innen sowie mehr als 7.600 Nachwuchsund Gastwissenschaftler*innen Grundlagenforschung in den Natur-, Lebens- und Geistes wissenschaften. Max-Planck-Institute arbeiten dabei auf Forschungs gebieten, die besonders innovativ sind und nicht selten einen speziellen finanziellen oder zeitlichen Aufwand erfordern. Ihr Forschungs spektrum entwickelt sich ständig weiter: Neue Institute oder Abteilungen werden gegründet, bestehende umgewidmet, um Antworten auf zukunftsträchtige wissenschaftliche Fragen zu finden. Diese ständige Erneuerung erhält der Max-Planck-Gesellschaft den Spielraum, neue wissenschaftliche Entwicklungen rasch aufgreifen zu können. Entstanden ist sie 1948 als Nachfolgeorganisation der 1911 gegründeten Kaiser-Wilhelm- Gesellschaft. Seither sind 17 Nobelpreisträger und eine Nobelpreisträgerin aus ihren Reihen hervor gegangen. Neben fünf Auslands instituten betreibt die Max-Planck-Gesellschaft derzeit weitere 20 Max Planck Center mit Forschungseinrichtungen wie dem US- amerikanischen Princeton, der Harvard University, Science Po in Frankreich, dem University College London/UK oder der Universität Tokio in Japan. Je zur Hälfte finanziert von Bund und Ländern, ver fügt sie über ein jährliches Gesamtbudget von 1,8 Milliarden Euro.