S P A N N E N D E W E LT D E R M I K R O E L E K T R O N I K
INGOLF SEIFERT H E N RY WO J C I K
ENTFÜHRUNG IN DEN NANOKOSMOS Dem Beispiel des Russen Juri Gagarin, der am 12. April 1961 als erster Mensch ins Weltall flog, sind bis heute mehr als 500 Männer und Frauen gefolgt – doch kein einziger Mensch hat je den Nanokosmos bereist. Dabei gehören nur ein wenig Orientierungs vermögen, technische Begabung und Phantasie dazu – drei Eigenschaften, die Julia unter Beweis stellt, als sie ihren Freund Tom in eine abenteuerliche Geschichte verwickelt. Tom hat Angst vor der nächsten Physik-Arbeit, weil da Elektronik auf der Tagesordnung steht. Halbleiter? Transistoren? Tom steigt da leider nicht durch. Da geht’s um Dinge, die im Verborgenen ablaufen, die man nicht fühlen, anfassen, betrachten kann – man kann sie nur im Kopf hin- und herwälzen, was Tom immer ein wenig schläfrig macht. Mitten in den Ausführungen des Lehrers ertappt er sich dann, dass er in Gedanken schon wieder ganz woanders ist – und zack, ist die Unterrichtsstunde vorbei und er hat wieder mal das Wichtigste verpasst. »Aber das ist doch ganz einfach«, sagt Julia, als Tom sie in der Nacht vor der Physik-Arbeit im Traum trifft. »Es geht doch immer nur um geladene Teilchen und die elektromagnetischen Kräfte zwischen ihnen. Du musst dir einfach nur ein genaues Bild von diesen Dingen machen, dann verstehtst dus auch.« »Ich kann mir aber kein Bild von Sachen machen, die unsichtbar sind«, sagt Tom. Julia sieht ihn ein wenig ratlos an, dann hellt sich ihr Gesicht auf: »Ich zeig sie dir!«, ruft sie. »Was?«, fragt Tom. »Na die Welt der Atome und Elektronen – den Nanokosmos«, antwortet Julia. »Mein Papa arbeitet in einer Chipfabrik. Er hat eine Teilchenkanone. Damit kann er uns bestimmt in einen Siliziumkristall hineinschießen …« Auf den Innenklappen kannst du Julia und Tom auf dem ersten Abschnitt ihrer Reise in den Nanokosmos begleiten.
REISE IN DEN NANOKOSMOS Das Raumschiff, das Julia – die Chefpilotin – NANOSCOUT getauft hatte, nahm schnell Fahrt auf, und Tom spürte, wie die Schubkraft ihn in den Sitz drückte. Er kniff die Augen zusammen und versuchte, wieder Herr seiner Gedanken und Gefühle zu werden. Was er und Julia in den vergangenen Minuten gesehen und erlebt hatten, hatte vermutlich noch niemand vor ihnen gesehen und erlebt. Sie befanden sich auf einer Reise in den Nanokosmos - in die Welt der Atome und Elementarteilchen! Auf einer Studienreise – geplant und organisiert als Nachhilfeunterricht für Tom, damit er in der nächsten Physikarbeit, die den Halbleitern und Transistoren gelten sollte, nicht durchfiel. Ihr Reiseziel war ein Siliziumkristall. Dort würde Tom das Wechselspiel der Atome und Elektronen mit eigenen Augen sehen und die elementaren Kräfte, die dieses Wechselspiel bewirken, ganz unmittelbar erfahren. Das würde seinem Verständnis der Halbleiter und Transistoren schon auf die Sprünge helfen – war Julia sich sicher. Julia hatte Tom an diesem Morgen zu Hause geweckt, als die ersten Sonnenstrahlen durchs Fenster schienen, und war mit ihm in die Chipfabrik gefahren, wo ihr Vater arbeitete. In der »Gowning Area« hatten sie ihre Raumanzüge angelegt, und Julias Vater hatte sie an den Platz im Reinraum geführt, wo ihr Raumschiff stand. Das hatte ein Team von Ingenieuren der Chipfabrik eigens für sie konstruiert. Tom hatte keinen Schimmer, wie sie damit in einen Siliziumkristall kommen sollten, und, ehrlich gesagt, glaubte er auch jetzt noch, dass das alles ein Witz war. »Hauch mich mal an«, hatte er zu Julia gesagt, als sie ihm vor einer Woche den Vorschlag unterbreitet hatte, mit ihr in den Nanokosmos zu reisen. Gespannt, was als nächstes kommen würde, setzte Tom sich gehorsam auf den Platz des Co-Piloten, als Julia ihn darum bat. ›Das wird noch lustig‹, dachte er. Julias Vater umarmte seine Tochter und sagte: »Schreib ’ne Poskarte, wenn ihr dort seid.« Dann sprang Julia in ihren Chefpilotensitz, zog die Cockpittür zu und begann, den NANOSCOUT in Betrieb zu nehmen. Ihre Hände flogen über das Instrumentenboard, sie drückte Knöpfe und betätigte Kippschalter, Lämpchen glimmten auf, Zahlen erschienen auf Displays, Zeiger zuckten über Zifferntafeln, und aus einem Lautsprecher ertönte Julias Vater: »Nanoscout, bitte kommen!« »Hier Nanoscout«, antwortete Julia, »Wir sind startklar – erbitte NANOMIZER-Starterlaubnis.« »Nanomizer-Starterlaubnis erteilt«, sagte ihr Vater. »Setz bitte den Helm auf«, bat Julia Tom und zog sich selbst den Helm über den Kopf. Aus den Kopfhörern seines Helmes hörte Tom, wie Julia den Countdown zählte: »… drei, zwei, eins, null, Start!« ›Und los gehts‹, dachte Tom. Julia zog einen Hebel und rief in ihr Mikro: »Nullkommafünf, Nullkommazwofünf, N ullkommaeinszwofünf …« Zuerst erstaunt, dann mit wachsendem Entsetzen sah Tom durch die Cockpit-Scheibe, wie Julias Vater, der neben dem Raumschiff
stand, von Sekunde zu Sekunde größer wurde. Er wuchs buchstäblich in den Himmel und erschien Tom bald höher als der Chalifa-Tower in Dubai, von dem er wusste, dass er das höchste Gebäude der Welt war. »Was ist das?!«, schrie Tom. Der NANOSCOUT bewegte sich nicht vom Fleck, gab keinen Mucks von sich, doch die Welt draußen bewegte sich, wurde immer größer und größer. Wie verwirrend! »Wir schrumpfen«, erklärte Julia. »Was?!« rief Tom. »Wir schrumpfen«, wiederholte Julia. «Ich hab den ›NANOMIZER‹ gestartet, und jetzt schrumpft unser Raumschiff mit allem, was drin ist. Jede Sekunde schrumpfen wir auf die Hälfte unserer Größe. Das heißt: Die Welt draußen bleibt, wie sie ist, nur wir verändern uns. Aber keine Angst. Uns passiert nichts.« »Außer dass ich jetzt ein elender Zwerg bin«, murmelte Tom – und begriff endlich, dass diese Reise tatsächlich kein Witz war, wie er bis eben gedacht hatte, sondern dass sie sich bereits auf dem Weg in den Nanokosmos befanden. Sie waren jetzt schon so klein wie eine Erbse, und Julia rief ins Mikro: »Erbitte Flugerlaubnis, erbitte Flugerlaubnis!« »Flugerlaubnis erteilt«, antwortete Julias Vater durch den Kopfhörer. Julia betätigte wieder Knöpfe und Schalter, das Raumschiff erzitterte, und Tom hörte hinter sich das grollende, fauchende Geräusch einer Flugzeugturbine. Sie hoben ab und flogen mit irrem Tempo auf ein riesiges Tor zu, das vor ihnen aus der Landschaft auftauchte. Von dieser Landschaft hatte Tom, als er ins Raumschiff gestiegen war, noch geglaubt, es handle sich um die spiegelglatte Plattform für Starts und Landungen des Nanoscouts. Doch jetzt – während sie immer kleiner wurden – entpuppte sich die vermeintlich spiegelglatte Plattform immer mehr als wild zerklüftetes Gelände. »Was wir vor uns sehen, ist das Tor zur Schleuse in die Teilchenkanone«, sagte Julia. »Was heißt hier Teilchenkanone?«, fragte Tom nervös. Er ahnte nichts Gutes. Doch Julia fand keine Zeit, ihm zu antworten: »Erbitte dringend Öffnung der Schleuse, erbitte dringend Öffnung der Schleuse!«, rief sie ins Mikro. »Ruhig Blut«, antwortete ihr Vater. »Ich seh euch auf meinem Mikrowellen-Radar – und bin sehr stolz auf dich! Du bist eine vorzügliche Pilotin. Ich öffne jetzt die Schleuse.« Mit einem zischenden Ton flogen die Schleusentore auf. Wie ein Blitz verschwand ihr Raumschiff im Schlund des Tunnels vor ihnen. Hinter ihnen schloss sich das Schleusentor, und plötzlich wurde es stockfinster. »Landen wir jetzt mal wieder?« bat Tom. »Nö«, sagte Julia, »wir schrumpfen ja noch, und wenn ich jetzt lande, fallen wir bloß in eine der Ritzen, die sich unter uns auftun, während wir schrumpfen.« »Herrgott, NANOSCOUT wo sind wir denn bloß?«, fragte Tom gereizt. »Und was faselst du 1 Steuerung die ganze Zeit von Teilchenkanone?« »Das wirst du gleich sehen«, 2 Antrieb 3 Kanzel antwortete Julia gelassen, »ich knipps mal das Licht an.« weiter geht’s auf den hinteren Umschlagseiten →
»Wie klein sind wir denn jetzt«, erkundigte sich Tom nach einem Moment der Sprachlosigkeit, bemüht, seine Fassung zurückzugewinnen. Innerlich bebte er. Hitzewellen durchfluteten ihn, gleichzeitig fühlte er eine Gänsehaut. »Na ja«, sagte Julia, »wir sind jetzt noch ungefähr vier Mikrometer groß – das ist 400mal kleiner als die Staubmilbe, zehnmal kleiner als ein rotes Blutkörperchen und rund 25.000mal größer als ein Phosphoratom. Es dauert also noch ein Momentchen, bis wir unsere Zielgröße erreicht haben«. »Was ist denn unsere Zielgröße«, fragte Tom. »Etwa 150 Pikometer – das ist die Größe eines Phosphoratoms.« »Und wie geht’s jetzt weiter?«, fragte Tom. Seine Stimme klang ein wenig mutlos. Julia erriet seine Stimmung und versuchte ihn wieder aufzurichten. Gelassen, als würden sie an einem schönen Sommertag durch eine aufregende fremde Stadt bummeln, zog sie eine Karte aus dem Ablagefach ihrer Cockpittür, entfaltete sie auf ihrem Schoß, tippte auf die Zeichnung auf der Karte und sagte im Tonfall einer Stadtführerin, die einen Tross Touristen mit einer aufregenden Geschichte unterhält: »Das hier, meine Damen und Herren, ist eine Teilchenkanone – ein so genannter Implanter. Damit reisen wir – sie erraten es – in einen Siliziumkristall. Unser Raumschiff befindet sich jetzt hier, in der Schleuse zum Rohrsystem, das in den Implanter führt. Die Ingenieure, die den Implanter bedienen, lassen durch das Rohrsystem Phosphin in die Ionenquelle des Implanters – das ist ein Gas, das Phosphoratome enthält. In der Ionenquelle lösen die Ingenieure die Phosphoratome aus den Gasmolekülen und verwandeln sie in Ionen – das sind Atome mit einer positiven Ladung. Sind die Phosphoratome positiv geladen, können die Ingenieure sie mit elektromagnetischen Feldern zu einem Strahl bündeln und in den Kristall hineinschießen. Und wir, meine Damen und Herren, werden mit den Phosphor-Ionen mitreisen – direkt in den Kristall hinein.« »Ich versteh nur Bahnhof«, stöhnte Tom. »Na ja«, sagte Julia, »wie auf einem Bahnhof gehts in einer Ionenquelle aber nicht zu,
eher wie auf einer Silvesterparty.« Tom war verblüfft. »So mit Schampus und Feuerwerk?«, fragte er und sah Julia ironisch lächelnd an. »Also, das Feuerwerk kann ich dir schon mal versprechen«, erwiderte sie. »Ein Feuerwerk, das du noch nie gesehen hast. Bleib einfach locker und lass dich überraschen«, sagte sie. »Ich bin ganz locker«, verteidigte sich Tom. »Das ist doch die pure Entspannung hier, im Co-Pilotensessel. Schmeiß die Düse an, ich sterbe sonst vor Langeweile!« »Von jetzt ab brauchen wir kein Triebwerk mehr«, belehrte ihn Julia. »Das hilft uns in der Welt der Atome nicht weiter. Gleich wird sich vor uns ein Tor öffnen. Hinter dem Tor herrscht starker Unterdruck. Der wird uns in das Rohr saugen, das sich hinter dem Tor befindet. Das Rohr mündet in einem zweiten Rohr, durch das die Phosphin-Moleküle fließen. Wir werden also am Ende des Wegstücks, das vor uns liegt, in den Strom der Phosphin-Moleküle eintauchen und mit ihnen in die Ionen-Quelle sausen.« »Wir werden mit den Phosphin-Molekülen in die Ionenquelle sausen«, äffte Tom sie nach. »Das klingt nach ner Mischung aus Formel 1 und Achterbahn! Ist mein Spezialgebiet! Da bin ich Champion!« »Genug geschwatzt!«, unterbrach Julias Vater die beiden. »Seid ihr angeschnallt?«, fragte er durch den Kopfhörer. »Wir öffnen gleich das zweite Schleusentor. Jetzt wirds ernst, Kinder. Viel Glück!« Mit einem Zischen glitt das innere Schleusentor auf. Tom spürte, wie der NANOSCOUT augenblicklich Fahrt aufnahm. Die Schubkraft drückte ihn wie eine Faust in seinen Co-Pilotensitz. Tom kniff die Augen zusammen. ›Jetzt bloß nicht wieder panisch werden‹, dachte er. ›Julia hatte bisher alles im Griff! Eigentlich ein umwerfendes Mädchen! Ich sollte jetzt wirklich lockerer werden und dieses kleine Abenteuer genießen. Julia reist bestimmt nicht jeden Tag mit ’nem Typen wie mir in den Nanokosmos! Das könnte ich ruhig mehr würdigen‹, sagte er zu sich selbst. ›Und wer weiß: Vielleicht kann ich wirklich was lernen, wenn ich Augen und Ohren offenhalte.‹ …
DU BIST NEUGIERIG, WIE DIE REISE DER BEIDEN WEITERGEHT? Auf unserer Internetseite wollen wir die Geschichte um Julia und Tom fortschreiben – als Sciencefiction-Story, die wir uns als Autoren zusammen mit dir ausdenken und zu Papier bringen. Wir haben natürlich schon ein Drehbuch im Kopf, wie die Reise weitergehen könnte – aber vielleicht hast du selbst gute Ideen, welche Abenteuer auf Tom und Julia noch warten könnten. Und wenn wir unsere und deine Ideen zusammenlegen, wird die Geschichte vielleicht noch besser. Kurzum: Wie würdest du die Geschichte an der Stelle, an der wir sie hier unterbrochen haben, fortsetzen? Wie könnten Julia und Tom mit ihrem NANOSCOUT in den Siliziumkristall hineingelangen, wenn du Autor der Geschichte wärst? Welche Abenteuer müssten die beiden im Nanokosmos bestehen – und wie würden sie den Weg aus dem Kristall zurück in unsere normale Welt
finden? Wenn du Spaß am Mitdenken und Mitfabulieren hast, dann freuen wir uns auf deine Ideen, die du uns am besten per E -Mail an die E-Mail-Adresse nanoscout@mikrochip-abc.de schickst. Wir werden die drei besten Ideen mit 150 Euro (1. Preis), 100 Euro (2. Preis) und 50 Euro (3. Preis) prämieren. Im Netz kannst du nachlesen, wann und wie wir die Ideen unserer Leser und Mitautoren in die Story um Julia und Tom einfließen lassen. NANOSCOUT IM NETZ NANOSCOUT@MIKROCHIP-ABC.DE
0CN.DE/HG0Z
1 2 3
NANOSCOUT 1 Steuerung 2 Antrieb 3 Kanzel
2
tom
julia
1
NANONAUTEN 1 Schutzanzug 2 Helm mit Visier 3 LifeSupportSystem 4 Handschuhe
3
4
STEUERPULT 1 Steuereinheit 2 nanoMizer / Verkleinerer 3 eCharger / Ladungswechsler 4 TimeStrecher / Zeitstrecker
3
4
2
1
FLUGROUTE IN DEN NANOKOSMOS
STAUBMILBE Normalerweise findest du keine Staubmilben in einer Chipfabrik, denn die Chipfertigung findet in »Reinräumen« statt, deren Luft extrem wenig Staubpartikel enthält.
Tom hörte das Klacken eines Kippschalters und sah, wie sich vor ihnen der Strahl ihres Frontscheinwerfers in die Dunkelheit bohrte. Tom starrte in den Lichtkegel – und traute seinen Augen kaum. Was war das denn? Was, um Himmels willen, saß da direkt vor ihnen und starrte sie mit großen grünen Augen an?! Ein Monster. Tatsächlich! Ein richtiges Monster! »Da sitzt ein Monster!« schrie Tom. »Ach was«, sagte Julia, »das ist nur eine kleine süße Staubmilbe, ein Mitglied aus der Familie der Spinnentiere mit dem zoologischen Namen Dermatophagoides. In jedem Kopfkissen leben ein paar Millionen davon, du schläfst jede Nacht mit ganzen Völkern dieser niedlichen Tierchen.« »Dermo-was?«, schrie Tom und seine Stimme überschlug sich fast. »Das ist ja gruselig! Und ich dachte, Mädchen haben Angst vor Spinnen? Ich wusste gar nicht, dass du so cool bist! In der Schule wirkst du immer so schüchtern!« »So kann man sich
täuschen«, sagte Julia und betrachtete Tom amüsiert aus ihren Augenwinkeln. »Was frisst denn Monster-Milbi?«, fragte Tom. »Na Staub«, erwiderte Julia. »Und kann es sein«, fragte Tom, »dass Monster-Milbi uns für ein leckeres Staubkörnchen hält?« »Kann schon sein«, sagte Julia. »Wir werden ja immer kleiner – das macht uns immer appetitlicher für Monster-Milbi.« »Da! Ihr Zahn tropft!«, rief Tom und zeigte auf Milbis Beißwerkzeuge. »Ja wirklich, das stimmt«, sagte Julia. »Machen wir uns lieber aus dem Staub!« Sie griff nach dem NANOMIZER und drehte das Verkleinerungstempo hoch. Die riesige Staubmilbe kroch auf sie los – doch plötzlich stoppte sie und glotzte irritiert nach links und rechts. »Sie hat uns aus den Augen verloren«, flüsterte Julia und kicherte. »Wir sind zu klein geworden.« Dann lachte sie los. »Ach, Milbi! Da musst du dir wohl ein anderes Leckerli suchen!« →
SPANNENDE WELT DER MIKROELEK TRONIK
INGOLF SEIFERT H E N RY WO J C I K
Liebe Leserinnen und Leser,
eure Generation steht vor Herausforderungen, die in vielerlei Hinsicht übertreffen, was vorangegangene Generationen bewältigen mussten: Die Atmosphäre erwärmt sich – mit drastischen Folgen für das Klima. Die fossilen Energieträger Öl und Gas gehen allmählich zur Neige. Die Weltbevölkerung wächst weiter rasant, und in den armen Ländern gelingt es bisher nicht menschenwürdige Bedingungen für alle sicherzustellen. In den reichen Ländern des Nordens stehen wir vor dem Problem einer im Durchschnitt immer älteren Bevölkerung, unsere Position im wirtschaftlichen Wettbewerb mit Asien verschlechtert sich beständig, und wir laufen Gefahr, künftig schmerzliche Abstriche am Lebensstandard hinnehmen zu müssen. Gleichzeitig hatte keine Generation vor euch so große Möglichkeiten, die Welt zu gestalten. Wissenschaft und Technik sind zu Beginn dieses Jahrhunderts auf einem Stand, der zu großer Hoffnung berechtigt. Wir verfügen schon heute über Technologien, die es möglich machen, die globale Erwärmung zu stoppen und den Energiebedarf mit Hilfe erneuerbarer Energien zu decken, den Hunger auf der Welt zu besiegen und Bildung bis in die letzte »Hütte« Afrikas zu tragen. Das heißt, eure Eltern und Großeltern geben euch auch starke Werkzeuge an die Hand, um all die großen Herausforderungen des 21. Jahrhunderts zu meistern. Die Mikroelektronik und von ihr abgeleitete Technologien, wie die Mikrosystemtechnik, gehören zu diesen Werkzeugen. Mit ihrer Hilfe pflanzen wir technischen Geräten und Systemen Intelligenz ein. Es gibt für die Leistungsfähigkeit der Mikroelektronik viele beeindruckende Beispiele. Einige werdet ihr in diesem Buch kennenlernen. Von mehr als 100 sächsischen Firmen und Forschungsinstituten im Rahmen des Spitzenclusters »Cool Silicon« entwickelt und realisiert, belegen sie, wie moderne Mikroelektronik zum weltweiten Klimaschutz beitragen kann (siehe Kapitel »Cool Silicon. Klimaschutz auf Ingenieursart« ab Seite 73). Die Mikroelektronik ist eine Querschnittstechnologie – das heißt, sie ist auf allen Feldern der Wissenschaft, der Technik und der Gesellschaft präsent, beeinflusst sie und entwickelt sich mit ihnen weiter. Ob Mikrobiologen einen genetischen Code knacken, Chemiker neue Materialien designen oder engagierte Menschen sich mit Hilfe der Online-Medien auf neue Art organisieren – sie alle bedienen sich technischer Geräte, die ihre Funktion und Leistungsfähigkeit der Mikroelektronik verdanken. Dieses Buch soll dich motivieren die Herausforderungen unserer Zeit anzunehmen und an den Lösungen für die Zukunft mitzuarbeiten. Entscheidest du dich am Ende deines Schulweges für einen Beruf in der Mikroelektronik, um als Ingenieur oder Facharbeiter an neuen Technologien mitzuarbeiten, die das Leben verbessern, ohne die Umwelt zu beschädigen, so wartet ein spannendes, sinnerfülltes Leben auf dich. Wir zählen auf Dich! Euer Thomas Mikolajick
INHALT
NANOSCOUT SPANNENDE WELT DER MIKROELEKTRONIK
EINFÜHRUNG Wir brauchen dich Geleitwort 3 Globale Erwärmung Die Luft, die wir atmen 8 Die Keeling Story 11 Klimaforschung Elektronik im Dienste der Klimaforschung 14 Rolle der Elektronik Vorstoß in die gefrorene Vergangenheit 18
BASICS Ein wenig Grundlagenwissen Porträt Das Zucchini-Experiment Klimaschutz Ökostrom plus Elektronik Das intelligente Haus Die Zukunft des Wohnens Sensoren und elektronische Systeme Wenn leblose Technik lebendig wird Halbleiter Silizium & Co. Halbleiter Wandernde Löcher und freie Elektronen Waferfertigung Vom Sand zur Siliziumscheibe Elektronische Bauelemente So funktioniert ein Transistor Digitale Logik So rechnen Computer
INHALT
LEGENDE
SO NUTZT DU DIE DIGITALEN MÖGLICHKEITEN DES NANOSCOUTS QR-CODE Auf einigen Seiten findest du solche QR-Codes. Hältst du den Code in deine Smartphone-Kamera, verbindet dich das Gerät – eine Barcode-App vorausgesetzt – mit Webseiten, die zum Thema der Seite passen.
MOBIL Alle Seiten des Nanoscouts, auf denen sich QR-Codes befinden, tragen dieses Smartphone-Zeichen auf dem Randstreifen. So findest du diese Seiten schneller.
22 24 26 28 30 32 34 36 38
FERTIGUNG So entsteht ein Mikrochip Nanokosmos Wie viel Meter sind 90 Nanometer? 42 Was ist ein Reinraum? Rein, reiner, am reinsten 44 Chipherstellung im Überblick Chipburger: Schicht für Schicht zum Mikrochip 46 Fotolithografie Nicht ohne Schablone 48 UV-Licht: Der Schlüssel zum Nanokosmos 50 Ionen-Implantation Silizium unter Teilchenbeschuss 53 Diffusion 1.000° Celsius in 12 Sekunden! 56 Chemische Schichterzeugung Chemie in der Chipfertigung 58 Ätzen Das präziseste »Messer« der Welt 60 Leitbahn-Herstellung Die Zähmung des Kupfers 62 Porträt Dr. Guntrade Roll Forschen für die übernächste Chipgeneration 66 Porträt Dr. Henry Wojcik Vom Versuch, der Natur in die Karten zu schauen 67 Physikalische Schichtabscheidung Atomares Sandstrahlen 68 Physikalische Schichtabscheidung Mehrere 1.000 Kontakte 70
KURZLINKS (SHORTURL) Kurzlinks sind Abkürzungen ganz langer InternetAdressen. Wenn du sie ins Adressfeld deines Webbrowsers eintippst, verbindet er dich mit der Internetseite, die zu der langen Adresse gehört.
0CN.DE/LD6L
COOL SILICON Klimaschutz auf Ingenieursart
5
Porträt Cool Silicon e. V. Kühles Silizium 74 Mikro- und Nanotechnologien Kühle Rechner 76 Sensornetzwerke Smart Materials – Kunststoffe mit Köpfchen 80 Kommunikationssysteme So funktioniert Mobilfunk 88 Porträt Fabian Diehm Per du mit Funkwellen 93 Interview Dirk Gnewekow Gefragte Berufe 94 Impressum / Bild- und Textnachweis
96
E-MAIL Du hast Fragen zum Inhalt oder zur Verwendung des Nanoscouts? Dann schick uns einfach eine E-Mail - an: nanoscout@mikrochip-abc.de
Im 21. Jahrhundert stehen wir vor der vielleicht größten Herausforderung der Menschheitsgeschichte: der globalen Erwärmung. Elektronik hilft bei der Erforschung des Klimaproblems.
EINFÜHRUNG
7
WIR BRAUCHEN DICH GLOBALE ERWÄRMUNG DIE LUFT, DIE WIR ATMEN
8
DIE KEELING STORY 11 KLIMAFORSCHUNG ELEKTRONIK IM DIENSTE DER KLIMAFORSCHUNG
14
ROLLE DER ELEKTRONIK VORSTOSS IN DIE GEFRORENE VERGANGENHEIT 18
GLOBALE ERWÄRMUNG
DIE LUFT, DIE WIR ATMEN An dieser Stelle möchten wir dich auf behutsame Weise mit dem großen Thema Mikroelektronik bekannt machen. Die Geschichte, die wir dir zu Beginn dieses Buches erzählen, handelt von der Luft, die wir atmen, und einem wissenschaftlichen Unternehmen, das eine Revolution ausgelöst hat.
EINFÜHRUNG
8
1957 wagten sich Wissenschaftler des Scripps Institutes für Ozeanografie aus La Jolla (Kalifornien) an die Überprüfung einer Vorhersage, die 50 Jahre zuvor der Schwede Svante Arrhenius aufgestellt hatte: Der Chemiker hatte die Rolle des Kohlendioxids (CO2) in der Atmosphäre untersucht und war dabei zu erstaunlichen Erkenntnissen gelangt.
chlussfolgerung, dass die Menschheit die CO2- Menge in S der Atmosphäre allmählich steigere. Und weil die Stärke des Treibhauseffektes (ein Begriff, den der schwedische Chemiker noch nicht benutzte) mit der Menge des CO2 in der Atmosphäre zunimmt, rechnete Arrhenius mit einer weltweiten Klimaerwärmung. →
Wunderbares Spurengas Obwohl CO2 in der Lufthülle nur in Spuren vorkommt, hat es enormen Einfluss auf die Atmosphäre. Trifft das Licht der Sonne auf die Erde, so erwärmt es die Erdoberfläche. Die wiederum gibt einen Teil der Wärmeenergie wieder ab. Jene Wärme-Rückstrahlung würde nun eigentlich vollständig wieder ins All entweichen, gäbe es in unserer Atmosphäre nicht ein Spurengas, das die wunderbare Eigenschaft besitzt, Wärme zu binden: das CO2. Dies hat zur Folge, dass sich die Lufthülle der Erde erwärmt, und so herrscht auf unserem Planeten jene freundliche Durchschnittstemperatur, die das Leben ermöglicht. Kurzum: Wir verdanken dem CO2, dass es Leben auf der Erde gibt. Svante Arrhenius hatte diese Wirkung des CO2 Anfang des 20. Jahrhunderts als erster beschrieben und mathematisch berechnet. Heute nennen Wissenschaftler sie den Treibhauseffekt. Das Wort besagt, dass sich unsere Atmosphäre wegen ihres CO2- Gehaltes wie die Glashülle eines Gewächshauses verhält: Sie lässt die Strahlen der Sonne ins Haus hinein, lässt die Wärme, die im Haus entsteht, aber nicht wieder hinaus. Arrhenius’ Studien zur Rolle des Kohlendioxids gipfelten in der Vorhersage, dass die Menschheit einer Zeit mit wärmerem Klima entgegengehe. Denn: Zu Beginn des 20. Jahrhunderts, als Arrhenius lebte, erzeugte die Menschheit die Energie, die sie benötigte, hauptsächlich mit der Verbrennung von Kohle. Bei der Kohleverbrennung entsteht Kohlendioxid. Über Schornsteine gelangt das Treibhausgas in die Luft. Arrhenius zog daraus die
DIE GEFÄHRLICHSTEN TREIBHAUSGASE
Seit 1906 hat sich die Atmosphäre um 0,8 Grad Celsius erwärmt. Wir zeigen euch hier die gefährlichsten Treibhausgase, ihren Anteil an der globalen Erwärmung, und wie der Mensch sie freisetzt:
Kohlendioxid CO2
Methan CH4
Rußpartikel
43 % Anteil
27 % Anteil
12 % Anteil
CO2 entsteht bei der Verbrennung von Kohle, Öl und Gas – hauptsächlich in Kraftwerksturbinen und Verbrennungsmotoren (z. B. von Autos), bei der Brandrodung von Wäldern und der Verbrennung landwirtschaftlicher Abfälle.
Hauptverursacher ist die Massentierhaltung: Millionen Kühe pupsen, was das Zeug hält. Ihren Mägen entweicht Methan. Auch Reispflanzen und Mülldeponien setzen CH4 frei. Methan entsteht auch bei der Kohle-, Öl- und Gas-Verarbeitung.
Rußpartikel entstehen überall, wo es brennt – bei der Brandrodung von Wäldern, bei Graslandbränden, in Küchenherden und Kohleöfen – vor allem in den armen Ländern. Rund ein Drittel stammt aus Dieselmotoren ohne Partikelfilter.
Tetrafluorethan CH2FCF3 (Halone)
CO und VOCS
Distickstoffoxid N2O (Lachgas)
8 % Anteil
7 % Anteil
4 % Anteil
Die Chemieindustrie produziert eine Reihe halogenierter Kohlen wasserstoffe, darunter die so genannten FCKW, die für das Ozonloch verantwortlich sind.
Kohlenmonoxid (CO) stammt vor allem aus Automotoren. Flüchtige organische Verbindungen (VOCS) aus der Industrie tragen zur Bildung von bodennahem Ozon bei – einem starken Treibhausgas.
Bodenbakterien bauen Stickstoffdünger ab dabei entsteht N2O. Die industrielle Landwirtschaft setzt massenhaft Stickstoffdünger ein entsprechend groß sind die Lachgas-Emissionen.
DER TREIBHAUSEFFEKT
sonneneinstrahlung
9
ein teil der wärme entweicht ins weltall wolken, gletscher, meere, wüsten und bebaute ober flächen reflektieren einen teil der sonneneinstrahlung
treibhausgase absorbieren die wärmerückstrahlung und erwärmen die atmosphäre
wärmerückstrahlung boden erwärmt sich
GLOBALE ERWÄRMUNG Das Internationale Geophysikalische Jahr 1957 und ’58 nahmen nationale Wetterdienste und Wissenschaftler aus 67 Staaten unseren Planeten in einer Forschungsoffensive so genau unter die Lupe, wie dies nie z uvor geschehen war. Im Rahmen gemeinsamer Messprogramme sammelten sie 18 Monate lang Daten über seine Atmosphäre und Ionosphäre, über Vulkane und Erdbeben, Gletscher und Meere, sein Magnetfeld und die kosmische Strahlung, die ihn erreicht. Die Aktion unter Schirmherrschaft der Vereinten Nationen (U. N.) bekam den Namen Internationales Geophysikalisches Jahr (IGJ). Die wachsende Globalisierung der Warenströme, der Aufschwung der zivilen Luftfahrt und der Schifffahrt sowie die ersten Raumfahrtpläne der Supermächte USA und Sowjetunion verlangten immer stärker nach einer globalen Wettervorhersage und bildeten damit den Hintergrund des IGJ. Eine globale Wettervorhersage aber setzte ein tieferes Verständnis jener komplexen Prozesse voraus, die das Wetter bestimmen. Und so stellten die Staaten im Rahmen des IGJ beträchtliche Mittel für die Vernetzung der nationalen Wetterdienste, den Aufbau eines globalen Messnetzes und ambitionierte Messprogramme zur Verfügung.
EINFÜHRUNG
10
Globaler »Schnappschuss«
»Great Smog« in London, 1952
Mörderische Luft Fast ein halbes Jahrhundert blieb Arrhenius’ Vorhersage nahezu unbeachtet. Das änderte sich erst nach dem Zweiten Weltkrieg, als die Industrieproduktion explodierte. Die sprunghaft wachsende Verbrennung von Kohle hatte vor allem in den Ballungszentren eine katastrophale Luftverschmutzung zur Folge. Trauriges Symbol jener Entwicklung wurde London: Im Dezember 1952 versank die britische Hauptstadt vier Tage lang in einem Smog, der so schlimm war, dass 4.000 Menschen starben! Doch auch andere Zentren der westlichen Welt, wie New York, Los Angeles oder das Ruhrgebiet, lagen praktisch ständig unter einer gelben Dunstglocke. Die Frage, ob die Menschheit im Begriff war, die Atmosphäre zu verändern, lag also buchstäblich in der Luft. »GREAT SMOG«, LONDON, 1952
VIDEO @ WIKIPEDIA.ORG 0CN.DE/UQAC
Der Ozeanologe Roger Revelle, Chef des Scripps - Institutes für Ozeanografie in La Jolla, und Harry Wexler, Direktor der Forschungsabteilung des amerikanischen Wetterdienstes NOAA in Washington, nutzten die Gunst der Stunde, um die Frage nach dem Einfluss des Menschen auf die Atmosphäre auf die Tagesordnung zu setzen. In den Monaten vor dem IGJ, als die Wissenschaftler die Fragestellungen des IGJ diskutierten, gewannen Revelle und Wexler die Gremien, die den US - Beitrag planten, für ein Messprogramm, das eine Momentaufnahme des globalen CO2 - Gehaltes der Atmosphäre liefern sollte. Zum Teil handelten sie dabei in Sorge, dass die wachsende Industrieproduktion an einen Punkt führen könnte, wo die Menschheit den CO2 - Gehalt der Atmosphäre wirklich zu verändern begann. Gleichzeitig erhofften sie sich Erkenntnisse über das Klimasystem der Erde insgesamt. In der Fachzeitschrift »Tellus« schrieb Revelle im September 1956 den berühmt gewordenen Satz: »Die Menschen sind im Begriff ein langfristiges geophysikalisches Experiment durchzuführen (nämlich die Freisetzung von CO2 – d. R.), das so nie zuvor stattfinden konnte und in der Zukunft nicht wiederholt werden kann. Wird dieses Experiment gut dokumentiert, kann es weitreichende Einsichten in die Prozesse gewähren, die das Wetter und Klima bestimmen.« Revelle und Wexler planten, an strategischen Orten der Erde Luftproben zu nehmen und sie auf ihren CO2 - Gehalt zu untersuchen. Revelle wollte die Messaktion nach 20 Jahren wiederholen. Sollte die CO2 - Konzentration dann von den Ergebnissen des ersten »Schnappschusses« abweichen, so ließe sich daraus ablesen, ob und wie stark der Mensch die Atmosphäre veränderte.
Die Keeling - Story An dieser Stelle betritt ein junger Mann die Bühne, der die Klimaforschung entscheidend voranbringen sollte: Obwohl erst 28 Jahre alt, war Charles David Keeling zu jenem Zeitpunkt bereits der versierteste Experte für CO2 - Messungen weit und breit. Dabei hatte ein purer Zufall am Beginn seiner Forscherkarriere gestanden. Nach einem Chemiestudium an der University of Illinois und seiner Promotion im Fach Chemie an der Northwestern University (USA) hatte Keeling lukrative Job-Angebote großer Chemiefirmen an der Ostküste ausgeschlagen und war der Einladung des Geochemikers Prof. Harrison Brown ans California Institute of Technology (Caltech) in Pasadena gefolgt, wo Brown die neu gegründete geochemische Abteilung leitete. Der Professor bot Keeling die Stelle eines postdoctoral fellow an – was an deutschen Universitäten in etwa der Position des wissenschaftlichen Oberassistenten entspricht – und sich ein eigenes Forschungsthema zu suchen. Ein Mitarbeiter sollte Keeling mit der Arbeit der geochemischen Abteilung vertraut machen. Er schleppte Keeling in einen Keller, in dem ein lärmendes, Staub rülpsendes Gesteinsklopfwerk stand, und überredete ihn, zwei Wochen lang uranhaltige Felsbrocken zu zerkleinern. Der Felsbruch war für eine Versuchsreihe bestimmt, die die US-Atom energiebehörde finanzierte. So wurde Keeling zu Beginn seines Studiums am Caltech Mitglied einer Kernforschungsgruppe. Er bekam ein eigenes Büro und durfte an den Meetings der Gruppe teilnehmen. Doch Keeling dachte gar nicht daran seinen Job an der Felszerkleinerungsanlage anzutreten, sondern las Tag für Tag alles, was ihm über Geologie in die Hände fiel. Eines Tages kam Brown auf die Idee einer neuen Methode zur Bestimmung des CO2 - Gehaltes von Oberflächenwasser. Da Keeling keinerlei Lust auf seinen Job im Keller verspürte, bat er den Professor kurzerhand, sich an der Konstruktion einer entsprechenden Messapparatur versuchen zu dürfen. Brown willigte ein. Keeling stellte die Apparatur zusammen, entwarf Teile davon selbst und ließ sie nach seinen Vorgaben fertigen. Die Apparatur ermöglichte präzisere Messungen des CO2 - Gehaltes von Luft- und Wasserproben als jede andere damals verfügbare. In einem Gebirge an der kalifornischen Westküste wollte Keeling anschließend Proben nehmen. Weil er sich sorgte, ob sein Gerät zuverlässig arbeiten würde, schlug er in einem Fachbuch den üblichen CO2 - Gehalt von Luft nach – das Buch gab ihn mit 0,03 Prozent an. Keeling beschloss, noch vor seiner Reise ins Gebirge Probemessungen zu machen, und so füllte er auf dem Dach des Geochemie-Gebäudes in Pasadena Luft in 5-Liter-Flaschen, untersuchte sie und stellte fest, dass der CO2 - Gehalt starken Schwankungen unterlag. Dies erklärte er sich mit dem starken Autoverkehr und den Industrieabgasen
in Pasadena. Auf dem Weg ins Gebirge, der einen ganzen Tag dauerte, nahm Keeling aller zwei Stunden Luftproben. »Meine Aufgabe erforderte das zwar nicht, doch aus purer Freude tat ich es«, schrieb er in seiner Autobiografie. »Ich liebte es, Messtechnik zu entwickeln, und empfand keinerlei Druck, kurzfristig verwertbare Ergebnisse zu liefern. Ich war 27, und die Aussicht, ein paar schöne Tage im Gebirge zu verbringen, Proben zu nehmen und nachts im Schlafsack zu kampieren, genügte mir völlig.« Im Verlauf seiner Forschungsarbeit beschäftigte sich Keeling immer eingehender mit dem CO2 - Gehalt von Luft und nahm in einem Gebiet, das von den Regenwäldern an der kanadischen Grenze bis zu den Bergwäldern Arizonas reichte, Luftproben. Dabei entdeckte er, dass der CO2 - Gehalt überall einem Tageszyklus unterlag. In der Nacht enthielt die Luft mehr CO2 als am Tag. Auf Anraten von Sam Eppstein, einem Mitarbeiter Browns, erweiterte er sein Analyseinstrumentarium um ein Massenspektrometer. Damit ließ sich der Anteil von Kohlenstoff-13- und Kohlenstoff-12-Isotopen (C-12 und C-13) am CO2 bestimmen. Die Analyse zeigte, dass die Luft in der Nacht weniger schwere C-13-Isotope, dafür aber mehr leichtere C-12-Isotope enthielt, während sich das Verhältnis am Tag umkehrte. Gestützt auf seine doppelte Analysemethode konnte Keeling nachweisen, dass sich im täglichen CO2 - Zyklus der Lebensrhythmus der Pflanzen spiegelte: Am Tag, wenn die Sonne schien und die Pflanzen Fotosynthese betrieben, nahmen sie CO2 auf, während sie in der Nacht, wenn sie schliefen, CO2 wieder abgaben. So stieg der CO2 - Gehalt der Luft in der Nacht und fiel am Tag wieder. → WAS IST EIN ISOTOP ?
Isotope sind Atome des gleichen chemischen Elements – hier des Wasserstoffs. Sie besitzen die gleiche Protonenanzahl, aber eine unterschiedliche Zahl von Neutronen und sind deshalb unterschiedlich schwer. e
p
Wasserstoff 11H
e
p n
Deuterium 12H
e
p
n n
Tritium 13H
11
DIE KEELING-STORY
mauna kea (4205 m) hilo office cape kumukahi
EINFÜHRUNG
12
mauna loa observa torium (3400 m)
Hawai, Mauna Loa
Seit dem 21. März 1958 misst ein Gasanalysator des amerikanischen Wetterdienstes NOAA auf der Hauptinsel des Hawaii-Archipels den CO2-Gehalt der Atmosphäre. Charles David Keeling, der die Messanlage als junger Ingenieur im Alter von 28 Jahren entwickelte, hat sich damit einen unsterblichen Namen gemacht. Die Messung gilt als der
ichtigste Beweis, dass der Mensch mit der Verbrennung w fossiler Energieträger die Atmosphäre verändert. Keelings Gerät befindet sich in der Wetterwarte des NOAA auf der Nordflanke des Vulkans Mauna Loa, der Hawaii um 4.000 Meter überragt. Oben siehst du die Lage der Wetterstation auf der Hawaii-Hauptinsel sowie in der Bildleiste unten (von
Und Keeling machte eine zweite, fundamentale Entdeckung: Unter Wissenschaftlern herrschte damals weitgehend Einigkeit, dass der CO2 - Gehalt der Luft von Region zu Region stark variiere. Lehrbücher enthielten die Angabe, dass er von 150 ppm (parts per million) an den Polen, was 150 Molekülen CO2 pro einer Million Luftmolekülen entspricht, und 350 ppm in den Tropen schwanke. Als Keeling seine Proben verglich, stellte er jedoch überrascht fest, dass die CO2 - Konzentration am Nachmittag überall den gleichen Wert zeigte: nämlich 310 ppm. Und auch das Verhältnis von C-13- zu C-12-Isotopen pegelte sich am Nachmittag überall auf den gleichen Wert ein – egal, woher die Proben stammten. Da der Nachmittag der Moment ist, der zwischen der CO2 - Aufnahme am Tag und der CO2 - Abgabe in der Nacht liegt, konnte ein gleicher Wert – unabhängig vom Ort der Probe – nur bedeuten, dass die Atmosphäre überall die gleiche durchschnittliche CO2 - Konzentration besaß, egal wie stark die CO2 - Werte am Tag und in der Nacht von diesem Durchschnitt abwichen und
links nach rechts) die CO2-Messanlage, die Bronzetafel am Eingang der Wetterstation, die Keelings Messkurve zeigt, Keeling mit Kollegen sowie sein Sohn Ralph, der heute die CO2-Messungen seines Vaters fortführt (hier vor der Wetterstation zusammen mit dem US-amerikanischen Politiker und Umweltaktivisten Al Gore bei einer Präsentation).
egal wie unterschiedlich diese Abweichungen von Region zu Region auch sein mochten. Kurzum: Keelings Entdeckung war ein Hinweis darauf, dass die herrschende Meinung vom regional variierenden CO2 - Gehalt der Atmosphäre falsch war. Sie legte vielmehr den Schluss nahe, dass die Atmosphäre überall die gleiche durchschnittliche CO2 - Konzentration aufwies. Keeling nannte sie den »globalen Hintergrund«. Keeling fragte sich natürlich auch, warum andere Forscher zu anderen Ergebnissen kamen als er, und er vermutete richtig, dass sie auf ungeeignete Messstrategien setzten: Sie erfassten die CO2 - Konzentration nur stichprobenartig, anstatt sie permanent, in kurzen Zeitintervallen über einen ganzen Tag hinweg zu messen, wie Keeling es praktizierte. Hätte er an den Orten seiner Messungen selbst nur eine Probe gesammelt und analysiert, hätten die Daten auch ihn vermutlich zu falschen Schlussfolgerungen veranlasst. Überdies benutzten die anderen Forscher Messverfahren, die den CO2 - Gehalt längst nicht so präzise erfassten wie sein neues Verfahren.
Mauna Loa Keeling hatte seine Forschungsarbeit am Caltech gerade abgeschlossen, da kreuzte Oliver Wulf, ein Ozon - Spezialist des amerikanischen Wetterdienstes NOAA, seinen Weg. Keeling stellte ihm seine Forschungsergebnisse vor, und Wulf berichtete dem Chef des Wetterdienstes, Harry Wexler, davon. Wexler lud ihn nach Washington ein und so bestieg Keeling zum ersten Mal in seinem Leben ein Flugzeug. Wie er sich später in seiner Autobiografie erinnerte, machte Wexler ihm – in seinem engen Büro im alten Gebäude des Wetterdienstes in der 24th Street – »einen aufregenden Vorschlag«. Im Rahmen des Internationalen Geophysikalischen Jahres wolle der Wetterdienst an einigen entfernten Orten der Welt den CO2 - Gehalt der Atmosphäre messen. Einer davon: die Pazifik-Insel Hawaii. Der Wetterdienst betreibe dort seit einem Jahr eine Station. Sie befinde sich in 3.400 Metern Höhe auf einer Flanke des Vulkans Mauna Loa. Keeling reagierte besorgt: Wenn Wexler die Messungen auf konventionelle Art durchführe, werde er den vielen fehlerhaften Daten, die in der Fachdiskussion kursierten, nur noch mehr hinzufügen. Wexler gab Keeling sofort recht und die beiden vereinbarten, ein Messprogramm neuer Art zu starten. Es sah vor, auf dem Mauna Loa und in einer Antarktis-Station, die Admiral Richard Byrd in den 30er Jahren gegründet hatte, den CO2 - Gehalt der Atmosphäre zu messen – und zwar permanent und mit den Verfahren, die Keeling entwickelt hatte. Ergänzend dazu sollten Luftproben mit Schiffen und Flugzeugen gesammelt und in einem zentralen Labor analysiert werden. Wexler beauftragte Keeling, noch am gleichen Tag die US Air Force aufzusuchen, um die Sammlung von Luftproben im Rahmen der Erkundungsflüge des Wetterdienstes der Air Force zu diskutieren. Am nächsten Tag fragte Wexler Keeling, ob er das Messprogramm für den Wetterdienst realisieren wolle, und ein Mitarbeiter zeigte ihm seinen künftigen Arbeitsplatz im Meeresbeobachtungslabor im Keller des Wetterdienstes. »Mich beschlichen Zweifel, ob das der richtige Ort für die Steuerung des Programms war«, erinnerte sich Keeling später. Inzwischen hatte ein Marineoffizier, der für Keeling im Pazifik (während seiner Zeit am Caltech) Luftproben gesammelt hatte, dem Chef des Scripps-Institutes, Roger Revelle, von seinen Forschungen berichtet, und so bekam Keeling kurz nach seinem Gespräch mit Wexler eine Einladung ans Scripps-Institut mit der Aussicht auf einen Job. Als Keeling wenig später im Garten des Institutes zum Mittag speiste, spiegelte sich die Sonne in den Wellen des Pazifiks und eine milde Seebrise wehte ihm ins Gesicht. Keeling überdachte seine Alternative im dunklen Keller des Wetterdienstes in Washington – und entschied sich fürs Scripps.
Glücklicherweise nahm Wexler ihm diese Entscheidung nicht übel, sondern beteiligte sich mit einer beträchtlichen Summe am Gehalt, das Revelle ihm zahlte. Im August 1956 – elf Monate vor dem Start des IGJ – zog Keeling mit seiner Frau, die er in Pasadena kennengelernt und geheiratet hatte, und Söhnchen Ralph nach La Jolla.
Ein hartes Stück Ingenieursarbeit In den folgenden zwei Jahren vollbrachte Keeling ein unglaubliches Arbeitspensum: Er verbesserte die Technik, die er am Caltech entwickelt hatte, so sehr, dass sie CO2Messungen mit einer Präzision von 0,1 ppm ermöglichte. Mit dem Messgerätehersteller Applied Physics realisierte er vier Anlagen dieses Typs – so genannte Gasanalysatoren. Dabei plante er mit den Ingenieuren der Firma präzise alle Details der Anlage: Gemeinsam entwickelten sie ein besonderes Gasführungssystem und konstruierten die Anlage so, dass sie sehr wenig Strom verbrauchte – erst dies machte ihren Einsatz an Orten mit notdürftiger Stromversorgung möglich. Weihnachten 1956 arbeitete Keeling durch, damit der Analysator, der für die Antarktis bestimmt war, noch rechtzeitig an Bord des Schiffes gehen konnte, das den eisigen Kontinent nur einmal pro Jahr ansteuerte. »Doch die Arbeit geschah zu hastig«, erinnerte sich Keeling später. Als die Anlage in der Antarktis-Station eintraf, lieferten ihre Pumpen keine saubere Luft, und Ersatz war erst ein Jahr später möglich. Theoretische und methodische Differenzen mit Revelle prägten 1957 seine Arbeit. Ungeachtet der Erkenntnisse, die Keeling am Caltech gesammelt hatte, hielt es Revelle weiter für möglich, dass der CO2 - G ehalt der Atmosphäre von Region zu Region variiere. Er wollte deshalb in einem möglichst großen geografischen Gebiet Luftproben sammeln, um einen breit aufgestellten Durchschnittswert der globalen CO2 - Konzentration zu erhalten. Revelle war zudem überzeugt, dass etwa die Hälfte des CO2, das der Mensch in die Luft entließ, vom Meer aufgenommen werde. Aus all diesen Gründen maß er der Sammlung von Proben per Schiff und Flugzeug größeren Wert als der punktuellen Messung der CO2 - Konzentration auf dem Mauna Loa bei. Keeling dagegen erhoffte sich von den Messungen auf Hawaii das aussagekräftigste Ergebnis. Von bewohnten Kontinenten weit entfernt, konnten auf der Insel keine Städte oder Industriezentren das Mess ergebnis verfälschen. Die CO2 - Konzentration über dem Mauna Loa entsprach deshalb mit großer Sicherheit dem globalen CO2 - G ehalt der Atmosphäre insgesamt. Mit jedem Monat, um den sich der Beginn der » WEITER Messungen auf dem Mauna Loa verschob, AUF SEITE 16 wuchs deshalb Keelings Unruhe. →
13
KLIMAFORSCHUNG Elektronik im Dienst der Klimaforschung Die Klimaforschung hat in den vergangenen 50 Jahren gewaltige Fortschritte gemacht. Auch wenn noch viele Fragen offen sind, wissen die Wissenschaftler heute ziemlich genau, wie das Klima der Erde zustande kommt, wie das komplexe Zusammenspiel von Atmosphäre, Erdoberfläche, Pflanzenwelt (Biosphäre) und Ozeanen (Hydrosphäre) funktioniert, welchen Einfluss die Sonne, das Erdmagnetfeld und Vulkanausbrüche haben – und
14
wie der Mensch das Klima verändert. Ohne moderne Mikroelektronik wären all diese Fortschritte nicht möglich gewesen. Denn das Wissen der Klimaforscher beruht auf Daten, die sie mit leistungsstarken elektronischen Messinstrumenten sammeln und mit den besten Supercomputern der Welt auswerten. Auf dieser Doppelseite stellen wir die elektronischen Helfer der Klimaforscher vor.
EINFÜHRUNG
WETTERSATELLITEN erfassen mit ihren Sensoren die Lichtstrahlung der Erde im sichtbaren und InfrarotBereich. Das sichtbare Licht liefert Informationen über Wolken und Wetterfronten, die Infrarotstrahlung zeigt die Temperatur- und Wasserdampfverteilung in der Atmosphäre. So erhalten Meteorologen und Klimaforscher ein dreidimensionales Bild der globalen Wetterküche.
Zweimal täglich startet der Deutsche Wetterdienst (DWD) von neun Punkten in Deutschland und vier Handelsschiffen WETTERBALLONE. Mit Gas gefüllt, steigen sie bis in 35 Kilometer Höhe auf. Dabei messen sie Druck, Temperatur und Feuchtigkeit der Luft und funken die Werte an die Erde. Aus den Daten ergibt sich ein dreidimensio nales Schnittbild der Atmosphäre, das die Schichtung der Lufthülle zeigt. Die Drift des Ballons gibt über Richtung und Stärke des Windes Auskunft.
Mit Sensoren erfassen weltweit 7.000 Handelsschiffe sowie sämtliche Flugzeuge meterologische Messdaten und funken sie an die nächsten Wettersatelliten.
Die Gletscher Grönlands und der Antarktis enthalten in Gestalt kleiner Luftbläschen Reste der Atmosphäre früherer Zeiten. Mit EISBOHRUNGEN bringen sich die Klimafoscher in den Besitz solcher Luftreste aus der Vergangenheit. Im Labor bestimmen sie ihre Zusammensetzung, darunter den CO2-Gehalt, und können so rekonstruieren, wie sich das Klima in den vergangenen rund 900.000 Jahren entwickelt hat. Mehr dazu erfährst du auf Seite 18.
windstärke
windrichtung
mikrochip
drucksensor temperatur-/ feuchtesensor
Mit 30 BLITZSENSOREN registriert die Firma NowCast Mobile im Auftrag des DWD jedes Gewitter. Gewitterblitze senden Funksignale aus. Die netzartig über Deutschland verteilten Sensoren empfangen die Signale in einem Radius von 1.500 Kilometern. Weil die Funksignale der Blitze die Sensoren zu unterschiedlichen Zeitpunkten erreichen, können Computer aus der Zeitdifferenz errechnen, wo sich das Gewitter befindet.
Diese kleine vollautomatische WETTERSTATION erfasst gleichzeitig die Windrichtung und Windgeschwindigkeit, die Lufttemperatur, den Luftdruck sowie die Luftfeuchtigkeit. Ein leistungsstarker Mikroprozessor übersetzt die physikalischen Messwerte, die das Gerät mit seinen Sensoren erfasst, in digitale Daten, damit Computer sie lesen und auswerten können. Per Standleitung gelangen die Daten zur DWD-Zentrale in Offenbach, wo Supercomputer aus ihnen das aktuelle Wettergeschehen errechnen.
Der DWD beobachtet das Wetter mit 175 WETTERSTATIONEN. Elektronische Messgeräte erfassen dort permanent u. a. die Luft- und Bodentemperatur, Luftdruck und Luftfeuchtigkeit, Windrichtung und –stärke, Menge und Dauer von Niederschlägen, die Wolkenuntergrenze und die Sichtweite.
Mit 16 WETTER-RADARSTATIONEN erfasst der DWD, wo und wie stark es in Deutschland regnet, hagelt oder schneit. Regentropfen und Hagelkörner reflektieren Radarwellen sehr gut. Die Radarstationen senden Radarwellen mit einer Wellenlänge von 5 bis 6 Zentimetern aus – das ist klein genug, um Regentropfen und Hagelkörner zu erfassen. Computer errechnen aus dem Echo die Entfernung und Richtung von Niederschlagszellen.
15
Die Wettersatelliten senden sämtliche Daten an die nächsten Rechenzentrum. ATMOSPHÄRE
BIOSPHÄRE
HYDROSPHÄRE
Abseits der großen Schifffahrtsrouten sammeln weltweit 750 DRIFTBOJEN auf Meeren und Ozeanen Seewetterdaten. So messen sie die Temperatur der Luft und des Wassers und funken die Werte an den nächsten Wettersatelliten. Die Positionsdaten der Bojen geben Auskunft über Stärke und Richtung von Meeresströmungen.
In ihren Instituten berechnen die Klimaforscher mit SUPERCOMPUTERN die verschiedensten Szenarien, wie sich das Klima der Erde in der Zukunft verändern könnte. Auf Basis globaler Wetterdaten der vergangenen Jahrzenhnte spielen die Computer das komplexe Zusammenspiel der vielen physikalischen und chemischen Faktoren durch, die das Klima bestimmen – und je nachdem, wie die Forscher diese Faktoren modifizieren (welchen CO2-Gehalt sie z. B. in die Berechnung einfließen lassen), errechnen die Computer ein anderes Ergebnis – sprich eine mehr oder weniger starke globale Erwärmung.
DIE KEELING-STORY
EINFÜHRUNG
16
Anfang 1957 beauftragte Revelle Keeling, zunächst den Analysator für das Schiff fertig zu stellen, das auf einer Kreuzfahrt den CO2 - Gehalt der Meere sowie der Luft über dem Meer messen sollte. Der Analysator musste in der Lage sein, permanent und selbständig – sprich: ohne ständig beaufsichtigt zu werden – Luft- und Wasserproben zu nehmen, was Keeling veranlasste, ihn mit einer automatischen Steuerung zu versehen. Um sicherzustellen, dass der Analysator einwandfrei funktionierte, testete Keeling ihn auf einer Schiffsreise, die bis nach Alaska führte. Als das geschafft war, machte er die Technik für den flugzeuggestützten Programmteil startklar. Wegen der bürokratischen Organisation des Militärs, das die CO2 -Messungen per Flugzeug durchführen sollte, kam die Arbeit jedoch nur schleppend voran. Und als Revelle ihm Ende 1957, fast ein halbes Jahr nach dem Beginn des IGJ, noch immer keine Reiseerlaubnis für Hawaii erteilte, begann Keeling, sich ernsthaft zu sorgen. In dieser Situation eilte Harry Wexler ihm zu Hilfe. Er beauftragte seinen Mitarbeiter Ben Harlan mit der Installa tion der Anlage auf dem Mauna Loa. Harlan hatte den Analysator in der Antarktis eingerichtet und war soeben in die USA zurückgekehrt. Gemeinsam mit dem Chef-Physiker der Wetterstation Jack Pales erledigte er im März 1958 die Montage und Inbetriebnahme des Analysators auf dem Mauna Loa.
Der Atem der Welt Am 28. März 1958 lieferte die Anlage die ersten Messdaten. Sie entsprachen genau der CO2 - Konzentration, die Keeling erwartet hatte: 313 ppm. Doch dann geschah etwas Überraschendes: Die CO2 - Werte bewegten sich im April um mehr als ein ppm nach oben – damit hatte Keeling nicht geINVERSIONSWETTERLAGEN
Bei Inversionswetterlagen schieben sich wärmere Luftschichten über kältere am Boden. Industrie- und Verkehrsabgase können so nicht abziehen, sondern sind unter der warmen Haube wie unter einer Glocke gefangen. Wer die CO 2 -Konzentration in so einer Situation in Bodennähe misst, erhält Werte, die durch lokale Industrieabgase künstlich überhöht sind. Genau darauf führte Keeling die Angaben zurück, die für Januar die höchste CO2-Konzentration auswiesen.
warmluft
geringer luftaustausch
schadstoffe smog
kaltluft
smog
rechnet. Im Juni legte ein Stromausfall den Analysator lahm. Als die Stromversorgung im Juli wieder funktionierte, war der CO2 - Gehalt der Luft über dem Mauna Loa unter die März-Werte gefallen! »Ich bekam Angst, dass sich die CO2 - Konzentration hoffnungslos sprunghaft verhalten könnte – besonders, als im August die Werte erneut zu fallen begannen«, erinnerte sich Keeling in seinen Memoiren. Kein Zweifel: Er durchlebte einen der aufregendsten Momente seines Lebens. Im November 1958 – einen Monat vor dem offiziellen Abschluss des Internationalen Geophysikalischen Jahres – durfte Keeling zum ersten Mal nach Hawaii reisen, um den Analysator neu zu starten. Als die Anlage unterbrechungsfrei wieder arbeitete, wiederholten sich die Ereignisse: Bis April stieg die CO2 - Konzentration kontinuierlich an, »doch dann, im Mai, begann sie wieder zu fallen«, schrieb Keeling später. »Ein regelmäßiges jahreszeitliches Muster begann sich herauszuschälen, doch es wich merklich von früher publizierten Daten der nördlichen Hemisphäre ab, die für den Januar das Maximum der CO2 - Konzentration auswiesen – ein Monat, in dem sich das CO2, das aus Verbrennungsprozessen stammt, in Bodennähe sammelt, weil eine inversive Wetterlage herrscht.« Auf dem Mauna Loa konnte ein solcher Fehler nicht geschehen. Das Maximum der CO2 - Konzentration stellte sich dort im April ein – kurz bevor die Bäume auf der nördlichen Halbkugel neues Grün auszutreiben beginnen. »Wir wurden erstmals Zeugen, wie die Natur der Atmosphäre CO2 entzieht, wenn bis zum Sommer die Bäume wachsen, und wie sie das CO2 im darauf folgenden Winter wieder abgibt«. Später nannte Keeling dies den »Atem der Welt«.
Die Keeling-Kurve Der Rest der Geschichte ist schnell erzählt. Im August 1960, während eines Meetings der Internationalen Vereinigung für Geodäsie und Geophysik (IUGG) in Helsinki, präsentierte Keeling der wissenschaftlichen Gemeinschaft zum ersten Mal die Messergebnisse der globalen CO2 - Konzentration, die das Scripps-Institut im Rahmen des IGJ gesammelt hatte – darunter die Messreihe vom Mauna Loa. Sie zeigte bereits das typische Sägezahn-Muster, das sie bis heute beibehalten hat. Es ergibt sich aus einem jahreszeitlichen Zyklus und einem menschengemachten Anteil: Von Mai bis Oktober fiel (und fällt auch heute) die CO2 - Konzentration der Atmosphäre um ein bis zwei ppm, um dann von November bis April um den gleichen Betrag wieder zu steigen. In diesem Zyklus dokumentierte sich der jahreszeitliche Lebensrhythmus der Natur. Gleichzeitig stieg der durchschnittliche globale CO2 - Gehalt von Jahr zu Jahr um ein bis zwei ppm an, so dass die Kurve – ungeachtet ihrer Sägezahn-Gestalt – insgesamt nach oben zeigte. Dieser Anstieg des durchschnittlichen CO2 - Gehalts erklärte sich
mit der CO2 - Menge, die der Mensch mit der Verbrennung fossiler Energieträger freisetzte. Keelings Analysator arbeitet bis heute auf dem Mauna Loa. Für das Jahr 2012 weist er eine globale CO2 - Konzentration von 397 ppm aus – 80 ppm mehr als zu Beginn der Messreihe vor 55 Jahren. Wissenschaftler konnten mit Eisbohrungen in Grönland und der Antarktis inzwischen nachweisen, dass der CO2 - Gehalt der Atmosphäre Jahrtausende lang stabil bei 280 ppm lag – bevor der Mensch ihn zu verändern begann. Das heißt: Die Menschheit hat den CO2 - Gehalt der Atmosphäre in rund 250 Jahren um über 30 Prozent erhöht. Die Auswirkungen auf das Klima sind bereits überall spürbar. Charles David Keeling starb 2005. Eingraviert in eine Bronzetafel, ziert seine Mess reihe den Eingang des Mauna-Loa-Observatoriums, das heute seinen Namen trägt. So sehr die Pioniere der Umweltbewegung mit ihren radikalen Forderungen nach einer anderen Art des Wirtschaftens und einer globalen Energiewende in den vergangenen 50 Jahren auch auf Widerspruch getroffen sind – die Richtigkeit der KeelingKurve hat kein Kritiker je bestritten. Sie gilt als der wichtigste, unanfechtbare Beweis dafür, dass der Mensch das Klima der Erde verändert. →
DIE KEELING-KURVE
Die Keeling-Kurve zeigt, wie sich der Kohlendioxid-Gehalt der Athmosphäre seit 1958 entwickelt hat. (Quelle: SCRIPPS) Kohlendioxid-Konzentration (Stand 03/2010) Teile pro Million (parts per million - ppm) 400 390 380 370 360
17
350 340 330 320 310
1960 1970 1980 1990 2000 2010
AKTUELLER CO2-MESSWERT AUF MAUNA LOA
WEB @ ESRL.NOAA.GOV 0CN.DE/XH76
DER KOHLENSTOFFKREISLAUF DER ERDE Die Pflanzen nehmen bei der Fotosynthese Kohlendioxid aus der Luft auf, spalten es auf und bauen die Kohlenstoff-Atome in ihr Pflanzenmaterial ein. Regnet es, dann waschen die Regen
tropfen Kohlendioxidmoleküle aus der Luft – so gelangt ein Teil des CO2 in die Meere, bewegt sich dort mit den Meeresströmungen und sinkt in der Nähe der Polarkreise mit dem sich abküh-
lenden Wasser in die tieferen Schichten der Ozeane ab. Dort gefriert es und fällt als Kohlenstoffschnee auf den Grund.
atmosphäre
verbrauch fossiler brennstoffe
photosynthese
biologische und chemische prozesse
pflanzen atmung biologische und chemische prozesse
entwaldung zersetzung
erdreich, humus, torf
fossile brennstoffe
ozeane
ROLLE DER ELEKTRONIK Widersprüchliche Rolle der Elektronik
EINFÜHRUNG
18
Und was hat das alles mit dem Thema dieses Buches zu tun: der Mikroelektronik? Sehr viel. Die Instrumente, mit denen Keeling den Einfluss des Menschen auf die Atmosphäre maß, waren mit Elektronik bestückt: Eine elektronische Steuerung sorgte dafür, dass Keelings Analysatoren weitgehend automatisch arbeiteten, Sensoren erfassten die CO2 - Konzentration der Luft, und elektronische Schaltungen übersetzten die Sensorsignale in eine »Sprache«, die Menschen verstehen. Kurzum: Der Elektronik verdankten Keelings Analysatoren zu einem wesentlichen Teil ihre Fähigkeit. Als in den 70er Jahren das Zeitalter der Mikroprozessoren und digitalen Computer begann, gehörte Keeling zu denen, die sich von Anfang an für die neue Technik begeisterten – denn die Klimaforscher konnten nun die Folgen der vermehrten Treibhausgasemissionen für das Klima von immer leistungsfähigeren Computern berechnen lassen, was die Genauigkeit ihrer Prognosen enorm steigerte.
Inzwischen ist die Tatsache, dass der Mensch im Begriff ist, das Klima zu verändern, kaum noch umstritten, und die Staaten bringen immer größere Mittel für den Klimaschutz auf. Heerscharen von Wissenschaftlern untersuchen heute mit hoch modernen Messgeräten (Seiten 14 / 15) die komplexen Prozesse, die das Klima bestimmen – alles Instrumente, die ihre Fähigkeiten Sensoren und elektronischen Steuerungen verdanken. Kurzum: Ohne die gewaltigen Fortschritte der Elektronik wäre die Menschheit gar nicht in der Lage gewesen, das Problem der globalen Erwärmung korrekt zu erfassen. Gleichzeitig trägt der Energiehunger elektronischer Geräte immer stärker zum wachsenden Energiebedarf bei. Rund ein Viertel des Strombedarfs der Haushaltgeräte in Deutschland geht inzwischen auf das Konto von Geräten der Computertechnik und Unterhaltungselektronik. Die Zahl neuartiger elektronischer Geräte, wie Smartphones und Tablet-PCs, wächst von Jahr zu Jahr – ebenso die Zahl der Menschen, die sie sich leisten können, so in C hina
VORSTOSS IN DIE GEFRORENE VERGANGENHEIT DER ATMOSPHÄRE 1996 starteten Forscher aus zehn europäischen Ländern einen Angriff auf das Eis der Antarktis, um in die Vergangenheit des Klimas zurückzublicken. Der Eispanzer, der das weite Königin-Maud-Land in der Antarktis bedeckt, sieht wie eine endlose flache Tischplatte aus. Kaum zu glauben, dass sich unter seiner weißen Oberfläche ein Gebirge versteckt, das den Alpen sehr ähnlich ist – mit tief eingeschnittenen Tälern und schroffen, bis zu 3.000 Meter hohen Berggipfeln. In dieser eisigen Landschaft starteten Wissenschaftler aus zehn Ländern Europas 1996 ein Projekt, das für das Verständnis unseres Klimas eine ähnlich große Bedeutung erlangen sollte wie Keelings CO2 - Kurve. Es erhielt den Namen EPICA (European Project for Ice Coring in Antarctica – deutsch: Europäisches Eisbohr-Projekt in der Antarktis). Unter Leitung des Geophysikers Prof. Heinz Miller vom Alfred-Wegener-Institut in Bremerhaven orteten die Forscher mit Hilfe eines Radars den Punkt, an dem das Eis besonders mächtig ist, errichteten dort ihr Lager und begannen mit der tiefsten Eisbohrung der Welt. Acht Jahre
lang fraß sich ihr Bohrer durch den gefrorenen Panzer des Königin-Maud-Landes. Innen hohl, füllte er sich Meter um Meter mit dem Eis längst vergangener Zeiten. Die Wissenschaftler hievten ihre eisige Beute – geteilt in Eissäulen von je 70 Metern – aus dem Bohrloch, sägten sie in kleinere Stücke und verschifften sie nach Bremerhaven. Im geophysikalischen Labor des Alfred-Wegener-Institutes analysierten sie Stück für Stück die Zusammensetzung des Eises, um Antwort auf die fundamentale Frage zu finden, wie sich das Klima der Erde in den vergangenen Jahrtausenden verändert hat. Tatsächlich können Forscher mit Hilfe der Eisschilde, die den Südpol und Grönland bedecken, sehr weit in die Vergangenheit zurückblicken. Denn: Die Eisschilde sind – wie jeder andere Gletscher – aus dem Schnee »von gestern« entstanden. Gletscher bilden sich, wenn der Schnee des Winters im Sommer nicht schmelzen kann. Winter für Winter legt sich dann neuer Schnee auf den alten – und dabei verschließt der Neuschnee auch die Luft, die sich zwischen den Flocken des Altschnees befindet. Allmählich überdecken die Schneejahrgänge wie die Jahresringe eines Baumes immer
oder Brasilien. Die Mikroelektronik ist also selbst ein Teil des Klimaproblems und wird es bleiben, bis der Umstieg auf erneuerbare Energieträger vollbracht ist. Nicht wenige Menschen beobachten auch deshalb die Fort schritte der Elektronik mit gemischten Gefühlen. Doch nicht die Elektronik als Technik ist das Problem. Das digitale Fernsehen etwa kann der Bildung dienen, es kann aber auch zur emotionalen Abstumpfung von Menschen führen – je nach dem, welche Inhalte die TV-Sender verbreiten und die Zuschauer konsumieren. Ist das digitale Fernsehen deshalb schlecht? Nein. Die Elektronik als Technologie ist weder gut noch schlecht. Sie ist immer »nur« das, was wir daraus machen. In diesem Buch sollst du Elektronik als mächtiges Werkzeug kennenlernen, das zur Lösung des Klimaproblems beitragen kann. Mit 2.100 Firmen, die 51.000 Menschen beschäftigen, zählt Sachsens Halbleiterbranche heute zu den Weltzentren der elektronischen Industrie. Sächsische Unternehmen decken alle Stufen der Entwicklung, mächtiger die Landschaft. Der tiefer liegende Schnee verwandelt sich dabei unter der Last des Neuschnees in Eis, und das Eis wiederum umschließt für immer die Luft, die mit dem Schnee in den Gletscher geriet. Jeder »Jahresring« eines Gletschers enthält deshalb (in Gestalt kleiner Luftbläschen) Proben der Atmosphäre des Jahres, das er repräsentiert. Gelingt es, das Eis an die Oberfläche zu holen, kann die Luft im Labor aus dem Eis befreit und analysiert werden. Da die Entstehung von Gletschern sehr gut erforscht ist, können die Wissenschaftler aus der Tiefe, in der sie das Eis finden, und dem Druck, der dort herrscht, exakt auch das Alter der Eisstücke errechnen, die sie analysieren. So finden sie genau heraus, wie sich der CO2 - Gehalt der Atmosphäre über die Jahrhunderte hinweg verändert hat. Das Verhältnis der Sauerstoff-Isotope im Eis verrät ihnen außerdem, welche Temperaturen zu verschiedenen Zeiten auf der Erde geherrscht haben. Die Forscher des EPIC-Projektes stoppten ihre Bohrung am 21. Dezember 2004 in 3.270 Metern Tiefe – nur fünf Meter über dem felsigen Untergrund der Antarktis. Zum Abbruch entschlossen sie sich, weil das Eis so dicht über dem relativ warmen Fels zu schmelzen begann. Der Eiskern, den sie aus 3.270 Metern Tiefe holten, war 900.000 Jahre alt! Noch nie zuvor hatten Wissenschaftler so weit in die Vergangenheit des Klimas geblickt. Aus dem EPICProjekt und weiteren Eisbohrungen wissen wir heute, dass der CO2 - Gehalt der Atmosphäre viele Jahrtausende lang stabil bei 280 ppm (Parts per Million) lag, was 280 CO2 - Molekülen je einer Million Luftmoleküle entspricht. Erst der Mensch hat dies verändert, und heute ist der CO2 - Gehalt der Luft höher als er in den vergangenen 900.000 Jahren war. Das heißt: Wir haben die Atmosphäre schon beispiellos stark verändert.
roduktion und Vermarktung integrierter Schaltkreise P ab – das heißt, wir verfügen hier über besonders große Möglichkeiten der Entwicklung intelligenter elektronischer Lösungen. Mit dem Wissen darum haben sich vor fünf Jahren mehr als 100 Elektronikfirmen, Forschungs institute und Hochschulen Sachsens zusammengetan, um den Energieverbrauch wichtiger Produkte mit Hilfe neuer elektronischer Lösungen zu senken und so einen Beitrag zur Bewältigung des Klimaproblems zu leisten. Unser Netzwerk trägt den Namen COOL SILICON. »Silicon« ist das englische Wort für Silizium – das chemische Element, aus dem die meisten integrierten Schaltkreise sind. Das Wort »cool« steht für integrierte Schaltkreise, die sich kaum erhitzen, weil sie nur wenig Strom verbrauchen. Genau solche Schaltkreise und elektronischen Lösungen wollen wir entwickeln. Gleichzeitig wollen wir mit dem Wort »cool« auf die Intelligenz und den Nutzen hinweisen, die sich in solchen Lösungen dokumentieren. Doch urteile selbst, ob unsere Ideen dieses Etikett verdienen. Viel Spaß beim Lesen und wir zählen auf dich … !
19
Was hat die Energiewende mit Elektronik zu tun? Was ist ein intelligentes Haus? Wie erwecken wir leblose Technik zum Leben? Wie denken Mikrochips? In diesem Kapitel »impfen« wir dich mit elektronischem Grundlagenwissen.
BASICS
21
EIN WENIG GRUNDLAGENWISSEN PORTRÄT DAS ZUCCHINI-EXPERIMENT
22
KLIMASCHUTZ ÖKOSTROM PLUS ELEKTRONIK
24
DAS INTELLIGENTE HAUS DIE ZUKUNFT DES WOHNENS
26
SENSOREN UND ELEKTRONISCHE SYSTEME WENN LEBLOSE TECHNIK LEBENDIG WIRD
28
HALBLEITER SILIZIUM & CO.
30
HALBLEITER WANDERNDE LÖCHER UND FREIE ELEKTRONEN
32
WAFERFERTIGUNG VOM SAND ZUR SILIZIUMSCHEIBE
34
ELEKTRONISCHE BAUELEMENTE SO FUNKTIONIERT EIN TRANSISTOR
36
DIGITALE LOGIK SO RECHNEN COMPUTER
38
PORTRÄT
DAS ZUCCHINI-EXPERIMENT Wie eine 15jährige Schülerin aus Darmstadt ein Problem lösen will, das so alt ist wie die Kochkunst – und wie sie damit »nebenbei« auch zur Energiewende beiträgt.
BASICS
22
Im Februar 2009 konnte man Regina Hartfiel beobachten, wie sie nach der Schule am häuslichen Herd Hähnchenfleisch und Zucchini in einer Pfanne absichtlich anbrennen ließ. Zufrieden war die 1 5jährige mit ihrer Kochkunst erst, wenn brenzliger Geruch die Wohnung erfüllte und das Essen nicht mehr zu retten war. Reginas Mutter, die sich im Normalfall über angekokeltes Kochgeschirr und misslungene Speisen ärgert, war ihrer Tochter nicht böse. Denn: Regina versuchte sich zum ersten Mal als Erfinderin! In ihrer Schule – dem Justus-Liebig-Gymnasium in Darmstadt – hatte sie zu Beginn jenes Monats ein Plakat entdeckt, auf dem der Verband Elektrotechnik, Elektronik, Informationstechnik e. V. (VDE) zum bundesweiten Schülerwettbewerb »INVENT-a-CHIP« einlud – auf deutsch:
Erfinde einen Mikrochip! Bis Ende März, so informierte der VDE, könnten Schüler Ideen einreichen, wie sie beliebige Alltagsprobleme mit Hilfe moderner Elektronik lösen würden. Die Schüler mit den zwölf besten Vorschlägen könnten ihre Idee dann bis Ende September in »Hardware gießen« – das heißt: betreut von professionellen Chipdesignern würden sie eine Schaltung entwickeln, die geeignet sei, das jeweilige Alltagsproblem zu lösen. »Das gefiel mir«, sagt Regina. »Da wollte ich unbedingt dabei sein.« Auf der Suche nach einem geeigneten Thema wälzte sie Tage lang diverse Ideen im Kopf. Dann kam ihr der Gedanke, ein elektronisches System zu entwickeln, das verhindert, dass Speisen beim Garen anbrennen. »Das Problem kennt jeder«, sagt sie, »es ist so alt wie die Kochkunst, aber es gibt bis heute keine Lösung dafür.«
So tastete sich Regina an ihre Lösung heran
»Wenn Nahrungsmittel auf dem Herd anbrennen, dann ZUCCHINI-EXPRIMENT: TEMPERATURKURVE passieren charakteristische Dinge. Es entsteht zum BeiDie Zacken der Temperaturkurve jen- oben markieren Momente, in denen spiel Kohlendioxid (CO ) als Verbrennungsprodukt. Meine 2 seits der 75-Grad-Grenze erklären sich sehr viele Wassertröpfchen schlagarerste Idee war deshalb, mit einem Sensor den CO2-Gehalt damit, dass Nahrungsmittel Wasser tig verdampfen. Die kurzen Abkühenthalten. Beim Garen dehnt sich das lungsphasen dazwischen erklären sich der Luft über dem brutzelnden Fleisch und Gemüse zu Wasser aus, tritt in Tröpfchen aus den damit, dass nach jeder »Tröpfchenex- messen. Würde der Sensor kein CO2 registrieren, wäre alPoren an der Oberfläche der Speise plosion« erst neues Wasser aus dem les in Ordnung, stellte er jedoch CO2 fest, wäre dies ein heraus und ist dann direkt der heißen Gemüse heraustreten muss, ehe die Garflüssigkeit ausgesetzt – dem sie- nächste »Explosionswelle« stattfinden Zeichen, dass der Prozess der Verbrennung begonnen denden Öl oder der heißen Butter. Die kann. Dabei muss sich das Wasser im- hatte. Der Sensor würde die CO2-Messwerte an einen Garflüssigkeit erhitzt nun die Wasser- mer erst durch die Kruste kämpfen, die Chip übermitteln. Und sobald die Werte eine kritische tröpfchen so schnell und so stark, dass sich auf dem Essen bildet, wenn es verGrenze überschreiten, würde der Chip den Herd abschalsie explosionsartig verdampfen. Die brennt – was eine Weile dauert. Zacken der Temperaturkurve nach ten. Soweit mein erster Plan. Doch ich musste feststellen, dass ein geeigneter CO2-Sensor teuer ist. Und so verwarf °C ich diesen Lösungsansatz wegen der Kosten.« 80 80 74 80 Auf der Suche nach Alternativen zur CO2-Messung kam 78 70 Regina auf die Idee, jene kritische Grenze, bei der das Es73 sen verbrennt, über die Temperaturkurve zu ermitteln. In 60 einer Pfanne ließ sie dafür zuerst Zucchini und dann HähnPhase des Anbrennens 50 chenfleisch verbrennen, maß dabei ständig die Oberflächentemperatur der Nahrungsmittel und trug die Werte 40 in Diagramme ein. Das Diagramm links zeigt den Tempera30 turverlauf ihres Zucchini-Experiments. Das Gemüse be20 ginnt bei einer Oberflächentemperatur von zirka 75 Grad Celsius zu verbrennen. Die Temperaturkurve zeigt von da 10 an schnelle Ausschläge von vier bis acht Grad Celsius 0 nach oben bzw. nach unten – ein sicheres Zeichen für den 3:30 8:00 min Verbrennungsvorgang.
Energieeffizienz liegt im Trend Weil Temperatursensoren im Unterschied zu CO2Sensoren sehr preiswert sind, hatte Regina damit eine bezahlbare Lösung für die wirksame Überwachung des Garvorgangs gefunden. Unterstützt von Dr. Thomas Jambor, dem Geschäftsführer der Firma TecEd in Hannover, entwickelte sie die Schaltungslogik ihres Anti-AnbrennSystems. Im Info-Kasten »Anti-Annbrenn-System« kannst du nachlesen, wie das System funktioniert. Als der VDE im Oktober 2009 die besten Lösungen jenes Wettbewerbsjahres kürte, war Regina Hartfiel, ausgewählt von einer hochkarätigen Jury, unter den Gewinnern. »Reginas Anti-Anbrenn-Chip ist eine wegweisende Idee«, sagt Thomas Jambor. »Vergleichbare Lösungen werden sicher bald Eingang in die Küchentechnik finden. Brennen Speisen nicht mehr an, ist das ein Gewinn an Lebensqualität, und gleichzeitig hilft es, Nahrungsmittel und Energie nicht zu verschwenden. Als Regina ihre Idee entwickelte, hatte sie den Energieaspekt noch gar nicht im Blick. Doch gerade er entscheidet immer häufiger über den Produkt erfolg. Haben Käufer die Wahl zwischen zwei sonst gleichwertigen Produkten, geben sie wegen steigender Energie-
Regina Hartfiel war 2009 mit ihrem Modell eines Anti-Anbrenn-Chips Preisträgerin im VDE-Wettbewerb »INVENT-a-CHIP«.
INVENT-A-CHIP
0CN.DE/LJL5
preise und dank des wachsenden Umweltbewusstseins immer häufiger dem Erzeugnis mit der besseren Energiebilanz den Vorzug – auch wenn es etwas teurer ist.« Mit ihrem Anti-Anbrenn-Chip liegt Regina voll im Trend. In Sorge um den weltweiten Klimawandel arbeiten Tausende Ingenieure, Unternehmer und Politiker in Deutschland an der Energiewende – und Reginas Beispiel zeigt, dass auch Jugendliche schon erfolgreich daran mitwirken können. Auf der nächsten Doppelseite erfährst du, was es mit der Energiewende auf sich hat. →
anti-anbrenn-system
Sensor SENSOR
AKTOREN
Display
AD-Wandler physik. Größe (Stromstärke)
Lampe »Chip an«
Binärzahlen
Lampe »Alarm«
Mikrochip Logik und Steuerung
S O FUNKTIONIERT REGINAS ANTI-ANBRENN-LÖSUNG
Der Temperatursensor misst die Oberflächentemperatur des brutzelnden Essens. Das funktioniert so: Im stabförmigen »Fühler« des Sensors befindet sich ein stromdurchflossener Draht. Je heißer die Speise ist, umso heißer wird auch der Draht, umso größer wird der elek trische Widerstand des Drahtes, und umso schwächer wird der Strom, der durch den Draht fließt. Denn: Wärme versetzt die Atome des Drahtes in Schwingungen. Die Elektronen, die den Draht durchfließen, prallen dann häufiger auf die schwingenden Atome – womit die Stromstärke im Draht sinkt. Und so gibt die Stromstärke
Auskunft über die Temperatur der Speise. Der Mikrochip ist die Steuerungszentrale – das »Gehirn« – des AntiAnbrenn-Systems. Der Chip liest und bewertet die Messwerte, die der Sensor ihm schickt, und zeigt sie auf einem Display an. Überschreiten die Werte eine kritische Grenze, löst der Chip Alarm aus, indem er ein Warnlämpchen blinken lässt und per Lautsprecher einen Warnton abgibt. Gleichzeitig schaltet er den Herd ab und verhindert so, dass die Speise verbrennt. Display, Warnlämpchen, Lautsprecher und Herdschalter sind die so genannten Aktoren. Der Chip realisiert damit
Alarm-Signal
das eigentliche Ziel des Systems: er verhindert, dass die Speisen anbrennen. Alle übrigen Komponenten dienen der Kommunikation zwischen dem Sensor, dem Chip und den Aktoren. So übersetzt der Analog-DigitalWandler (AD-Wandler) die physikalischen (analogen) Messwerte in binäre Zahlen – in Ziffernfolgen aus Nullen und Einsen –, weil der Mikrochip nur binäre Zahlen lesen und auswerten kann. Das Bussystem (in der Funktionsgrafik oben die braunen Pfeile) wiederum ist für den Transport der Signale und Daten zwischen den Komponenten des elektronischen Systems zuständig.
23
KLIMASCHUTZ
ÖKOSTROM PLUS ELEKTRONIK Wie Elektronik zur Energiewende beiträgt.
BASICS
24
Das Wort »Energiewende« ist in aller Munde. Es steht für den Umbau unserer Energieversorgung von Kohle, Öl und Gas auf Sonne, Wind und Erdwärme. Praktisch alle Bundestagsparteien rechnen die Energiewende zu ihren wichtigsten politischen Anliegen. Es ist Deutschlands Antwort auf die vielleicht größte Herausforderung der Menschheitsgeschichte: die globale Erwärmung. Für eine erfolgreiche Energiewende brauchen wir möglichst schnell möglichst viele Wind- und Solarkraftwerke. Doch Ökostrom allein genügt nicht. Massive Investitionen in Elektronik müssen dazu kommen. Und hier erfährst du, warum.
Vorrang für Ökostrom Weil bei der Verbrennung von Kohle, Öl und Gas in Kraftwerksturbinen und Motoren Kohlendioxid (CO2) entsteht, gelten sie als die Hauptquellen des Klimawandels. Umweltschützer überall auf der Welt wollen die Energieversorgung deshalb so schnell wie möglich auf die sauberen (weil kein CO2 freisetzenden) Energieträger Sonne, Wind und Erdwärme umstellen. Unter dem Eindruck des Reaktorunglücks von Fukushima und angesichts düsterer Prognosen der Klimaforscher will Deutschland auf diesem Weg vorangehen. Schon 2030 sollen die erneuerbaren Energien rund 50 Prozent des Strombedarfs der Bundesrepublik decken! Das »Gesetz für den Vorrang Erneuerbarer Energien« (kurz: EEG) ist bislang der wichtigste politische Hebel dafür. Es belohnt den Bau von Wind-, Sonne-, Biomasse- und Erdwärme-Kraftwerken mit festen Abnahmepreisen für Ökostrom. Die Preise sollen einen wirtschaftlichen Betrieb der Öko-Kraftwerke ermöglichen. Im Jahr 2000 erlassen, hat das EEG einen gewaltigen Investitionsschub in die erneuerbaren Energien ausgelöst. Die Nachfrage nach grüner Energietechnik ließ binnen weniger Jahre die »Branche der erneuerbaren Energien« entstehen. Spezialisiert auf klimafreundliche Energietechnik, hat sie bis zum Jahr 2011 rund 380.000 neue Arbeitplätze geschaffen!
Verflixtes Wetter! Gegenüber Kohle, Öl und Gas haben die wichtigsten erneuerbaren Energien – Sonne und Wind – jedoch einen entscheidenden Nachteil: Ihr Stromertrag hängt vom Wetter ab und folgt einem jahreszeitlichen Zyklus. Solaranlagen liefern gerade dann wenig Strom, wenn wir besonders viel davon brauchen: im Winter (weil die Sonne dann weniger scheint), und Windräder stehen bei Flaute still – egal ob wir gerade viel oder wenig Strom benötigen. Aus dem Umbau des Energiesystems erwächst also ein Problem, das wir bisher nicht kannten: Plötzlich wird es schwierig, alle Lan-
desteile stets ausreichend mit Strom und Wärme zu versorgen. Zahlreiche Ingenieure suchen nach Antworten auf diese Herausforderung. Neben neuen Energie-Speichertechnologien sollen intelligente Netze – so genannte Smart Grids – zur Lösung des Problems beitragen. Zog früher die Stromnachfrage an, steigerten die Erzeuger im gleichen Tempo die Produktion, indem sie ihre Generatoren einfach mit mehr Kohle befeuerten. Zieht dagegen unter den Bedingungen eines wachsenden Ökostrom-Anteils am Energiemix die Stromnachfrage an, entscheiden Wetter und Jahreszeit, ob Wind- und Solaranlagen den Bedarf der jeweiligen Netzregion decken können.
Intelligente Netze (Smart Grids) Aus einem konventionellen Stromnetz wird ein Smart Grid – ein intelligentes Netz –, wenn es in der Lage ist, kurzfristige Diskrepanzen zwischen der Stromnachfrage und dem Stromangebot selbst zu erkennen und auszugleichen. Bislang existieren Smart Grids nur als Computermodelle und in Feldversuchen – doch die Computer-, Sensorund Datenübertragungstechnik, die Smart Grids möglich macht, ist schon weit gediehen. Im Info-Kasten auf der rechten Seite kannst du nachlesen, wie so ein elektronisch gesteuertes Netz funktionieren soll.
Energie einsparen, Verluste vermeiden Eine weitere Säule der Energiewende besteht darin, Energie einzusparen und Energieverluste zu vermeiden, wo immer es geht. Solange wir einen Großteil unserer Energie noch mit Kohle, Öl und Gas erzeugen, trägt jedes eingesparte Watt dazu bei, die Menge des freigesetzten CO2 zu verringern. Steigende Energiepreise spielen dabei dem Klimaschutz in die Hände. Sie erhöhen den Druck auf die Unternehmen, auf die Energiebilanz ihrer Produkte zu achten. Immer häufiger stehen deshalb ganze Produktgruppen auf dem Prüfstand und erleben unter dem Gesichtspunkt ihrer Energieeffizienz und Klimafreundlichkeit eine grundlegende Überarbeitung. Ein prominentes Beispiel ist das Auto: Das benzingetriebene Automobil wird zum Auslaufmodell, die Zukunft gehört dem Elektromobil. Auch beim Bauen und Wohnen kündigt sich eine Technik-Revolution im Zeichen des Klimaschutzes an: Künftige Generationen werden in Häusern leben, die ihren Strom- und Wärmebedarf im Jahresschnitt selbst decken. Ausgerüstet mit Solaranlagen, beheizt von Luft-Wärmepumpen und gesteuert von elektronischen Energiemanagementsystemen (EMS), werden sie maßgeblich zur Energiewende beitragen. Auf der nächsten Doppelseite stellen wir so ein Haus der Zukunft vor. →
DIAGRAMM AUSSENRING Anteil fossiler Energieträger + Kernenergie + erneuerbare Energien 2012 stellten folgende Energieträger Deutschlands Energieversorgung sicher: ó Mineralöl (34 %), ó Erdgas (19 %), ó Braunkohle (12 %), ó erneuerbaren Energien (12,1 %), ó Steinkohle (11,9 %), ó Kernenergie (9 %), ó Sonstige (2 %).
12,1
er
2,0
9
e
sse
0
ma
8,
r ge
rä
,9 7 8 rgi e
et
fos
sil
ee
n
DIAGRAMM INNENRING Anteil erneuerbare Energien Im Jahr 2011 deckten die erneuerbaren Energien zehn Prozent des Energiebedarfs (Strom, Wärme, Verkehr). Diese zehn Prozent verteilten sich wie folgt auf die einzelnen Energiearten: ó Biomasse* (8,0 %), ó Windenergie (2,0 %), ó Photovoltaik (0,8 %), ó Wasserkraft (0,7 %), ó Solarthermie, Geothermie (0,5 %). * Feste und flüssige Biomasse, Biogas, Deponie- und Klärgas, biogener Anteil des Abfalls, Biokraftstoffe Quelle: BMU – E I 1 nach Arbeitsgruppe Erneuerbare Energien-Statistik (AGEE-Stat) und ZSW, unter Verwendung von Angaben der AGEB, Stand: Dezember 2012; weitere Angaben zum Thema erneuerbare Energien findest du auf der Internet-Seite des BMU: www.erneuerbare-energien.de
bio
0,7 0,5
rme s ser win d wä w a
nen
so n n
0,8
ker
gi
e
ue
ENERGIESITUATION IN DEUTSCHLAND
ien
ne
energ
er
re rba
kommunikationsdatenfluss
energiefluss
SO SOLLEN SMART GRIDS FUNKTIONIEREN
Intelligente Energieverbrauchszähler (Smart Meters) messen permanent den Stromverbrauch aller Haushalte und melden ihn dem Computer, der das Smart Grid steuert. Zeitgleich erfassen Sensoren die Strommenge, die jede einzelne Stromerzeugungsanlage ins Netz einspeist. Laufen das Angebot und die Nachfrage auseinander, veranlasst der Steuerungscomputer des Smart Grids Aktionen, die geeignet sind, die Diskrepanz auszugleichen: Bei einem lokalen Stromüberangebot kann der Rechner zum Beispiel Windräder und Solarparks im Versorgungsgebiet zeitweilig abschalten. Läuft dagegen die Nachfrage dem Angebot davon, kann der Rechner beispielsweise Blockheizkraftwerke in den Kellern von Privathäusern per Fernzugriff einschalten und mit der
gebündelten Leistung dieser Kleinstkraftwerke den Stromengpass im Netzgebiet vermindern. Sind die privaten Haushalte mit intelligenten Energiemanagementsystemen (EMS) ausgerüstet (siehe Seiten 26/27 »Die Zukunft des Wohnens«), kann der Steuerungscomputer des Smart Grids bei Versorgungsengpässen auch den Stromverbrauch der Privathaushalte drosseln. So kann er mit den Energiemanagementsystemen der Häuser im Netzgebiet vereinbaren, dass sie alle Haushaltsgeräte, deren Benutzung nicht an eine bestimmte Tageszeit gebunden ist, zeitweilig sperren (die Waschmaschine etwa kann auch in der Nacht laufen, wenn die Stromnachfrage gering ist). Intelligente Netze verschiedener Regionen können auch miteinander kommunizieren und Strom-
überschüsse aus Gebieten mit lokaler Überproduktion in Gebiete mit lokaler Unterversorgung umleiten. Kurzum: Smart Grids sind die Universalgenies des Öko-Stromzeitalters. In kritischen Situationen sorgen sie für die optimale Nutzung und Verteilung knapper Energieressourcen. Es werden sicher noch einige Jahre vergehen, ehe Smart Grids im großen Stil Wirklichkeit werden, denn ihre Realisierung berührt auch sensible rechtliche Fragen. So ist umstritten, inwieweit es mit den Datenschutzgesetzen vereinbar ist, wenn Netzbetreiber Zugriff auf sämtliche Verbrauchsdaten eines Haushaltes erhalten (also nicht nur den Gesamtverbrauch kennen, sondern auch wissen, wie oft und wie lange das Radio und der Fernseher laufen). (© Siemens-Pressebild)
25
INTELLIGENTES HAUS
DIE ZUKUNFT DES WOHNENS Solaranlagen, Wärmepumpen und elektronische Energiemanagementsysteme machen in Zukunft Häuser möglich, die ihren Strom- und Wärmebedarf selbst decken.
BASICS
26
Für Familie Welke / Wiechers hat die Zukunft des Wohnens schon begonnen: Seit März 2012 lebt sie in einem schicken Einfamilienhaus in Berlin-Charlottenburg, das den Namen »Effizienzhaus Plus mit Elektromobilität« trägt. Hinter der sperrigen Bezeichnung steht ein visionäres Konzept, das die Welke/Wiechers im Auftrag des Bundesministeriums für Verkehr, Bau und Stadtentwicklung (BMVBS) 15 Monate lang auf seine Alltagstauglichkeit testen. Mit Solarmodulen auf dem Dach und der Fassade und einer Luft-Wasser-Wärmepumpe erzeugt das Haus im Jahresverlauf mehr Strom und Wärme als es verbraucht, was sich im Namen »Effizienzhaus Plus« ausdrückt. Von Frühling bis Herbst, wenn die Sonne viel scheint, produziert die Solar anlage meist sogar so viel Strom, dass die Familie damit nicht nur den täglichen Hausbedarf decken, sondern auch noch zwei Elektroautos und zwei Elektrofahrräder »betanken« kann – daher der Namenszusatz »mit Elektromobilität«. Völlig energieautark ist das Haus aber nicht: Vor allem an trüben Wintertagen kann die Solaranlage den Tagesstrombedarf nicht decken. Das Haus überbrückt dann das Defizit mit Strom aus dem öffentlichen Netz. Ein intelligentes Energiemanagementsystem (EMS) sorgt in solchen Phasen dafür, dass kein Watt Energie verloren geht. Auf Sensoren gestützt und gesteuert von einem Computer, dirigiert es die gesamte Haustechnik. Das BMVBS hob das »Effizienzhaus Plus mit Elektromobilität« im Jahr 2011 aus der Taufe, als es Bauingenieure und Architekten in einem bundesweiten Wettbewerb aufrief, ein entsprechendes Wohnhaus zu konzipieren. Ein Stuttgarter Planungsteam gewann den Wettbewerb (Platz zwei ging an die TU Dresden). Nach den Stuttgarter Plänen errichtet, dient das »Effizienzhaus Plus« nun als Schaufenster, das zeigt, was auf dem Gebiet des energieeffizienten Bauens heute möglich ist. Gleichzeitig dient es als Testlabor für die Alltagstauglichkeit des visionären Konzeptes. Vor allem jedoch dokumentiert das »Effizienzhaus Plus« das Interesse des Staates an schnellen Fortschritten auf
dem Gebiet des energieeffizienten Bauens – ein Anliegen, das aus den Klimazielen der Bundesrepublik resultiert: Je mehr und je zügiger Häuser entstehen, die sich selbst mit Energie versorgen, umso weniger Kohle, Öl und Gas muss die Energiewirtschaft verbrennen, um den Strombedarf der Haushalte zu decken – und umso schneller kommt die Energiewende voran. Aus dem gleichen Grund fordert die Europäische Union (EU), dass ab 2021 alle Wohn-Neubauten in Europa als Null-Energie-Häuser ausgeführt werden müssen – solche Häuser erzeugen im Jahresverlauf genau so viel Energie wie sie verbrauchen, so dass die Bilanz aus Produktion und Verbrauch Null ist. Die Tage des Wohnhauses, das komplett vom Netz abhängt, sind also gezählt. Die Zukunft wird spannend. Experten rechnen damit, dass sich in der Gebäudetechnik eine ähnliche Entwicklung vollziehen wird wie im Autobau: Die Gebäudeentwickler werden die Häuser immer stärker mit Hightech ausstatten (darunter zur Energieerzeugung und zur Kommunikation), und damit wird auch moderne Elek tronik eine immer größere Rolle spielen, weil Chips und Sensoren die immer komplexere Haustechnik viel schneller und zuverlässiger zu steuern vermögen als der Mensch (siehe Infokasten Seite 27). → Familie Welke / Wiechers lebte übrigens schon vor ihrem Einzug ins »Effizienzhaus Plus« sehr umweltbewusst. Klimaschutz ist ihr eine Herzenssache. Und so ist sie voller Lob für die umweltfreundliche Technik-Ausstattung des Hauses: »Bei den Haushaltsgeräten, mit denen das Effizienzhaus ausgestattet ist, wie Kühlschrank, Geschirrspüler, Waschmaschine, Trockner und Herd, handelt es sich tatsächlich um die energieeffizientesten Geräte, die am Markt erhältlich sind«, sagt Jörg Welke. »Die verbrauchen so wenig Strom, dass wir uns um unseren Energieverbrauch kaum noch Gedanken zu machen brauchen.« Einziger Wermutstropfen sei der großformatige Flachbildfernseher: Der habe – verglichen mit anderen Haushaltsgeräten – einen sehr hohen Stromverbrauch.
FAMILIE WELKE / WIECHERS Wenn Simone Wiechers (43) in der warmen Jahreszeit mit dem Elektrofahrrad zur Arbeit radelt und bei Rot an einer Kreuzung halten muss, hängt sie mit ihrem Elektromotor, sobald der Verkehr wieder anrollt, selbst junge Männer auf ihren Sporträdern mühelos ab – und muss dann manchmal über die erstaunten
Männerblicke schmunzeln. Lenz (9) hat hin und wieder Spaß daran, seine Schwester Freyja (11) zu ärgern, indem er mit seinem Smartphone auf den Steuerungscomputer des Energiemanagementsystems (EMS) zugreift und in Freyjas Zimmer genau dann die Rollläden runterlässt, wenn sie die Hausaufgaben macht. Jörg
Welke (43) ist Sprecher eines Umweltforschungsinstitutes. Aus Umweltgründen fuhr er kein Auto, bevor er mit seiner Familie ins »Effizienzhaus Plus« in Charlottenburg zog. Jetzt genießt er es, dass er täglich mit dem Elektro-Auto zur Arbeit fahren kann, ohne dabei ein schlechtes Gewissen haben zu müssen.
EFFIZIENZHAUS PLUS MIT ELEKTROMOBILITÄT
WÄRMEPRODUKTION Eine Luft-Wasser-Wärmepumpe saugt Außenluft aus der Umgebung des Hauses an, entzieht ihr die Wärme, die sie enthält, und nutzt die Energie, um das Haus (auch im Winter!) über eine Fußbodenheizung zu beheizen und das Warmwasser zu produzieren, das die Familie benötigt. Im Winter trägt die Dreifach-Thermoverglasung zur Beheizung bei: Dank einer besonderen Beschichtung lässt sie die Strahlen der Sonne ins Haus hinein, lässt aber die Wärme, die durch die Sonne im Haus entsteht, nicht wieder heraus. Die Hersteller der Thermoverglasung füllen die Räume zwischen den Glasscheiben außerdem mit
STROMERZEUGUNG Die Solarmodule auf dem Dach und der Südfassade produzieren den Strom für die Heizungs- und Lüftungsanlage, die Beleuchtung, alle Elektrogeräte und die Elektrofahrzeuge. Stromüberschüsse, die darüber hinaus entstehen, kommen in eine Hausbatterie. Voll geladen, kann sie das Haus drei Tage lang mit Strom versorgen.
Argon. Das Edelgas transportiert Wärme schlecht, und so verstärkt es die Treibhauswirkung der Verglasung. Eine Lüftungsanlage sorgt auch im Winter für Frischluft, ohne dass die Welke/Wiechers die Fenster öffnen müssen und kostbare Wärme verschwenden. Die Anlage pumpt die (verbrauchte) Innenluft aus dem Haus heraus und saugt gleichzeitig (frische) Außenluft an. Auf ihrem Weg passieren beide Luftströme einen Kreuzwärmetauscher. Dort gibt die Innenluft, ehe sie das Haus verlässt, ihre Wärme an die einströmende kalte Außenluft ab.
27 photovoltaik
wärmepumpe
öffentliches stromnetz
steuerung via mobile device
bewohner
hausbatterie
elektrofahrzeuge
WIE ENERGIEMANAGEMENTSYSTEME (EMS) KÜNFTIGE ENERGIEEFFIZIENZHÄUSER STEUERN SOLLEN Das EMS dirigiert die gesamte Haustechnik und alle Stromverbraucher. Der Steuerungscomputer des EMS errechnet, gestützt auf Wettervorhersagen aus dem Internet, permanent, wie viel Strom die hauseigenen Solarmodule in den nächsten Stunden bzw. Tagen produzieren werden und wie viel Energie das Haus benötigt. Zeichnet sich ein Stromdefizit ab, unterwirft er das Haus einem strengen Energiespar-Regime. Er schaltet dann z. B. alle Elektrogeräte ab, deren Nutzung nicht an eine bestimmte Tageszeit gebunden ist (die Waschmaschine etwa kann auch nachts laufen, wenn Strom billig ist); er unterbindet den Standby-Betrieb von Geräten
(wie Radio und Fernseher) und löscht überall das Licht, wo niemand sich aufhält. Der Steuerungsrechner steht ferner ständig mit der Netzzentrale des lokalen Energieversorgers in Verbindung, fragt dort den aktuellen Strompreis ab und bezieht Netzstrom vorzugsweise dann, wenn der Preis günstig ist (was in der Regel nachts der Fall sein dürfte, wenn die Nachfrage gering ist). Nach dem Kauf puffert er den Netzstrom in der hauseigenen Batterie und nimmt ihn in Anspruch, wenn der Strombedarf und der Strompreis wieder anziehen. Gleichzeitig verwöhnt das EMS die Bewohner mit tollen neuen Möglichkeiten der Steuerung ihrer Haustechnik.
Familie Welke / Wiechers kann den EMS-Steuerungsrechner des Effizienzhauses in Berlin-Charlottenburg über ein berührungsempfindliches Display programmieren. Sie kann z. B. die Temperatur der Heizung zu einer bestimmten Tageszeit im Voraus festlegen. Per Mobilfunk-Verbindung und Smartphone kann sie auf die gesamte Haustechnik auch aus der Ferne zugreifen. Fährt sie beispielsweise in die Ferien und vergisst die Tür abzuschließen, kann sie den Steuerungsrechner ihres EMS per Smartphone verständigen. Der Rechner überprüft dann die Tür, verriegelt sie und schickt der Familie eine SMS: »Tür abgeschlossen, schöne Ferien.«
HALBLEITER
SILIZIUM & CO. Wusstest du schon, dass Sand zu den bedeutendsten Rohstoffen unseres Elektronik-Zeitalters zählt? Er enthält nämlich in großen Mengen Silizium – das wichtigste »Baumaterial« für elektronische Schaltkreise!
BASICS
30
Fast alle Mikrochips, die in Handys und Computern stecken, bestehen aus Silizium, und die aufwändige Herstellung eines Chips beginnt tatsächlich damit, dass Chemieunternehmen aus Sand und anderen silikathaltigen Rohstoffen absolut reines Silizium gewinnen. Das schmelzen sie in Tiegeln, ziehen aus der Schmelze zylinderförmige Kristalle und zersägen die Kristalle in Scheiben. Die Chiphersteller verwandeln die Siliziumscheiben in ihren Fabriken schließlich in die Mikrochips. Im Kapitel »Herstellung integrierter Schalt kreise« erfährst du, wie das funktioniert. Auf dieser Doppel seite beantworten wir die Frage, warum sich Silizium so gut für integrierte Schaltkreise eignet. Silizium ist ein Halbleiter. Es gehört damit zur großen G ruppe der chemischen Elemente und Verbindungen, die zwischen den elektrischen Leitern und den Nichtleitern stehen. Leiter transportieren elektrischen Strom sehr gut, Nichtleiter hingegen gar nicht. Die Leitfähigkeit von Halbleitern wächst mit ihrer Temperatur. Stark abgekühlt, verhalten sie sich wie Nichtleiter, stark erhitzt dagegen wie gute Leiter. Silizium bildet bei normalen Temperaturen, wie sie auf der Erdoberfläche herrschen, Kristalle, die exakt die gleiche Struktur wie Diamanten besitzen. Innerhalb dieser K ristalle verbindet sich jedes Siliziumatom mit vier weiteren, was daran liegt, dass Silizium vier Außenelektronen besitzt. Durch die Beimischung fremder Atome – ein Vorgang, der in der Fachsprache Dotierung heißt – können die Chiphersteller die elektrischen Eigenschaften des Siliziums zielgerichtet beeinflussen. Pflanzen sie Fremdatome in das Kristallgitter ein, die mehr Außenelektronen als Silizium besitzen, zum Beispiel Phosphor, so erzeugen sie damit im Kristall eine Zone, die einen Vorrat an frei beweglichen Elektronen aufweist. Solche Kristallzonen heißen n-dotiert, weil die frei beweglichen Elektronen negativ geladen sind. Pflanzen die Chiphersteller dagegen Fremdatome ein, die weniger Außenelektronen als Silizium besitzen, zum Beispiel Bor, so schaffen sie damit im Kristallgitter eine Zone, die sich durch ein Reservoir an positiven Ladungen – so genannten Löchern – auszeichnet. Wegen der positiven Ladung der Löcher heißen diese Zonen p-dotiert.
Die elektronischen Bauelemente eines integrierten Schaltkreises entstehen aus der Kombination solcher n- und p-dotierten Kristallzonen auf engstem Raum. Die Chiphersteller erzeugen zum Beispiel eine Diode, indem sie im Siliziumkristall direkt nebeneinander eine winzige n- und eine winzige p-dotierte Zone erzeugen. Transistoren – die wichtigsten Bauelemente integrierter Schaltungen – sind etwas komplizierter aufgebaut, bestehen aber ebenfalls aus winzigen n- und p-dotierten Kristallzonen in einer ganz bestimmten Anordnung. Aus der elektrischen Wechselwirkung dieser Kristallzonen ergibt sich die Funktionsweise der elektronischen Bauelemente. Durch mikroskopisch dünne Leiterbahnen miteinander verbunden, bilden die Bauelemente schließlich einen kompletten Schaltkreis. Integrierte Schaltkreise heißen so, weil die Chiphersteller alle elektronischen Bauelemente des Schaltkreises in einem Stück Silizium erzeugen – die Bauelemente sind in das Silizium eingebunden (integriert). Heute sind 99 Prozent aller elektronischen Schaltkreise integrierte Schaltkreise. Bis zur Erfindung des Mikrochips im Jahr 1958 waren elektronische Schaltkreise noch auf Leiterplatten gelötet, und jedes elektronische Bauelement besaß noch ein eigenes Gehäuse! Entsprechend viel Platz benötigte die Elektronik. Neben dem Silizium gibt es noch viele weitere Halbleiter, die sich für die Herstellung integrierter Schaltkreise eignen. Sie alle lassen sich durch die Impfung (Dotierung) mit fremden Stoffen bzw. Atomen manipulieren – und einige von ihnen machen sogar noch schnellere Chips möglich als Silizium. Trotzdem hat kein anderer Halbleiter auch nur annähernd so große Bedeutung erlangt wie Silizium. Und das hat unter anderem folgenden Grund: Silizium bildet eine schützende Oxidschicht, sobald es mit Luft in Berührung kommt. Diese Schicht bewahrt den Kristall vor ungewollter Verunreinigung. Ohne diese Schicht würden Fremdatome aus der Luft unkontrolliert in das Silizium einsickern und seine elektrischen Eigenschaften negativ beeinflussen. Die meisten anderen Halbleiter bilden keine schützende Oxidschicht. Sie sind deshalb nur schwer kontrollierbar, was die Herstellung integrierter Schaltkreise aus ihnen verteuert. →
SILIZIUMATOM
ordnungszahl
Atome bestehen aus einem Kern und einer Hülle. Die Elektronen umkreisen den Atomkern auf verschiedenen Umlaufbahnen (Orbitalen) – die energiereichsten Elektronen besetzen dabei das äußerste Orbital und heißen Valenzelektronen.
name
valenzelektron
mke
2/8/4
elektronenkonfiguration
SILIZIUM
Silizium (chemisches Symbol Si) steht im Periodensystem der Elemente in der 14. Hauptgruppe.
symbol
atommasse
at o
14
Silicium 28,086
31
rn
14+
elektron
ROSENQUARZ
Steine, die beinahe vollständig aus Silizium bestehen, wie der Rosenquarz und der Bergkristall, verdanken ihre Transparenz (Durchsichtigkeit) und schöne Gestalt der regelmäßigen Struktur des Siliziumkristalls. Durch die tunnelartigen Zwischenräume im Atomgitter des Siliziums kann das Licht ungehindert den gesamten Kristall durchdringen.
ELEMENTARZELLE EINES SILIZIUM KRISTALLS
Atome schließen sich mit anderen Atomen zusammen, indem sie mit Hilfe ihrer Valenzelektronen gemeinsame Elektronenpaare bilden. Beide Elektronen des Paares umkreisen dann beide Atome – und ketten sie so gewissermaßen aneinander. Die Anzahl der Atome, mit denen sich ein Atom verbinden kann, entspricht exakt der Anzahl seiner Valenzelektronen. Weil Silizium vier Valenzelektronen besitzt, kann es sich – wie links zu sehen – mit vier weiteren Atomen verbinden.
AUFBAU EINES SILIZIUMKRISTALLS
WAFERFERTIGUNG
VOM SAND ZUR SILIZIUMSCHEIBE So entsteht ein Wafer
BASICS
34
Ein Drittel der Erdrinde besteht aus Silizium. Der Rohstoff, aus dem integrierte Schaltkreise sind, ist nach dem Sauerstoff das zweithäufigste Element auf unserem Planeten – doch die schiere Menge seines Vorkommens sagt noch nichts über den Aufwand, den wir für seine Gewinnung und Aufbereitung betreiben müssen. Die Chipindustrie braucht für die Herstellung integrierter Schaltkreise perfekte Siliziumkristalle – Kristalle von absoluter Reinheit, weil jedes ungewollte Fremdatom die Leitfähigkeit des Siliziums ungünstig beeinflussen würde; Kristalle von makelloser Regelmäßigkeit, weil sich die Fremdatome, die die Chiphersteller in das Silizium einbauen, nur in einem regelmäßigen Gitter auch gleichmäßig verteilen. In der Natur kommt Silizium in dieser perfekten Form nicht vor. Es verbindet sich dort mit Sauerstoff zu Oxiden und paart sich mit Mineralien zu Silikaten. Sand und Steine, Strände und Meeresböden, Wüsten und Gebirge bestehen hauptsächlich aus solchen Silikaten. Der Prozess, mit dem die Industrie das Silizium der Natur entreißt, ist so aufwändig, dass wir ihn hier nur skizzieren
können. Die Chiphersteller erhalten das Silizium in Scheibenform. Die deutsche Siltronic AG betreibt im bayerischen Burghausen und im sächsischen Freiberg moderne Werke für die Herstellung solcher Silizium-Kristallscheiben, die in der Fachsprache Wafer heißen (sprich: Wejfer). Wegen der Art und Weise ihrer Herstellung sind die Siliziumscheiben kreisrund. Sie sind nur 0,9 Millimeter »dick«, um das kostbare Material nicht zu verschwenden – und: die Chipindustrie wünscht sich Wafer mit einer größtmöglichen Fläche, damit möglichst viele Schaltkreise auf eine Scheibe passen, denn das steigert die Produktivität. Die Waferhersteller haben das Scheibenformat deshalb immer wieder vergrößert. Heute messen die größten industriell hergestellten Wafer für die Mikroelektronik 300 Millimeter im Durchmesser. Die nächste Wafergeneration mit 450 Millimetern Durchmesser befindet sich in Planung; Muster gibt es bereits. Doch mit der Größe der Scheiben wachsen auch die Schwierigkeiten, perfekte Kristalle zu züchten. Es werden deshalb wohl noch einige Jahre vergehen, ehe die Hersteller das neue Waferformat wirklich in größerer Stückzahl zu produzieren vermögen.
V OM ROHSILIZIUM ZUM REINSTSILIZIUM Die Rohstoffindustrie liefert Rohsilizium mit einer Reinheit von 98 Prozent an so genannte Reinstsiliziumwerke. Der deutsche Chemieriese Wacker beispielsweise betreibt ein solches Werk in Nünchritz bei Riesa. Die Mitarbeiter der Werke unterwerfen das Rohsilizium folgender Behandlung:
Reinigung: Das gemahlene Rohsilizium reagiert in Wirbelschichtreaktoren bei 350 Grad Celsius mit Reinstchlorwasserstoff zu Trichlorsilan – einem Gas. Nach mehreren Reinigungsschritten in Destillationsanlagen erreicht das Trichlosilan beinahe absolute Reinheit: Auf eine Trillion Trichlosilan-
Moleküle kommt jetzt nur noch ein Fremdatom! An elektrisch aufgeheizten Siliziumstäben scheidet sich in einem Reaktor bei 1.100 Grad Celsius aus dem gereinigten Trichlorsilan höchst reines, elementares Silizium ab.
VOM REINSTSILIZIUM ZUM WAFER In Freiberg verwandelt die Siltronic AG Reinstsilizium in Wafer für die Chipindustrie. Wie das geschieht, erfährst du hier. Einkristall-Ziehen A: Das Silizium besteht jetzt noch aus zahllosen Kristallfragmenten mit ungeordneter Gitterstruktur – Fachleute nennen es in diesem Zustand Polysilizium. Zu Brocken zermahlen, schmelzen die Waferhersteller das »Poly« in einem Quarztiegel auf. Dann tauchen sie einen Impfkristall in die Schmelze – das ist ein kleiner Siliziumstab mit perfekter Kristallstruktur – und ziehen diesen Impfkristall sehr langsam, mit einer permanenten Drehung um seine Längsachse wieder aus der Schmelze heraus. Das geschmolzene Silizium lagert sich am Impfkristall an und erstarrt. Der KristallziehProzess dauert ca. zwei Tage. Danach hat sich alles Silizium aus dem Schmelztopf in einen großen zylinderförmigen Kristall mit einer absolut regelmäßigen Gitterstruktur verwandelt – ein Kristall aus einem Stück, der deshalb Einkristall heißt (Fachbegriff: Ingot). Er ist zwei Meter lang und 250 Kilo schwer. Vom Einkristall zum Wafer: Eine Diamantlochsäge B zerteilt den Einkristall in handliche Stücke.
Schleifautomaten C versehen die Kristallstücke mit einer Rille – dem so genannten Notch – oder flachen sie auf einer Seite ab; die abgeflachte Seite heißt dann Flat. Notch und Flat dienen in den Chipfabriken als Justierungshilfen, um die Wafer entlang einer bestimmten Kristallorientierung auszurichten. Eine Drahtsäge D teilt die Kristallstücke in die Wafer. Die Drähte, die das Silizium zersägen, sind 0,18 mm dünn und bewegen sich mit zehn Metern pro Sekunde über die rotierenden Führungsrollen. Ein weiterer Schleifautomat rundet die Kanten der Siliziumscheiben ab, damit sie nicht ausbrechen. Laserbeschrifter versehen die Wafer mit Barcodes, damit die Chiphersteller später ihren Weg durch die Chipfertigung verfolgen können. Läpp-Maschinen E behandeln die Oberfläche der Siliziumscheiben mit flüssigen Schleifmitteln. Auf Trägerscheiben befestigt, bewegen sich die Wafer auf einer Kreisbahn im Becken der Läpp-Maschine; die Läpp-Flüssigkeit glättet die Wafer mit winzigen Schleifkörnchen aus
Aluminiumoxid bzw. Siliziumkarbid. Danach geben Poliermaschinen den Wafern ihren »letzten Schliff«. Rotierende, mit Poliertüchern bespannte Scheiben bearbeiten gleichzeitig Vorder- und Rückseite der Wafer. Ihre Oberfläche ist danach blanker und glatter als die jedes Spiegels. Zum Vergleich: Wollte man einer Fläche von der Größe Münchens die gleiche Ebenheit geben, wie sie auf Wafern herrscht, dürften die Höhenunterschiede dort maximal eine Bordsteigkante betragen. Diese absolute Ebenheit ist wichtig, weil die Chiphersteller die Strukturen der Schaltkreise im Chipfertigungsprozess mit ultraviolettem Licht auf die Wafer projizieren – ein Verfahren, das Fotolithografie heißt; und jede Unebenheit würde den Versuch vereiteln, die Schaltkreisstrukturen scharf auf dem Silizium abzubilden.Im Prozess ihrer Herstellung durchlaufen die Wafer immer wieder Reinigungsbäder F in ätzenden Flüssigkeiten und hochreinem Wasser. In schützenden Boxen treten die Scheiben schließlich die Reise in die Chipfabriken an.
WAFERHERSTELLUNG B
DIE DIAMANT-LOCHSÄGE zersägt den Einkristall in »handliche« Stücke.
e (ininkri go sta t) ll
impfkristall
notch-schleifmaschine
A
35
EINKRISTALL-ZIEHEN
Die Waferhersteller schmelzen das Reinstsilizium in einem Quarztiegel auf, tauchen einen Impfkristall in die flüssige Siliziumschmelze und ziehen ihn sehr langsam, mit einer permanenten D rehung um seine Längsachse wieder aus der Schmelze heraus. Das geschmolzene Silizum lagert sich am Impfkristall an und erstarrt. So entsteht ein riesiger, zylinderförmiger Siliziumkristall mit einem absolut regelmäßigen Kristall gitter – ein sogenannter Einkristall.
einkristall (ingot)
notch
C
DER NOTCH SCHLEIFAUTOMAT versieht die Einkristall-Stücke mit einer Rille – dem »Notch«. Die Rille dient in den Chipfabriken als Justierungshilfe.
D
quarztiegel
silizium-schmelze
DIE DRAHTSÄGE
teilt die Einkristall-Stücke in die Siliziumscheiben – die Wafer. Die Sägedrähte fressen sich von unten in das Einkristall-Stück.
einkristall (ingot)
sägedrähte
drahtführungsrolle
E
LÄPP-MASCHINE
Läpp- und Poliermaschinen geben den Wafern den letzten Schliff. Sie sind danach ebener und glatter als jeder Spiegel.
F läpp-flüssigkeit wafer
REINIGUNGSBAD Atzende Flüssigkeiten entfernen Partikel von den Siliziumscheiben.
DIGITALE LOGIK
SO RECHNEN COMPUTER Transistoren digitaler Mikrochips reagieren auf lediglich zwei Signale – auf eine hohe (ca. 3 Volt) und eine niedrige Eingangsspannung (nahe 0 Volt) – und sie kennen nur zwei Zustände: Offen oder Geschlossen. Das binäre Zahlensystem basiert seinerseits auf lediglich zwei Ziffern: auf der Null und der Eins. Wir drücken mit diesem System Zahlen aus, indem wir Nullen und Einsen in verschiedenen Kombinationen aneinanderreihen (s. Tabelle).
BASICS
38
Das binäre System eröffnet uns die Möglichkeit, eine ge1 1 meinsame »Sprache« mit den 2 10 Transistoren zu finden, indem 3 11 wir sagen, dass eine niedrige 4 100 Spannung (low) – egal ob sie 5 101 am Eingang oder Ausgang der 6 110 7 111 Transistorschaltung anliegt – 8 1000 gleichbedeutend mit einer 9 1001 Null im binären System ist, 10 1010 während eine hohe Spannung eine Eins repräsentiert. Auf der Basis dieser Festlegung können wir nun den Schaltkreis mit einer Zehn »füttern«, indem wir zweimal im Wechsel eine hohe und eine n iedrige Spannung an seinen Input anlegen – denn im binären System steht die Ziffernfolge Eins-Null-Eins-Null für die Zahl Zehn. A Wir können einer Transistorschaltung aber auch Worte, Farben und Töne mitteilen, indem wir das Zeichenarsenal des binären Systems – sprich: Ziffernfolgen aus Nullen und Einsen – für die Verschlüsselung von Worten, Farben und Tönen nutzen. Auf die gleiche Weise können wir schließlich auch Instruktionen (Befehle) in Gestalt binärer Codes (= Ziffernfolgen) in einer Transistorschaltung speichern und dort wieder abrufen – das ist dann ein Computerprogramm. DEZIMAL 0
BINÄR 0
Die Möglichkeit, eine digitale Schaltung – also auch Mikrochips – mit Daten zu füttern, beantwortet indessen noch nicht die Frage, wie wir sie dazu bringen, damit etwas
Sinnvolles anzufangen? Das Geheimnis liegt in der richtigen Verschaltung der Transistoren. Und die einfachsten Schaltungsvarianten, auf denen alle komplexen Schaltungen aufbauen, heißen Logikgatter. Das einfachste Logikgatter ist das Nicht-Gatter – auch Inverter genannt. B Es besteht lediglich aus einem nMOS- und einem pMOS-Transistor. Nichtgatter wandeln eine hohe Spannung am Schaltungs-Eingang in eine niedrige Spannung am Ausgang. Liegt dagegen am Eingang eine niedrige Spannung an, wird daraus eine hohe Spannung am Ausgang. D. h.: Inverter verwandeln das Eingangssignal in sein Gegenteil – aus Null wird Eins, aus Eins wird Null. Wir könnten mit einer derart simplen Schaltung bereits eine Fußgängerampel steuern. Angenommen, eine hohe Spannung steht für Grün und eine niedrige für Rot. Schaltet die Ampel für die Autos auf Grün, so erzeugt ihr Signalgeber am Eingang des Nicht-Gatters der Fußgängerampel eine hohe Spannung. Das Gatter wandelt die hohe in eine niedrige Spannung – und stellt damit die Fußgängerampel auf Rot. Kurzum: Mit Hilfe der Gatter übertragen wir die Regeln der Logik in die Welt der Elektronen. Oder anders ausgedrückt: Mit der richtigen »Verdrahtung« der Transistoren stellen wir logische Beziehungen zwischen den Eingangs- und den Ausgangssignalen einer Schaltung her – und verleihen ihr damit die Fähigkeit, logische Operationen auszuführen. Weitere Gatterarten neben dem Nicht-Gatter sind das Oder-, Und-; NOR-, NAND- sowie das XOR-Gatter. Mit ihrer Hilfe können Mikrochips logische Operationen von unvorstellbarer Komplexität ausführen. Mikroprozessoren C sind die Universalgenies unter den Mikrochips. Von Software gesteuert, können sie die verschiedensten Aufgaben wahrnehmen – zum Beispiel Computer steuern.
SO RECHNEN COMPUTER
A
B
DIE WICHTIGSTEN TEILE EINES COMPUTERS 6
12 7
5
39 9
8 3
10
C 1 2 11 4
S O KOOPERIEREN DIE TEILE DES COMPUTERS MIT DEM MIKROPROZESSOR
Der Mikroprozessor 1 ist die »Denkzentrale« des Computers. Mit einem Rechen- und einem Steuerwerk, einer Ein-Ausgabeeinheit und einem SpeicherController ausgerüstet, kann er Softwareprogramme aller Art ausführen, kann Texte, Grafiken, Videos und Sound bearbeiten oder schwierige Mathematikaufgaben lösen. Alle übrigen Teile des Computers stellen »lediglich« die Verbindung zwischen dem Prozessor und dem PC-Benutzer her. Der Kühlkörper 2 leitet die Wärme ab, die der Prozessor mit seiner Rechenarbeit erzeugt. Die Hauptplatine (Mainboard) 3 verbindet alle Teile des Computers. Über einen Steckplatz – den so genannten Sockel 4 - findet der Prozessor Anschluss an die Hauptplatine. Die Festplatte 5 ist das »Langzeitgedächtnis« des Computers. Sie bewahrt alle Daten auf, die wir dem Rechner jemals anvertrauen. Sie »vergisst« diese Daten selbst dann nicht, wenn wir den Computer abschalten. Software pro gramme 6 sind die Arbeitsanleitungen für den Mikroprozessor. Sie sagen ihm, welche mathematischen und/oder logischen Operationen er ausführen muss, um eine konkrete Aufgabe zu lösen. CDs und DVDs sind die am weitesten v erbreiteten
Software-Speichermedien. Das DVD-Laufwerk 7 liest CDs und DVDs mit einem Laserstrahl aus und übergibt die Daten dem Computer. Der Computerbenutzer lädt alle Programme und Befehle, die der Prozessor gerade ausführen soll, sowie alle Daten, die er nach den Anweisungen der Software manipulieren soll, mit Hilfe des Betriebssystems in den Arbeitsspeicher 8. Der Arbeitsspeicher ist das »Kurzzeitgedächtnis« des Computers. Er kann Daten und Instruktionen sehr viel schneller mit dem Prozessor austauschen als die Festplatte, was die Rechenzeit entscheidend verkürzt. Die Grafikkarte 9 ist für die Verarbeitung von Bilddaten zuständig. Sie besitzt dafür einen eigenen hochspezialisierten Grafik-Prozessor. Daneben gibt es noch andere Platinen für Spezialaufgaben – etwa die Soundkarte für die Bearbeitung von Klängen. Über spezielle Steckverbindungen finden diese Karten Anschluss an die Hauptplatine. Mit Hilfe der Tastatur 10 und der Maus 11 teilen wir dem Computer unsere Ideen und Anweisungen mit. Displays 12 zeigen uns die Ergebnisse der Rechenarbeit des Prozessors.
Kein technisches Produkt ist kleiner als integrierte Schaltkreise – und aufwändiger. In diesem Kapitel reisen wir mit dir durch den Fertigungsprozess eines integrierten Schaltkreises.
FERTIGUNG
41
SO ENTSTEHT EIN MIKROCHIP
NANOKOSMOS WIE VIEL METER SIND 90 NANOMETER?
42
WAS IST EIN REINRAUM? REIN, REINER, AM REINSTEN
44
CHIPHERSTELLUNG IM ÜBERBLICK CHIPBURGER: SCHICHT FÜR SCHICHT ZUM MIKROCHIP
46
FOTOLITHOGRAFIE NICHT OHNE SCHABLONE UV-LICHT: DER SCHLÜSSEL ZUM NANOKOSMOS
48 50
IONEN-IMPLANTATION SILIZIUM UNTER TEILCHENBESCHUSS
53
DIFFUSION 1.000° CELSIUS IN 12 SEKUNDEN!
56
CHEMISCHE SCHICHTERZEUGUNG CHEMIE IN DER CHIPFERTIGUNG
58
ÄTZEN DAS PRÄZISESTE »MESSER« DER WELT
60
LEITBAHN-HERSTELLUNG DIE ZÄHMUNG DES KUPFERS
62
PORTRÄT DR. GUNTRADE ROLL FORSCHEN FÜR DIE ÜBERNÄCHSTE CHIPGENERATION 66 PORTRÄT DR. HENRY WOJCIK VOM VERSUCH, DER NATUR IN DIE KARTEN ZU SCHAUEN 67 PHYSIKALISCHE SCHICHTABSCHEIDUNG ATOMARES SANDSTRAHLEN
68
KONTAKTKÜGELCHEN & TEST MEHRERE 1.000 KONTAKTE
70
NANOKOSMOS
WIE VIEL METER SIND 90 NANOMETER ? Bei Infineon Technologies in Dresden trafen wir Hagen Rötz. Er erklärte uns, wie aus einer Siliziumscheibe ein integrierter Schaltkreis entsteht (der englische Name lautet Integrated Circuit – IC).
Wie klein sind 90 Nanometer? Erste Station der Tour ist Hagens Labor. Dort zeigt er mir die Aufnahme eines Chips, den er gerade mit einem Transmissionselektronenmikroskop (TEM) begutachtet. Auf dem Bild sind dunkelgraue Kugeln zu erkennen, die sich zu einem regelmäßigen Muster fügen. Die Kugeln haben keine scharfen Umrisse – sie gleichen eher Schattengebilden. »Das sind Siliziumatome«, sagt Hagen. ›Wow!‹, denke ich. Als physikinteressierter Mensch habe ich gelegentlich versucht, mir Atome vorzustellen. Dass es Mikroskope gibt, die Atome sichtbar machen können, ist mir neu! Doch ich staune noch mehr, als Hagen mir die Bilder erklärt. »Die Aufnahme zeigt das Gate eines Transistors«, sagt er. »Wenn du von oben auf einen integrierten Schaltkreis blickst, sind die Transistorgates immer die schmalsten Teile des gesamten Chips. Wir produzieren hier in Dresden
90 Nanometer breite Gates. 90 Nanometer entsprechen einer Reihe aus 120 Atomen in einem Siliziumkristall. Deshalb brauchen wir hier Mikroskope mit atomarer Auflösung. Wir könnten die Gates unserer Transistoren sonst gar nicht in Augenschein nehmen.« »Kannst du dir vorstellen, wie klein 90 Nanometer sind?«, fragt Hagen. Ich schüttle den Kopf. »Ich kann es auch nicht«, sagt Hagen. »Unsere Ingenieure versuchen es gelegentlich mit Vergleichen. Sie sagen zum Beispiel: 90 Nanometer entsprechen dem 1.000tel Durchmesser eines Menschenhaares. Das ist zwar richtig, hilft aber der Vorstellung nicht wirklich auf die Sprünge. 90 Nanometer liegen einfach außerhalb menschlicher Vorstellungskraft.« »Wenn wir über integrierte Schaltkreise sprechen, gibt es aber noch viele andere, kaum fassbare Zahlen«, sagt Hagen. »Wir stellen in Dresden zum Beispiel Mikroprozessoren her, die Motoren steuern. Obwohl sie so klein sind wie ein Fingernagel, enthalten sie 300 Millionen Transistoren! Kannst du dir so viele Transistoren vorstellen?« »Nein«, gebe ich zu. »Ich auch nicht«, pflichtet Hagen mir abermals bei, »aber sie befinden sich tatsächlich auf dem Chip. Es ist eine große ingenieurtechnische Herausforderung, ein solches Produkt industriell herzustellen – das heißt: viele tausend Mal, kostengünstig und absolut zuverlässig. Das gelingt nur mit den neusten Verfahren der Nanotechnologie. Die benutzen wir hier – und eben das macht Chip-Herstellung so spannend.« →
0-
mm 020
mm
-f ab
ri
k
-f ab
ri
k
INFINEONS CHIPFABRIKEN
30
FERTIGUNG
42
Infineon Technologies betreibt in der sächsischen Landeshauptstadt gleich zwei Chipfabriken. Als ich die Firma besuche, wartet am Eingang ein junger Mann auf mich: Hagen Rötz gehört zu den Infineon-Mitarbeitern, die sich in der Chipfertigung um die Qualitätssicherung kümmern. Dafür betrachtet er Chips, die frisch aus der Produktion kommen, unter dem Mikroskop – vermisst ihre Strukturen und gibt die Messergebnisse an die Fertigungsabteilungen zurück. Hagen wird mir heute Infineon zeigen und auf einer Tour durch die Chipfabrik erklären, wie ein integrierter Schaltkreis entsteht.
Das Foto zeigt die Infineon-Chipfabriken in Dresden: Die 200-Millimeter-Fabrik umfasst zwei Fertigungsmodule – im Bild die beiden großen Hallen mit gewölbten Dächern. Das Unternehmen stellt dort auf 200 Millimeter großen Silizumscheiben (daher der Name »200-Millimeter-Fabrik«) ein breites Sortiment an Logikchips her. In der 300-Millimeter-Fabrik produziert Infineon auf 300 Millimeter großen Siliziumscheiben Spezialchips, die hohe Ströme vertragen – darunter Schaltkreise, die Wechsel- in Gleichstrom wandeln (so genannte Gleichrichter). Sie kommen zum Beispiel in Windkraftanlagen zum Einsatz.
Hagen Rötz (31), INFINEON TECHNOLOGIES, DRESDEN Hagen Rötz leitet eine Gruppe von Ingenieuren und Facharbeitern, die sich bei Infineon um die Qualitätssicherung kümmern.
Reporter Ingolf Seifert besuchte für den NANOSCOUT die Infineon-Chipfabriken in Dresden.
TRANSMISSIONSELEKTRONENMIKROSKOP
Transmissionselektronenmikroskope (TEM) erzeugen Bilder, indem sie die Probe mit einem Elektronenstrahl »abrastern«. Der Elektronenstrahl streicht dabei zeilenweise über die Probe. Von den Elektronen angeregt (getroffen), antworten die Atome u.a. damit, dass sie selbst Elektronen aussenden. Das Mikroskop sammelt diese Elektronen ein, wertet sie aus und generiert daraus das Bild. Da Elektronenstrahlen viel kleiner sind als Lichtwellen, erreichen Elektronenmikroskope eine viel höhere Auflösung als optische Mikroskope.
43 infineon prozessor tricore 50 × 50 mm
300 Millionen Transistoren TEM-Aufnahme eines Gate-Ausschnitts
ein transistor gate
ein silizium-atom
90 nm 1 Gate-Breite
WAS IST EIN REINRAUM?
REIN, REINER, AM REINSTEN Chipfabriken sind Orte, wo unvorstellbar kleine Strukturen entstehen. Deshalb haben sie eine außergewöhnliche, extrem aufwändige technische Ausstattung.
FERTIGUNG
44
Nach dem Besuch im Labor machen wir uns auf den Weg in die Fertigungsräume. Unterwegs erklärt mir Hagen, dass in allen Chipfabriken extreme Sauberkeit herrscht: »Weil die Strukturen unserer Schaltkreise so klein sind, brauchen wir rund um die Siliziumscheiben eine extrem saubere Umgebung. Denn: Jeder Partikel, der im Produktionsprozess auf einen halbfertigen Chip gerät, zerstört ihn. Wir stellen die Schaltkreise deshalb in Reinräumen her. Der englische Fachbegriff dafür ist clean room.« Reinräume sind – wie es der Name sagt – sehr sauber. »Unsere Reinräume entsprechen Reinraumklasse 1 – das ist die Klasse mit den höchsten Anforderungen«, sagt Hagen. »Ein Kubikmeter Luft darf dort maximal zehn Partikel mit einer Größe von 0,1 Mikrometer und weitere zwei Partikel mit einer Größe von 0,2 Mikrometern enthalten. Zum Vergleich: Operationssäle in Krankenhäusern enthalten – je nach Anforderung – 100 bis 1.200 Partikel. Am Nordpol, wo die Luft von Natur aus sehr sauber ist, befinden sich in einem Kubikmeter Luft mehrere 1.000 Partikel. Und in einem Kubikmeter Stadtluft sind Millionen Partikel normal!«
REINRAUM-SZENE INFINEON 200-MM-CHIPFABRIK
Inzwischen haben wir die »Gowning area« erreicht. Das sind Umkleideräume, in denen die Mitarbeiter ihre Alltagsbekleidung gegen spezielle Reinraumanzüge tauschen. Unter Hagens Anleitung lege ich einen Reinraumanzug an – und das ist gar nicht so leicht.
Der Reinraumanzug Ich streife ein T-Shirt über und steige in eine Jogging- Hose – beide Kleidungsstücke fühlen sich wie Baumwolle an, sind aber aus fusselarmer Synthetikfaser. Danach ziehe ich eine Haube über den Kopf, die nur das Gesicht frei lässt, und binde einen Mundschutz um – er fängt die Partikel meiner Atemluft auf. Als nächstes zwänge ich mich in einen hochgeschlossenen Overall. Kopfhaube, Mundschutz und Overall bestehen aus nichtfusselndem Polyester, in das Karbonfäden eingewirkt sind. Die Fäden verhindern, dass die Kleidung sich elektrostatisch auflädt und damit Partikel anzieht. Meine Reinraum-Schuhe sind aus abriebfestem Kunstleder und Gummi. Zuletzt ziehe ich zwei Paar Handschuhe an: ein Paar aus leichter, fusselarmer Kunstfaser, darüber ein Paar aus abriebfestem Gummi.
Hagen erklärt mir, warum kein Infineon-Mitarbeiter die Fertigungsräume ohne Reinraumbekleidung betreten darf: »Wenn wir nach Dingen greifen, lösen sich mikroskopisch kleine Hautpartikel von unseren Händen und bleiben auf den Gegenständen haften. Außerdem verlieren wir ständig Haare und Schuppen. Und beim Sprechen stoßen wir Abertausende Tröpfchen mit unserer Atemluft aus, die sich meterweit in der Luft verbreiten. Die Reinraumbekleidung umschließt den ganzen Körper und fängt damit fast alle Partikel auf.« Frauen dürfen im Reinraum übrigens keine Schminke tragen. Lippenstift und Wimperntusche können austrocknen und bröckeln dann. Als ich endlich in meiner Reinraumkleidung stecke, schnappe ich mir meinen Schreibblock und einen Kugelschreiber, damit ich mir im Reinraum Notizen machen kann. Doch Hagen schreitet freundlich, aber bestimmt ein: »Auch alle persönlichen Dinge sind im Reinraum tabu. Willst du Notizen machen, findest du am Reinraumeingang spezielle Schreibblöcke aus fusselfreiem Papier und Kulis mit Tinte, die keine Partikel freisetzt.«
Im Reinraum Dann machen wir uns auf den Weg. Ein langer Korridor verbindet die Gowning Area mit dem Reinraum. Auf halber Strecke passieren wir eine Schleuse, in der uns kühle Luft entgegenweht. Der Luftstrom bläst Partikel von unserer Kleidung. Klebriger Bodenbelag pflückt Partikel von unseren Schuhsohlen ab. Schließlich stehen wir im »Allerheiligsten« der Fabrik – dem »clean room«. Ich bin schwer beeindruckt: Auf einer Fläche, die etwa doppelt so groß ist wie ein Fußballfeld, stehen in langen Reihen blitzende Maschinen. Gelbes Licht scheint von der Decke und spiegelt sich in den blanken Edelstahlgehäusen der Automaten. Während einige wie große Schränke aussehen, haben andere eine futuristische, spinnenhafte Gestalt: Um ein wabenförmiges Zentrum, das einem Tisch ähnelt, gruppieren sich hochaufragende Behälter. An den Behältern hängen Schläuche und Kabel, die aus dem Boden des Reinraumes kommen. Bunte Lämpchen blinken nervös an elektronischen Steuerungsaggregaten. »Das sind Sputteranlagen« (sprich: Spatteranlagen), sagt Hagen, als wir an den spinnenähnlichen Automaten vorübergehen. →
REINRAUMANZUG Wer sich zum ersten Mal in einen Reinraumanzug begibt, braucht dafür leicht eine Viertelstunde, während geübte Operator – das sind die Facharbeiter, die im Reinraum die Maschinen überwachen – dafür nicht mehr als drei bis fünf Minuten benötigen. Denn beim Anlegen der Reinraumbekleidung sind »Kleinigkeiten« wichtig: Der Brustlatz der Kopfhaube etwa muss unter dem Overall verschwinden, Haare dürfen unter der Haube nicht hervorschauen. Die Gumminhandschuhe B müssen, nachdem sie über ein Paar Stoffhandschuhe A gezogen worden sind, noch über den Ärmelsaum des Overalls gezogen und dann einmal umgeschlagen werden. (mit freundlicher Genehmigung von NaMLab gGmbH, Dresden)
HAUBE
MUNDSCHUTZ
OVERALL
HANDSCHUHE
B
A
SCHUHE
45
FOTOLITHOGRAFIE Der restliche Teil der Schablonen-Herstellung ist reine Chemie. Die Lackschicht ist lichtempfindlich. Das heißt: Überall da, wo sie mit Licht in Berührung kommt, verändert sie ihre chemische Struktur und wird so für ätzende Lösungen angreifbar. 4 Wir behandeln den Lack jetzt mit einer Entwicklerlösung, wie sie in ähnlicher Weise auch in Fotolaboren zum Einsatz kommt. 5 Danach können wir die belichteten Lackpartien mit einer ätzenden Flüssigkeit entfernen.
FERTIGUNG
52
Damit haben wir die Schablone vollendet. Die Siliziumscheibe ist nun optimal für die Herstellung der n-Wannen
präpariert. 6 Wenn wir den Wafer jetzt mit Fremdatomen beschießen, können die Atome nur dort ins Silizium eindringen, wo die n-Wannen entstehen sollen. Damit weißt du, wie das Layout der Schaltung deines Smartphone-Prozessors (mit ihren vielen Millionen Transistoren – und n-Wannen) auf das Silizium kommt. Weil Mikrochips aus vielen Schichten bestehen, die wie Stock werke eines Hauses übereinanderliegen, müssen die Chiphersteller die Fotolithografie viele Male wiederholen. Denn eine einzelne Maske enthält immer nur das Layout eines einzelnen Schaltungs-Stockwerks.« →
SO KOMMT DER LACK
AUF DIE SILIZIUMSCHEIBE
Die Beschichtung des Wafers mit Fotolack geschieht in so genannten Spin Coatern (Bild rechts). Auf einem Teller befestigt, dreht sich der Wafer extrem schnell um die eigene Achse – etwa so schnell wie eine CD in einem CD-Player. Von oben spritzt eine Düse den Fotolack auf die Siliziumscheibe. Die Fliehkräfte verteilen den Lack über die Siliziumscheibe.
f ot
ol a
ck
wafer
MINIATURISIERUNG Weil die Chiphersteller immer kleinere Transistoren herstellen möchten, verwenden sie Licht immer kürzerer Wellenlänge, um das Layout ihrer Schaltkreise auf den Wafer zu übertragen. Denn: Das Auflösungsvermögen des Lichts endet bei einer halben bis viertel Wellenlänge. Mit einer Lichtwellenlänge von 193 Nanometern (= tiefes UV-Licht) lassen sich z. B. Schaltungsteile, die kleiner als 42 Nanometer sind, nicht mehr scharf auf dem Wafer abbilden. Führende Chiphersteller ziehen deshalb im Moment den Schritt vom tiefen zum extremen UV-Licht (EUV) in Betracht. Das hat eine Wellenlänge von 13,5 Nanometern und erlaubt damit die scharfe Abbildung von Schaltungsteilen, die noch viel kleiner als 42 Nanometer sind.
Der Schritt zum EUV ist technisch aber schwierig. Licht zeigt nämlich ein entgegengesetztes Beugungs- und Reflexionsverhalten. Je kürzer seine Wellenlänge ist, umso weniger ändert es auf dem Weg durch eine Linse seine Richtung. Dafür wächst seine Reflexionsneigung: Trifft es auf eine Oberfläche, wird es dort umso stärker zurückgeworfen. Extremes UVLicht ist nun schon so kurzwellig, dass es sich mit Linsen aus Glas gar nicht mehr lenken lässt. Die Chipindustrie entwickelt deshalb im Moment Waferstepper, die das Licht statt mit Linsen mit Spiegeln auf den Wafer projizieren. Das Bild links zeigt so einen Stepper. Er kostet mehr als ein Düsenjet!
IONEN-IMPLANTATION
SILIZIUM UNTER TEILCHENBESCHUSS Mit Teilchenkanonen schießen die Chiphersteller Fremdatome in das Silizium – ein Vorgang, der Ionen-Implantation heißt. Sie stellen so u. a. Source und Drain der Transistoren her.
53
Die Ionen-Implantation ist das Verfahren, mit dem die C hiphersteller Fremdatome in das Kristallgitter des Siliziums einpflanzen – ein Vorgang, der auch »Dotie rung« heißt. H aben die Fremdatome mehr Außenelektronen (Valenz elektronen) als Silizium, so bewirkt ihr Einbau einen Elektronenüberschuss: Die dotierte Kristallzone weist dann eine mehr oder weniger große Menge an frei beweglichen Elektronen auf. Wegen der negativen Ladung der Elektronen sprechen Fachleute in diesem Fall von der »nDotierung« des Kristalls. Haben die Fremdatome dagegen weniger Valenzelektronen als Silizium, bewirkt die Dotierung einen Elektronenmangel. Der wiederum reißt Lücken ins Bindungsgefüge des Kristalls und lässt damit Löcher entstehen. Wegen der positiven Ladung der Löcher nennen Fachleute die so dotierten Kristallzonen »p-dotiert«. Mehr dazu erfährst du auf den Seiten 32 / 33. Auf dem Weg der Ionen-Implantation entstehen Source und Drain aller Transistoren. Sie bilden die Quelle und den Abfluss des
lektrischen Ladungsstromes, der durch einen Transistor e fließt. Handelt es sich um einen nMOS-Transistor, entstehen Source und Drain durch die n-Dotierung des Siliziums. Die Source / Drain-Gebiete von pMOS-Transistoren dagegen entstehen durch die p-Dotierung des Kristalls. Die Chiphersteller dotieren das Silizium, indem sie die Fremd atome buchstäblich in den Kristall hineinschießen. Dafür benutzen sie gewaltige Teilchenkanonen – so genannte Implanter. Als wir Infineon Technologies in Dresden besuchen, erklärt uns Hagen Rötz am Beispiel der n-Wannen-Herstellung, wie die Ionen-Implantation funktioniert. »Dieser Verfahrensschritt heißt so, weil wir die Fremdatome zunächst in Ionen verwandeln. Das sind positiv geladene Atome und Atomverbindungen. Die positive Ladung entsteht, wenn die Atome Elektronen verlieren – sie haben dann mehr positiv geladene Protonen im Atomkern als negativ geladene Elektronen in der Hülle. Damit ist auch der Weg vorgezeichnet, wie wir die Fremdatome in Ionen verwandeln: Indem wir ihnen Elektronen rauben. Positiv geladen, lassen sie sich dann mit elektrischen und magnetischen Feldern zu einem Ionen-Strahl bündeln. Den Strahl richten wir auf die Siliziumscheibe aus und schießen die Ionen mit hoher Energie in die Siliziumscheibe hinein. So gelangen die Fremdatome in den Kristall.« Auf der nächsten Doppel seite erfährst du, wie ein Implanter funktioniert. →
IONENIMPLANTATION BEI DER TRANSISTORHERSTELLUNG ionisierte fremdatome
fotolack
Herstellung der n-Wanne des pMOSTransistors: Dotierung mit Phosphor
Herstellung von Source und Drain des pMOS-Transistors: Dotierung mit Bor
Herstellung von Source und Drain des nMOS-Transistors: Dotierung mit Phosphor
IONEN-IMPLANTATION A IONISIERUNG DER FREMDATOME
B
FORMUNG DES IONENSTRAHLS Eine negativ geladene Elektrode saugt die positiv geladenen Ionen aus der Ionenquelle, die Schlitzblende formt den Ionenstrahl.
anode 5 es entstehen wasserstoffmoleküle und -ionen
magnet
ek tronen 3 von elen, zerbricht getrofftiergas das do in (ph 3) phosph
5 es entstehen phosphor-ionen
54
2 elektronen kollidieren mit gasmolekülen und atomen
anode
4 getroffene phosphoratome verlieren elektronen
dotiergaseinlass
fl eleukgbahn tro der nen
1 die glühkathode setzt elektronen frei
FERTIGUNG
n eg elekattiv gel ad rode ene
ionen-quelle
ion
en s
tr a
hl
sc
glühkathode
tz hl i
io
magnet
drahtwendel (glühkathode)
bl e
nd
e
-q nen
uel
le
SO FUNKTIONIERT EIN IONEN-IMPLANTER A Über Rohre leiten die Chiphersteller ein Dotiergas in die Ionenquelle des Implanters – es enthält die Fremdatome für die Dotierung des Siliziums (Si). Für die Herstellung n-dotierter Gebiete – wie der n -Wanne – findet häufig Phosphin als Dotiergas Verwendung – eine Verbindung aus Phosphor und Wasserstoff. Das Phosphor ist dabei das Fremdatom, das für die Dotierung der n-Wanne bestimmt ist. Für die Ionisierung des Dotiergases erzeugen die Chiphersteller zwischen der Kathode und der Anode der Ionenquelle ein elektrisches Feld und jagen Strom mit einer Stärke von 50 bis 200 Ampere durch den Kathodendraht. Das ist so viel Energie, dass der Draht zu glühen beginnt. Die Atome seines Metallgitters geraten in starke Schwingungen, prallen aufeinander und setzen Elektronen frei – ein Vorgang, der Glühemission heißt. Von der Anode angezogen, durchfliegen die Elektronen die Ionenquelle und kollidieren dabei mit den Phosphin-Molekülen. Das Ergebnis: Die Moleküle zerbrechen in ihre einzelnen Atome. Die Kathode setzt aber immer neue Elektronen frei, die nun ihrerseits im Sog des elektrischen Feldes die Ionenquelle durchfliegen. Sie kollidieren mit den Phosphor- und Wasserstoffatomen, schlagen Elektronen aus ihrer äußeren Hülle heraus und verwandeln sie so in positiv geladene Ionen. Magnete geben der Flugbahn der
C IONENFILTER (ANALYZER) Der Magnet zwingt die Ionen auf eine Kreisbahn, die Schlitzblende lässt nur Ionen auf der mittleren Kreisbahn passieren.
Elektronen eine Spiralform. Das erhöht die Wahrscheinlichkeit, dass sie auf ihrem Weg von der Kathode zur Anode mit Atomen kollidieren. So steigt auch die Ionisierungsrate – die Zahl der ionisierten Atome. Die positive Ladung der ionisierten Gasatome eröffnet nun die Möglichkeit, sie mit elektrischen und magnetischen Feldern zu einem Strahl zu bündeln und den Strahl auf die Siliziumscheibe auszurichten. Das geschieht so: B Eine negativ geladene Elektrode »saugt« die Ionen aus der Ionenquelle heraus; eine Schlitzblende am Ausgang der Ionenquelle gibt dem Ionenstrahl seine Form. C Magnete lenken die Ionen im Analyzer auf eine Kreisbahn. Während die schwereren Ionen auf den äußeren Kreisbahnen durch diesen Teil des Implanters fliegen, bewegen sich die leichteren Teilchen auf inneren Bahnen. Nur die »guten« Ionen – sprich: die Phosphoratome – durchfliegen den Analyzer (sprich: Änäleiser) auf der mittleren Bahn und können die Lochblende am Ende der Strecke passieren. D Die Magnete der »Quadropol Lense Group« verdichten den Ionen-Strahl, indem sie seinen Querschnitt in X- und Y-Richtung stauchen. E Die Elektrodenpaare der X- / Y-Achsen-Ablenkung richten den Ionen-Strahl auf die Siliziumscheibe aus. Gleichzeitig lenken sie ihn vertikal und horizontal ab.
D
lo ch
en
en de
r-ion
bl
pho phos
Von den Elektroden gesteuert, streicht der Strahl zeilenweise von oben nach unten über die Siliziumscheibe. Der Implanter setzt so jeden Fleck des Wafers unter Ionenbeschuss. Zuletzt passiert der IonenStrahl die Beschleunigungsstrecke: Eine Kaskade aus Elektroden mit wachsender Voltzahl bringt die Ionen so sehr in Schwung, dass sie mit hoher Energie auf den Wafer treffen. Schlagen sie in das Silizium ein, fangen sie freie Elektronen ein, die die Chiphersteller von hinten in den Wafer pumpen. Die Phosphor-Ionen verwandeln sich so in Atome mit ausgeglichener Ladung zurück. F Um Tunneleffekte zu verhindern, kippen die Chiphersteller die Siliziumscheibe in eine leichte Schrägstellung zur Flugbahn der Ionen. Grafik F zeigt, was mit Tunneleffekt gemeint ist: Sind der Kristall und die Flugbahn der Ionen gleich ausgerichtet, bewegen sich die Ionen – wegen der tunnelartigen Struktur des Kristalls – viel zu tief in den Wafer hinein. Ist die Scheibe hingegen ein wenig zur Flugbahn geneigt, treffen sie viel früher auf ein Siliziumatom und bleiben dann relativ dicht unter der Kristalloberfläche im Silizium stecken. Kurzum: Indem sie den Wafer kippen, steuern die Chiphersteller, wie tief die Ionen in das Kristallgitter eindringen.
IONENSTRAHLBÜNDELUNG Das Magnetfeld, das sich zwischen den stromdurchflossenen Kupferspulen der Vier-Pol-Linse aufbaut, staucht den Ionenstrahl in X- und Y-Richtung.
kupferspule ione
ns tr
a hl
ma gn et
IONENIMPLANTATION (DOTIERUNG)
F
E
D
f ot
ol a
ck
55 s ou
rce
dr a
in
IONENIMPLANTATION
C
B
A
TEILCHENKANONE (IMPLANTER)
E IONENSTRAHLAUSRICHTUNG Die Elektroden der Y-Achsen-Ablenkung richten den Ionenstrahl vertikal aus, die der X-Achsen-Ablenkung horizontal. Die Beschleunigungsstrecke bringt die Ionen in Schwung. y- a c
hse
n -a
x-ac bl e
nk u
hse
ng
ion
en s
tr a
n -a
bl e
nk u
TUNNELEFFEKT Der Ausschnitt aus dem Wafer zeigt das tunnelartige Gitter des Siliziumkristalls, Fremdatome durch足 fliegen senkrecht das Kristallgitter.
waferausschnitt ng
hl
bes
F
ch
l
ig eun
un
gss
ck tre
e
fremdatom
DIFFUSION
1.000 ° CELSIUS IN 12 SEKUNDEN! Achtung, jetzt wird’s heiß! Wir besuchen die Spezialisten des Fertigungsbereiches »Diffusion«, die viel mit Wärme hantieren.
FERTIGUNG
56
»Wenn wir die Fremdatome per Ionen-Implantation in den Siliziumkristall hineinschießen, prallen sie dort früher oder später auf Siliziumatome. Die Wucht des Aufpralls wirft die getroffenen Atome von ihren Gitterplätzen. Wir haben also die Fremdatome mit der Ionen-Implantation zwar schon erfolgreich in den Kristall hineinbefördert, haben damit aber zugleich beträchtliche Gitterschäden angerichtet. Diese Schäden gilt es nun zu reparieren.« Mit diesen Worten baut Hagen Rötz die gedankliche Brücke von der IonenImplantation zum nächsten Fertigungsschritt. Auf unserer Reinraumtour stehen wir jetzt vor einer spinnenähnlichen Maschine – einem »Clustertool«. C Um ein tischartiges, wabenförmiges Zentrum, in dem ein Roboter steckt, scharen sich vier Kammern, in denen die Wafer extreme Prozeduren über sich ergehen lassen. Der nächste Bearbeitungsschritt ist die Reparatur der Gitterschäden, die bei der Ionen-Implantation entstanden sind: die schnelle thermische Ausheilung (englisch: Rapid Thermal Anneal – RTA). Und dabei ist sehr viel Wärme im Spiel. siehe Infokasten A Schnelle thermische Ausheilung Mit der Heilung der Gitterschäden ist die Herstellung der n-Wanne abgeschlossen. »Wir fertigen jetzt das Gateoxid«, sagt Hagen Rötz und fügt zu meiner Überraschung hinzu: »Dafür brauchen wir uns gar nicht vom Fleck zu rühren, denn die gleiche Maschine, mit der wir die Kristallschäden geheilt haben, erzeugt auch das Gateoxid. Der Z entralroboter
A
bugsiert die Siliziumscheibe dazu lediglich aus der RTAKammer in eine Nachbarkammer. Dort unterwerfen wir den Wafer einer Oxidationsreaktion.« siehe Infokasten B Gateoxid-Herstellung Einige Chiphersteller fassen alle Fertigungsschritte, die mit einer starken Erhitzung des Wafers einhergehen, unter dem Begriff »Diffusion« zusammen – und sie nennen die Maschinen, mit denen sie diese Fertigungsschritte realisieren, Diffusionsanlagen. Warum? Das Wort »Diffusion« bezeichnet die Bewegung von Atomen in Kristallen – und zwar aus Gebieten mit hoher Atom-Konzentration in Gebiete mit geringer Konzentration. Diffusionsprozesse sind also Wanderungsprozesse, die Konzentrationsunterschiede ausgleichen. Sie finden sowohl bei der Ausheilung von Gitter schäden statt als auch bei der Oxidation von Silizium. Im Fall der schnellen thermischen Ausheilung verwandelt sich ein beschädigtes Kristallgitter durch Atomwanderung in ein regelmäßiges Gitter zurück – dabei gleicht die Atomwanderung Störungen der Atomkonzentration aus. Bei der Oxidation von Silizium sickern Sauerstoffatome zunächst von oben in den Wafer ein, konzentrieren sich dann nahe der Waferoberfläche, dringen bald jedoch auch in tiefere Siliziumschichten vor, weil ihre Konzentration dort gering ist. Motor all dieser Wanderungsbewegungen ist Wärme. Die Erhitzung des Wafers ist deshalb Teil sämtlicher Fertigungsschritte, die auf Diffusion beruhen.« →
SCHNELLE THERMISCHE AUSHEILUNG (RTA): REPARATUR VON GITTERSCHÄDEN HERSTELLUNG DER N-WANNE
SO FUNKTIONIERT ES
rta-kammer
halogenlampen
a nn n -w
musterchip wafer
e
Der Zentralroboter des Clustertools legt die Siliziumscheibe in der RTA-Kammer ab. Im Deckel der Kammer sitzen 400 Halogenlampen mit einer Leistung von je 500 Watt! Sie heizen die Siliziumscheiben in zwölf Sekunden auf über 1.000 Grad Celsius auf! Unter dem Einfluss der Wärme gerät der Kristall in Bewegung. Verrutschte Siliziumatome kehren an ihre Plätze zurück, während sich die Fremdatome ordentlich ins Gitter einfügen. Erst in einem ausgeheilten, regelmäßigen Kristall entfalten sie ihre elektrische Wirkung – das heißt, erst dann sorgen sie für einen positiven bzw. negativen Ladungsüberschuss. Die thermische Ausheilung ist deshalb aus Sicht der Chiphersteller auch gleichbedeutend mit der elektrischen Aktivierung des dotierten Kristall abschnitts. Der Schlüssel für eine optimale Heilung der Gitterschäden liegt in der richtigen Dosierung: Erhitzen die Chiphersteller den Kristall zu kurz, heilt er nicht vollständig aus, erhitzen sie ihn zu lang, breiten sich die Fremdatome in einem viel zu großen Gebiet aus. Die Chiphersteller sprechen dann vom »Breitlaufen des Profils«. Ihr Bedürfnis, die Kristallheilung so präzise wie möglich zu steuern, ist der Grund, warum die Konstrukteure der Diffusionsanlagen die RTA-Kammern mit Halogenlampen bestücken: Vom Strom getrennt, erkalten sie sofort wieder – und so kühlt auch der Wafer sehr schnell wieder ab.
DIFFUSION
B
GATEOXID-HERSTELLUNG THERMISCHE OXIDATION
SO ENTSTEHT DAS GATEOXID Mit einer Stärke von sieben bis zehn Atomlagen ist das Gateoxid die dünnste Schicht des gesamten Chips. Es trennt das Gate vom n- bzw. p-Kanal des Transistors (Seite 36 / 37). Als extrem guter Isolator verhindert es, dass Ladungen vom n- bzw. p-Kanal auf das Gate überspringen. Seine isolierende Eigenschaft verdankt das Gateoxid dem Material, aus dem es besteht: Siliziumdioxid (SiO 2).
sauerstoff o 2
gateoxidschicht (siliziumdioxid (sio 2) wafer (siliziumkristall)
Sauerstoff reagiert mit den Siliziumatomen an der Waferoberfläche zu Siliziumdioxid - die Gateoxidschicht entsteht. gateoxidschicht (siliziumdioxid (sio 2)
C
Die Gateoxidschicht bedeckt nach der thermischen Oxidation den gesamten Wafer.
Die Chiphersteller erzeugen das SiO 2 , indem sie den Wafer in einer speziellen Reaktionskammer blitzartig erhitzen und gleichzeitig Sauerstoff in die Kammer lassen. Der Sauerstoff reagiert mit den Siliziumatomen an der Waferoberfläche zu Siliziumdioxid. Wie bei der thermischen Ausheilung erhitzen die Chiphersteller den Wafer nur für Sekunden und kühlen ihn gleich wieder ab. So dauert auch die Oxidationsreaktion nur Sekunden und erfasst nur die Atomlagen an der Kristalloberfläche – so wie die Chiphersteller sich das wünschen. Das heißt, es entsteht so tatsächlich nur eine SiO2 -Schicht mit einer Dicke von sieben bis zehn Atomlagen.
DIFFUSIONSANLAGE (CLUSTERTOOL)
waferbox
wafer
rta- und oxidations kammer
57
LEITBAHN-HERSTELLUNG
DIE ZÄHMUNG DES KUPFERS Die Leitbahnen moderner Mikrochips bestehen aus Kupfer – doch das war nicht immer so. Obwohl sich elektrische Signale in Kupfer viel schneller ausbreiten, bevorzugte die Chipindustrie 40 Jahre lang Aluminium.
FERTIGUNG
62
»Mit der Vollendung der Gates und der Gateoxide ist die Herstellung der Transistoren unseres Musterchips abgeschlossen. Wir können uns damit den Vias und Leiterbahnen zuwenden«, sagt Hagen Rötz. »Wir führen heute die Leitbahnen fast aller Chips in Kupfer aus. Doch das ist erst seit rund zehn Jahren so«, erklärt Hagen. »40 Jahre lang war nicht Kupfer, sondern Aluminium das bevorzugte Leiterbahnmaterial. Die Leiterbahnherstellung aus Aluminium ist nämlich – verglichen mit der Leitbahnfertigung aus Kupfer – relativ einfach. Aluminium ist ferner ein guter Leiter – wenngleich nicht ganz so gut wie Kupfer – und so genügte es Jahrzehnte lang den Ansprüchen der Chipindustrie. Mit der fortschreitenden Verkleinerung der Transistoren und Leiterbahnen offenbarte Aluminium jedoch zunehmend Grenzen: Im Zuge der Schaltkreisminiaturisierung zwängt sich der elektrische Strom durch immer engere Leitbahnen. Die Elektronen, die den Stromfluss bilden, prallen dann immer häufiger und heftiger auf die Aluminiumatome, aus denen die Leiterbahnen bestehen. Schließlich reißen sie die Atome ganz von ihren Plätzen weg. Physiker nennen die Fähigkeit des Materials, dem »Ansturm« des elektrischen Stroms zu widerstehen, Elektromigrationsfestigkeit. Aluminium stieß in dieser Hinsicht immer offensichtlicher auf seine Grenzen. Kurzum: Das Metall wurde mit wachsender Schaltkreisminiaturisierung
zum Problemmaterial. Kupfer besitzt eine viel höhere Elektromigrationsfestigkeit. Zudem breiten sich elektrische Signale darin viel schneller aus. Unter dem Druck des harten Wettbewerbs, der in der Chipindustrie herrscht, entschloss sich deshalb der amerikanische Elektronikkonzern Advanced Micro Devices (AMD) Ende der 90er Jahre, Aluminium durch Kupfer zu ersetzen. Zeitgleich mit der Inbetriebnahme seiner ersten sächsischen Chipfabrik führte das Unternehmen die Kupfertechnologie als erster Chiphersteller der Welt mit einer exzellenten Ingenieursmannschaft hier in Dresden ein. Infineon folgte dem Beispiel seiner Nachbarn wenig später. Die Einführung der Kupfertechnologie war ein großer Schritt. Denn Kupfer hat Tücken: Es ist zwar ein exzellenter elektrischer Leiter. Leider neigen die Kupferatome jedoch dazu, in das Material einzusickern (zu diffundieren), das die Leiterbahnen umgibt. Das Umgebungsmaterial wird damit leitfähig – und dies wiederum führt dazu, dass zwischen benachbarten Leiterbahnen Querströme fließen können. Im schlimmsten Fall kommt es so zum Kurzschluss und zur Zerstörung des Chips. Wer auf Kupfer setzt, muss deshalb zwischen die Leitbahnen und ihre Umgebung eine Mauer ziehen, die für die Kupferatome unüberwindlich ist – die Fachleute sprechen von einer »Diffusionsbarriere«. Dies alles macht die Leitbahn-Herstellung aus Kupfer schwierig.
SO ENTSTEHEN DIE
ausgangspunkt halbfertiger Mikrochip mit Transistoren und Via 1-Stockwerk
LEITERBAHNEN
1 Herstellung der tragenden SiO2 -Schicht Verfahren: Chemische Schichterzeugung (CVD)
2 Ätzen der Leiterbahngräben, Verfahren: Plasmaätzen
3 Herstellung der Diffusionsbarriere, Verfahren: Sputtern
4 Herstellung der Kupfer-Keimschicht Verfahren: Sputtern
5 – 7 Füllen der Leiterbahngräben mit Kupfer, Verfahren: Kupfer-Galvanik
8 Entfernen überschüssigen Kupfers, Verfahren: chemisch-mechanisches Planarisieren (CMP)
Die Leiterbahnen und Vias (sprich Weijas) moderner Mikrocontroller und Mikroprozessoren verteilen sich häufig auf mehr als 20 Stockwerke – sprich: zehn Leiterbahnstockwerke, in der Fachsprache »Metals« genannt, plus zehn ViaStockwerke, in der Fachsprache »Vias« genannt. Die Stockwerke der Vias sitzen dabei zwischen den Stockwerken der
Leiterbahnen. Als senkrechte Kontakte verbinden die Vias benachbarte Metals – zum Beispiel Metal 1 mit Metal 2. Mit Ausnahme der untersten Vias (die direkt auf den Transistoren sitzen) und des obersten Metals (auf dem die Kontaktkügelchen sitzen) entstehen sämtliche Via- und LeiterbahnStockwerke auf die gleiche Weise.
63
5
6
7
8
kupfer-leitbahn tragende und isolierende sio 2 -schicht
1
keimschicht
4
diffusionsbarriere
LEITBAHN-STOCKWERK EINES MIKROCHIPS (KUPFERTECHNOLOGIE)
leitbahn-graben
3
2
HERSTELLUNG DES ERSTEN LEITERBAHNSTOCKWERKES (METAL 1) 1 Die Chiphersteller erzeugen zunächst eine Schicht aus Siliziumdioxod (SiO2) auf dem Wafer. Als stabiles glasartiges, nichtleitendes und zugleich hitzebeständiges Material erfüllt sie drei wichtige Funktionen: Sie trägt die Leiterbahnen (stützende Funktion), sie schirmt benachbarte Leiterbahnen gegeneinander ab, so dass zwischen ihnen keine Querströme fließen können (isolierende Funktion) und sie leitet die Wärme ab, die beim Betrieb des Chips entsteht (thermische Funktion). Die Herstellung der SiO2-Schicht geschieht per chemischer Schichterzeugung (CVD) (s. Seite 59 »CVD für die Leiterbahnstockwerke«). 2 Je nach dem, ob die Schicht Vias oder Leiterbahnen aufnehmen soll, ätzen die Chiphersteller nun Löcher (für die Vias) oder Gräben (für die Leitbahnen) in sie hinein. Das geschieht mit einem Plasmaätzverfahren, wie es auch bei der Herstellung der Gates zur Anwendung kommt. Die Chiphersteller verwenden für SiO2 lediglich eine etwas andere Ätzchemie als für das
Gate, das aus Polysilizium besteht. (s. Kasten Seite 60 »Plasmaätzen: Die Formung der Gates«). 3 Die Löcher und Gräben kleiden die Chiphersteller anschließend mit einer hauchdünnen Schicht aus Tantal-Nitrid (TaN) aus. Das TaN hindert das Leitbahnmetall Kupfer daran, in das Umgebungsmaterial (das SiO2) abzuwandern (zu diffundieren), das die Leitbahn trägt, und dort Leitungsbrücken zu bilden. Das heißt: Die Chiphersteller errichten mit der TaN-Schicht genau jene Diffusionsbarriere gegen das Kupfer, von der eingangs die Rede war. Dabei ist es vor allem der Stickstoff, der die Diffusionswege für das Kupfer verstopft. Die TaN-Schicht ist aber auch ein guter »Klebstoff«: Sie verbindet die Kupferleitbahnen fest mit dem Umgebungsmaterial (sprich: mit der tragenden SiO2Schicht) und verhindert so, dass der Schaltkreis auseinanderfällt – eine Möglichkeit, die durchaus besteht, weil Mikrochips beim Rechnen viel Wärme entwickeln,
was für beträchtliche Materialspannungen sorgt. Die Chiphersteller geben dem TaN seine bindende Wirkung, indem sie es auf der Leitbahnseite mit einem höheren Tantal-Anteil versehen (denn: Tantal ist wie Kupfer ein Metall, beide gehen eine feste Metallbindung ein), während sie das TaN auf der SiO2-Seite mit einem höheren Stickstoffanteil ausstatten. Das Verfahren, mit dem die Chiphersteller die TaN-Schicht erzeugen, heißt »Sputtern« (sprich Spattern) – auf den Seiten 68 / 69 stellen wir es vor. 4 Auf die TaN-Schicht setzen die Chiphersteller in einem zweiten Sputter-Schritt eine hauchdünne Kupferschicht – die so genannte Keimschicht (englisch: Seed Layer). Füllen sie die Gräben später mit Kupfer aus, können sich die Kupferatome, die das Leitbahnmetall bilden, gut an die Kupferatome der Keimschicht anlagern. Die Keimschicht dient mithin als Kristallisationskeim – als »Nährboden« für die Ausbildung eines regelmäßigen Metallgitters. →
LEITBAHN-HERSTELLUNG
FERTIGUNG
64
PLATING-ANLAGE
KUPFERGALVANIK KATHODE
SO4-CU++
SO4-CU++
Wafer
CU++
OPFERANODE (KUPFERBLOCK)
HERSTELLUNG DES ERSTEN LEITBAHNSTOCKWERKES (METAL 1) (FORTSETZUNG) 5 Schließlich füllen die Chiphersteller die Gräben mit Kupfer – ein Vorgang, der »Plating« heißt – die deutsche Übersetzung ist »Metallisierung«. PlatingAnlagen (die Maschinen, in denen das Plating stattfindet) beherbergen zwei Reihen mit Becken, in denen ein galvanisches Bad »schwappt«. Das ist eine chemische Flüssigkeit, die aus Schwefelsäure, Kupfersulfat, etwas Salzsäure und einigen organischen Zusätzen besteht. An drehbaren Armen befestigte Deckel verschließen die Becken. Die Grafik auf dieser Seite zeigt eine Plating-Anlage. Das Plating läuft wie folgt ab: Ein Roboter platziert die Siliziumscheiben zunächst auf der Unterseite der Deckel. Dann verschließt der Deckel das Becken und taucht den Wafer damit in das galvanische Bad. Die Chiphersteller legen nun an einen Kupferblock am Boden des Beckens eine positive und an den Wafer eine
negative Spannung – dabei nutzen sie die Keimschicht in den Leiterbahngräben als negative Elektrode. Das elektrische Feld, das zwischen dem Kupferblock und dem Wafer entsteht, löst Kupferatome aus dem Kupferblock heraus. Dabei gibt jedes Kupferatom zwei Elektronen ab (ein Vorgang, der Oxidation heißt) – und verwandelt sich so in ein positiv geladenes Ion. Vom negativ geladenen Wafer angezogen, durchwandern die Kupfer-Ionen die chemische Flüssigkeit und setzen sich in den Leiterbahngräben ab, indem sie sich mit den Kupferatomen der Keimschicht verbinden. Nach und nach füllen sich die Gräben komplett mit Kupfer, bis das Metall über die Grabenkanten tritt und die gesamte Siliziumscheibe bedeckt. 6 Die Chiphersteller müssen nun das überschüssige Kupfer wieder entfernen. Mit einem Ätzbad befreien
sie zunächst die Rückseite der Siliziumscheibe sowie einen zwei Millimeter breiten Rand auf der Wafervorderseite vom Kupfer. 7 Danach behandeln sie das Kupfer in den Leitbahngräben mit Wärme. Denn: Das Metall besitzt unmittelbar nach dem Plating noch eine sehr ungünstige Struktur: Es besteht aus unendlich vielen sehr kleinen Kristalliten (es hat eine nanokristalline Struktur, wie die Fachleute sagen). Damit setzt es elektrischem Strom noch einen relativ großen Widerstand entgegen. Die Chiphersteller stecken die Siliziumscheibe deshalb jetzt in einen Diffusionsofen. Der Ofen erhitzt den Wafer. Die Wärme fördert das Kristallwachstum – das Kupfer bildet nun große Kristalle von schöner Regelmäßigkeit aus. Danach leitet es in optimaler Weise elektrischen Strom.
KUPFERGALVANIK UND PLANARISIERUNG (CMP)
PLANARISIERUNG WAFER
SLURRY
Kupfer
polierspindel Schleifkörner
POLIERPAD
65
polierstation 1
polierstation 2 polierstation 3
CMP-TOOL
di ko n
t io
nie
r er
slurryverteiler polierpads
8 Nach der Wärmebehandlung tragen die Chiphersteller das überschüssige Kupfer, das sich jetzt noch auf der Wafervorderseite befindet, bis auf die Grabenkanten ab – und zwar mit einem Verfahren, das Chemisch-Mechanisches Planarisieren (CMP) heißt. Sie befestigen die Siliziumscheibe dazu an der Unterseite einer Polierspindel und bewegen die Spindel im Kreis über ein Poliertuch (Pad) aus einem lederartigen Kunststoff. Auf dem Poliertuch befindet sich eine Polierflüssigkeit – die so genannte Slurry. Sie besteht aus einer Substanz, die das Kupfer chemisch angreift, und sie enthält zugleich winzige Polierkörnchen, die das Kupfer mechanisch abtragen. Der Polierprozess verteilt sich auf drei Stationen. An den ersten beiden Stationen findet die Grobpolitur statt: Die Chiphersteller setzen dort eine Polierflüssigkeit mit einer stärker wirkenden chemischen Substanz und besonders hartkantigen Polier-
körnchen ein – so beseitigen sie bereits den größten Teil des Kupfers. An der dritten Station benutzen sie eine Polierflüssigkeit mit einer weniger stark wirkenden chemischen Substanz und kleineren Polierkörnchen – damit entfernen sie behutsam den Kupferrest. Nach der Politur ist die Oberfläche der Siliziumscheibe wieder völlig kupferfrei – das Metall füllt jetzt nur noch die Gräben. Damit ist das erste Stockwerk des Leitbahnsystems (Metal 1) fertig. Darauf setzen die Chiphersteller das erste Via-Stockwerk (Via 1), dann folgen das zweite Leiterbahn- und das zweite Via-Stockwerk (Metal 2 und Via 2) usw. Die Kette der Fertigungsschritte ist dabei immer die gleiche – der einzige Unterschied: Für die Vias ätzen die Chiphersteller logischerweise keine Gräben, sondern Löcher.
Lediglich Via 1 (sitzt direkt auf den Transistoren) entsteht noch aus Wolfram, anstatt aus Kupfer – denn: die Transistoren sind der sensibelste Teil des Chips. Es verbietet sich, an dieser Stelle ein Metall mit starker Diffusionsneigung zu verwenden. Wolfram zeigt so gut wie keine Diffusionsneigung – und bekommt deshalb den Vorzug vor Kupfer. Und: Aus ähnlichen Gründen stellen die Chiphersteller auch die Leitbahnen des obersten Stockwerks noch immer aus Aluminium her. Denn: auf die obersten Leitbahnen kommen Kontaktkügelchen, die aus einer Blei / Zinn-Verbindung bestehen (die so genannten Bumps). Die Wechselwirkung zwischen Aluminium und dem Bump-Metall ist gut erforscht – eine unbedenkliche Materialkombination. Dagegen birgt eine Kombination der Blei / Zinnkügelchen mit Kupfer aus Sicht der Chiphersteller Diffusionsrisiken – und so setzen sie an dieser Stelle weiter auf Aluminium.
PHYSIKALISCHE SCHICHTABSCHEIDUNG
ATOMARES SANDSTRAHLEN Wie die Chiphersteller mit »atomarer Munition« neue Schichten erzeugen.
FERTIGUNG
68
»Was die Herstellung der Leiterbahnen angeht, so ist noch offen geblieben, wie wir die Diffusionsbarriere und die Keimschicht erzeugen«, sagt Hagen Rötz. »Die Diffusions barriere ist die hauchdünne Schicht, mit der wir die Leiterbahngräben auskleiden, um zu verhindern, dass Kupfer atome von dort in das Umgebungsmaterial abwandern. Auf die Diffusionsbarriere setzen wir dann die Keimschicht (Seite 63). Beide Schichten entstehen mit dem gleichen Verfahren: dem Sputtern (sprich: Spattern). Fachleute umschreiben das Sputtern oft metaphorisch als ›atomares Sandstrahlen‹. Und das trifft tatsächlich zu. Beim Sputtern beschießen wir eine Metallplatte mit Atomen. Die atomare Munition prallt so heftig auf die Platte, dass sie winzigste Metallteilchen daraus herausschlägt.
Fachleute sprechen vom ›Zerstäuben‹ der Platte – und genau das ist auch die korrekte Übersetzung: Sputtern bedeutet Zerstäuben. Jene winzigen Teilchen, die wir mit unserem atomaren Sandstrahl aus der Platte herauslösen, fallen als Niederschlag auf die Siliziumscheibe und bilden dort eine neue, hauchdünne Schicht. Die Zusammensetzung dieser Schicht hängt vom M aterial der Platte ab. Weil sie das Material für die neue Schicht spendet, nennen wir sie auch Opferplatte. Und weil die neue Schicht nicht auf dem Weg einer chemischen Reaktion, sondern durch einen physikalischen Vorgang entsteht, bezeichnen wir das Sputtern auch als Physikalische Schichtabscheidung (engl.: Physical Vapor Disposition (PVD)). →
HINWEIS: Bitte lies zunächst den Text »So funktioniert eine Sputteranlage« auf der rechten Seite unten und erst danach die beiden Texte auf dieser Seite »Wie eine Diffusionsbarriere entsteht« und »Sputtern – Kupfer für die Keimschicht«.
WIE DIE DIFFUSIONS BARRIERE ENTSTEHT Für die Diffusionsbarriere benutzen die Chiphersteller eine Opferplatte aus Tantal. Mit Argon-Ionen sputtern sie Tantal-Teilchen aus der Platte heraus. Das Metall setzt sich als dünne Schicht in den Leitbahngräben ab. Weil die Diffusionsbarriere jedoch nicht aus reinem Tantal, sondern aus Tantalnitrid bestehen soll, lassen die Chiphersteller außerdem Stickstoff in die Kammer hinein. Das Argon-Plasma,
SPUTTERN – KUPFER FÜR DIE KEIMSCHICHT das sich in der Kammer befindet, ionisiert nun mit seinen Elektronen auch den Stickstoff. StickstoffIonen wiederum sind sehr reaktionsfreudig. Treffen sie auf die Tantalatome in den Leiterbahngräben, reagieren sie mit ihnen zu Tantalnitdrid (TaN). Das Sputtern ist also hier mit einer chemischen Reaktion verknüpft. Die Chiphersteller sprechen deshalb von »reaktivem Sputtern«.
Für die Erzeugung der Keimschicht benutzen die Chiphersteller eine Opferplatte aus Kupfer. Als atomare Munition verwenden sie abermals ArgonIonen. Von der Opferplatte abgesputtert, setzt sich das Kupfer als dünne Schicht in den Leiterbahngräben ab. Stickstoff lassen die Chiphersteller nicht in die Kammer, denn die Keimschicht soll ja aus reinem Kupfer bestehen.
opferplatte
sputterprozess
wafer
SPUTTERANLAGE
DEGASKAMMER
In der Degas-Kammer (Entgasungskammer) heizen wir die Wafer vor.
loadport roboter
degaskammer
69
sputterkammer
SO FUNKTIONIERT EINE SPUTTERANLAGE Sputteranlagen sind Clustertools. Um ein wabenförmiges Zentrum, in dem ein Zentralroboter steckt, gruppieren sich Kammern, in denen der eigentliche Sputtervorgang stattfindet. Hat der Zentralroboter die Siliziumscheibe in einer Kammer abgelegt, erzeugen die Chiphersteller dort zunächst ein Vakuum. Dann leiten sie das Edelgas Argon (Ar) in die Kammer, um daraus die »Munition« für den atomaren Beschuss der Opferplatte zu gewinnen. Und das geht so: Die Chiphersteller erzeugen ein starkes elektrisches Feld, indem sie an die Opferplatte im Kammerdeckel eine negative Spannung und an die
Platte, auf der die Siliziumscheibe lagert (das »Chuck«), eine positive Spannung anlegen. Gase, wie Argon, enthalten stets auch freie Elektronen. Das elektrische Feld zwischen Kammerdeckel und Chuck setzt diese Elektronen in Bewegung. Ein so genanntes Magnetron im Kammerdeckel erzeugt außerdem ein rotierendes Magnetfeld und versetzt die Elektronen damit auf eine Kreisbahn. Die Elektronen prallen nun auf ihrem Weg durch die Kammer auf die Gasmoleküle, zertrümmern sie und schlagen aus den Argon-Atomen Elektronen heraus. Die Argon-Atome verwandeln sich so in positiv geladene Ionen (die atomare Munition) – molekulares Gas wird so zum Plasma (zum ionisierten Gas).
Jetzt kann der eigentliche Sputterprozess beginnen. Von der negativ geladenen Opferplatte heftig angezogen, fliegen die positiv geladenen Argon-Ionen extrem schnell auf die Platte zu und schlagen mit ihrer Bewegungsenergie Metallatome aus ihr heraus. Der Stoßimpuls der Argon-Ionen lässt die herausgeschlagenen (»abgesputterten«) Metallatome wie Billardkugeln durch die Kammer fliegen. Am Ende ihres Weges treffen sie auf die Siliziumscheibe und bilden dort eine neue Schicht aus. Diese Schicht wächst so lange, wie der Sputterprozess andauert.
KONTAKTKÜGELCHEN & TEST
MEHRERE 1.000 KONTAKTE Ist die oberste Leiterbahnebene vollendet, braucht unser Musterchip noch Kontakte zur Außenwelt. Diese Aufgabe übernehmen so genannte Bumps – winzige Blei / ZinnKügelchen. Mit ihrem Durchmesser von gut 100 Mikrometern sind sie im Vergleich zu den Transistoren riesig.
FERTIGUNG
70
Die Kontakt-Kügelchen sitzen dicht gedrängt in Reih und Glied auf der obersten Leiterbahnebene – leistungsstarke Controller und Mikroprozessoren benötigen mehrere 1.000 Bumps! Die meisten dienen als Massekontakte – über sie gelangt elektrischer Strom in den Chip; die übrigen fungieren als Ein- und Ausgänge für den Datenaustausch mit dem elektronischen Gerät. Die Technologie zur Herstellung der Bumps heißt »Con trolled Collapsed Chip Connection« (C4). 1964 von IBM entwickelt und seitdem mehrfach verbessert, bietet sie den Vorteil, dass die Chiphersteller damit die gesamte Chipfläche in einem Schritt mit Tausenden Kontakten versehen
A
können. Mit anderen Verfahren, wie dem Draht bonden, lassen sich nur die Chipränder mit Anschlüssen versehen. Weil Mikroprozessoren sehr viele Kontakte benötigen, ist die C4-Technologie für sie das beste Verfahren. Grafik A zeigt, wie die Bumps entstehen: Die Chiphersteller setzen zunächst eine lichtempfindliche Polyimidschicht (PI) auf die oberste Leiterbahnebene, belichten sie mit einem Waferstepper und entfernen die belichteten Partien (Schritte A2 – A4). Mit einer Sputteranlage scheiden sie anschließend das Under Bump Metal (UBM) auf der PISchicht ab A5. Danach versehen sie den Wafer mit Fotolack, belichten den Lack, entfernen die belichteten Partien
CONTROLLED COLLAPSED CHIP CONNECTION
Leistungsstarke, hochkomplexe Mikrochips (wie PC-Prozessoren und viele Mikrocontroller) brauchen für die Stromversorgung und den Signalaustausch oft viele Tasuend Anschlüsse. Die C4-Technologie erlaubt die Herstellung derart vieler Anschlüsse in einem Arbeitsgang.
Schichtaufbau des Bump-Stockwerks
Schritt 1 Oberste Leiterbahnebene aus Aluminium
Schritt 2 Auftragen der Polyimid-Schicht (PI)
Schritt 3 Belichtung des Polyimids
Schritt 4 Entfernen der belichteten Partien
Schritt 5 Aufsputtern des Under Bump Metals (UBM)
Schritt 6 Auftragen von Fotolack
Schritt 7 Belichtung des Fotolacks
Schritt 8 Entfernung der belichteten Lackpartien
Schritt 9 Abscheidung des Bump-Metalls
Schritt 10 Entfernung des Fotolacks
Schritt 11 Wegätzen der überstehenden UBM-Partien
Schritt 12 Umschmelzen zum fertigen Kügelchen
und füllen die Löcher, die so im Lack entstehen, mit der Blei / Zinn-Legierung für die Kontaktkügelchen. Das BumpMetall erhält damit zunächst die Gestalt kleiner Säulen A6 – A10. Kurz vor dem Finale entfernen die Chiphersteller in einem Ätzschritt die überstehenden UBM-Partien A11 – dann schmelzen sie das Bump-Metall kurz auf und kühlen es wieder ab; die Oberflächenspannung, die beim Abkühlen entsteht, verwandelt die Blei / Zinn-Säulen in die fertigen Kontaktkügelchen A12. Die Kontrolle der Fertigungsqualität schließt den Herstellungsprozess unseres Musterchips ab. Testautomaten und so genannte Wafer Prober C wirken dabei wie folgt zusammen: Ein Roboter platziert die Siliziumscheibe auf einem Teller, dem so genannten Chuck. Der Teller drückt den Wafer von unten gegen die so genannte Probe Card (dt.: TestKarte). Im Zentrum der Probe Card sitzt eine kleine, mit mehreren Tausend Nadeln bestückte Fläche – das so genannte Needle Array (dt.: Nadel-Feld). Das Feld hat exakt die Größe eines Chips und ihr Nadel-Muster passt exakt zum Muster der Bumps auf dem Chip, so dass jede Nadel einen Bump kontaktiert. Der Testautomat (hier nicht
bgebildet) ist über Signal-Kabel mit dem Wafer-Prober a verbunden – er sendet nun elektrische Impulse an den Chip, dem der Test gilt. Über das Needle Array gelangen die Impulse in den Chip. Jeder Controller und Mikroprozessor beherbergt spezielle Schaltungsstrukturen für sogenannte Build-in Self Tests (BIST) – das sind Selbsttests, bei denen die Chiphersteller die Chips bestimmten Schaltungsvorgängen unterwerfen. Anhand der Signalmuster, mit denen der Chip antwortet, sehen die Testingenieure, ob er Fertigungsfehler enthält oder nicht. Über die Probe Card, den so genannten Pogo Tower und das Tester-Board – eine Platine für das Signal-Routing – gelangen die Antwort-Signale des Prozessors in den Testautomaten, der sie blitzschnell auswertet. Innerhalb weniger Sekunden hat der Automat einen kompletten Chip getestet. Danach senkt sich das Chuck, rückt weiter und platziert den nächsten Chip zum Test. Während der Testautomat den Wafer Chip für Chip abarbeitet, produziert er für die gesamte Siliziumscheibe eine so genannte Wafer Map – eine Karte, die sämtliche Chips ausweist. Alle Chips, die auf der Karte grün erscheinen, sind fehlerfrei – alle rot gefärbten Chips fehlerhaft. Letztere fliegen gnadenlos in die Abfalltonne.
fehlerfreie chips
board
fehlerhafte chips
B
pogo tower
probe card
C wafer
WAFER PROBER
chuck
roboter neadle array
WAFER MAP
71
Energieeffiziente Transistoren, hochbelastbare Leichtbaumaterialien, die sich selbst überwachen, wegweisende Lösungen für den Mobilfunk – so tragen sächsische Elektronik-Ingenieure zur Energie-Wende bei.
COOL SILICON
73
KLIMASCHUTZ AUF INGENIEURSART PORTRÄT COOL SILICON e. V. KÜHLES SILIZIUM
74
MIKRO- UND NANOTECHNOLOGIEN KÜHLE RECHNER
76
SENSORNETZWERKE SMART MATERIALS – KUNSTSTOFFE MIT KÖPFCHEN
80
KOMMUNIKATIONSSYSTEME SO FUNKTIONIERT MOBILFUNK
88
PORTRÄT FABIAN DIEHM
PER DU MIT FUNKWELLEN 93
INTERVIEW DIRK GNEWEKOW
GEFRAGTE BERUFE 94
PORTRÄT COOL SILICON e. V.
COOL SILICON
74
KÜHLES SILIZIUM Wie sächsische Firmen mit moderner Mikroelektronik zur Bewältigung des Klimaproblems beitragen. Smartphones, Tablet-Computer, Blu-ray-Rekorder und LCDFernseher: Die Welt der Unterhaltungselektronik und der Computertechnik wird immer größer, bunter und schöner. Und wer wollte sie nicht besitzen – die schicken neuen Geräte mit den klangvollen Markennamen, die uns so Vieles, was Spaß macht und bildet (!), jederzeit und überall direkt vor die Nase beamen? Coole Musik downloaden, unterwegs mit Freunden chatten, auf klugen Internet-Seiten interessante Themen recherchieren – wer will und kann da seiner Zeit und seinen Schulfreunden schon hinterherlaufen? Fasziniert von Smartphones, Tablet-PCs, 3D-Fernsehern & Co. geben immer mehr Menschen immer mehr Geld dafür aus. Das Ergebnis: Unterhaltungselektronik und Computertechnik tragen immer stärker zum weltweiten CO2-Ausstoß bei. Rund ein Viertel des Energieverbrauches deutscher Haushalte entfällt inzwischen auf diese Gerätegruppe! Und wie fällt die Energiebilanz der Welt erst aus, wenn 1,3 Milliarden Chinesen, fast ebenso viele Inder und knapp 200 Millionen Brasilianer die gleiche Technik-Ausstattung für sich in Anspruch nehmen? Kurzum: Die schiere Menge der Geräte, das rasante Wachstum ihrer Zahl, wird immer stärker zum Teil des weltweiten Klimaproblems. Ein Blick auf die Energiebilanz aller hochentwickelten Länder zeigt, dass dieser Trend jedoch nicht nur für die Unterhaltungselektronik und Computertechnik gilt, sondern längst auch alle übrigen Lebensbereiche erfasst hat: Ob Fahrzeugoder Maschinenbau, Medizin- oder Energietechnik, Bankensektor oder Landwirtschaft - unsere Gesellschaft erlebt eine immer rasantere Elektronisierung. Elektronische Steuerungen und Geräte kommen überall immer häufiger und zahlreicher zum Einsatz.
Vor diesem Hintergrund arbeiten über 100 sächsische Firmen und Forschungsinstitute – organisiert im Cool Silicon e. V. – seit nunmehr fünf Jahren intensiv an Lösungen, die dafür sorgen sollen, dass elektronische Geräte deutlich weniger Strom verbrauchen. Die Ingenieure und Wissenschaftler aus Sachsen handeln dabei in der Überzeugung, dass die Energiewende (Seiten 24 / 25) nur gelingen kann, wenn der Energieverbrauch in allen Technik- und Lebensbereichen sinkt, anstatt immer weiter zu steigen. Die Entstehungsgeschichte des Cool Silicon e. V. ist schnell erzählt: 2007 forderte der Bund alle Regionen Deutschlands mit Führungspositionen auf wichtigen Technologiefeldern auf, Konzepte zu entwickeln, wie sie ihre Führungsposition ausbauen könnten. Professor Gerhard Fettweis, der an der Technischen Universität (TU) Dresden auf dem Gebiet des Mobilfunks lehrt und forscht, vollbrachte das Kunststück, rund 100 Firmen und Forschungsinstitute der sächsischen Halbleiterindustrie auf ein ambitioniertes Ziel einzuschwören: nämlich Mikroelektronik energieeffizienter zu machen und damit weltweit Maßstäbe in Sachen klimafreundlicher Elektronik zu setzen. Mit den Technischen Universitäten in Dresden, Chemnitz und Freiberg schlossen sich die Firmen und Institute zu einem Konsortium zusammen, vertieften sich ein Jahr in die Planung und legten schließlich ein Konzept mit dem Titel »Cool Silicon« vor – »kühles Silizium«. Das Konzept umfasst drei Forschungsschwerpunkte:
1. Mikro- und Nanotechnologien (AREA 1) Für die Energieeffizienz integrierter Schaltkreise sind der Aufbau und die Materialauswahl der Transistoren und Leitbahnen - das Desgin der Bauelemente - von entscheidender
FIRMEN DER SÄCHSISCHEN HALBLEITERINDUSTRIE
75
Quelle: Silicon Saxony e. V.
Bedeutung. Mitglieder des Cool Silicon e.V. arbeiten an neuen Designs und Technologien, die eine deutliche Steigerung der Energieeffizienz integrierter Schaltkreise ermöglichen – mit ihnen sollen sich zum Beispiel sogenannte Leckströme wirksam unterbinden lassen (siehe ab Seite 78). Gleichzeitig arbeiten die Cool-Silicon-Mitglieder an neuen Fertigungsverfahren zur Herstellung der Chips. Die Cluster-Mitglieder versprechen sich von diesen Innovationen eine große Breitenwirkung, weil sie sich auf Chips ganz verschiedener Anwendungsgebiete übertragen lassen. Als Testfall dienen Computer: Ihre Leistung soll sich mit den Innovationen aus Sachsen verdoppeln, ohne dass der Energieverbrauch steigt.
2. Kommunikationssysteme (AREA 2) Smartphones und Tablet-Computer haben das mobile Internet möglich gemacht. Die Folge: In den vergangenen fünf Jahren ist die Nachfrage nach mobilen Datendiensten explodiert. Das stellt die Netzbetreiber vor große Probleme: Mit einer begrenzten Zahl von Mobilfunkfrequenzen müssen sie eine wachsende Datenmenge (»Traffic«) transportieren. Sächsische Firmen und Wissenschaftler suchen deshalb im Rahmen des Cool-Silicon-Programms nach Lösungen, wie sich der Datenverkehr bewältigen lässt, ohne dass der Energieverbrauch der Netze und Geräte steigt.
sind damit ein Schlüssel, um den Benzin-, Diesel- und KerosinVerbrauch von Autos, Lokomotiven und Flugzeugen zu senken. Doch diese vielversprechende Werkstoffgruppe hat auch einen Nachteil: Sie kann brechen, und niemand weiß bislang ganz genau, unter welchen Bedingungen das geschieht. Forscher des Cool-Silicon-Netzwerkes statten deshalb Verbundwerkstoffe mit Sensoren aus, die Alarm schlagen, sobald das Material auch nur kleinste Risse zeigt. Unter den 38 Regionen, die 2007 am Spitzencluster-Wettbewerb des Bundes teilnahmen, schaffte es das sächsische Konsortium mit seiner Konzeption in die Gruppe der fünf Gewinner. Mit der Entscheidung des Bundes für das sächsische Cluster schlug auch die Geburtsstunde des Cool Silicon e. V., heute von Professor Thomas Mikolajick, Chef des Dresdner Nano-electronic Materials Laboratory (NaMLab) geleitet, denn die Kooperation so vieler Unternehmen braucht eine koordinierende Hand. Fünf Jahre fördern der Bund und Sachsen mit 70 Millionen Euro die Arbeit an den Forschungsthemen, die auf der Agenda des sächsischen Clusters stehen. Und in diesem Kapitel machen wir dich mit den Forschungsschwerpunkten bekannt. Dabei gehen wir im Fall der Sensornetzwerke (»AREA 3«) recht tief ins Detail, während wir die Fragestellungen und Lösungsansätze im Fall der Mikro- und Nanotechnologie sowie der Mobilfunktechnik (»AREAS 1 und 2«) »nur« anreißen können. STROMVERBRAUCH DER PRIVATEN HAUSHALTE Der Stromverbrauch privater Haushalte in Deutschland verteilt sich auf folgende Bereiche: ó TV / Audio und Computertechnik (24,6 %), ó Kühlen und Gefrieren (16,1 %), ó Waschen, Trocknen, Spülen (13,8 %), ó Warmes Wasser (12,9 %), ó Kochen (9,7 %), ó Licht (8,5 %), ó Übrige: Klima, Wellness, Garten und Sonstiges (14,4 %) Quelle: Energieagentur NRW, www.energieagentur.nrw.de, Stand 2012
3. Sensornetzwerke (AREA 3) Die Fahrzeugindustrie stellt Karossorien von Autos, Flugzeugen und Bahnen immer häufiger aus Verbundwerkstoffen her. Aus Kohle- und Glasfasern, Kunst- und Naturharzen gefertigt, sind sie genauso belastbar wie Stahl – aber deutlich leichter. Das macht auch die Fahrzeuge viel leichter, und so verbrauchen sie weniger Kraftstoff. Verbundwerkstoffe
24,6 %
16,1 %
13,8 %
12,9 %
9,7 % 8,5 %
14,4 %
MIKRO- UND NANOTECHNOLOGIEN
KÜHLE RECHNER
Hast du dich schon mal gefragt, warum Computer und Smartphones so schnell immer besser werden?
COOL SILICON
76
In Sachen Innovationstempo sind Handys und Computer echte Formel-1-Wagen: Kein anderes Produkt entwickelt sich so rasant wie sie, erfährt so schnell so viele technische Verbesserungen, während sein Preis so schnell fällt. Warum ist das so? Weil kein anderes technisches Produkt mit vergleichbarem Preis von so vielen Menschen begehrt wird, und weil die Handy- und Computer-Industrie eben deshalb sehr viel Geld damit verdient. In 2013 – so schätzen Branchenbeobachter – werden die Smartphone-Hersteller weltweit knapp eine Milliarde Geräte absetzen, was einem Umsatz von 100 Milliarden Dollar entspricht! Aus diesem gewaltigen Dollar-Kuchen möchten sich alle Hersteller natürlich ein großes Stück herausschneiden. Ein knallharter technologischer Wettbewerb ist die Folge: Wer die besten Geräte günstig anbieten kann, verkauft am meisten und verdient maximal! Und genau deshalb entwickeln sich Handys und Computer so schnell.
Chips auf ihrer Hauptplatine. Sie bilden die »Gehirne« der Geräte. Wer die Leistung eines Smartphones (oder PC) steigern will, muss ihnen ein möglichst starkes Gehirn verpassen – das heißt, er braucht Chips, die sehr komplexe Operationen möglichst schnell ausführen. Die Chipleistung aber steht und fällt mit der Zahl der Transistoren. Je mehr Transistoren ein Chip hat, umso stärker ist er – die Transistoren bilden quasi die Gehirnzellen des Schaltkreises. Und weil das so ist (weil zwischen Chipleistung und Transistorzahl ein so enger Zusammenhang besteht), bevorzugen Smartphone- und Computer-Hersteller Chiplieferanten, die ihnen zu einem guten Preis die Chips mit der besten Transistor-Ausstattung anbieten. Und weil auch die Chiphersteller möglichst viel vom Dollar-Kuchen abhaben wollen, liefern auch sie sich einen knallharten Wettbewerb. Gewinner ist in ihrem Fall, wer die Zahl seiner Transistoren am schnellsten zu steigern vermag.
Aber wie erreichen Computer- und Handy-Hersteller ein so hohes Entwicklungstempo? Die Antwort findest du in deinem Smartphone: Handys und PC verdanken ihre Leistung den
Doch wie lässt sich die Zahl der Transistoren steigern – ohne dass die Chipfläche und die Fertigungskosten ausufern? Na klar: Indem die Transistoren immer kleiner werden! Der Wettbewerb der Chiphersteller um Gewinne und Markterfolg äußert sich daher im technologischen Wettlauf um Miniaturisierung – um noch winzigere Transistoren und Leitbahnen. Dieser Wettlauf hat bewirkt, dass Transistoren heute über 1.000mal kleiner sind als vor 40 Jahren, und dass sich die Zahl der Transistoren (und mit ihr die Chipleistung) aller 20 Monate verdoppelt. Gordon Moore, Mitgründer des ChipRiesen Intel, sah diese Entwicklung schon 1965 voraus – und sie hält bis heute an. Kurzum: Es war vor allem die stete Miniaturisierung der Transistoren und Leitbahnen, die all die großen Fortschritte der Computer- und Mobilfunktechnik bewirkt hat, die wir heute bestaunen. Gewinner sind dabei auch die Verbraucher. Das hohe Innovationstempo hat nämlich zur Freude vieler Käufer auch einen rasanten Preisverfall zur Folge: Neue Geräte, die heute noch das Nonplusultra sind, gibt es in einem Jahr oft schon zum halben Preis.
WELTMARKT FÜR SMART HANDHELD DEVICES (2008 – 2013) Quelle: IDC’s Worldwide Black Book Query Tool, 2010 WACHSTUM (IN %) 25 20 15 10 5 0
AUSGABEN (IN MRD. US$)
103,8 90,8 78,7
65,6 51
2008
52,4
2009
2010
2011
2012
2013
Der Preis der Miniaturisierung Steigende Energie- und Umweltkosten trüben jedoch die Erfolgsgeschichte: Mit der Leistung wächst nämlich der Stromverbrauch vieler Chips und Geräte. Warum? Die Miniaturisierung hat zwei gegenläufige Folgen: Einerseits sinkt der Stromverbrauch je Transistor, andererseits wächst der Stromverlust, der aufgrund des elektrischen Widerstands des Leitbahnmetalls entsteht. Denn: Mit der fortschreitenden Miniaturisierung schrumpft der Querschnitt der Leitbahnen, damit wächst im gleichen Verhältnis ihr Widerstand. Physikalisch betrachtet, geschieht Folgendes:
77
erfordern viel Platz und eine effiziente Energie nutzung. 2011 hat Google 2,67 Milliarden Kilowatt stunden Elektroenergie verbraucht. In Deutschland entspräche das dem Stromverbrauch von ca. 430.000 bis 530.000 Vier-Personen-Haushalten.
Wenn sich Elektronen durch Leitbahnen bewegen, prallt ein Teil von ihnen auf die Atome des Leitbahnmetalls. Das Metall bremst also die Elektronen aus – es entsteht Stromverlust (Fachbegriff: Verlustleistung). Dieser Verlust wächst mit der Miniaturisierung der Leitbahnen, weil damit auch die Häufigkeit von Elektronen-Kollisionen zunimmt. Was ist die Folge? Prallt ein Elektron auf ein Atom, so verwandelt sich seine Bewegungsenergie in Wärme. Chips produzieren deshalb umso mehr Wärme, je komplexer ihr Leitbahnsystem ist und je dünner die Leitbahnen werden. Die Wärme wiederum muss abgeführt werden. Der Chip würde sonst bersten oder verglühen. Die Hersteller müssen die Chips deshalb immer aufwändiger kühlen. Die Kühlsysteme (meist Lüfter) aber verbrauchen Strom. Übertrifft nun der Strom-Mehreinsatz für die Kühlung den Stromgewinn auf Transistorebene, so steigt der Stromverbrauch des Chips an. Vor allem bei leistungsstarken PC- und Grafik-Prozessoren ist das häufig so. Leistungsstarke Workstations und Netzwerk-Rechner (Server) sind deshalb bislang mit fast jeder neuen Chip-Generation stromhungriger geworden, und heute übertreffen ihre Stromkosten oft schon nach zwei Jahren den Kaufpreis. Trotzdem bewerten die Chiphersteller die Geschichte der Miniaturisierung auch unter dem Aspekt des Stromverbrauchs als Erfolg. Zu Recht. Denn: Chips mit so vielen T ransistoren und so großer Leistung wie heute wären gar nicht realisierbar, hätte es die Miniaturisierung nicht gegeben. Bei gleicher
Google kompensiert seinen CO2-Ausstoß mit Maß nahmen wie dem Kauf von »grünem Strom« und massiven Investitionen in Projekte der erneuerbaren Energien (mehr Infos unter: www.google.de/green). (Quellen: Google, Energieagentur NRW)
Transistorgröße wie vor 20 oder 30 Jahren wäre der Stromverbrauch heutiger Chips so groß, wären ihre Verlustleistung und Hitzeproduktion so enorm, dass sie sofort verdampfen würden! →
DAS MOORESCHE GESETZ besagt, dass sich die Transistorzahl je cm2 Chipfläche etwa alle 20 Monate verdoppelt. (Quelle: http://de.wikipedia.org/wiki/Mooresches_Gesetz) Six Core Core i7 AMD K10
2,6 Milliarden
AMD K8
1 Milliarde
Anzahl der Transistoren
Anbieter digitaler Dienste nutzen riesige Rechen zentren. Das Google-Rechenzentrum in Council Bluffs (Iowa, USA) ist über 10.000 Quadratmeter groß. Es ist das Rückgrat von Diensten wie der Google-Suche und YouTube. Solche Serverräume
Pentium 4 AMD K6-III / K7
100 Millionen 10 Millionen
80486
Pentium 68000 8086
80386
10 Tausend 2,3 Tausend
Pentium II / III
80286
1 Million 100 Tausend
Core 2 Duo
80186 4004
1971 1980 1990 2000 2011 Intel- und AMD-Prozessoren: Einführungsjahr
MIKRO- UND NANOTECHNOLOGIEN MINIATURISIERUNGSFORTSCHRITT
COOL SILICON
78 Erster integrierter Schaltkreis von Fairchild Semiconductor (1959). Auf der Fläche eines Fingernagels enthielt er einen Transistor, drei Widerstände und einen Kondensator. (Quelle: 3Dit)
Sandy Bridge Wafer (Ausschnitt) von Intel®, 2010 Ein Quad Core Chip enthält heute allein weit über eine Milliarde Transistoren auf der Fläche eines großen Daumennagels. (Quelle: Intel)
Und: Dank der Miniaturisierung verbrauchen viele Chips, die nicht so viele Transistoren benötigen, heute tatsächlich nur noch ein Bruchteil des Stromes, den ihre Vorgänger vor zehn oder 20 Jahren konsumierten. Das gilt z. B. für Controller, die in technischen Systemen (wie Kühlschränken oder Waschmaschinen) einfache Steuerungsaufgaben übernehmen.
Was sind Leckströme? Seit nunmehr fünf Jahren arbeiten Mitglieder des Cool Silicon e. V. im Rahmen des Forschungsschwerpunktes Mikround Nanotechnologien (AREA 1) an einem großen Ziel: In zehn Forschungsprojekten unterziehen sie fast alle Teile moderner Computer (Chips, Platinen, Stromversorgung, Kühlung, periphere Geräte) sowie sämtliche Phasen im Leben eines PC (Entwicklung und Produktion, Nutzung und Entsorgung) einer kritischen Analyse unter Energie-Gesichtspunkten und arbeiten an innovativen Lösungen, die in Summe eine Verdopplung der Computerleistung möglich machen sollen, ohne dass dabei der Energieverbrauch steigt. Nachdem bislang
fast jede Verdopplung der Computerleistung mit einem höheren Stromverbrauch einherging, wäre das – wenn es gelingt – ein großer Schritt. Und mit zwei dieser Entwicklungsprojekte machen wir dich hier bekannt – »Cool Trans« und »Cool Energie«. »Cool Trans« steht für kühle Transistoren, »Cool Energie« für Energieeffizienz. Sie berühren beide ein Kernproblem der Miniaturisierung: die Leckströme. Was ist das? Halten wir uns vor Augen, wie ein Transistor funktioniert. Die Gateladung entscheidet, ob durch einen Transistor Strom fließt. Im Fall von pMOS-Transistoren fließt Strom, wenn das Gate negativ geladen ist. Die negative Gateladung bewirkt, dass sich im Gebiet zwischen Source und Drain positive Ladungen (Löcher) sammeln. Die wiederum bilden einen Kanal, der als Leitungsbrücke zwischen Source und Drain wirkt, und so fließt über diesen Kanal Strom (im Fall des pMOS-Transistors ein Löcherstrom – ein Strom aus positiven Ladungen). Handelt es sich dagegen um einen nMOS-Transistor, so fließt Strom, wenn das Gate positiv geladen ist. Die positive Gateladung sorgt dann dafür, dass sich zwischen Source und Drain negative Ladungen (Elektronen) sammeln – es bildet sich ein n-Kanal, der als Leitungsbrücke wirkt, und so fließt über diesen Kanal Strom – in diesem Fall ein Elektronenstrom (ein Strom aus negativen Ladungen). Kurzum: Das Gate einerseits und der Kanal andererseits sind stets entgegengesetzt geladen. Weil gegensätzliche Ladungen einander aber anziehen, birgt diese Konstellation die Gefahr, dass die Elektronen bzw. Löcher aus dem Kanal auf das Gate hinüberspringen! Die Folge: Der Kanal bräche zusammen – der Transistor ließe sich nicht mehr schalten! Die Chiphersteller setzen deshalb zwischen den Kanal und das Gate eine Schicht, die Strom nicht leitet und die damit das Hinüberspringen der Elektronen bzw. Löcher auf das Gate unterbindet: das so genannte Gateoxid. (s. Kasten »Stopfen eines Stromlecks«) Jahrzehnte lang bestand das Gateoxid aus Siliziumdioxid (SiO2) und erfüllte seine Aufgabe. Doch Ende der 90er Jahre offenbarte das SiO2 Grenzen: Plötzlich überwanden einzelne Elektronen und Löcher die Isolierschicht – und sprangen aus dem Kanal auf das Gate über. Das Gateoxid zeigte Lecks! Die Fachleute tauften den Strom-Anteil, der das Gateoxid überWARUM IM ZUGE DER MINIATURISIERUNG DER STROMVERBRAUCH JE TRANSISTOR SINKT Werden die Transistoren immer kleiner, wird auch ihr n-Kanal immer kürzer. Der n-Kanal ist das Stück des Transistors, das die Elektronen überwinden müssen, wenn sie von Source nach Drain fließen. Verkürzt sich diese Strecke, genügt eine geringere elektrische Energie, um sie zu überwinden, weil sich dadurch der Kanalwiderstand verringert. Source
Gate n-Kanal
Drain
n-Kanal
STOPFEN EINES STROMLECKS Schrumpft das SiO 2 -Gateoxid auf einige Atomlagen, verliert es seine isolie rende Wirkung, und einzelne Ladungsträger können vom Kanal zum Gate »durchtunneln« – ein Leckstrom fließt.
Ersetzen die Chiphersteller SiO 2 durch Hafnium-Dioxid (HfO2) können sie das Gateoxid – dank des höheren k-Wertes des HfO2 – wieder dicker machen und den Leckstrom damit ausschalten. Metal-Gate
Poly-Si-Gate SiO 2
Leckstrom Source
Drain
Hf O
2
High k - Gateoxid
Source
Drain
n-Kanal
wand, deshalb »Leckstrom«. Nur: Wie erklärte sich dieser Leckstrom? Eigentlich einfach: Mit der steten Verkleinerung der Transistoren war das Gateoxid nach und nach auf eine »Dicke« von einigen Atomlagen geschrumpft! Quantenmechanische Effekte (sie zu erklären, würde hier zu weit führen) und Schichtdefekte, die vorher nicht ins Gewicht gefallen waren, hoben nun die isolierende Wirkung des SiO2 allmählich auf. Die Leckströme waren erst so schwach, dass die Chipfirmen sie noch tolerieren konnten. Doch mit jedem weiteren Miniaturisierungsschritt wurden sie stärker! Und schließlich war das Leckstrom-Problem so groß geworden, dass es einer weiteren Miniaturisierung ernsthaft im Weg stand.
Dicker gehts nicht Vielleicht fragst du dich jetzt, warum die Chiphersteller die Dicke des SiO2-Gateoxids nicht einfach wieder heraufsetzen? Richtig an diesem Gedanken ist, dass eine dickere Isolationsschicht das Leckstrom-Problem tatsächlich löst. Denn: Der Leckstrom sinkt mit wachsender Materialdicke exponentiell – jede Verdopplung der Gateoxid-Dicke reduziert ihn wieder auf ein Achtel. Aber: Die Chiphersteller können diesen Weg im Fall des SiO2-Gateoxids nicht gehen. Und das hat folgenden Grund: Die Schichtkonstellation des Gates, des Gateoxids und des n- bzw. p-Kanals innerhalb des Transistors entspricht dem Aufbau eines Kondensators – das ist ein elektronisches Bauelement, das elektrische Ladungen zu speichern vermag. Ein Plattenkondensator besteht aus zwei Metallplatten und einer isolierenden Schicht in der Mitte. Entgegengesetzt aufgeladen (sprich: positiv bzw. negativ geladen), speichern die Platten ihre positiven bzw. negativen Ladungen auch dann, wenn der Kondensator vom Stromkreis getrennt wird, weil die gegensätzlichen Ladungen aufgrund der elektrostatischen Anziehung einerseits zueinander streben, andererseits aber nicht von einer Platte zur anderen hinüberfließen können, weil die Isolierschicht das verhindert. Die Fähigkeit eines Kondensators, auf diese Weise elektrische Ladungen zu trennen und in seinen Platten
79
n-Kanal
festzuhalten (sie zu speichern), ist seine elektrische Kapazität. Je mehr elektrische Ladungen ein Kondensator zu speichern vermag, umso größer seine Kapazität (gemessen in Farad). Die Kapazität hängt nun wie folgt von der Geometrie des Kondensators ab: Sie schrumpft, je dicker die Isolierschicht zwischen den Platten ist, aber sie wächst mit der Größe (der Oberfläche) der Platten. Die Kapazität hängt außerdem von einer wichtigen Materialeigenschaft der Isolierschicht ab – der so genannten Dielektrizitätskonstante (kurz k-Wert). Der k-Wert beschreibt die Fähigkeit isolierender Schichten, gegensätzliche Ladungen zu trennen. Je höher der k-Wert, um so größer die Anzahl der Ladungen, die der Isolator zu trennen vermag. Folglich wächst mit dem k-Wert der Isolierschicht auch die Kapazität eines Kondensators. Was bedeutet das alles, auf Transistoren und das Leckstrom-Problem übertragen? Das Gate und der n- bzw. → DAS GATE IN HÖCHSTER AUFLÖSUNG
Die TEM-Bilder zeigen die alte und neue Technik im Vergleich. Siehst Du die Silizium-Atome, und den Unterschied zwischen dem per fektem Silizium-Einkristall und dem Poly-Silizium-Kristall? Würde man das Gate-Oxid noch dünner machen, wäre der Stromverbrauch im Tran sistor viel zu groß.
POLYSILIZIUM
GATEOXID SiO 2
SILIZIUMEINKRISTALL
AMORPHES SILIZIUM
TITANELEKTRODE TiN GATEOXID HfO 2 GATEOXID SiO 2 SILIZIUMEINKRISTALL
Erkennst Du die »high-k«-Schicht, das Hafniumoxid? Es ergänzt als das neue Gateoxid das alte SiO2 (dieses wird weiterhin als Grenz schicht zum Silizium genutzt) und kann wegen seines hohen k-Wer tes etwas dicker sein. Darüber hinaus kommen nunmehr Edelme talle wie Titan zum Einsatz, aber auch »seltene Erden«! (Quelle: GLOBALFOUNDRIES)
SENSORNETZWERKE
SMART MATERIALS – KUNSTSTOFFE MIT KÖPFCHEN Ingenieure und Wissenschaftler des Cool-Silicon-Netzwerkes setzen sich intensiv mit einer neuen, vielversprechenden Materialgruppe auseinander – den Verbundwerkstoffen – und entwickeln wegweisende Lösungen dafür, indem sie die besagten Werkstoffe mit elektronischer Intelligenz ausstatten.
COOL SILICON
82
Mit 250 Stundenkilometern (km/h) Spitzengeschwindigkeit und über 350 Pferdestärken (PS) ist der BMW i8 Concept ein echtes Kraftpaket – doch er wäre nur ein Sportwagen unter vielen, hätte er nicht diesen sensationell niedrigen Benzinverbrauch: Drei L iter Kraftstoff genügen dem Straßenflitzer je 100 Kilometer Fahrstrecke, um seine Qualitäten zu entfalten – so sparsam waren bisher nicht einmal Kleinwagen! Um so viel Leistung mit so wenig Kraftstoff zu realisieren, hat der bayerische Autobauer alles aufgeboten, was moderne Automobiltechnik hergibt. Neben einem Plug-InHybridantrieb (einer Kombination aus Benzin- und ElektroMotor) hat er dem BMW i8 Concept u.a. eine Leichtbau-Karosserie aus kohlefaserverstärktem Kunststoff verpasst! Und damit sind wir beim eigentlichen Thema: bei den Verbundwerkstoffen (zu denen auch die kohlefaserverstärkten Kunststoffe zählen) und bei einem Forschungsprojekt, das dieser neuen M aterialgruppe den Weg ebnen soll.
Wozu Verbundwerkstoffe? Kunst- oder Naturharze geben den Verbundwerkstoffen ihre Form und Festigkeit, spezielle Beimischungen verleihen ANWENDUNGSFALL WINDRÄDER
Produzenten von Windkraftanlagen waren – und sind – Pioniere beim Einsatz der neuen Materialien: Seit Anfang der 70er Jahre besitzen faktisch alle Windkraft anlagen Rotorblätter aus einem Verbundwerkstoff, der aus glas- und kohlefaser verstärktem Kunststoff besteht (Grafik). Und das hat folgende Gründe: Die Ro torblätter müssen möglichst lang sein, denn mehr Länge bedeutet eine g rößere Flügelfläche – und damit eine bessere Ausnutzung des Windes als A ntriebskraft.
ihnen besondere Eigenschaften. Zu den Verbundwerkstoffen gehören z. B. faserverstärkte Kunststoffe – sie bestehen aus Kunstharz und einem Gewebekern, der sie besonders widerstandsfähig gegen Zugkräfte macht. Besteht der Gewebekern – wie beim BMW i8 Concept – aus Kohlefasern, spricht man von kohlefaserverstärktem Kunststoff, besteht er aus Glasfasern, spricht man von glasfaserverstärktem Kunststoff. Verbundwerkstoffe bilden – neben neuen Antriebskonzepten – den Schlüssel für mehr Sparsamkeit auf der Straße, in der Luft und auf der Schiene, denn sie sind deutlich leichter als Stahl – aber genauso belastbar! Die Hersteller von Autos, Flugzeugen und Bahnen können damit leichtere Karosserien bauen – und wenn ihre Fahrzeuge weniger wiegen, verbrauchen sie auch weniger Kraftstoff!
Der Schwachpunkt Havarien von Windkraftanlagen, bei denen Rotorblätter bei Sturm und Gewitter plötzlich brachen, zeigen jedoch, dass der Siegeszug der Verbundwerkstoffe kein glatter Durchmarsch ist. »Wir haben viel Erfahrung mit Metallen und können z. B. exakt vorhersagen, wann Stahl bricht«, sagt der Materialforscher Dr. Dieter Hentschel vom Dresdner Fraunhofer-Institut für Zerstörungsfreie Prüfverfahren (IZFP). »Verbundwerkstoffe dagegen sind noch ein ganz junges Gebiet. Wir beginnen gerade erst, Erfahrungen damit zu sammeln, und wissen deshalb in vielen Fällen nicht so genau, wann diese Materialien ihre Belastungsgrenze erreichen.« → Gleichzeitig müssen die Rotorblätter relativ schmal sein – werden sie nämlich zu breit, wird die Windlast zu groß – und dann können die Blätter brechen. Schließlich müssen die Rotorblätter möglichst leicht sein, damit auch schwa cher Wind sie schon in Bewegung setzen kann. Mit glas-und kohle faserverstärktem Kunststoff lassen sich all diese Eigenschaften hervorra gend realisieren – Holz dagegen erlaubt nicht so lange Rotorblätter, während Metalle als Konstruktionsmaterial zu schwer und / oder zu teuer sind.
WOZU VERBUNDWERKSTOFFE ? Überall auf der Welt arbeitet die Fahrzeugindustrie mit Hochdruck an Autos, Flugzeugen und Bahnen, die weniger Treibstoff benötigen. Verbundwerk stoffe bilden neben neuen Antriebskonzepten den Schlüssel für mehr Sparsamkeit auf der S traße, in der Luft und auf der Schiene, denn sie sind deutlich leichter als Stahl, aber genauso belastbar! Die Her
steller können damit leichtere Karosserien bauen – und wenn Autos, Flugzeuge und Bahnen weniger wiegen, dann verbrauchen sie weniger Kraftstoff! Abbildung rechts: Kohlefasergewebe verlei hen den kohlefaserverstärkten Kunststoffen (CFK) besondere Festigkeit, was diese Materialgruppe vor allem für den Fahrzeugbau interessant macht.
83
1
SCHICHTAUFBAU
des Verbundwerkstoffes, aus dem die Windräder von Windkraftanlagen bestehen
2 3
1
Polyuretan
2 Glasfaser
3 Epoxidharz 4 Kohlefaser
4 1
SENSORNETZWERKE »Das zwingt uns beim Einsatz von Verbundwerkstoffen, Materialstärken zu wählen, die ein großes Sicherheitspolster enthalten«, so Hentschel weiter. »Auf Dauer ist das aber keine gute Lösung, weil wir damit den größten Vorteil der neuen Materialgruppe wieder verspielen – ihr geringes Gewicht.«
Das Forschungsprojekt
COOL SENSORNET
84
Um das Problem zu lösen, statten Wissenschaftler des Cool Silicon-Netzwerkes Verbundwerkstoffe mit elektronischer Intelligenz aus. Mit Sensoren, kleinen Sendern (oder Kabeln) für die Datenübertragung und Steuerungselektronik versehen, sollen die Verbundwerkstoffe sich selbst überwachen, Materialrisse selbst erkennen und ihrem Nutzer signalisieren, ehe größerer Schaden entstehen kann. Bei der Entwicklung entsprechender Lösungen konzentrieren sich die Forscher auf Fälle, wo es auf höchste Sicherheit ankommt: auf Rotorblätter von Windkraftanlagen und Flugzeugteile. »Die Haut des Airbus A380 besteht bereits zu über 20 Prozent aus kohlefaserverstärktem Kunststoff (CFK)«, erklärt Hentschel die Bedeutung einer zuverlässigen Materialüberwachung für den CFK-Einsatz im Flugzeugbau. »Aus CFK sind zum Beispiel Teile des Höhenleitwerkes und die Ladeklappe des Gepäckraumes. Bei der nächsten Airbus-Generation soll der CFK-Anteil bereits auf 50 Prozent wachsen. Das heißt: Die Luftfahrtindustrie setzt verstärkt auf diese Materialgruppe, weil sie leichtere und damit treibstoffsparende Flugzeuge möglich macht. Aber: Flugzeugteile müssen unter allen Bedingungen halten. Und wenn Airbus Werkstoffe einsetzt, deren Ermüdungsverhalten nicht hundertprozentig klar ist, müssen die betreffenden Bauteile s icher überwacht werden – und genau daran arbeiten wir.«
So funktioniert die Materialüberwachung Hentschel und sein Forscherteam überziehen Flugzeugteile und Rotorblätter mit einem Netz aus kleinen Pflastern, die aus zwei Teilen bestehen: Ein Teil des Pflasters enthält einen elektronischen Schaltkreis sowie Anschlüsse zur Signalübertragung; der andere Teil enthält ein Gewebe aus Piezofasern. Solche Fasern haben die Eigenschaft, dass sie zu schwingen beginnen, legt man eine elektrische Spannung an sie an, während sie im umgekehrten Fall elektrische Spannung erzeugen, werden sie in Schwingung versetzt. Die Materialforscher machen sich dieses Verhalten der Fasern zunutze: Sie betten die Pflaster in das Flügelmaterial ein,
legen an jedes zweite Pflaster eine elektrische Spannung an und versetzen die Piezofasern so in Schwingungen. Von den Pflastern übertragen sich die Schwingungen auf das Flügelmaterial, durchlaufen es als akustische Welle und treffen nach einer bestimmten Wegstrecke auf die nächstgelegenen Pflaster. Die Welle versetzt nun die Piezofasern auch dieser Pflaster in Schwingungen – mit dem Effekt, dass diese Fasern nun elektrische Spannung erzeugen (denn, wie eben schon gesagt: Piezofasern erzeugen eine elektrische Spannung, wenn sie schwingen). Die Stärke und der Rhythmus des Spannungssignals, das die Fasern erzeugen, entsprechen dabei genau der Frequenz und Amplitude der Welle, die den Flügel durchläuft! Das heißt: Das Spannungssignal gibt exakt über die Beschaffenheit der Welle Auskunft, und die Beschaffenheit der Welle wiederum hängt direkt vom Zustand des Flügelmaterials ab! Ist das Material unbeschädigt, breitet sich die Welle gleichmäßig darin aus – ihre Frequenz und Amplitude beschreiben eine makellose Sinuskurve. Befinden sich dagegen zwischen dem Pflaster, das die Welle produziert, und dem Pflaster, das die Welle empfängt, Risse, bringen sie die Welle aus dem Takt und modifizieren in charakteristischer W eise ihre Frequenz und Amplitude. Kurzum: Aus der Stärke und Frequenz des Spannungssignals lässt sich präzise ablesen, ob das Flügelmaterial in Ordnung ist oder Risse enthält!
Aktoren, Sensoren und die Aufgaben der Elektronik Die Pflaster, die mit ihren Piezofasern die Welle erzeugen, heißen Aktoren – denn sie sind der aktive, agierende Teil des Überwachungssystems. Die Pflaster hingegen, die die Welle empfangen und mit ihren Piezofasern das Spannungssignal produzieren, heißen Sensoren – denn sie sind der passive, »fühlende« Teil des Systems. Ein Computer steuert das Überwachungssystem. Bei den Windkrafträdern befindet er sich in der Gondel der Anlage. Über Lichtleiterkabel ist er mit den Pflastern auf den Rotorblättern verbunden. Der Computer sendet über die Lichtleiterkabel Lichtblitze an alle Pflaster, die als Aktoren wirken sollen. Der elektronische Schaltkreis auf den Pflastern wandelt die Lichtblitze in elektrische Spannung, regt damit die Piezofasern zum Schwingen an und löst so die akustische Welle aus, die das Flügelmaterial durchläuft. Die Piezofasern der Pflaster, die als Sensoren fungieren, erzeugen elektrische Spannung, sobald die Welle sie erreicht und in Schwingung versetzt. →
3
PIEZO-PF L ASTER Sie fungieren wahlweise als Aktoren oder Sensoren des Materialüberwachungssystems. Die hellen, fas rigen Strukturen 1, die durch den braun gefärbten Teil des Pflasters hindurchschimmern, sind die Piez zofasern. Im beigefarbenen Rahmen 2 nebenan sitzt die Steuerungselektronik, das blaue Glasfaserkabel 3 dient der Signalübertragung.
2
1
EIN TYPISCHER ANWENDUNGSFALL So funktioniert die Materialüberwachung, wenn die Piezo-Pflaster gleichzeitig als Aktoren und Sensoren wirken: Der Steuerungscomputer 1 in der Gondel der Windkraftanlage sendet über Lichtleiterkabel 2 Lichtimpulse (Blitze) 3 an sämtliche Piezo-Pflaster, die nun zunächst als Aktoren 4 wirken. Der elektronische Schaltkreis 5 der Pflaster wandelt die Lichtimpulse in elektrische Spannung um, regt damit die Piezofasern 6 zur Kontraktion an und löst so die akustische Welle 7 aus, die das Flügelmaterial durchläuft (weiter im Textfeld unten)
8
7
6
10
85
5 4
3
1
Der akustische »Fingerabdruck« eines Materialrisses
3
2
9
Ein Riss im Flügel 8 reflektiert die akustische Welle und schickt sie zum Pflaster zurück, das jetzt als Sensor fungiert. Die reflektierte akustische Welle überträgt sich auf die Piezofasern, die Fasern beginnen zu schwingen und erzeugen elektrische Spanung. Der Schaltkreis des Pflasters wandelt die Spannungssignale nun wieder in eine Serie von Lichtblitzen 9 und schickt sie über das Lichtleiterkabel an den Computer zurück. Dort überset zen spezielle Wandler (so genannte Optokoppler) die Lichtsignale in elektri sche Impulse. Mit entsprechender Software ausgerüstet, liest der Computer aus den Signalen heraus, ob das Flügelmaterial in Ordnung ist oder ob es Risse enthält. Diagnostiziert er einen Riss, so schickt er die Daten per Funk 10 an die Steuerungszentrale 11 des Windparks und setzt gleichzei tig eine Warnmeldung ab. Der zuständige Techniker sieht auf seinem Com puter, welches Windrad betroffen ist und wo sich der Riss befindet. Er kann dann das jeweilige Windrad abschalten und seine Reparatur veranlassen. Auf der CD, die diesem Buch beiliegt, findest du ein Video zur Windrad-Überwachung
11
SENSORNETZWERKE
COOL SILICON
86
Der elektronische Schaltkreis der Sensor-Pflaster wandelt die Spannungssignale wieder in eine Serie von Lichtblitzen und schickt sie über Lichtleiterkabel an den Computer zurück. Dort wandeln Optokoppler das Lichtsignal wieder in elektrische Signale (Optokoppler sind elektronische Bauteile, die Licht in elektrische Signale übersetzen und umgekehrt). Mit entsprechender Software ausgerüstet, liest der Computer aus den Signalen, ob das Flügelmaterial in Ordnung ist oder Risse enthält. Diagnostiziert er einen Riss, so funkt er eine Warnmeldung an die Steuerungszentrale des Windparks. Der zuständige Techniker sieht auf seinem Computer, welches Windrad betroffen ist und wo sich der Riss befindet. Er kann dann das jeweilige Windrad abschalten und die Reparatur veranlassen.
Drahtlose Datenübertragung Nach rund dreijähriger Entwicklungsarbeit haben die IZFPForscher die Fehlererkennung im Griff. Hentschel: » Unser Industriepartner hat bei Rostock eine Versuchs-Windkraftanlage mit unserem Überwachungssystem aus Steuerungscomputer, Glasfaserkabeln und Piezo -Pflastern installiert – und: das System funktioniert zuverlässig! Und inzwischen sind wir schon einen wichtigen Schritt weiter: Wir können Signale und Daten zwischen dem Steuerungsrechner und den Piezo-Pflastern drahtlos per Funk austauschen – könnten für die Datenübertragung also auf Glasfaserkabel verzichten!« Die Technologie dafür kommt aus dem Zentrum Mikroelektronik Dresden (ZMDI), heißt ZigBee (Kasten) und ist ein großer Schritt, weil sie den Aufbau von Materialüberwachungssystemen vereinfacht und die Bandbreite ihrer Einsatzmöglichkeiten enorm erweitert.
Die Zukunft: Energieautarke Systeme »Was wir jetzt noch erreichen wollen, ist die Unabhängigkeit unserer Überwachungssysteme von äußeren Energiequellen: die Systeme sollen sich selbst mit der Energie versorgen, die sie für ihren Betrieb brauchen!«, sagt Hentschel. Ein wichtiger Schritt auf dem Weg dahin ist die ZigBeeLösung zur drahtlosen Signalübertragung aus dem ZMDI, denn sie braucht nur sehr wenig Strom – und damit benötigt das gesamte System kaum Energie, denn die Signal
Aber das ist ja gerade das Schöne an unserem Beruf. Intelligente Ma terialien sind ein weites Feld für Innovationen. Und gerade die schwierigen Aufgaben, die kreative Lösungen verlangen, machen das Leben eines Forschers spannend.« Dr. Dieter Hentschel Fraunhofer-Institut für Zerstörungsfreie Prüfverfahren (IZFP)
übertragungshardware ist der Hauptstromverbraucher. Für die Produktion des Stroms zur Ansteuerung der Piezopflaster und den Betrieb der Funkhardware möchten die IZFP-Forscher folgende Energiequellen nutzen. Erstens: Wind. Hentschel: »Wind versetzt die Flügel von Flugzeugen und Windkraftanlagen in Schwingungen – mit speziellen Piezopflastern können wir die Schwingungsenergie in Strom für das Flügel-Überwachungssystem wandeln.« Zweitens: Die Forscher zapfen die Energie an, die in den Funkwellen steckt, mit denen der Steuerungscomputer die Piezo-Pflaster anspricht (siehe Seite 87). Flugzeug rümpfe bergen jedoch noch eine dritte Energiequelle: die großen Temperaturunterschiede zwischen der Innen- und der Außenseite des Flugzeugrumpfes. Während in der Flugzeugkabine angenehme Zimmertemperatur herrscht, ist es – bei größerer Flughöhe – draußen oft bitterkalt. Pflanzen die Flugzeughersteller 4 kleine Metallstäbe in die Rumpfhaut ein, erzeugen diese Temperaturunterschiede in den Stäben eine elektrische Spannung. Die Herausforderung für die IZFP-Forscher besteht nun darin, all diese Energiequellen zu funktionierenden Systemen der Strom-Selbstversorgung zusammenzu fügen. Jeder Einsatzfall erfordert dabei andere Lösungen, weil auch die konkreten Umstände, unter denen die Überwachungssysteme arbeiten, verschieden sind. »Aber das ist ja gerade das Schöne an unserem Beruf«, sagt Dr. Hentschel. »Intelligente Mate rialien sind ein weites Feld für Innovationen. Und gerade die schwierigen Aufgaben, die kreative Lösungen verlangen, machen das Leben eines Forschers spannend.«
ZIGBEE: REVOLUTIONÄRE Spezialisten sagen ZigBee auch deshalb eine große Zukunft voraus, weil kein FUNKTECHNOLOGIE AUS DRESDEN anderes Funksystem auf Frequenzen um 900 MHz und 2,4 GHz Daten ver
Vor rund zehn Jahren entwickelte die Organisation amerikanischer Elekt rotechnik- und Elektronikingenieure IEEE einen Standard zur drahtlosen Übertragung kleiner Datenmen gen über kurze Strecken auf Funk frequenzbändern um 2,4 Gigahertz und 900 Megahertz. Die Technologie erhielt den Namen ZigBee. Ihre Anwendungs möglichkeiten sind schier unendlich – die IEEE spricht von einer revolutionären Technik, »die unser Leben ähnlich verändern könnte wie der P ersonalcomputer.«
schickt – das macht zum Beispiel drahtlose Materialüberwachungssysteme im Flugzeugbau überhaupt erst möglich. Hentschel: »Müsste sich das Material überwachungssystem seine Funkfrequenz mit anderen Systemen teilen, z. B. mit dem System der Kommunikation zwischen Piloten und Fluglotsen, dann könnte es schwierig werden, die Daten beider Systeme auseinanderzuhalten und dies wiederum könnte riskante Situationen heraufbeschwören. Ein weiterer großer Vorteil der ZigBee-Technologie ist ihre Sparsamkeit: Sende- und Empfangsein heiten brauchen nur sehr wenig Strom, was wiederum dem Ziel einer energieaut arken Materialüberwachung entgegenkommt. Entwicklungsingenieure des ZMDI hatten schon vor 2005 für Anwendungen in der Automobiltechnik Chips und Sys teme entwickelt, die weitgehend dem künftigen ZigBee-Standard entsprachen, und sie arbeiteten aktiv an der Formulierung dieses Standards mit!
2
87
3
5
3
1
MATERIALÜBERWACHUNG BEI AIRBUS
Auch Flugzeugbauer Airbus setzt verstärkt auf Verbundwerkstoffe, und am IZFP arbeiten Dr. Hent schel und seine Mannschaft an geeigneten Lösungen der Materialüberwachung. Die Spezialisten wollen Tragflächen 1 und Höhenruder 2 auf die gleiche Weise kontrollieren wie die Flügel von Windrädern: mit Piezo-Aktoren bzw. -Sensoren 3, die sie in die Flügelhaut einbetten und netzartig über die gesamte Fläche verteilen. Glasfaserkabel zur Signalübertragung sind im Flugzeugbau al lerdings tabu, denn sie würden zusätzliches Gewicht bedeuten. Der Steuerungsrechner im Cock pit 4 und die Piezo-Pflaster sollen Signale und Daten deshalb per Funk austauschen, Sende- und Empfangseinheiten die Energie für den Signalaustauch nicht aus Akkus beziehen, sondern aus ihrer unmittelbaren Umgebung gewinnen.
Für die Produktion des Stroms zur Ansteuerung der Piezopflaster sowie den Betrieb der Funkhardware möchten die IZFP-Forscher folgende Energiequellen anzapfen:
LÖSUNG 1: WINDENERGIE
Die Forscher nutzen den Wind als Energiequelle, indem sie spezielle Piezokera mik-Plättchen in die Flügel von Flugzeugen und Windkraftanlagen einbetten und als Stromgeneratoren verwenden: Der Wind bringt die Rotor- und Flugzeug flügel zum Schwingen, die Vibration überträgt sich auf die Keramik-Plättchen, die Plättchen wiederum verwandeln die mechanische in elektrische Energie.
LÖSUNG 2: ENERGIE DER FUNKWELLEN
Die Forscher nutzen für die Stromerzeugung die Funkwellen, die der Steue rungscomputer aussendet, um die Aktoren anzusprechen und die Sensoren abzufragen, indem sie als Empfangsantenne eine Spule auf den Aktoren bzw. Sensoren installieren. Die Radiowellen induzieren in der Spule einen winzigen Strom. Den können die Forscher in Kondensatoren speichern und für die Rück antwort der Sensoren an den Computer nutzen.
LÖSUNG 3: TEMPERATURGEFÄLLE
Dr. Hentschel: »Wenn wir an die Außenhaut von Flugzeugen denken, könnten wir auch die Temperaturunterschiede zwischen der Innen- und der Außenseite nutzen. Während im Flugzeug angenehme Zimmertemperaturen herrschen, ist es während des Fluges draußen bitterkalt – in 10.000 Metern Höhe sinkt das Thermometer oft auf minus 50 Grad Celsius. Schon der Physiker Thomas Jo hann Seebeck wusste, wie man solche Temperaturunterschiede für die Strom erzeugung nutzen kann. 1821 entdeckte er, dass zwischen den Enden einer Me tallstange eine elektrische Spannung entsteht, wenn zwischen beiden Enden ein Temperaturunterschied herrscht. Die Flugzeughersteller könnten also klei ne Stäbe in die Haut der Flugzeugteile einsetzen und die Spannung, die zwi schen den Enden dieser Stäbe entsteht, abgreifen.«
93
PER DU MIT FUNKWELLEN Fabian Diehm, (29 Jahre) DIPL.-ING. FÜR INFORMATIONSSYSTEMTECHNIK, derzeit wiss. Mitarbeiter und Doktorand TU Dresden Fabian Diehm erforscht die Zukunft des Mobilfunks. Als Doktorand am Institut für Nachrichtentechnik der TU Dresden will er herausfinden, wie die riesigen Datenmengen mobiler Geräte optimal von A nach B kommen. Zum Hintergrund: Allein in Deutschland gibt es 120 Millionen Mobilfunkverträge bzw. 1,5 Mobiltelefone pro Einwohner. Vierzig Prozent davon sind Smartphones – und deren Nutzer wollen telefonieren, surfen und Daten verschicken. »Die Frequenzen, die für diese Dienste zur Verfügung stehen, sind aber beschränkt, und täglich fallen mehr Daten an«, erklärt Fabian. »Damit die Systeme nicht irgendwann zusammenbrechen, suchen wir nach Wegen, wie man das vorhandene Spektrum besser nutzen kann.« Fabians Forschungsaufgabe erfordert die Kenntnis physikalischer Gesetze. Er muss wissen, wie sich Funkwellen ausbreiten, wie sie auf Hindernisse reagieren – und wie man Störungen am besten ausgleicht. Dabei hatte er in der Schule mit Physik eher wenig am Hut. Nach der 10. Klasse wählte er das Fach ab und machte in Harsewinkel bei Bielefeld in den Leistungskursen Deutsch und Englisch sein Abi. Als grobes Berufsziel hatte er sich damals Informatik vorgestellt. Erst in seiner Zivildienstzeit hörte er vom Fach Elektrotechnik – und war fasziniert. Sein Traumstudium fand er dann in einer Kombination beider Disziplinen an der TU Dresden: Informationssystemtechnik. Ein Begriff, der für Außenstehende oft schwer einzuordnen ist. »Im Mittelpunkt des Studiums stehen Informationssysteme. Die finden sich überall, wo Informationen ausgetauscht und verarbeitet werden. Zum breiten Anwendungsspek trum gehören Kommunikationssysteme wie das Internet
oder Smartphones, wichtige Anwenderbranchen sind die Luftfahrt oder die Medizintechnik«, versucht Fabian sein Fachgebiet zu beschreiben. Dabei kommt es oft darauf an, dass große Datenmengen in sehr kurzer Zeit kommuniziert und verarbeitet werden können. Und das am besten batterieschonend, mit einem möglichst geringen Energieverbrauch. Um Informationssysteme zu verstehen und weiterzuentwickeln, braucht man auch eine gewisse Leidenschaft für angewandte Mathematik. Mit ihrer Hilfe wird es erst möglich, komplexe Zusammenhänge zu beschreiben und zu optimieren. Etwa wenn während eines Festivals oder zu Silvester ganz viele Menschen gleichzeitig per Handy kommunizieren wollen – was heute oft noch dazu führt, dass das Funknetz zusammenbricht. Solche Probleme versucht Fabian mit seinen Institutskollegen mit Hilfe von Simulationen zu lösen – und schreibt darüber seine Doktorarbeit. Zu seinem beruflichen Alltag als Forscher gehört aber noch viel mehr. Fabian betreut Studenten und Vorlesungen, hält Kontakt zu Wissenschaftlern aus der ganzen Welt, reist zu internationalen Fachtagungen, hält Vorträge und organisiert Konferenzen. Und er muss Gelder für die Forschung organisieren. Das heißt: Anträge schreiben, Berichte verfassen, neue Fördermittelquellen suchen. »Das kann manchmal etwas langatmig sein«, gibt Fabian zu. »Aber wenn wir dann sehen, wie unsere Forschung dazu beiträgt, das Leben vieler Menschen zu verbessern, macht uns das auch sehr stolz.« Was er damit meint, erklärt Fabian am Beispiel des Arabischen Frühlings: »Diese Freiheitsbewegung wäre so nicht möglich gewesen, wenn die Menschen in Nordafrika und der arabischen Welt sich nicht kurzfristig und jenseits staatlicher Kontrollen hätten verständigen können. Die Basis dafür sind moderne Mobilfunksysteme – und genau dafür forschen wir.«
AUSBILDUNG & BERUF ÜBERSICHT MÖGLICHER BERUFE Einstiegsgehälter (Jahresgehalt) Universitätsabsolventen: ab 50.000 Euro Fachhochschulabsolventen: 40.000 – 50.000 Euro Ausbildungsabsolventen: 20.000 – 24.000 Euro (jeweils abhängig vom Berufsbild und der Größe des Unternehmens) Auswahl von Studiengängen, deren Absolventen in der Halbleiterindustrie gebraucht werden: • Elektro- und Informationstechnik • Mechatronik und Mikrotechnik • Informatik • Maschinenbau, Schwerpunkt Konstruktion • Nachrichtentechnik • Verfahrens- und Chemietechnik • Automatisierungs- und Produktionstechnik • Wirtschaftsingenieurwesen, Schwerpunkt Logistik
Auswahl von Ausbildungsberufen, deren Absolventen in der Halbleiterindustrie gebraucht werden: • Elektroniker/-in (z. B. Automatisierungsoder Informationstechnik) • Fachinformatiker/-in (z. B. für Anwendungsentwicklung) • Industrietechnologe/-technologin (z. B. Automatisierungs- / Nachrichtentechnik) • IT-System-Elektroniker/-in • Industriemechaniker/-in • Informationselektroniker/-in
DIRK GNEWEKOW
Unternehmensberater bei Mercuri Urval, Leiter des Arbeitskreises Personal entwicklung beim Silicon Saxony e. V. • Studium der Sozialarbeit und Soziologie • Tätigkeiten als Projekt- und Bereichs leiter in der Marktforschung sowie als Senior Recruitment Manager eines internationalen Halbleiterkonzerns • Unternehmensberater bei Mercuri Urval • Director, Manager Products & Services • Beratungsschwerpunkte: u.a. Suche / Auswahl von Fach- und Führungskräften, Potenzial analysen, interne Personalentwicklung
Duales Studium (Studium mit integrierter Berufsausbildung an einer Berufsakademie): • Ingenieur für Mechatronik • Ingenieur für technische Informatik • Ingenieur für Fahrzeugelektronik
Elbe
LEIPZIG
DRESDEN
FREIBERG
CHEMNITZ Ausbildung Forschung
AUSBILDUNG UND FORSCHUNG IN SACHSEN DRESDEN Ausbildung Technische Universität Dresden dresden chip academy (dca) Forschung »Nanoelektronische Technologien« am Fraunhofer-Institut IPMS, Dresden Nanoelectronic Materials Laboratory gGmbH (NaMLab), Dresden Helmholtz-Zentrum Dresden-Rossendorf e. V. (HZDR) Fraunhofer-Institut für Elektronenstrahl- und Plasmatechnik (FEP), Dresden Zentrum für mikrotechnische Produktion (ZμP), Dresden Vodafone Stiftungslehrstuhl für Mobile Nachrichtensysteme, Dresden Fraunhofer IZM – All Silicon System Integration Dresden (ASSID) Fraunhofer-Institut für Photonische Mikrosysteme (IPMS), Dresden Institut für Angewandte Photophysik (IAPP), TU Dresden Fraunhofer-Einrichtung für Organik, Materialien und Elektronische B auelemente (COMEDD), Dresden LEIPZIG Ausbildung Hochschule für Telekommunikation Leipzig (HfTL)
CHEMNITZ Ausbildung Technische Universität Chemnitz Forschung Zentrum für Mikrotechnologien (ZfM), TU Chemnitz Fraunhofer-Institut für Elektronische Nanosysteme (ENAS), Chemnitz Institut für Print- und Medientechnik der Technischen Universität Chemnitz (pmTUC) FREIBERG Ausbildung Technische Universität Bergakademie Freiberg Forschung Helmholtz-Institut Freiberg für Ressourcentechnologie Fraunhofer-Technologiezentrum Halbleitermaterialien (THM), Freiberg
95
IMPRESSUM Copyright der deutschsprachigen Ausgabe © 2013 by 3D Infotainment Technologies UG (haftungsbeschränkt) Dieses Buch wurde gestaltet und produziert von 3D Infotainment Technologies UG (haftungsbeschränkt), Bayreuther Str. 32, D-01187 Dresden, Telefon: 0049 351 470 84 26, www.3dit.de Titel der deutschsprachigen Ausgabe »NanoScout. Spannende Welt der Mikroelektronik« Auftraggeber Technischen Universität Dresden, www.tu-dresden.de produziert im Rahmen des Bildungsprojektes des Cool Silicon e. V., www.cool-silicon.de/projekte/ Gefördert vom Bundesministerium für Bildung und Forschung, www.bmbf.de Konzeption, Redaktion und Autor: Ingolf Seifert Fachcoach Mikroelektronik: Dr. Henry Wojcik Texte: Guntrade Roll, Henry Wojcik (S. 66, 67), Berit Tolke (S. 93-95), Ingolf Seifert (übrige Seiten) Grafiken: Ingolf Seifert, Arne Rein, Lorenz Wieseke, Stefan Schmutz, Frank Zimmer Grafikdesign und Layout: Arne Rein Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb des Urhebergesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Es ist deshalb nicht gestattet, Abbildungen dieses Buches zu scannen, in PCs oder auf CDs zu speichern oder in Computern zu verändern oder einzeln oder zusammen mit anderen Bildvorlagen zu manipulieren, es sei denn mit schriftlicher Genehmigung des Verlages. Bei der Anwendung in Beratungsgesprächen, im Unterricht und in Kursen ist auf dieses Buch hinzuweisen. Jede gewerbliche Nutzung der Arbeiten und Entwürfe ist nur mit Genehmigung von Verfasser und Verlag gestattet. Wichtiger Hinweis Die Verfasser und der Verlag haben die im Buch veröffentlichten Inhalte mit größter Sorgfalt erarbeitet und geprüft. Eine Garantie kann dennoch nicht übernommen werden. Ebenso ist eine Haftung der Verfasser und des Verlages und ihrer Beauftragten für Personen-, Sach- oder Vermögensschäden ausgeschlossen. Printed in Germany ISBN 978-3-00-041950-8 Bitte besuchen Sie uns auch im Internet unter der Adresse: www.3dit.de
Das Mikrochip-ABC Für eine menschliche Welt und einen grünen Planeten Alles über integrierte Schaltkreise: Einsatz, Herstellung, Berufschancen, Handbuch, Homepage, Unterrichtsleitfaden und Lernsoftware für Schüler, Lehrer und Studenten → erscheint 2014, www.mikrochip-abc.de ABBILDUNGSVERZEICHNIS Organisation / Firma / Vorname Name (Archiv) [Seitenzahl] Kapitel 1 – Einführung: Die Welt braucht dich Thomas Mikolajick / Cool Silicon e. V. [3], Iakov Kalinin, Sasha Radosavljevic (@ istockphoto) [6], Alexey Khrulev (@wikipedia. de), Infineon Dresden, Globalfoundries [4/5], Iakov Kalinin, Sasha Radosavljevic (@ istockphoto) [6], Armin Kübelbeck (@wikipedia. de) [8/9], Corbis [10], SIO Scripps Institution of Oceanography (UC San Diego) [11], NGDC (GLCF/USGS/DLR) [12], SIO [12], AWI Alfred-Wegener-Institut [14], Falk Blümel (@pixelio.de) [15], 3Dit [16/17], AWI Sepp Kipfstuhl, Hannes Grobe [18/19] Kapitel 2 – Basics: Ein wenig Grundlagenwissen Alexey Khrulev (@wikipedia.de) [20], Regina Hartfiel (privat) [22], Siemens-Pressebild (#SOICSG201201-01) [24], BMVBS [26], Jacobo Cortés Ferreira (@cgtextures.com) [30] Kapitel 3 – Fertigung: So entsteht ein Mikrochip Infineon Dresden [40], Infineon Dresden [42], Hagen Rötz [43], Purdue University [43], Birgit Tippelt (@Infineon Dresden) [43], Infineon Dresden [44], Namlab [66], Katharina Knaut [67] Kapitel 4 – Cool Silicon: Klimaschutz auf Ingenieursart GLOBALFOUNDRIES [72, 79], Fraunhofer IPMS, SAW, Infineon [74], silicon saxony [75], Areasur (@istockphoto) [75], Google [77], Intel [77], BMW GROUP [83], IZFP [84], uniball (@istockphoto) [87], Katharina Knaut [93] [94], Dirk Gnewekow [95], Sebastian Bernhard (@pixelio.de) [95] Umschlag José Manuel Ferrão (@istockphoto) [U2], Agricultural Research Service [U3] alle weiteren Fotos, Abbildungen und 3D-Darstellungen © 3Dit, 2013
DIE WELT STEHT VOR EINER EPOCHALEN UMWÄLZUNG. Die globale Erwärmung zwingt die Menschheit, das System ihrer Energieerzeugung bis zum Jahr 2050 vollständig auf Sonne, Wind und Erdwärme umzustellen – eine technische Revolution kündigt sich an, die in ihrer Tragweite wohl alles Dagewesene übertrifft. Die Ingenieure der elektronischen Industrie werden in vorderster Reihe an dieser Revolution mitwirken – denn eine Gesellschaft, in der Wohlstand und Fortschritt nicht auf Umweltzerstörung und rücksichtsloser Ressourcenausbeutung beruhen, ist ohne Mikroelektronik nicht denkbar. Wir müssen viele der nützlichen Geräte, die wir schon heute im Alltag benutzen, in Zukunft sehr viel mehr mit Intelligenz versehen. Wir brauchen zum Beispiel Computer, die von selbst ihren Stromverbrauch drosseln, wenn sie nicht so viel zu tun haben, und Kühlschränke, die sich automatisch für ein bis zwei Stunden abschalten, wenn die Solar anlage auf dem Dach mal nicht genug Strom liefert. In diesem Buch erfährst du, wie solche Lösungen möglich sind. Wir erklären dir, wie Elektronik-Ingenieure technische Geräte und Systeme mit der Fähigkeit ausstatten, selbständig und zielgerichtet zu handeln, sich selbst zu überwachen und auf ihre Umwelt zu reagieren. Damit du verstehst, wie solche Lösungen funktionieren, »impfen« wir dich im Kapitel »Bascis« ein wenig mit Grundlagenwissen. Du erfährst, was ein Halbleiter ist, wie ein Transistor funktioniert, und wie ein Mikrochip logische Operationen ausführt. Im Kapitel »Fertigung« reisen wir mit dir durch den Fertigungsprozess eines integrierten Schaltkreises. Und im Kapitel »Cool Silicon« erfährst du schließlich, wie sächsische Ingenieure zur globalen Energie-Wende beitragen.
Der NanoScout ist ein Gemeinschaftsprojekt der folgenden Partner: