Bulletin CHF 12.–
8. Mai 8 mai 5/2009
€ 8,50
Fachzeitschrift und Verbandsinformationen von Revue spécialisée et informations des associations
und et
Informationstechnik Techniques de l’information Quantencomputer Vorschlag für ein neues Internetprotokoll Solarzellen aus Plastikfolie Messdatenaustausch für EVUs
EditoriAl ÉditoriAl
Kern- oder Atomenergie? Das ist hier die Frage …
Stephanie Berger, Chefredaktorin Verband Schweizerischer Elektrizitätsunternehmen (VSE)
Es gibt in der Energieindustrie kein anderes Wort, auf das selbst im Zwiegespräch mit Kollegen so geachtet wird. Die Tage der höchsten Aufadung der semantischen Debatte gehören aber wohl der Vergangenheit an: So belegten etwa Umfrageergebnisse in den 70er-Jahren, dass die Bevölkerung Atomkraftwerke sicherheitstechnisch anders einstuft als Kernkraftwerke. Seitdem ist in Europa viel Wasser durch Kühlturme verdampft: Während in der Schweiz die Vorteile von neuen Reaktoren in jeweils Beznau, Gösgen oder Mühleberg diskutiert werden, werden anderorts Grundsatzentscheidungen zur Atomenergie getroffen. Beispielsweise seien genannt Schweden, wo die Regierung Anfang Jahr das Moratorium für Reaktorneubauten aufhob, oder Polen,
das bis spätestens 2020 ein eigenes KKW ans Netz bringen will. Und schliesslich Russland, wo vor ein paar Tagen eine neue «Miss Atom» gewählt wurde. Selbst Walter Hohlefelder, Präsident des deutschen Atomforums, stellte fest, dass das neue Selbstverständnis der Branche nicht mehr vor dem Präfix «Atom» zu zucken brauche. In dieser Ausgabe widmet sich das Bulletin besonders der Kernenergie. Beiträge über Atomenergie bringen wir selbstverständlich auch.
Energie nucléaire ou atomique? C‘est ici la question … Stephanie Berger, Rédactrice en chef Association des entreprises électriques suisses (AES)
Dans l’industrie énergétique, il n’y a pas d’autre mot qui suscite autant l’attention, même au cours d’une discussion avec des collègues. Les journées des grands débats sémantiques font partie du passé: au cours des années 70, une enquête a abouti à la conclusion que la population classait les centrales atomiques à un autre niveau de sécurité que les centrales nucléaires. Depuis, beaucoup d’eau a coulé sous les ponts en Europe: pendant qu’en Suisse, les avantages de nouveaux réacteurs à Beznau, Gösgen ou Mühleberg font l’objet de discussions, des décisions de principe sont prises sur l’énergie atomique à d’autres endroits. Comme par exemple en Suède où le gouvernement a levé le moratoire pour la construction de nouveaux réacteurs en début d’année, ou en Pologne où le gouvernement souhaite
mettre sa propre centrale nucléaire en service au plus tard en 2020. Et finalement en Russie où une nouvelle «Miss Atome» a été élue il y a quelques jours. Même Walter Hohlefelder, président du forum atomique allemand, a constaté que la branche n’a plus besoin de frémir lorsqu’elle utilise l’adjectif «atomique». Ce numéro du Bulletin est essentiellement dédié à l’énergie nucléaire. L’énergie atomique y est bien entendu aussi traitée.
Bulletin 5 / 2009 BULLETIN
3
InhaltsverzeIchnIs table des matIères
13
Wie Notkühlsysteme eine Kernschmelze verhindern Als 1979 im Kernkraftwerk von Three Mile Island eine Reihe von kleinen Problemen zu einer Kernschmelze führten, wurde die Sicherheit der Kernkraftwerke überdacht – und daraufhin die Anlagen weltweit nachgerüstet. Heute ist die Wahrscheinlichkeit einer Kernschmelze wesentlich kleiner.
26
Radioaktivität
Wie gefährlich sind radioaktive Strahlen? Jeder Mensch und jeder Kubikmeter Erde enthält von Natur ergeerggq aus radioaktive Atome. Entscheidend ist die Dosis. Wobei sich die Experten streiten, wo qwqerfgb der untere Schwellwert liegt, qergqergqwerg unter dem die radioaktive qergqerfg ergb Strahlung ungefährlich ergwerg wergwerg wqergg ist ertrwtbh.
Politik und Wirtschaft
Technologie
9
Guido Santner Wie Notkühlsysteme eine Kernschmelze verhindern
36
Guido Santner Wie Notkühlsysteme eine Kernschmelze verhindern
15
Walter Rüegg Wie gefährlich sind radioaktive Strahlen?
39
Walter Rüegg Wie gefährlich sind radioaktive Strahlen?
21
David Tréfás Die mediale Auseinandersetzung um die Atomkraft
27
Klaus Wortmann (Wie) aus Viel weniger Viel mehr machen?
45
Guido Santner Wie Notkühlsysteme eine Kernschmelze verhindern
52
Walter Rüegg Wie gefährlich sind radioaktive Strahlen?
55
David Tréfás Die mediale Auseinandersetzung um die Atomkraft
63
33
4
Sicherheit von Kernkraftwerken
Technologie Erwin Schärer Linthal 2015 – Meilenstein für die Schweizer Wasserkraft
bulletin 5 / 2009 BULLETIN
Bild / Illustration: Pia Thür
InhaltsverzeIchnIs table des matIères
58
Abstimmung über Kernkraftwerke
Titelbild
Die mediale Auseinandersetzung um die Atomkraft
Wenn über Kernkraftwerke gesprochen wird, vermischen sich Technik, Wirtschaft und Politik. Wer also ein Neues bauen will, muss alle drei Bereiche beherrschen (siehe auch Beitrag auf Seite 9).
Die Debatte um die Energieversorgung ist voll im Gang, und Bewilligungsgesuche für neue Kernkraftwerke sind eingereicht. In wenigen Jahren werden die Schweizer darüber abstimmen. Der Artikel analysiert die aktuelle Kommunikation über Kernkraftwerke und untersucht, welche Reputation die Atomkraft.
Photo de couverture Dès que l’on parle de centrales nucléaires, technique, économie et politique se mélangent. Qui donc veut en construire une nouvelle doit maîtriser les trois domaines (voir également l’article en page 9).
Verbände und Organisationen
58 68
59
Guido Santner Wie Notkühlsysteme eine Kernschmelze verhindern
Rückblick – Rétrospective Walter Rüegg Wie gefährlich sind radioaktive Strahlen?
75
120. (ordentliche Generalversammlung des VSE
82
125. (ordentliche) Generalversammlung von Electrosuisse
61
David Tréfás Die mediale Auseinandersetzung um die Atomkraft
64
David Tréfás Die mediale Auseinandersetzung um die Atomkraft
68
Erwin Schärer Linthal 2015 – Meilenstein für die Schweizer Wasserkraft
45
Branche
60
Energiepolitik – Politique énergétique
63
Technologie
71
Veranstaltungen – Manifestations
92
Veranstaltungskalener – Calendrier des manifestations
94
Produkte – Produits
96
Normung – Normalisation
bulletin 5 / 2009 BULLETIN
5
InSpIratIon InSpIratIon
Entsteht Supraleitung doch ganz anders? Physiker Hubertus Luetkens über die Konsequenzen seiner Forschung Vor 20 Jahren wurden die ersten Hochtemperatursupraleiter entdeckt: kompliziert aufgebaute Substanzen auf Kupferbasis. Seit Anfang 2009 ist nun eine neue Klasse von Hochtemperatursupraleitern auf Eisenbasis bekannt, die den bisher bekannten ähnelt. So haben alle Substanzen gemeinsam, dass ihre Kristallstruktur in Schichten aufgebaut ist und der Strom in diesen Schichten fliesst. Gemeinsam ist auch, dass sie aus einer nicht supraleitenden Ausgangssubsubstanz entstehen, wenn man bestimmte Atome ersetzt und so gezielt die Menge an elektrischen Ladungen verändert. Der Ausgangsstoff für die Kupfersupraleiter ist ein magnetischer Isolator, der bei wachsendem Gehalt an Fremdatomen zunächst allmählich seinen Magnetismus verliert und schliesslich supraleitend wird. Dieser Ablauf galt bislang als Standard für die Vorgänge in Hochtemperatursupraleitern und war die Basis. Die Forscher am Paul-Scherrer-Institut zeigten nun, dass es auch anders geht: Der Ausgangsstoff der neuen Eisensupraleiter ist ein Metall, das bei einer bestimmten Menge Fremdatomen schlagartig vom magnetischen zum supraleitenden Zustand wechselt. Das heisst, dass der magnetische Zustand die Supraleitung unterdrückt. Diese kann sich dann sofort
scheinlich möglich, die Supraleitung bei höheren Temperaturen zu erzeugen.» erläutert der Physiker Hubertus Luetkens die Konsequenzen seiner Forschung. «Die erwähnte strukturelle Dresden. Vor 20 Jahren wurden die ersten Hochtemperatursupraleiter entdeckt: kompliziert aufgebaute Substanzen auf Kupferbasis. Seit Anfang 2009 ist nun eine neue Klasse von Hochtemperatursupraleitern auf Eisenbasis bekannt, die den bisher bekannten ähnelt. So haben alle Substanzen gemeinsam, dass ihre Kristallstruktur in Schichten aufgebaut ist und der Strom in diesen Schichten fliesst. Gemeinsam ist auch, dass sie aus einer nicht supraleitenden Ausgangssubsubstanz entstehen, wenn man bestimmte Atome ersetzt und so gezielt die Menge an elektrischen Ladungen verändert. Der Ausgangsstoff für die Kupfersupraleiter ist ein magnetischer Isolator, der bei wachsendem Gehalt an Fremdatomen zunächst allmählich seinen Magnetismus verliert und schliesslich supraleitend wird. Dieser Ablauf galt bislang als Standard für die Vorgänge in Hochtemperatursupraleitern und war die Basis. Die Forscher am Paul-Scherrer-Institut zeigten nun, dass es auch a rtbgegrb erbgtergt erbgerwg erberbg erbgerg ertbertb erhtertbh ehtertbhergb. (PSI/gus)
Kristallstruktur des eisenbasierten Supraleiters. Die magnetischen und supraleitenden Eigenschaften der Schicht aus Eisenatomen (goldene Kugeln) werden mithilfe von Myonen (weisser Pfeil) untersucht. entfalten, sobald der magnetische Zustand zerstört wird. Dabei verschwindet gleichzeitig eine Verzerrung des Kristallgitters. «Wenn man diese Verzerrung und den damit gekoppelten Magnetismus gezielt unterdrücken könnte, wäre es wahr-
Das winzige Hirn einer Honigbiene ist zu erstaunlichen Leistungen fähig, denn es erkennt menschliche Gesichter auch dann, wenn die Biene diese aus einem neuen Blickwinkel sieht. Die einzige Voraussetzung ist, dass der neue Blickpunkt zwischen zwei zuvor trainierten Punkten liegt. Denn es zeigte sich, dass die Bienen zwar interpolieren können, nicht aber extrapolieren. Wurden die Tiere beispielsweise nur mit einer Frontalansicht des Gesichts trainiert, erkennen sie eine Ansicht von schräg vorne nicht. Wurden sie aber zusätzlich mit einer Seitenansicht trainiert, erkennen sie häufig auch die Schrägansicht. Offenbar ist die Interpolation eine bewährte Lösung für schwie6
Monash University
Gesichtserkennung nach dem Vorbild der Bienen
Gesichtserkennung bei verschiedenen Blickwinkeln.
rige Probleme. Wenn nämlich ein und dasselbe Objekt aus verschiedenen Richtungen betrachtet wird, können sich die Lagebeziehungen zwischen seinen Komponenten stark ändern – beispielsweise zwischen Stängel und Blütenkrone einer Pflanze, die von einer Biene umflogen wird, oder zwischen Nase und Ohren einer Person, die sich vor einer Kamera dreht. Das Bienenhirn ist mit nicht einmal eine Million Nervenzellen bemerkenswert gut darin, komplexe Aufgaben zu lösen. Daher könnte es als Vorbild für Erkennungssysteme dienen, für die verschiedene Blickwinkel qerggv derzeit noch eine ernsthafte Herausforderung. (Monash University, Newcastle University/jvb)
Bulletin 5 / 2009 BULLETIN
InSpIratIon InSpIratIon
Alex Wild, myrmecos.net
La guêpe qui a domestiqué un virus
Une guêpe Cotesia congregata en train de pondre ses œufs dans une chenille.
Pour se perpétuer, les guêpes de la famille des braconides doivent pondre leurs œufs dans des chenilles qui servent à l’alimentation des larves de la guêpe. Mais ces chenilles constituent un milieu hostile: elles sont pourvues d’un système de défense efficace qui forme une capsule de cellules immunitaires autour d’un corps étranger. Pour contourner ces défenses, au moment de la ponte dans la chenille, les guêpes injectent des particules fabriquées dans leurs ovaires. Ces particules pénètrent dans les cellules de la chenille. Elles induisent une immunosuppression et le contrôle du développement de la chenille, permettant la survie des larves de guêpe et so la la. La composition de ces particules restait hypothétique et de récents travaux avaient suggéré rtrtgwr thwrtehpuis remis en question une nature virale. Car en effet, le séquençage de leur ADN srtgwrg démontrait l’absence du dispositif nécessaire à leur erthwrth erthrth réplication, commun à tous les virus.
Désormais des scientifiques viennent decouvrir la composition de ces particules. Ces particules contiennent des gènes issus d’un virus dont le génome a ét Au cours de ces millions d’années d’évolution, l’ancêtre de l’insecte a donc intégré dans son propre génome celui d’un nudivirus. Il lui a enlevé la partie nuisible, dont celle assurant sa réplication, ne lui permettant plus que de produire des particules virales ne contenant que des gènes de virulence. Introduits dans le corps de l’hôte parasité, ceux-ci en détournent les moyens de défense qui oublient alors de s’attaquer aux œufs. Ces résultats sont particulièrement intéressants pour concevoir de nouveaux vecteurs de thérapie génique. Cette technique thérapeutique rthertg ertghertghconsiste à introduire des gènes dans des cellules ou des tissus d’un individu pour traiter une maladie. Ce ertghertg ertg transfert de gènes est possible grâce à un virus inactivé utilisé comme vecteur. (CNRS/Université François-Rabelais Tours/jvb)
Flash-Message
Die Infrarotkamera zeigt Lufteinschlüsse in Rotorblättern front im Material ausbreitet. Stösst sie auf Lufteinschlüsse oder Delaminationen, staut sie sich, weil sich Wärme in Luft schlechter ausbreitet», erklärt Hiltrud Brocke, Projektleiterin am Institut. Einige cm tief blicken die Forscher auf diese Weise in das Material hinein. (Fraunhofer-WKI/gus) Fraunhofer-WKI
Auf den ersten Blick wirkt das Rotorblatt einer Windmühle makellos. Doch der Experte weiss, dass auf äussere Schönheit kein Verlass ist: Er klopft die Oberfläche ab, lauscht. Ein satter, tiefer Ton lässt ihn wissen, dass das Laminat homogen ist, ein eher flacher, hohler Ton deutet auf Unstetigkeiten im Material hin. Oberflächennahe Delaminationen und Hohlstellen ab einer gewissen Grösse kann der Sachverständige auch erkennen, indem er mit der Hand über die Oberfläche streicht. Aber selbst ein erfahrener Prüfer findet auf diese Weise nicht alle versteckten Fehler. Rotorblätter bestehen aus Glasfasern, die als Matten verarbeitet werden: Um ein 60 m langes Rotorblatt zu formen, werden Hunderte solcher Matten plan in eine Form gelegt und im Vakuum mit Harzen imprägniert. Kleine Unregelmässigkeiten bilden Luftblasen oder andere Fehler. Forscher vom FraunhoferWilhelm-Klauditz-Institut machen diese sichtbar: «Die Oberfläche wird kurz mit einem Infrarotstrahler erwärmt. Eine Spezialkamera zeigt, wie sich die Wärme-
Nanotransistor aus oxidierten Metallen
Thermografische Aufnahme von Lufteinschlüssen (hell) in einem Rotorblatt.
Die Schaltkreise aus Metalloxid sind etwa 10-mal winziger als die kleinsten Siliziumtransistoren. Sie bestehen aus 2 – 4 nm dicken Schichten aus den Oxiden von Lanthanaluminat und Strontiumtitanat, deren Leitfähigkeit sich durch Spannungspulse gezielt schalten lässt. Dabei können sie Informationen nicht flüchtig speichern – der Wert geht also nicht verloren, wenn die Versorgungsspannung ausgeschaltet wird. Mit positiven und negativen Spannungspulsen, die aus einer Spitze eines Atomkraftmikroskops auf die Metalloxidstrukturen wirken, kann zwischen isolierenden und leitfähigen Zuständen hin- und hergeschaltet werden. Der Unterschied in der Leitfähigkeit ist dabei gross genug, um zwischen den digitalen Werten 0 und 1 unterscheiden zu können. Der Grund für diese schaltbaren elektronischen Eigenschaften könnte in einer durch die Spannungspulse verursachten Umordnung der enthaltenen Sauerstoffatome liegen, doch endgültig geklärt ist dieses Phänomen noch nicht. (Universität Augsburg/jvb)
Bulletin 5 / 2009 BULLETIN
7
Politik unD WirtsChaFt Quantencomputer PolitiQuE Et éConomiE ordinateur de Quantité
Quantencomputer Wenn ein Bit gleichzeitig 0 und 1 ist
Je kleiner die Elektronik, desto grösser der Einfluss der Quantenphysik. Ein Bit ist dann nicht mehr nur eine 0 oder eine 1, sondern kann etwas dazwischen sein – eine Überlagerung der beiden Zustände. Einen klassischen Computer bringt dies durcheinander, die Forscher wollen die Quantengesetze nun aber gezielt nutzen, um leistungsfähige Quantencomputer zu entwickeln. Diese könnten Verschlüsselungen, die heute als sicher gelten, leicht knacken.
Zustand 1 sein. Quantenmechanisch kann der Zustand eines Qubits als Punkt auf einer Kugeloberfläche, genannt Blochsphäre, dargestellt werden (siehe Bild 1). Dabei entspricht der Nordpol dem klassischen Zustand 0 und der Südpol dem Zustand 1. Alle anderen Positionen sind Überlagerungen dieser zwei Zustände. Mehrere Qubits können nun zu einem Quantenregister zusammengefügt werden. Die Annahme, dass der Zustand von zwei Qubits einfach durch zwei Kugeln beschrieben wird, ist jedoch falsch. Der Raum, der diese zwei Qubits beschreibt, hat schon 6 Dimensionen und wächst exponentiell mit der Anzahl Qubits. Während ein klassisches Register mit N Bits nur in einem Zustand zur selben Zeit ist, kann ein Quantenregister eine Überlagerung von allen 2N Zuständen annehmen. Hätte man ein Register mit 500 Qubits, wäre die Zahl der Zustände grösser als die Zahl der Atome im Universum. Dies illustriert das Potenzial eines Quantenregisters – und das Ziel eines Quantencomputers ist, diese Leistungsfähigkeit auszunutzen.
Johannes Majer
diese Effekte zunutze zu machen und einen qualitativ besseren Computer herzustellen, der auf den Gesetzen der Quantenmechanik basiert. Motiviert durch diese Perspektiven, sind grosse Aktivitäten in der Grundlagenforschung der Physik und der Informatik entstanden.
Quantenbits Wie in der klassischen Informationsverarbeitung ist die Grundeinheit ein Bit, hier ein Quantenbit oder kurz: Qubit. Für ein klassisches Bit sind nur zwei Zustände möglich, 0 oder 1. Da die Quantenmechanik Zustände durch Wellen beschreibt, sind für ein Qubit auch Überlagerungen möglich. Das heisst, ein Qubit kann sowohl im Zustand 0 als auch im z
0
Quantenalgorithmen
TU Wien
Die Computertechnologie ist in den letzten Jahren fast ungebremst gewachsen. Durch den Einsatz von Mikrotechnologie werden die Bauteile ständig verkleinert, sodass die Anzahl der Transistoren sich alle 18 Monate verdoppelt, was als Mooresches Gesetz bekannt ist. Dabei stellt sich die Frage unweigerlich, ob diese Entwicklung einfach so weitergehen kann. Spätestens wenn die Grösse eines Bauteils diejenige eines einzelnen Atoms erreicht hat, ist das Ende dieser Entwicklung erreicht. Bei dieser rasanten Entwicklung und Begriffen wie «virtuelle Informationsverarbeitung» könnte man den Eindruck erhalten, dass die Informatik keine physikalischen Grenzen kennt. Indessen ist aber zu beachten, dass jeder Information ein physikalischer Zustand zugrunde liegt. Zum Beispiel entspricht die Information eines Bits in einem D-RAM-Speicher der Ladung auf einem Kondensator; oder auf einer Harddisk der Ausrichtung der Magnetisierung. Informationsverarbeitung ist daher immer ein physikalischer Prozess, seien die beteiligten Effekte noch so klein. Dieser Umstand wird sofort plausibel, wenn man die Abwärme beachtet, die durch ein modernes Rechenzentrum produziert wird. Unser tägliches Leben, aber auch die modernsten Computer werden bestimmt durch die Gesetze der klassischen Physik. Und die Grundlage der Physik bildet wiederum die Quantenmechanik. Daher stellt sich die Frage, ob es nicht möglich wäre, sich
y x
1
Bild 1 Blochsphäre. Beschreibung des Zustands eines Qubits auf der Blochspäre. Nord- und Südpol stellen die klassischen Zustände 0 und 1 dar, während alle anderen Zustände durch Überlagerungen entstehen.
Ein Quantencomputer führt einen Algorithmus aus, indem er die Zustände eines Quantenregisters manipuliert. Da die Operationen der Quantenmechanik gehorchen, müssen sie unitär, das heisst reversibel sein. Wünschenswert wäre ein universeller Block, aus dem jede beliebige unitäre Operation aufgebaut werden kann. In der klassischen Boolschen Logik ist ein solcher Block bekannt, das NAND-Gatter (Bild 2). Jede beliebige Boolsche Operation lässt sich ausschliesslich aus einzelnen NAND-Gattern aufbauen. Leider ist das NAND-Gatter für einen Quantencomputer nicht geeignet, da es nicht reversibel ist, d.h., der Eingangszustand lässt sich nicht mehr aus dem Ausgangszustand herleiten. In der Quantenlogik ist bis jetzt noch kein einzelner universeller Block bekannt. Jedoch lässt sich jede unitäre Operation durch zwei universelle Blöcke bilden (Bild 2): Der erste sind einzelne QubitBulletin 5 / 2009
BULLETIN
9
klassisch
quantum
R
NAND
CNOT
Bild 2 Universelle Gatter.
TU Wien
Aus einem NAND-Gatter kann jede Boolsche Logik eines klassischen Computers aufgebaut werden. Jeder Quantenalgorithmus kann gebildet werden durch einzelne Qubit-Rotationen und einen Controlled Not (CNOT).
R /2
x
x
R /2
f(x)
R /2
Bild 3
y
y
f(x)
Quantenlogik zur Implementierung des Deutsch-Josza-Algorithmus.
Zu beachten ist, dass im Gegensatz zu einem klassischen Computer die Linien nicht elektrische Leitungen sind, sondern die zeitliche Evolution eines Qubits darstellen.
Rotationen, d.h. beliebige Bewegungen auf der Kugeloberfläche. Der zweite Block besteht aus zwei Qubit-Operationen, wobei das Ziel-Qubit invertiert wird, falls das Kontroll-Qubit im Zustand 1 ist – und nur dann. Diese Operation wird Controlled Not (CNOT) genannt. In der Boolschen Logik ist eine solche Operation als XOR bekannt. Diese zwei Blöcke erlauben es, jede beliebige Quantenoperation auszuführen. Ein Quantenalgorithmus versucht nun, mit diesen universellen Blöcken ein Problem schneller zu lösen als ein klassischer Computer, indem Gebrauch gemacht wird vom Überlagerungsprinzip. Ein einfaches Beispiel ist der DeutschJosza-Algorithmus (Bild 3). Leider ist das Problem nicht sehr relevant und nur von akademischem Interesse, illustriert aber gut die Funktion eines Quantencomputers: Die Problemstellung lautet, festzustellen, ob eine Münze fair ist, sprich: ob sich auf einer Seite Kopf und auf der anderen eine Zahl befindet oder ob es sich um eine gefälschte Münze mit zwei Köpfen (resp. Zahlen) handelt. Während man klassisch alle Möglichkeiten prüfen, d.h. 10
beide Seiten anschauen muss, nutzt ein Quantencomputer das Überlagerungsprinzip. Die Münze wird in eine Überlagerung der zwei Seiten gebracht und vom Quantencomputer überprüft, womit sie nur einmal angeschaut werden muss. Ein viel relevanteres Problem versucht der Grover-Algorithmus zu lösen, nämlich die Suche in einer unstrukturierten Datenbank. Da die Daten nicht sortiert sind, bleibt einem klassischen Computer nichts anderes übrig, als alle Datensätze anzuschauen, bis der gewünschte Eintrag gefunden ist. Ein Quantencomputer nimmt das Überlagerungsprinzip zu Hilfe und kann massiv parallel suchen. Der Grover-Algorithmus findet den gesuchten Eintrag quadratisch schneller als ein klassischer Computer. Der wohl berühmteste und interessanteste Quantenalgorithmus ist der ShorsAlgorithmus zur Suche von Primfaktoren. Das Problem, das der Algorithmus zu lösen versucht, ist, zu einer grossen Zahl die Zerlegung in Primzahlen zu finden. Auf einem klassischen Computer steigt der Aufwand dazu exponentiell an. Das bedeutet, dass es zwar nicht unmög-
lich ist, die Primzahlen zu finden, dass man aber leicht die Zahl so gross machen kann, dass sämtliche Computer zusammen Jahre brauchen würden, um das Problem zu lösen. Auf diesem mathematischen Umstand basieren moderne Kryptografiealgorithmen wie der RSAAlgorithmus, der die sichere Kommunikation zwischen Banken und auf dem Internet garantiert. Peter Shor hat gezeigt, dass sein Algorithmus auf einem Quantencomputer das Problem in polynomialer Zeit lösen kann und somit ein Brechen der Codes möglich wäre. Die Frage stellt sich natürlich, ob jedes Problem viel schneller mit einem Quantencomputer gelöst werden könnte. Diese Frage wurde noch nicht beantwortet und ist ein aktives Forschungsgebiet der Mathematik. Zur Charakterisierung werden die verschiedenen Probleme in Komplexitätsklassen eingeteilt (Bild 4). Die allgemeinste Klasse ist PSPACE, die alle Probleme umfasst, die polynomiale Grösse im Speicher beanspruchen. Das bedeutet, sie sind effektiv auf einem Computer programmierbar; es kann aber durchaus sein, dass die Lösung sehr lange dauert. Eine weitere Klasse ist NP, die Probleme beinhaltet, die effektiv, d.h. in polynomialer Zeit, überprüfbar sind. Die Primfaktorisierung ist genau ein solches Problem: Man kann sehr schnell überprüfen, ob die Primfaktoren in der Tat die Zahl ergeben, das Suchen der Primfaktoren ist hingegen eine sehr aufwendige Aufgabe. Eine weitere Klasse ist P, die Klasse der Probleme, die effektiv auf einem klassischen Computer gelöst werden können. Dazu gehört die Multiplikation von zwei Zahlen. Die Klasse der Probleme, die effektiv auf einem Quantencomputer gelöst werTU Wien
TU Wien
Politik unD WirtsChaFt Quantencomputer PolitiQuE Et éConomiE ordinateur de Quantité
PSPACE
NP
BQP? P
Bild 4
Komplexitätsklassen.
Verhältnis zwischen klassischen und Quantum-Klassen. Ein Quantencomputer BQP löst sicher alle Probleme von P, und sicher keines, das sich nicht in PSPACE befindet. Wo sich aber BQP zwischen P, NP und PSPACE befindet, ist noch nicht bekannt.
Bulletin 5 / 2009 BULLETIN
Politik unD WirtsChaFt Quantencomputer PolitiQuE Et éConomiE ordinateur de Quantité
Bild 5
Supraleitender Chip.
Zwei supraleitende Qubits (roter und grüner Rahmen) koppeln durch einen supraleitenden Resonator. Die Qubits (blaue Flächen) bestehen aus Aluminium und der Resonator (grau glänzend) aus Niob. Sie werden auf einen Siliziumchip (7 × 2 mm) aufgedampft. (Quelle: Yale University)
den können, wird BQP genannt. Bis jetzt ist nur bekannt, dass P sicher ein Teil von BQP ist, d.h., was ein klassischer Computer schnell löst, kann auch ein Quantencomputer schnell bearbeiten. Zudem kann ein Problem, das nicht zu PSPACE gehört, auch nicht von einem Quantencomputer gelöst werden: Ein Problem, das exponentiell viele Bits braucht, wird auch exponentiell viele Qubits brauchen. Wo aber BQP sich zwischen den Klassen befindet und welche Probleme zu welchen Klassen gehören, sind Fragen der aktuellen Forschung.
Technologische Realisierungen Motiviert durch die theoretischen Möglichkeiten, versuchen heute experimentelle Forscher, den Quantencomputer zu realisieren; sie untersuchen die verschiedensten Systeme auf ihre Eignung als Qubit. Leider sind aber quantenmechanische Effekte extrem fragil. Zum Beispiel reicht für ein Qubit im optischen Bereich eine Energie von 10–19 Joule aus, um den Zustand zu zerstören. Der Prozess der Zerstörung des Quantenzustands wird als Dekohärenz bezeichnet, und die Kohärenzzeit misst die mittlere Zeit, in der ein Quantenzustand zerstört wird. Bei der Suche nach einem geeigneten Qubit ergeben sich leider widersprüchliche Anforderungen: Einerseits möchte man Qubits, die möglichst vom Rest der Welt entkoppelt sind und damit eine möglichst lange Kohärenzzeit aufweisen. Andererseits muss man die Qubits auch von aussen kontrollieren, um einen gewünschten Algorithmus auszuführen. Vor allem muss zum Schluss der Zustand der Qubits mit möglichst hoher Präzision gemessen werden.
Ein natürlicher Kandidat für ein Qubit ist der Kernspin eines Atoms. Im Magnetfeld hängt die Energie des Atomkerns davon ab, ob der Spin parallel oder antiparallel ausgerichtet ist. Diese zwei Zustände bilden jetzt die 0 oder die 1 eines Qubits. Durch Anlegen von Radiofrequenzfeldern kann der Zustand des Kerns kontrolliert werden. Diese Technologie wird auch in der Medizin benutzt und ist bekannt unter dem Namen Magnetic Resonance Imaging (MRI). Die verschiedenen Atomkerne eines Moleküls werden als Qubits verwendet und formen ein Quantenregister. Diese Technologie erzielt schon einige Erfolge; so wurde zum Beispiel der Shors-Algorithmus auf einem 7-Qubit-Register demonstriert. Leider stösst diese Technologie an ihre Grenzen bei der Ausdehnung auf mehr Qubits. Eine vielversprechende Technologie sind die Ionenfallen. Ein Ion, d.h. ein geladenes Atom, kann durch elektromagnetische Felder im Vakuum gefangen werden und ist daher fast ganz entkoppelt von seiner Umgebung. Die Qubits werden in den elektronischen Zuständen der einzelnen Ionen gespeichert und können mit Laserstrahlen kontrolliert und gemessen werden. Durch die elektrostatische Wechselwirkung können die Qubits wiederum kontrolliert gekoppelt werden.
résumé
Mit dieser Technologie wurde ein 8-BitQuantenregister demonstriert, und die Entwicklung spezieller Mikrofallen erlaubt den Ausbau zu mehr Qubits. Diese Ionenfallen-Technologie wird auch benutzt zum Bau von ultrapräzisen Atomuhren und sorgt damit für die Referenzzeit. Eine ganz andere Technologie bilden supraleitende Schaltungen. Dabei werden mit lithografischen Methoden Schaltkreise auf einem Chip hergestellt (Bild 5) und bei tiefen Temperaturen (< 4 Kelvin) gemessen. Die Supraleitung, d.h. das Verschwinden des ohmschen Widerstands bei diesen Temperaturen, ist ein wichtiger Aspekt dieser Schaltkreise. Ohmsche Verluste und damit Dissipation bedeutet für die Qubits Dekohärenz und muss absolut vermieden werden. Der Vorteil dieser Technologie ist, dass mit Mikrotechnologie viele Qubits in einem Schritt gebaut werden können. Zudem werden die supraleitenden Qubits mit Mikrowellensignalen kontrolliert, was einfacher ist als mit Laserpulsen. Andererseits hat diese Technologie den Nachteil, dass die Kohärenzzeiten kurz sind, da die Schaltkreise aus einem Festkörper bestehen und an viele Freiheitsgrade koppeln. Neben diesen Technologien werden weitere auf ihre Eignung als Qubits untersucht, wie Elektronenspins in Quantenpunkten, Fehlstellen in Diamanten, Atome in optischen Gittern und viele mehr. Einen vielversprechenden Ansatz bilden auch hybride Systeme, die versuchen, die Vorteile verschiedener Technologien zu kombinieren. Die aktuelle und die zukünftige Forschung werden zeigen, ob und mit welcher Technologie ein Quantencomputer gebaut werden kann.
Angaben zum Autor Dr. Johannes Majer hat an der ETH Zürich Physik s zach Forschungsaufenthalten in Holland (TU Delft) und USA (Yale University) ist er jetzt wissenschaftlicher Assistent am Atominstitut der TU Wien. TU Wien, A-1020 Wien, johannes@majer.ch, www.majer. ch/johannes
TuneInNet pourrait simplifier le transfert de données sur internet
Les données sont envoyées à tous, le destinataire fait la sélection. Les différents services à base IP (internet protocol) sur internet ont maintenant atteint une telle variété que l’effort de transfert de données augmente considérablement. TuneInNet est une idée destinée à simplifier radicalement le travail nécessaire sur le réseau. L’idée est basée sur l’hypothèse que les bandes passantes disponibles augmentent beaucoup plus fortement sur le réseau de base que le besoin hypothétiquement accumulé aux points terminaux d’un réseau.
Bulletin 5 / 2009 BULLETIN
11
PolITIk uND WIrTSchAfT NEtzwErk PolITIquE ET écoNomIE résEaux
TuneInNet könnte den Datentransfer im Internet vereinfachen Gesendet werden die Daten an alle, der Empfänger selektiert Die verschiedenen Dienste im Internet auf der Basis von IP (Internetprotokoll) erreichen heute eine Vielfalt, die den Aufwand für den Datentransfer stark anwachsen lässt. TuneInNet ist eine Idee, diesen Aufwand im Netzwerk drastisch zu vereinfachen. Sie basiert auf der Annahme, dass die verfügbaren Bandbreiten im Backbone deutlich stärker wachsen als der hypothetisch aggregierte Bedarf an allen Endpunkten eines Netzes zusammen.
spiel der verfügbaren Bandbeite oder gar der erreichbaren Verzögerungszeiten. Damit sind die Aufgaben der Router im Kern des wissenschaftlichen Problems auf die Wegewahl (Routing) und die Weiterleitung (Forwarding) beschränkt – natürlich neben den im produktiven Betrieb notwendigen Überwachungs- und Kontrollaufgaben.
Die Idee: TuneInNet
Burkhard Stiller
im Internet als Datengramme bezeichneten Daten – im Folgenden der Einfachheit halber «Pakete» genannt – den Weg vom Sender zum Empfänger finden. Wobei Sender wie auch Empfänger je ein Endpunkt im Netz darstellen. Da das Internet als robustes und ausfallsicheres Netzwerk konzipiert wurde, sind die einzelnen Router im Netz autonom darum besorgt, die den Paketen inhärenten Zielund Absenderadressen zu analysieren und anhand dieser Angaben den Weg vom Sender zum Empfänger zu finden. Dies geschieht heute typischerweise nur auf der Grundlage möglicher Wege, aber keiner weiterer Parameter, wie zum Bei-
F
E
Netz B
Netz A
S
Uni Zürich
Das ursprüngliche Internet auf der Basis von IP der 70er-Jahre war als wissenschaftliches Netzwerk von Universitäten geplant und gebaut worden. Erst die Kommerzialisierung zu Beginn der 90erJahre – unter anderem getrieben durch das World Wide Web (WWW) im Jahr 1990 – hat das Internet zu einem allumfassenden Medium für den Datentransport gemacht. Dieses muss im neuen Jahrtausend dann auch sehr verschiedenen Anforderungen diverser multimedialer Applikationen und anderer Geschäftsanwendungen standhalten. Als technische Grundlage dieses Datenaustauschs ist es essenziell, dass die
F
F
F
F
Netz C
Netz D F
E
F
Bild 1 Funktionsweise des senderbasierten Flutens von Daten in Kommunikationsnetzen mit der Möglichkeit einer hierarchischen Filterung, basierend auf Download Clearing Codes (DCCs).
E
An dieser Stelle setzt TuneInNet an und schlägt einen einfacheren Mechanismus zum Datenaustausch in einem zukünftigen Internet vor: Die Pakete werden nicht mehr anhand der Wegewahlfunktion der Router dezidiert durch das Netz geleitet, sondern im Netzwerk breit verteilt (Bild 1). Dies macht die direkte Wegewahl überflüssig. Der Ansatz ähnelt dem «Wasserfluss auf offenem Gelände» oder dem «Directed Diffusion»Ansatz. In gewisser Weise kann diese Verteilung (eben die Weiterleitung) der Pakete als ein Fluten angesehen werden, da jeder Knoten im Netz die Pakete erhält. Diese Pakete beinhalten nur wenige, verschlüsselte Zusatzinformationen (Etikette), die nur vom Empfänger korrekt interpretiert werden können – und nicht von anderen Knoten. Ferner werden Weiterleitungsentscheidungen in Netzknoten im Zusammenspiel mit Regeln (Policies) angewendet, um den Verkehr klein bzw. domänenspezifisch lokalisiert zu halten. Jedes Paket kann somit vom Empfänger an einem beliebigen Ort aus dem Netz herausgezogen werden, was ferner den Vorteil hat, dass der Mobilität der Benutzer keine Grenzen gesetzt sind und keine besonderen Protokolle für mobile Dienste notwendig sind. Um dies zu erreichen, können Pakete in Caches zwischengespeichert werden, wofür eine implizite Adressierung zwischen zwei vertrauenswürdigen Kommunikationspartnern notwendig ist. Daher verhindert dieser Ansatz auch traditionelle Denialof-Service-(DoS)-Attacken, da der Empfänger aktiv auf ein Paket zugreifen muss. Weitere Sicherheitsanforderungen, beispielsweise die Vertraulichkeit, können Bulletin 5 / 2009
BULLETIN
13
PolITIk uND WIrTSchAfT NEtzwErk PolITIquE ET écoNomIE résEaux
Architektur TuneInNet verändert somit auch die zugrundeliegende Architektur der Netzwerke positiv – sei es das Departmentof-Defence-Model des Internets oder das ISO/OSI-Basisreferenzmodell (Bild 2). Diese Veränderung ist als Vereinfachung erkennbar, da einige der bis anhin bekannten Schichten aufgelöst und fast ersatzlos gestrichen werden können. Während im heutigen Netzwerk ebenso wie in einem Tune- InNet die Schicht 1 für die Übertragung über das physikalische 14
Medium verantwortlich (drahtgebunden oder drahtlos) und die Schicht 2a für den Netzwerkzugang und deren Verteilung zuständig ist, braucht es für TuneInNet keine Schichten 2b bis 3 mehr. Die Netzwerktopologie besteht einzig aus Endpunkten und Netzknoten, wobei Letztere als Non-Forwarding Engines (NFE) bezeichnet werden, die die oben erwähnte Filterfunktion zwischen den traditionellen Subnetzen oder zwischen administrativen Domänen übernehmen. Diese NFEs ersetzen die heutigen Router vollständig und fungieren damit als «brückenartige» Firewall, da neben dem Filterungsvorgang – basierend auf den Zusatzinformationen sowie den Adressen – nur noch bei Auswertung der vorliegenden Filterregeln eine einfache Paketweiterleitung oder eben keine Weiterleitung ermittelt wird. Diese Auswertungen erleichtern damit in der Folge die Aufgaben des Netzwerkmanagements [2], da einfachere Informationsmodelle, keine Routingtabellen und -protokolle sowie eine reduzierte Anzahl von Schichten erreicht werden.
Weiterleitungsund Filtermechanismus Alle Endpunkte sind innerhalb einer Domäne angesiedelt, die selber über mindestens einen NFE an das weltweite Netz angeschlossen sind. Die Endpunkte generieren dann beispielsweise einen Paketstrom wie bis anhin auch. Zu jedem dieser Pakete wird die Empfängerindividualisierung mindestens in Form des Download Clearing Codes hinzugestellt, und dann wird beides in konkatenierter Form in das Netz versandt.1) Der erste NFE empfängt dieses Paket und entscheidet, ob das Paket an alle oder nur
einige weitere interkonnektierte NFEs weitergeleitet wird, jeweils auf der Basis der vorab definierten Filterregeln (Policies) des Anbieters. Diese Entscheidungen werden an jedem weiteren NFE für jedes Paket in gleicher Form wiederholt, jeweils aufgrund der lokal vorliegenden Regeln. Der Look-up-Mechanismus des Endpunktes erlaubt dann einem beliebigen Empfänger, die Pakete, die für ihn vorgesehen sind (anhand des im Paket enthaltenen Download Clearing Codes eindeutig erkennbar), aufzunehmen – entweder im laufenden Verkehr oder aber aus einem Cache, falls der Empfänger gerade beim Vorbeiziehen des Pakets nicht aktiv gewesen sein sollte. Dieser Look-up-Mechanismus ist somit als eine am Empfänger angewendete Filterregel anzusehen. Nach dem gleichen Prinzip können NFEs diverse weitere Filterregeln anwenden, um das vollständige Fluten von Domänen oder von deren Teilbereichen einzuschränken bzw. gänzlich zu unterbinden. Dieses wird technologisch auf Basis von heute bekannten Policy-basierten Netzwerk-Management-Methoden und -Systemen geschehen. Hierbei können ferner die Filterregeln für alle NFEs einer Domäne identisch, topologiespezifisch oder gemäss vorliegender Interkonnektionsvereinbarungen und benötigter Anbietervorgaben individuell konfiguriert werden. In Bezug auf eine Anwendung von Tune- InNet und seinen Mechanismen ist anzuführen, dass es in einer Migration eingesetzt werden kann, da es Teildomänen geben wird, die voneinander unabhängig, aber parallel laufend traditionell oder Tune- InNet-basiert arbeiten können. NFE-zu-Router-Gateways sorgen
OSI-Modell der Kommunikationsschichten Schicht
Electrosuisse
integral in TuneInNet erreicht werden, wenn die gesamten Paketinhalte – neben der obligatorischen Zusatzinformation – verschlüsselt werden. Dieses hat nur einen Zusatzaufwand zur Berechnung der Verschlüsselung in den beteiligten Endpunkten zur Folge. Um grundsätzlich sicherzustellen, dass tatsächlich kein falscher Empfänger die Daten empfängt, müssen die Pakete in TuneInNet etikettiert werden. Diese Etiketten sind die verschlüsselten Zusatzinformationen (Download Clearing Code), die im Allgemeinen bei Kommunikationsprotokollen als Kontrollinformation bezeichnet werden und den Zielund Quelladressen zugeordnet sind. Als Grundlage dieser Verschlüsselungen und der sie ausführenden Algorithmen wird eine Schlüsselverwaltungsinfrastruktur (PKI, Public Key Infrastructure) [6] verwendet. Natürlich ist bei TuneInNet und den soeben skizzierten Vorzügen auch ein Nachteil zu finden, der je nach Situation einmal stärker und einmal schwächer gewichtet werden kann. Die Datenvolumina werden im Netz steigen – speziell in einer aggregierten Form über das gesamte Netz und die Endpunkte hinweg betrachtet. Dieser Nachteil stellt jedoch in Zukunft kein unlösbares Problem dar, da (a) eine begründete Annahme der ständig wachsenden Backbone-Kapazität zukünftiger Netzwerke im Internet besteht [5] und (b) TuneInNet Massnahmen vorsieht, die Pakete in einem Netzknoten zwischen gekoppelten Netzwerken zu filtern. Die Konfiguration dieser Filter erlaubt es, ein unnötiges Weiterleiten zwischen zwei Netzdomänen zu vermeiden, oder schränkt dieses explizit ein. In einem solchen Fall können beide Netzwerkanbieter angepasste Filterregeln lokal aus ihrer Sicht heraus etablieren, was dem möglicherweise fehlenden Vertrauen zwischen den Providern untereinander Rechnung trägt.
Protokoll
7
Anwendung (Application Layer)
www.mypage.com
6
Darstellung (Presentation Layer)
Zeichencodierung, komprimieren
5
Kommunikationssteuerung Verbindungsaufbau (Session Layer)
4
Transport (Transport Layer)
TCP, UCP
Error correction per File (Reihenfolge)
3
Vermittlung (Network Layer)
IP
Routing
2
Sicherung / Verbindung (Data Link)
HDLC
Error correction per Paket
1
Bitübertragung (Physical Layer)
Strom/Spannung/ Licht
Bild 2
FTP, HTTP, DNS
OSI-Schichtenmodell.
Bulletin 5 / 2009 BULLETIN
PolITIk uND WIrTSchAfT NEtzwErk PolITIquE ET écoNomIE résEaux
Uni Zürich
dann für ein einfaches Ab- oder Überstreifen der Etiketten, welches im Kern einem MPLS-Border-Router (Multi-Protocol Label Switching) ähnelt, der MPLSLabel für den Transport von IP-Daten hinzufügt bzw. abstreift.
Annahmen TuneInNet ist aufgrund der obigen Beschreibung algorithmisch und protokolltechnisch realisierbar, da die notwendige Architektur, die angepassten Protokolle und die Paketformate bekannt sind. Damit ist TuneInNet auch praktisch anwendbar, wenn vier Annahmen zutreffen, die im Folgenden diskutiert werden. Diese Diskussion zeigt im Besonderen auch, dass die Annahmen in einem überschaubaren Zeithorizont erreicht werden können. Erste Annahme: Grosse Bandbreiten sind verfügbar, weiter wachsende Bandbreiten sind angekündigt und technologisch praktikabel. Die Bandbreiten in den Backbone-Netzen der Anbieter übersteigen um ein Vielfaches die aggregierten Kapazitäten der Endpunkte. Durch die optischen Übertragungsmedien auf Schicht 1 stehen Broadcaster und Repeater im Tbit/s-Bereich vor der Einführung. Generell unterliegen die Bandbreitenentwicklungen einer ungefähren Verdoppelung alle 9 Monate [5]. Basierend auf diesen Technologien sind ferner die Kosten für die Kanäle auf der Schicht 1 sehr günstig, während die Kosten von Routern auf Schicht 3 stetig aufgrund deren Komplexität steigen und zusätzliche, bei günstigeren Modellen potenzielle Flaschenhälse für die Paketweiterleitung darstellen können. Zweite Annahme: In wenigen Zwischenknoten sind grosse Caches ebenso wie höhere Verarbeitungsleistungen möglich. Zwischenpuffer für Kontroll- und Steuerdaten sind im Bereich von mindestens einigen Gigabit pro Knoten verfügbar, noch wachsend und kostengünstig [4]. D.h., verbunden mit wenigen NFEs in einer Topologie gekoppelter Teilnetze, sind die Aufgaben dieser NFEs selber auch auf einfache Berechnungsaufgaben (Filter) reduziert. Weiterhin sind damit auch ausreichend hohe Verarbeitungsleistungen (CPU) – im Speziellen für die Verschlüsselungen, mindestens jedoch der Etikette – zu erreichen. Dritte Annahme: Schlüsselverwaltungen auf der Basis einer PKI sind realisiert. Diese Art der Infrastruktur einer Sicherheitsunterstützung hat deutlich an Bedeutung und in der Anzahl existieren-
Bild 3 Ethernet-basierte Netzwerkinfrastruktur.
der Installationen und deren Anwendung zugenommen [6]. Auch ist der Einsatz in anderen kommerziellen Bereichen stark, d.h., ein Synergieeffekt aus dem Einsatz mittels TuneInNet im Netzwerkbereich ist zu erwarten. Allerdings müssen in dieser Situation Gruppenschlüssel ebenso verwaltbar sein, und das Vorhandensein von Gruppenadressen muss sichergestellt werden können. Vierte Annahme: Extensive Applikationsanzahlen und Overlay-Netzwerke sind für die nahe Zukunft sicher zu erwarten. Wenn davon ausgegangen wird, dass alle der weltweit ca. 10 000 TV-Stationen und ca. 100 000 Radiostationen kontinuierlich das Netzwerk mit ihren Datenströmen füllen, dann ist mit einem grossen Datenvolumen zu rechnen. Zusätzlich ist der Verkehr aus OverlayNetzwerken signifikant und im Steigen begriffen [1]. Dieses steigende Volumen wird aber ungleich weniger dramatische Auswirkungen in einem TuneInNet haben, da die Empfänger sich einfach in die weitergeleiteten Paketflüsse einklinken können und Multicast-Eigenschaften vorhanden sein werden. Hier ergeben sich für Sender wie auch Empfänger sowie Netzwerkanbieter ökonomisch positive Anreize [7].
Simulation des Netzes Auf der Basis dieser technischen Grundlagen für TuneInNet ist ein kleines Simulationsmodell untersucht worden,
welches die Validierung der Konsequenzen dieses Ansatzes auf der Basis obiger Annahmen in einem Worst-Case-Szenario – also einer Abschätzung einer oberen Schranke für den Gesamtaufwand – erlaubt. Die Verwendung eines Topologiegenerators scheint wegen der vielfältigen Netzwerktopologien in heutigen Netzen angebracht, um keine «vorbelastete» Topologie zu verwenden. Ferner können die Anzahl der Transitdomänen, die den Backbone definieren, ebenso wie die mittlere Anzahl von Zugriffsnetzwerken und die mittlere Anzahl von Endpunkten in diesen parametrisiert werden. Die Verkehrsflussdaten wurden (a) in einem konventionellen Routing-Modus sowie (b) mittels eines einfachen Tune-in- NetModus behandelt. Schliesslich sind die Paketgrösse, die Ankunftsraten auf der Basis einer Zipf-Verteilung und die Senderate pro Endpunkt in dieser Topologie parametrisierbar. Für eine zufällig generierte Topologie mit 3 Transitdomänen, einer mittleren Anzahl von 3 Hops in jeder von dieser und einer mittleren Anzahl von 6 Zugriffsnetzen je Transitdomäne wurden im Mittel 7 Endpunkte je Zugriffsnetz generiert. Dieses resultierte in einem Gesamtnetz mit 645 Knoten. Auf diese Topologie wurden 150 Byte grosse Pakete in einer zufälligen Gleichverteilung pro Knoten und pro Sekunde aufgeprägt. Nach einer Simulationszeit von 60 s wurde das Resultat im Fall (a) des tradiBulletin 5 / 2009
BULLETIN
15
PolITIk uND WIrTSchAfT NEtzwErk PolITIquE ET écoNomIE résEaux
tionellen Routings mit (b), dem Resultat des einfachsten TuneInNet-basierten Verfahrens (Fluten ohne Beschränkungen), verglichen. In beiden Fällen sind 38 634 Look-ups (also Lesevorgänge der Empfänger) durchgeführt worden, von welchen in (a) 37 901 Look-ups (98%) und in (b) 38 352 Look-ups (99%) erfolgreich waren. Diese Zahlen zeigen, dass beide Verfahren – Routing und NFE-Paketweiterleitung – in Bezug auf die Zuverlässigkeit des Erreichens des Empfängers vergleichbar sind. Wie erwartet, sieht es hingegen in Bezug auf die ausgetauschten Daten anders aus. Während im Fall von (a) 301 404 Pakete verschickt wurden (oder 45 ⋅ 106 Byte), sind es im Falle von (b) 58 988 526 Pakete oder 8,8 ⋅ 109 Byte, jeweils in dem über das gesamte Netzwerk hinweg aggregierten Volumen. Damit benötigt TuneInNet in diesem einfachen, aber den Worst Case beschreibenden Umfeld ca. den 100-fachen Bandbreitenbedarf, wobei in diesem Fall keinerlei NFEs mit Filtern eingesetzt worden sind, die das Datenvolumen deutlich reduzieren würden – natürlich abhängig von den expliziten Kommunikationsbeziehungen im Netz. Dennoch liegt dieses Resultat keinesfalls um Grössenordnungen neben den initial erwartbaren Ergebnissen! Eben aufgrund der oben erwähnten Annahme, dass sich die Bandbreite im Backbone alle 9 Monate verdoppelt, wird in gut 5 Jahren der Faktor von 100 erreicht sein. Ferner hat die Einführung von WDM (Wavelength Division Multiplexing) gezeigt, dass mit einem einzigen Technologieschritt auf einem Lichtwellenleiter die 100-fache Kapazität erzielt werden kann. Damit ist das Risiko in Bezug auf nicht bearbeitbar grosse Datenvolumina in Backbone-Netzen klein. Ferner sind von den heute gut 40 000 registrierten Autonomous Systems (AS) [3] nur wenige reine Transitdomänen, d.h., dass die Verwendung eines einfachen Time-to-Live-(TTL)-Feldes in den Zusatzinformationen der Pakete und deren Testen an Domänengrenzen durch die NFEs möglicherweise zirkulierende Pakete abfangen kann. Dieses führt zu einer Reduktion des aggregierten Verkehrs, was in den oben skizzierten Ergebnissen ebenfalls noch nicht einbezogen wurde. Zusätzlich ist ein Vergleich der Routingkosten zwischen traditionellen Netzen und einem TuneInNet angebracht: Während heute ein Backbone-RouterPort zwischen 25 000 und 180 000 CHF kostet, werden je nach Grösse des Netzes 16
davon Dutzende bis viele Hundert benötigt – zusätzlich zu den Betriebs- und Wartungskosten. Für TuneInNet fallen mindestens diese Portkosten vollständig weg. Schliesslich ist es angebracht, auf die zu erwartenden Verzögerungszeiten im Ende-zu-Ende-Fall zu achten, die neben den Laufzeiten an sich unter anderem durch die Verschlüsselung auftreten können. Diese Zeiten sind in traditionellen Netzen natürlich vom Routingverfahren unabhängig, da die Routingtabellen vorab bzw. dynamisch erstellt werden (den Fehlerfall einmal ausser Acht lassend). Der Zeitbedarf für die reinen Weiterleitungen eines sehr guten BackboneRouters liegen bei ca. 10 ns je Paket, die in einem NFE auf der Schicht 1 auch erreicht werden. Da die Schicht 3 nicht mehr im Protokollturm enthalten sein muss, bleibt zum Ver- und Entschlüsseln genügend Zeit. Damit stellt ein TuneInNet-Knoten keinen Engpass in dieser Situation dar.
Schlussfolgerungen Schlussfolgerungen Schlussfolgerungen Die Bedeutung des Datentransfers im Internet hat in der Gesellschaft heute eine derart grosse Bedeutung erlangt, wie es das Wasser für Pflanzen hat: Ohne das Internet kann die Wirtschaft faktisch nicht mehr überleben. Dieses heisst im Umkehrschluss, dass die Robustheit, die Sicherheit, die Dienstgüte (QoS) und die Fehlertoleranz eines zukünftigen Netzes ebenso behutsam wie deutlich verbessert werden müssen, wie ein Anwender die Optimierung der reinen Nutzdatenübertragung erwartet. Wenn im gleichen Zug einer Evolution – oder einer Weiterentwicklung mit revolutionären Zügen – auch die Komplexität der netzwerkinhärenten Netzknoten verkleinert werden kann bzw. ganz wegfällt, wie im TuneInNet-Ansatz vorgeschlagen, dann gewinnen die Benutzer durch verbesserte Dienstleistungen (zumindest in Form einer kostengünstigeren Alternative) und die Netzwerkdienstanbieter durch redurésumé
zierte Betriebskosten sowie reduzierten Wartungsaufwand. Damit ist TuneInNet auch technologisch effizienter als heutige Wegewahlverfahren in und für IP, einfach anwendbar, migrierbar und ökonomisch effizienter durch eben diesen vereinfachenden Technologieeinsatz. Natürlich ist es noch ein weiter Weg, bis ein Internet der Zukunft in dieser Form vom TuneInNet-Ansatz im Grossen realisiert werden wird, aber die ersten Simulationen des Worst Case.
Referenzen [1] Cisco Systems: Cisco Visual Networking Index – Forecast and Methodology, 2007–2012, June 2008. [2] Emanics (European Network of Excellence for the Management of Internet Technologies and Complex Services), EU Projekt Nr. FP6-2004IST-026854; http://www.emanics.org, März 2009. [3] G. Huston: Exploring Autonomous System Numbers, The Internet Protocol Journal, Vol. 9, Nr. 1, März 2006. [4] G. E. Moore: Cramming More Components onto Integrated Circuits, Electronics, Vol. 38, Nr. 8, April 1965. [5] J. Nielsen: Nielsen’s Law of Internet Bandwidth; http://www.useit.com/alertbox/980405.html, April 1998. [6] Schweizerische Akkreditierungsstelle (SAS): Public Key Infrastructure (PKI); http://www.seco.admin. ch/sas/00229/00251/index.html?lang=de, September 2008. [7] SmoothIT (Simple Economic Management Approaches of Overlay Traffic in Heterogeneous Internet Topologies), EU Projekt Nr. FP7-2008ICT-216259; http://www.smoothit.org, März 2009.
Angaben zum Autor Prof. Dr. Burkhard Stiller ist seit September 2004 an der Universität Zürich in der Lehre und Forschung über Kommunikationssysteme, ihre Technologien und ihre ökonomischen Eigenschaften sowie Perspektiven tätig. Sein wissenschaftlicher Hintergrund liegt in der Informatik und die früheren Orte seiner Tätigkeiten umfassten die Universität Karlsruhe, die University of Cambridge, U.K., die ETH Zürich und die Universität der Bundeswehr München. Der Ansatz TuneInNet entstand aus gemeinsamen Überlegungen und Arbeiten mit den Professoren Georg Carle, jetzt Technische Universität München, Jochen Schiller, Freie Universität Berlin, und Andreas Schrader, Universität Lübeck. Der Autor dankt auch den FP7-EU-Projekten Smooth-IT sowie Emanics für die Unterstützung. Universität Zürich, Institut für Informatik, 8050 Zürich, stiller@ifi.uzh.ch
1) Konkateniert bedeutet hier, dass die Informationen an der richtigen Stelle an das Paket angehängt werden.
TuneInNet pourrait simplifier le transfert de données sur internet
Les données sont envoyées à tous, le destinataire fait la sélection. Les différents services à base IP (internet protocol) sur internet ont maintenant atteint une telle variété que l’effort de transfert de données augmente considérablement. TuneInNet est une idée destinée à simplifier radicalement le travail nécessaire sur le réseau. L’idée est basée sur l’hypothèse que les bandes passantes disponibles augmentent beaucoup plus fortement sur le réseau de base que le besoin hypothétiquement accumulé aux points terminaux d’un réseau.
Bulletin 5 / 2009 BULLETIN
MEInung Politische Feder aus Bern OpInIOn Plume Politique de Berne
Investitionsstau bei der Wasserkraft Das Berner Verwaltungsgericht hat im April 2008 das von der Regierung bewilligte Verfahren zur Vergrösserung des Grimselsees aufgehoben. Das Gericht befasste sich eingehend mit der Frage nach dem anzuwendenden Bewilligungsverfahren (Konzession oder Baubewilligung) und kam zum Schluss, dass das Vorhaben im Konzessionsverfahren statt im gewählten Ernst Baumberger Baubewilligungsverfahren zu behandeln sei. Daist Leiter PR/ bei legte das Gericht die Bestimmungen des Kommunikation Wassernutzungsgesetzes (WNG) derart eng aus, Kraftwerke Oberhasli dass Vorhaben zur Optimierung von Wasserkraftwerken fortan in fast jedem Fall ein Konzessionsverfahren durchlaufen müssen. Diese sind zeit- und kostenintensiv und stellen dadurch wirtschaftlich interessante Projekte infrage. Die durch den Gerichtsentscheid entstandene Rechtsunsicherheit blockiert nebst der Vergrösserung des Grimselsees auch weitere Optimierungsprojekte der Kraftwerke Oberhasli. Diese Auslegung des WNG entspricht nicht der ursprünglichen Absicht des Gesetzgebers und verunmög-
licht dem Kanton Bern, die ehrgeizigen Ziele seiner Energiestrategie umzusetzen. Diese sieht vor, Strom aus erneuerbaren Quellen bis ins Jahr 2035 von heute 60 auf 80% zu steigern. Die Wasserkraft spielt dabei eine zentrale Rolle, und die Optimierung. Die Berner Politiker sind nun aktiv geworden und verlangen eine Revision des WNG. Sie wollen, dass Modernisierungs- und Ersatzinvestitionen in bestehende Wasserkraftwerke ohne Änderung der Konzession – d.h. mittels Baubewilligungsverfahren – abgewickelt werden können. Darunter sollen Wirkungsgradverbesserungen, Leistungssteigerungen durch Sanierung, Aus- oder Zubau von Maschinen sowie Erhöhungen von Wasserspeichern fallen. Nimmt das neu ausgestaltete WNG alle politischen Hürden, wird es ab 2010 in Kraft treten. Dieses Tempo ist notwendig, denn in der sich ausweitenden Wirtschaftskrise wird auf breiter Front nach rascher Realisierung von essenziellen Infrastrukturprojekten gerufen. Hierzu würden besonders auch Optimierungen von Wasserkraftanlagen zählen, entsprechen sie doch den breit abgestützten energiewirtschaftlichen Zielen.
Engorgement des investissements en faveur de l’énergie hydraulique En avril 2008, le Tribunal administratif bernois a abrogé la procédure approuvée par le gouvernement en vue d’agrandir le lac du Grimsel. Le Tribunal a traité en détail la question de la procédure d’autorisation à appliquer (concession ou autorisation de construction) et a abouti à la conclusion qu’il fallait traiter le projet en recourant à la procédure de concession plutôt que par la procédure d’autorisation de construction. Le Tribunal a défini les dispositions de la loi sur l’utilisation des eaux (LUE) de manière si restreinte que les projets visant à optimiser les centrales hydrauliques doivent presque dans tous les cas faire l’objet d’une procédure de concession. Ces dernières sont coûteuses, exigent beaucoup de temps et remettent de ce fait les projets économiquement intéressants en question. L’insécurité juridique qui découle de la décision du Tribunal bloque non seulement l’agrandissement du lac du Grimsel, mais aussi d’autres projets d’optimisation des Centrales. L’interprétation de la LUE ne correspond pas à l’intention d’origine du législateur et empêche le canton de Berne d’atteindre les objectifs ambitieux de sa stratégie énergétique. Cette dernière prévoit d’augmenter la part
Ernst Baumberger est responsable RP/ Communication de Centrales d’Oberhasli
d’électricité produite à partir de sources renouvelables de 60% aujourd’hui à 80% jusqu’en 2035. L’énergie hydraulique y joue un rôle central et l’optimisation. Les politiciens bernois sont dorénavant actifs et exigent une révision de la LUE. Ils demandent de pouvoir effectuer des investissements dans les centrales hydrauliques existantes pour les moderniser et les compléter sans changer la concession (c’est-à-dire au moyen de la procédure d’autorisation), ce qui devrait permettre une amélioration du rendement, une augmentation de la puissance grâce à l’assainissement, l’extension et l’installation de machines, ainsi que l’élévation de la cote d’accumulation d’eau. Si la nouvelle LUE franchit tous les obstacles politiques, elle entrera en vigueur à partir de 2010. Il est nécessaire de procéder aussi rapidement, car durant la crise économique qui se propage, les projets d’infrastructure essentiels doivent être réalisés rapidement. L’optimisation des installations hydrauliques en ferait aussi partie puisqu’elle correspond aux objectifs d’économie énergétique et peut être financée par des fonds privés. La force hydraulique est la seule source.
Bulletin 5 / 2009 BULLETIN
35
BRAnChE INTErVIEW BRAnChE INTErVIEW
«Die Kunden schauen vermehrt nach links und rechts» Freicom
Stefano Garbin, neuer CEO der SAK über die Strompreise Regionale Versorgungsunternehmen wie die St. GallischAppenzellischen Kraftwerke AG (SAK) setzen mit der Strommarktöffnung vermehrt auf Kooperationen mit lokalen Endversorgern und erweitern gleichzeitig ihre Dienstleistungen und Geschäftsbereiche. Stefano Garbin, neuer CEO der SAK, erklärt im Interview, warum der Zeitpunkt der Konsolidierung (noch) nicht absehbar ist und wie Grösse auf einem freien Markt Risiken minimiert.
Bulletin SEV/VSE: Herr Garbin, die Wirtschaftkrise schlägt sich besonders in der Industrie hart nieder. In der Ostschweiz etwa haben viele Unternehmen Kurzarbeit eingeführt. Was spüren die SAK davon?
Stefano Garbin: Wir sehen, dass etliche Industriefirmen Kurzarbeit ein führen. Das bedeutet einerseits einen niedrigeren Stromkonsum in unserem Versorgungsgebiet. Andererseits wurde die sinkende Industrienachfrage durch den erhöhten Stromverbrauch der Pri vatkunden kompensiert. Aufgrund der hohen Bautätigkeit im Privatsektor, oft verbunden mit dem Einsatz neuer Wär mepumpen, und des eher harten Win ters haben die SAK im ersten Halbjahr (Oktober bis März) mehr Strom ver kauft. Fürs gesamte Geschäftsjahr er warten wir aber parallel zum Wirt schaftswachstum einen leichten Rückgang. Sie haben die Liberalisierung in Deutschland bei Ihrer früheren Tätigkeit bei der Elektrizitätswerk des Kantons Schaffhausen AG (EKS) hautnah miterlebt. Wie beurteilen Sie die Entwicklung angesichts der Marktöffnung in der Schweiz?
Als der Strommarkt 1998 in Deutsch land geöffnet wurde, hat sich das Preis niveau dort schlagartig um rund 20% und mehr gesenkt, seither aber wieder erhöht und liegt heute über dem Schweizer Niveau. In der Schweiz hat der Preisrückgang unter anderem
durch das auf 2003 geplante Elektrizi tätsmarktgesetz (EMG) bereits vor der Marktöffnung stattgefunden, und das StromVG führte 2009 infolge zusätzli cher Abgaben (KEV) und der neuen Berechnung der Systemdienstleistun gen zu einem leichten Anstieg. Aller dings ist der Anstieg der Preise infolge der momentanen Wirtschaftskrise noch nicht gross genug, als dass die Marktöffnung schon heute grosse Um wälzungen hervorrufen würde. Sie kommen gerade von einem betriebswirtschaftlichen Nachdiplomstudium in Amerika zurück, sind aber studierter Elektroingenieur ETH. Sind bei den Elektrizitätswerken vermehrt betriebswirtschaftliche Kenntnisse nötig?
Früher wurden die Unternehmen oft von Ingenieuren geführt, ich meine aber, dass betriebswirtschaftliche As pekte in der Stromversorgung immer zentraler werden. Ein hoher techni scher Stand und die Zuverlässigkeit der Netzanlagen sind zwar immer noch notwendig, werden aber vorausgesetzt. Doch ich bin froh, dass ich ein Stromer bin und auch die physikalischen Zu sammenhänge der Elektrizitätswirt schaft kenne. Die SAK (St. Gallisch-Appenzellische Kraftwerke AG) sind seit Frühjahr 2009 Teil einer Holding, der SAK Holding AG. Was ist die Absicht dahinter?
Stefano Garbin ist seit März Geschäftsführer der SAK.
Die SAK müssen der neuen Gesetz gebung rund um die Stromversorgung genügen. Mit der Bildung einer Hol ding können wir die notwenig wer dende klare Trennung von Produktion, Verteilung und Stromhandel von wei teren Unternehmensaktivitäten am besten gewährleisten. Die Holding ist im hundertprozentigem Besitz der Kantone und Eigentümerin der SAK (Betriebsgesellschaft). Zur Holding ge hört die Beteiligung an der Axpo. Die SAK möchten mittelfristig ihre Eigenproduktion von rund zwei Prozent (50 GWh) auf vier Prozent erhöhen. Welche Investitionen sind vorgesehen?
Die Stromimportquote steigt konti nuierlich an, und verschiedene Studien zeigen eine auf uns zukommende Stromlücke auf. Die SAK haben sich deshalb zum Ziel gesetzt, die eigene Stromproduktion mittels erneuerbaren Energiequellen zu verdoppeln. So kön nen wir Synergien nutzen und die Kompetenzen unserer Mitarbeitenden vertiefen. Wir investieren erfolgreich in Bulletin 5 / 2009
BULLETIN
33
BRAnChE INTErVIEW BRAnChE INTErVIEW
regionale Anlagen für Wasserkraft, Bio masse und Fotovoltaik. Der Spaten stich für das Holzenergiezentrum Ness lau, mit dem wir mit einem ORCModul 2,4 GWh Strom produzieren werden, ist für Juni 2009 geplant. Wir engagie ren uns bei kleinen Kraftwerken in der Region, grössere Werke bauen und be treiben weiterhin die NOK. Momentan wirbt die SAK mit regionalen Sujets – feiernden Fussballfans und jassenden Appenzeller Bauern – für sich. Welche rolle spielt das regionale in einem sich öffnenden Markt?
Die SAK ist eine Marke mit langer Tradition und tiefer Verbundenheit mit der Ostschweiz. Wir zeigen mit unserer Kampagne die Nähe zur Region und setzen, auch im Hinblick auf die zweite Marktöffnung für Privatkunden, SAK mit Strom gleich. Jeder, der in der Ost schweiz an Strom denkt, soll sofort an seine SAK denken. Die SAK kennen die EVU und die Region, nehmen die regi onalen Interessen wahr und sprechen die gleiche Sprache wie ihre Kunden. Welche neuen Herausforderungen kommen auf die lokalen Versorger zu, die heute rund 70 Prozent des Energieumsatzes der SAK ausmachen?
Solange die Strompreise für die Wie derverkäufer und Verbraucher nicht markant ansteigen, wird sich der Markt nur langsam verändern. Was sich über
Zur Person
Stefano Garbin CEO SAK AG
Stefano Garbin, 44, ist seit 2. März 2009 Vorsitzender der Geschäftsleitung der St. GallischAppenzellischen Kraftwerke AG (SAK). Er ist dipl. Elektroingenieur ETH und hat ein betriebswirtschaftliches Nachdiplomstudium an der Universität St. Gallen abgeschlossen. Stefano Garbin war von 2000 bis 2009 Bereichsleiter Energie und Services in der Geschäftsleitung der Elektrizitätswerk des Kantons Schaffhausen AG (EKS) und dort für die Vorbereitungen der Strommarktöffnung im Kanton Schaffhausen und die Umsetzung im angrenzenden süddeutschen Raum verantwortlich.
Jahre bewährt hat und noch funktio niert, wird mit der Marktöffnung nicht von einem auf den andern Tag über Bord geworfen. Heute, bei den nur mo deraten Strompreiserhöhungen, kön nen die lokalen Versorger weiterhin auf «RundumsorglosPakete» setzen. Das wird auch auf die Schweiz zukom men, nur wissen wir nicht, wie schnell. Wenn die Preise steigen, schaut der Kunde nach links und rechts – das ist die grosse Herausforderung aller. Gemäss einer PWC-Studie vom März 2008 wird sich der EVU-Markt konsolidieren – die EVU selbst sehen sich gemäss ihren Führungskräften aber selten davon betroffen. Welche Entwicklung erwarten Sie?
Ich erwarte vermehrt die Bildung von Kooperationen und Partnerschaf ten, damit die steigenden Anforderun gen gemeistert werden können. Die Kundenbedürfnisse werden die EVU fordern und dafür sorgen, dass die EVU kundenorientierter und marktfä
higer werden. Wer diese Fähigkeiten nicht entwickeln will oder kann, muss nach Alternativen suchen. Der Markt zwingt die Branche zu Effizienz und dem Nutzen von Synergien. Welche rolle will die SAK in Zukunft gegenüber lokalen Werken einnehmen? Ist die SAK selbst an Käufen interessiert?
Die SAK waren ursprünglich ein Kind des Kooperations und Subsidia ritätsprinzips, sie haben also einen po litischen Hintergrund. Gemeinden, die die Versorgung in ihrem Gebiet nicht wahrnehmen wollten oder konnten, konnten die SAK dafür engagieren. Das bleibt auch mit der Marktöffnung so. Wir unterstützen die lokalen EVU und sind offen für jegliche Art der Ko operation. Wir konnten Verteilnetze in unserem Gebiet erwerben, bieten den EVU aber vermehrt Dienstleistungen an, die sie alleine nur mit grossem Auf wand und viel Risiko erbringen kön nen. (Freicom/bs)
Anzeige
34
Bulletin 5 / 2009 BULLETIN
BRAnChE KUrZMELDUNGEN BRAnChE COMMUNICATIONS BrèVES
+++ Kurzmeldungen aus der Branche +++
Swico will Konjunkturförderung im Telekombereich Am 22. April 2009 fand die jähr liche Generalversammlung des Swico statt. Dabei ging es vor allem um die Neuausrichtung des Verbands, der neu unter dem Slogan «Der Wirtschafts verband für die digitale Schweiz» ope riert. Der Swico konzentriert sich künftig auf die Themen, die für seine Mitglieder – über 400 Anbieter von Informations, Kommunikations und Organisationstechnik – heute und in Zukunft relevant sind. Dabei geht es in erster Linie um eine selbstbewusste Interessenvertretung gegenüber sämt lichen Anspruchsgruppen im Markt umfeld und im Wettbewerb, bei Bund und Behörden sowie über die Schwei zer Grenzen hinaus in Europa und den USA. Der Swico hat auch seine Interes sengruppen (IG) neu organisiert. Zu den bestehenden IG Consumer Elect ronics und Imaging/Printing/Finishing kommen IT/Technology und Soft ware, ITServices und Consulting. Die
IG haben das Ziel, relevante Themen zu erkennen und bei gemeinsamen Problemen die Kräfte zu bündeln. SwicoMitglieder können dadurch von einem KnowhowVorsprung profitieren. Der Vorstand wünscht sich aktive Unterstützung durch Fach leute, die über Wissen und Erfahrung in den jeweiligen Themenbereichen verfügen. An der Generalversammlung hat der Swico erstmals ein SMSVoting mit vier Fragen zur ökonomischen Situa tion seiner Mitglieder durchgeführt. Die Teilnehmer waren verhalten opti mistisch, rechneten zwar mit einem leichten Auftragsrückgang, nahmen aber an, dass sie ihr Geschäft wie üb lich weiterführen könnten. Die Um frage ist ein erster Schritt in Richtung Trendbarometer, an dem der Swico derzeit arbeitet. Ab der zweiten Hälfte 2009 wird der Verband regelmässig seine Einschätzungen zur Branche ver öffentlichen.
Beim Bund setzt sich der Swico dafür ein, dass Informations und Kommunikationstechnologien (ICT) sowie Unterhaltungselektronik im konjunkturpolitischen Konzept des Eidgenössischen Volkswirtschaftsde partements (EVD) aufgenommen wer den. Zu diesem Zweck hat der Ver band einen Vorstoss an Bundesrätin Doris Leuthard, Vorsteherin EVD, ge richtet. Laut SwicoPräsident Andreas Knöpfli sind Investitionen in moderne Technologien und ICTLösungen un abdingbar für den nächsten Auf schwung. Im Vorstoss werden unter anderem kürzere Zahlungsfristen bei Bund und Kantonen verlangt, ein ge zielter Ausbau der IT in Schulen und Universitäten sowie eine Schrottprä mie für alte PCs im B2BBereich. Als längerfristige Massnahme will der Swico mit Unterstützung des Bundes eine Vision «Digitale Schweiz 2020» und ihre Umsetzung erarbeiten. (Swico/gus)
+++ Communications brèves +++
La Swico veut promouvoir la conjoncture dans le domaine des télécommunications L’Assemblée générale annuelle de la Swico a eu lieu le 22 avril 2009. Il s’agis sait avant tout de la réorientation de l’association qui opère maintenant sous le slogan «L’association économique pour la Suisse numérique». La Swico se concentrera désormais sur les sujets im portants, actuellement et à l’avenir, pour ses membres, à savoir plus de 400 fournisseurs de technique d’informa tion, de communication et d’organisa tion. Il s’agit avant tout de représenter consciemment les intérêts visàvis de tous les groupes d’exigences dans l’envi ronnement de marché et la concur rence, auprès de la Confédération et des autorités ainsi qu’audelà des frontières suisses en Europe et aux USA. La Swico a également réorganisé ses groupes d’intérêt. Aux groupes existants Consumer Electronics et Imaging/Prin ting/Finishing s’ajoutent IT/Technology and Software, IT/Services and Consul ting. Ces groupes ont pour but de recon
naître les sujets intéressants et d’unir les forces pour les problèmes communs. Les membres de la Swico peuvent ainsi profiter d’une avance de savoirfaire. Le comité souhaite un appui actif de la part de spécialistes disposant de connaissan ces et d’expérience dans les différents domaines concernés. A l’Assemblée générale, la Swico a organisé pour la première fois une vota tion SMS portant sur 4 questions relati ves à la situation économique de ses membres. Les participants ont fait preuve d’un optimisme réservé, ils s’at tendent bien à une légère baisse des commandes, mais pensent pouvoir poursuivre leurs affaires comme d’habi tude. Cette enquête est une première étape vers un baromètre de tendance auquel la Swico travaille actuellement. A partir de la seconde moitié de l’année 2009, l’association a l’intention de pu blier régulièrement ses évaluations sur la branche.
La Swico s’engage auprès de la Confé dération pour que les techniques d’infor mation et de communication (ICT) ainsi que l’électronique de loisirs soient inté grées au concept de politique conjonc turelle du Département fédéral de l’éco nomie (DFE). Pour cela, l’association s’est adressée à la conseillère fédérale Doris Leuthard, cheffe du département. Selon le président de la Swico Andreas Knöpfli, des investissements dans les technologies modernes et les solutions ICT sont indispensables au prochain es sor. Cette intervention demande entre autres des délais de paiement plus courts de la Confédération et des cantons, une extension ciblée de l’informatique dans les écoles et universités ainsi qu’une prime de ferraille pour les PC usagés dans le domaine B2B. A titre de mesure à plus long terme, la Swico veut élabo rer, avec l’appui de la Confédération, une vision «Suisse numérique 2020» et (Swico/gus) la mettre en œuvre. Bulletin 5 / 2009
BULLETIN
35
BRAnChE KUrZMELDUNGEN BRAnChE COMMUNICATIONS BrèVES
+++ Personnelle Neuerungen Blindtext Blindtext +++
Ralph Müller: umfassende Kenntnisse in der Fertigung von elektronischen Komponenten
Führungswechsel bei Schurter Ralph Müller löst bei der Schurter AG in Luzern den bisherigen Ge schäftsführer Anton Lauber ab. Damit übernimmt ein Produktionsspezialist die Führung der Firma. Sein Vorgänger Anton Lauber übernimmt die welt weite Führung der Division Kompo nenten und agiert weiterhin als Dele gierter des Verwaltungsrats. Dadurch erfolgt eine strukturelle Anpassung, ab gestimmt auf die weltweite Ausrichtung der SchurterGruppe.Ralph Müller ist seit 2004 als P Produktionsführung und umfassende Kenntnisse in der Fer tigung von elektronischen Komponen ten. Die betriebswirtschaftliche Aus und Weiterbildung führte ihn an die HSLU (Höhere Wirtschafts und Ver waltungsschule Luzern). (Swico/gus) 36
Shanmugaratnam Tharman im Gespräch mit Reichle & De Massari in Wetzikon. die zentrale geografische Lage, die gute logistische Anbindunges übersichtliche Rechtssystem und die prowestliche Denkweise der Menschen im Vorder grund. (R&M/gus)
zVg
in der heutigen, schwierigen Zeit aktiv zu unterstützen. Die R & MGeschäftsleitung ent schied sich 2007 für den Standort Singapur. Dabei standen hauptsächlich
Neu beim ESTI: Roland Hodel, Inspektor ESTI Zentralschweiz Seit dem 1. Januar 2009 ist Roland Hodel beim ESTI in der Geschäftsein heit Inspektionen zuständig für die Zentralschweiz. Aufgewachsen ist Roland Hodel in Reussbühl im Kanton Luzern. Er absol vierte die Lehre zum Elektromonteur und erwarb den eidg. Fachausweis ElektroKontrolleur/Chefmonteur. Als bauleitender Monteur war er zustän dig für Erstellen und Überwachen der Installationen,deren Kontrollen nach NIV sowie für periodische Kontrollen von Industrie, Gewerbegebäuden und Wohnbauten. 2003 schloss er erfolg reich die Weiterbildung zumhrung einer elektrotechnischen Unterneh mung in Luzern. Er war verantwortlich für 20 Mitarbeitende, den Verkauf. EST
zVg
Anfang Mai besuchte Singapurs Fi nanzminister, Shanmugaratnam Thar man, Reichle & De Massari in Wetzi kon. Die Delegation besuchte die Produktionsanlagen für Verkabelungs komponenten und Glasfasersysteme. Zum Treffen mit dem Minister ist es gekommen, weil R & M im Sommer 2008 in Singapur einen Supply Chain Hub eröffnet hatte und so wirtschaftli che Kontakte mit dem Land knüpfte. Bindtext Blindtext Blindtext Blindte Anschliessend an den Rundgang durch die Produktion informierten Martin und Peter Reichle ationalisie rung setzt. Die Singapurer Delegation berichtete ihrerseits über ihre Wirt schaftsförderungsmassnahmen mit dem Ziel, international tätige Firmen
R&M
Singapurs Finanzminister bei Reichle & De Massari
Elektrische Sicherheit ist ihm wichtig: Roland Hodel.
Hans Schwarz ist nun im Verwaltungsrat der EBM.
EBM: Schwarz zum Vizedirektor befördert Hans Schwarz wurde per 20. April 2009 durch den Verwaltungsrat zum Vizedirektor der EBM (Genossenschaft Elektra Birseck) befördert. Er ist Ver waltungsratspräsident der Schwarz + Partner AG, die er in den letzten 20 Jahren aufgebaut hat. Men Bereichen Planung, Elektroinstallation und Kom munikation erfolgreich tätig. Die Ge schäftsleitung der EBM besteht nun aus 11 Mitgliedern. Hans Schwarz wurde per 20. April 2009 durch den Verwaltungsrat zum Vizedirektor der EBM (Genossenschaft Elektra Birseck) befördert. Er ist Verwaltungsratspräsi dent der Schwarz + Partner AG, die er in den letzten 20 Jahren aufgebaut hat. Men Bereichen Planung, Elektroinstal lation und Kommunikation. (EBM/bs)
Bulletin 5 / 2009 BULLETIN
BRAnChE KUrZMELDUNGEN BRAnChE COMMUNICATIONS BrèVES
Swissgrid, Alpiq, EWZ und EGL fechten ElCom-Verfügung an Nach der Beschwerde der Überland netzbetreiberin Swissgrid fechten drei weitere Stromproduzenten die Verfü gung der Eidgenössischen Elektrizitäts kommission (ElCom) an. Damit wollen sie Rechtssicherheit in der Tarifsetzung schaffen. Beschwerde beim Bundesverwal tungsgericht haben die Stromprodu zentin Alpiq, die ElektrizitätsGesell schaft Laufenburg (EGL) und das Elektrizitätswerk der Stadt Zürich (EWZ) eingereicht. Die Nordostschweizerischen Kraft werke (NOK) verzichteten darauf. Die Regulierungsbehörde ElCom hatte die Stromproduzenten Anfang März dazu angehalten, die Endver brauchertarife für das laufende Jahr neu zu berechnen. Damit sollten die angekündigten Erhöhungen der Strom preise um 40 gemildert werden. Streitpunkt bei der Berechnung der Tarife waren die sogenannten System dienstleistungen (SDL). Nach der Ver fügung der ElCom müssten diese von Kraftwerken mit einer Produktion von über 50 MW übernommen werden.
Die Stromproduzenten wollen vom Bundesverwaltungsgericht nun klären, ob die SDL nicht den Stromempfän gern auferlegt werden dürfen. Dabei geht es um hohe Summen. Im Falle der Alpiq entstehen gemäss der Strom gesellschaft Mehrkosten in der Grös senordnung eines «höheren zwei stelligen Millionenbetrags». Im Fokus
Das EWZ und die EGL begründen ihre Beschwerde vor allem damit, dass ihre Übertragungsnetze nach der ElComKürzung zu tief bewertet wür den. Die Stromproduzenten wollen vom Bundesverwaltungsgericht nun klären, Beide Gesellschaften haben das Stromnetz in eine eigene Gesellschaft (Swissgrid/bs) ausgelagert.
Warum rekurriert die Swissgrid gegen die ElCom-Verfügung?
[1] ElCom schätzt die für das Jahr 2009 entstehenden Systemdienstleistungen auf 418 Millionen Franken Swissgrid muss diese Systemdienstleistungen jedoch am Markt beschaffen. Aus diesem Grund können die Kosten die von der ElCom geschätzten 418 Millionen Franken übersteigen. Die Verfügung lässt offen, ob höhere Kosten für Systemdienstleistungen überhaupt weiterverrechnet werden können. [2] Im Weiteren sind die Kriterien für eine allfällige nachträgliche Genehmigung der Mehrkosten durch die ElCom unklar. Dies widerspricht der vom Bundesrat revidierten Stromversorgungsverordnung vom Dezember 2008, wonach sämtliche Systemdienstleistungen primär den Netzbetreibern aufgrund des Endverbrauchs in ihrem Netz und ergänzend den Kraftwerken weiterverrechnet werden sollen. [3] Die teilweise Nichtgenehmigung von tatsächlich entstandenen Kosten könnte bei Swissgrid zu einem Liquiditätsengpass oder im Extremfall gar zu einer Überschuldung führen. Deshalb beantragt Swissgrid in ihrer Beschwerde, dass die offenen Fragen zur Genehmigungspflicht durch die ElCom und der Modus einer allfälligen Weiterverrechnung geklärt werden.
Endress + hauser weiht in Maulburg neues Gebäude ein Endress + Hauser hat in den vergan genen zwei Jahren insgesamt 13 Milli onen Euro in Erweiterungen und Neubauten am Standort Maulburg in vestiert. «Wir sind in den letzten Jahren stark gewachsen. Um dem gerecht zu werden, brauchten wir schlicht mehr Platz», sagt Matthias Altendorf, Ge schäftsführer von Endress + Hauser Maulburg. «Zudem konnten wir mit den Erweiterungen die verschiedenen Standorte im Wiesental in Maulburg zusammenführen und damit sämtliche
Produktions und Logistikabläufe opti mieren. Dass wir die wichtigsten Bau arbeiten bis zum Winter 2008 ab schliessen konnten, hat uns den Start ins wirtschaftlich schwierigere Jahr 2009 erleichtert.» Wo einst das älteste Gebäude der Produktionsstätte stand, bietet heute ein dreigeschossiger Neubau Platz für ein attraktives Personalrestaurant, zeit gemässe Büros, grosszügige Produkti onsflächen, ein modernes Test und Anwendungscenter sowie ein zertifi
ziertes Prüflabor, um den wachsenden internationalen Anforderungen an die Produkte gerecht zu werden. Die Fertigung der Füllstandmess geräte befindet sich neu in einem zwei geschossigen Anbau des benachbarten Produktionsgebäudes in der Schlage termatt. Dass wir die wichtigsten Bau arbeiten bis Dank der Füllstandfabrik konnten die Abläufe von Produktions und Logistikprozessen schlanker, effi zienter und an einem Standort gestaltet werden. (Endress + Hauser/gus)
NOK verzichtet auf Beschwerde
Vom Vorsprung Zürichs profitieren
Von der Vereinbarung zwischen Zürich und St. Gallen nicht betroffen sind die laufenden Gespräche beider Städte mit der Swisscom. Dabei geht es um eine Zusammenarbeit beim Bau und der Verlegung der Glasfasern. Die Gespräche wurden auf Chef Ebene zwischen Stadtrat Fredy der deshalb und darum Brunner und SwisscomCEO Carsten Schloter ge führt, wie Peter Stäger sagte. Das Ziel sei, bis Ende Mai einen Kooperations (SDA/bs) vertrag auszuarbeiten.
Die NOK reicht trotz Unklarheiten und rechtlichen Widersprüchen bei der ElcomVerfügung keine Beschwerde ein, wie sie mitteilte. Streitpunkt bei der Berechnung der Tarife waren die sogenannten Systemdienstleist. Damit will die NOK nach eigenen Angaben einen Beitrag zur schnellen Einführung der Regulierung leisten. Die Schweizer Wirtschaft und die Konsumenten soll ten Preissicherheit erhalten, hiess es bei der NOK weiter. (SDA/bs)
St. Gallen profitiere durch die Ko operation vom Vorsprung und der Erfahrung Zürichs, heisst es. In St. Gal len sollen die Angebote über die schnel len Leitungen für Telefon, Internet und TV rascher auf den Markt kommen. Laut Communiqué prüfen auch Genf, Meilen ZH und Winterthur eine Beteiligung an der Kooperation. Diese Städte planen ebenfalls den Aufbau eigener Glasfasernetze.
Bulletin 5 / 2009 BULLETIN
37
Rückschau VEranStaltungEn ExamEn OrganiSatiOnS
Planvorlagepflicht von Schwachstromanlagen in EX-Zonen Obligation d’approbation des plans d’installations à courant faible en zones EX Obbligo di presentazione dei piani di impianti a corrente debole in zone EX
gefährdeten Bereichen brächte für die Anlage keine zusätzliche Sicherheit, sondern bloss einen erheblichen administrativen, kostenintensiven Mehraufwand für die Betreiber. Dario Marty, Chefingenieur
1. Situation de départ 1. Ausgangslage Mit Änderung vom 8. Dezember 1997 wurde ein neuer Art. 8a in die Schwachstromverordnung (SR 734.1) eingefügt, der am 1. Januar 1998 in Kraft trat. Es wurde eine Genehmigungspflicht für bestimmte Schwachstromanlagen eingeführt. Die Planunterlagen müssen bei diesen Anlagen vor der Erstellung der Kontrollstelle zur Genehmigung vorgelegt werden. Nach Art. 8a Abs. 1 Bst. e Schwachstromverordnung gilt die Genehmigungspflicht für Schwachstromanlagen, die in explosionsgefährdeten Bereichen erstellt werden. Diesbezüglich wurde bloss der Zustand fortgeschrieben, wie er vor der Liberalisierung im Fernmeldebereich galt, als die PTT-Betriebe noch Kontrollstelle für Schwachstromanlagen waren. Das Genehmigungsverfahren richtet sich nach der Verordnung über das Plangenehmigungsverfahren für elektrische Anlagen (VPeA; SR 734.25). In der Basler Chemischen Industrie (BCI) sowie in weiteren Betrieben in der ganzen Schweiz werden Schwachstromanlagen in explosionsgefährdeten Bereichen errichtet. Bis heute wurde für solche Anlagen nie eine Planvorlage beim Eidgenössischen Starkstrominspektorat ESTI eingereicht. Dies deshalb, weil Schwachstromanlagen in explosionsgefährdeten Bereichen überwiegend aus der Niederspannungsinstallation gespeist werden und daher den Vorschriften für diese Installationen unterstehen. Vor der Übergabe der Anlage an den Eigentümer wird folglich eine Schlusskontrolle durchgeführt und ein Sicherheitsnachweis nach der Verordnung über elektrische Niederspannungsinstallationen (NIV; SR 734.27) erstellt. Innerhalb von 6 Monaten nach der Übernahme der Anlage durch den Eigentümer veranlasst dieser eine Abnahmekontrolle durch ein unabhängiges Kontrollorgan (nur EX-Zonen 2 und 22) resp. eine akkreditierte Inspektionsstelle oder das ESTI (EX-Zonen 0 64
und 20 sowie 1 und 21, ausgenommen Tankstellen und Fahrzeugreparaturwerkstätten). Es wird teilweise die Meinung vertreten, für Schwachstromanlagen in explosionsgefährdeten Bereichen, namentlich in der BCI, sei aufgrund des Wortlauts von Art. 8a Abs. 1 Bst. e Schwach.
2. Verbindung zu einem öffentlichen Netz als Voraussetzung für die Planvorlagepflicht Dem ist nicht so. Der Anwendungsbereich der fraglichen Bestimmung beschränkt sich auf Telekommunikationsanlagen und Schwachstromanlagen in explosionsgefährdeten Bereichen mit Verbindung zu einem öffentlichen Netz (Ziff. 7.2 der Weisung des ESTI für die Installation der Anschlussleitungen von Schwachstromanlagen in besonders gefährdeten Bereichen, STI Nr. 902.0106). Zu denken ist etwa an den Fall, wo der Betreiber eines Kommunikationsnetzes in der Nähe einer Gasdruckreduzierstation eine Schwachstromleitung verlegen möchte. In den übrigen Fällen, insbesondere was die Anlagen in der BCI betrifft, genügen die unter Ziffer 1 beschriebenen Massnahmen gemäss NIV (Schlusskontrolle, Sicherheitsnachweis, Abnahmekontrolle durch ein unabhängiges Kontrollorgan [nur EX-Zonen 2 und 22] resp. eine akkreditierte Inspektionsstelle oder das ESTI [EX-Zonen 0 und 20 sowie 1 und 21, ausgenommen Tankstellen und Fahrzeugreparaturwerkstätten]). Der Sinn und Zweck von Art. 8a Abs. 1 Bst. e Schwachstromverordnung wird so am besten verwirklicht. Es soll verhindert werden, dass einerseits in der EX-Zone selber eine elektrische Zündquelle entsteht und andererseits nicht über Kopplungen und Induktionen hohe Spannungen in die EX-Zone eingeschleppt werden. Eine generelle Planvorlagepflicht für Schwachstromanlagen in explosions-
Avec la modification du 8 décembre 1997 a été introduit dans l’ordonnance sur le courant faible (RS 734.1) un nouvel article 8a entré en vigueur le 1er janvier 1998. Une obligation d’approbation de certaines installations à courant faible a été instaurée. Les dossiers de projet relatifs à ces installations doivent être présentés à l’organe de contrôle pour approbation avant la mise en place. Selon l’art. 8a, al. 1, let. e de l’ordonnance sur le courant faible, l’obligation d’approbation s’applique aux installations à courant faible posées en atmosphères explosibles. A cet égard a simplement perduré la situation qui s’appliquait avant la libéralisation dans le domaine des télécommunications, lorsque les entreprises des PTT étaient encore organe de contrôle des installations à courant faible. La procédure d’approbation est régie par l’ordonnance sur la procédure d’approbation des plans des installations électriques (OPIE; RS 734.25). Des installations à courant faible sont posées en atmosphères explosibles au sein de la Basler Chemische Industrie (BCI) ainsi que d’autres entreprises partout en Suisse. Pour ces installations, jamais un projet n’a jusqu’à présent été présenté à l’Inspection fédérale des installations à courant fort ESTI. Ceci parce que les installations à courant faible en atmosphères explosibles sont essentiellement alimentées par des installations à basse tension et donc dépendent des prescriptions relatives à ces installations. Avant la remise de l’installation au propriétaire, un contrôle final est par conséquent effectué et un rapport de sécurité selon l’ordonnance sur les installations électriques à basse tension (OIBT; RS 734.27) est établi. Dans les 6 mois à compter de la réception de l’installation par le propriétaire, celui-ci fait procéder à un contrôle de réception par un organe de contrôle indépendant (zones EX 2 et 22 uniquement) ou un organisme d’inspection accrédité ou l’ESTI (zones EX 0 et 20 ainsi que 1 et 21, sauf stations-
Bulletin 5 / 2009 BULLETIN
service et ateliers de réparation automobile). Il circule parfois l’idée selon laquelle les installations à courant faible en atmosphères explosibles, notamment au sein de la BCI, seraient, en vertu de la teneur de l’art. 8a, al. 1, let. e de l’ordonnance sur le courant faible, impérativement soumises à une approbation des plans de l’ESTI.
2. Raccordement à un réseau public comme condition à l’obligation d’approbation des plans Il n’en est rien. Le champ d’application de la disposition en question se limite aux installations de télécommunications et aux installations à courant faible en atmosphères explosibles reliées à un réseau public (ch. 7.2 de la directive de l’ESTI pour l’établissement de lignes de raccordement d’installations à courant faible dans des zones particulièrement dangereuses, no STI 902.0106). On pense par exemple au cas de l’exploitant d’un réseau de communications qui souhaite poser une ligne à courant faible à proximité d’une station de réduction de la pression du gaz. Dans les autres cas, en particulier en ce qui concerne les installations au sein de la BCI, les mesures selon l’OIBT décrites au chiffre 1 (contrôle final, rapport de sécurité, contrôle de réception par un organe de contrôle indépendant [zones EX 2 et 22 uniquement] ou un organisme d’inspection accrédité ou l’ESTI [zones EX 0 et 20 ainsi que 1 et 21, sauf stations-service et ateliers de réparation automobile]) sont suffisantes. L’objet et le but de l’art. 8a, al. 1, let. e de l’ordonnance sur le courant faible sont ainsi remplis au mieux. Ils visent à empêcher que, d’une part, une source d’inflammation électrique naisse dans la zone EX elle-même et, d’autre part, que des tensions élevées ne s’introduisent pas dans la zone EX par des couplages et des inductions. Une obligation générale d’approbation des plans d’installations à courant faible en atmosphères. Dario Marty, ingénieur en chef
1. Situazione iniziale Con la modifica dell’8 dicembre 1997 nell’ordinanza sulla corrente debole (RS 734.1) è stato inserito un nuovo art. 8a
entrato in vigore il 1° gennaio 1998. Per determinati impianti a corrente debole è stato introdotto un obbligo di approvazione. Prima della costruzione di tali impianti i documenti relativi al progetto devono essere presentati all’organo di controllo per approvazione. Ai sensi dell’art. 8a cpv. 1 lett. e dell’ordinanza sulla corrente debole l’obbligo di autorizzazione vige per gli impianti a corrente debole, che vengono costruiti in zone con pericolo di esplosione. A tale proposito si è semplicemente proseguito con lo stato in vigore prima della liberalizzazione nel settore delle telecomunicazioni, quando le imprese delle PTT erano ancora l’organo di controllo per gli impianti a corrente debole. La procedura di autorizzazione si conforma all’ordinanza sulla procedura d’approvazione dei piani di impianti elettrici (OPIE; RS 734.25). Nell’industria chimica basilese (ICB) come pure in altre aziende ubicate in tutta la Svizzera vengono costruiti impianti a corrente debole in zone con pericolo di esplosione. Finora per tali impianti non si è mai dovuto presentare un progetto all’Ispettorato federale degli impianti a corrente forte ESTI. E ciò per il fatto che gli impianti a corrente debole situati in zone con pericolo di esplosione vengono in prevalenza alimentati da impianti elettrici a bassa tensione e sottostanno quindi alle prescrizioni vigenti per questi ultimi. Prima della consegna dell’impianto ai proprietari viene di conseguenza eseguito un controllo finale e allestito un rapporto di sicurezza secondo l’ordinanza concernente gli impianti elettrici a bassa tensione (OIBT; RS 734.27). Entro 6 mesi dalla presa in consegna dell’impianto da parte del proprietario, quest’ultimo predispone un controllo di collaudo da parte di un organo di controllo indipendente (solo zone EX 2 e 22) risp. di un organo d’ispezione accreditato o dell’ESTI (zone EX 0 e 20 come pure 1 e 21, esclusi i distributori di benzina e le officine per la riparazione di veicoli). Viene in parte sostenuto che, in base al testo dell’art. 8a cpv. 1 lett. e dell’ordinanza sulla corrente debole per gli impianti a corrente debole situati in zone con pericolo di esplosione, soprattutto nella ICB, sia in ogni caso necessaria un’approvazione dei piani da parte dell’ESTI.
2. Collegamento a una rete pubblica quale requisito per l’obbligo di presentare i piani Ciò non corrisponde al vero. Il campo di applicazione della disposizione in questione si limita agli impianti di telecomunicazione e agli impianti a corrente debole situati in zone con pericolo di esplosione collegati a una rete pubblica (comma 7.2 della direttiva dell’ESTI per l’installazione di linee di collegamento di impianti a corrente debole in zone particolarmente pericolose, STI no 902.0106). Si pensi, per esempio, al caso in cui il gestore di una rete di comunicazione vorrebbe posare una linea a corrente debole in prossimità di una stazione per la riduzione della pressione del gas. Negli altri casi, in particolare per quanto riguarda gli impianti nella ICB, sono sufficienti le misure descritte al comma 1 conformemente alla OIBT (controllo finale, rapporto di sicurezza, controllo di collaudo eseguito da un organo di controllo indipendente [solo zone EX 2 e 22] risp. da un organo d’ispezione accreditato o dall’ESTI [zone EX 0 e 20 come pure 1 e 21, esclusi i distributori di benzina e le officine per la riparazione di veicoli]). In tal modo il senso e lo scopo dell’art. 8a cpv. 1 lett. e dell’ordinanza sulla corrente debole vengono sdfbsdfb realizzati al meglio. Da un lato sdfbsdfb si deve evitare che nella zona EX stessa si sviluppino fonti di scintille sdfb elettriche e sfbdfb dall’altro che mediante accoppiamenti e induzioni nella zona EX sdfbadfbv non vengano importate erbdafbv tensioni elevate. Un obbligo sdfbasdfb generale di presentazione dei piani dfsbdfb per gli impianti sdfbsdfbv a corrente. Dario Marty, ingegnere capo
Kontakt / contact / contatto Hauptsitz / siège / sede centrale Eidgenössisches Starkstrominspektorat ESTI Luppmenstrasse 1, 8320 Fehraltorf Tel. 044 956 12 12, Fax 044 956 12 22 info@esti.admin.ch, www.esti.admin.ch Niederlassung / succursale ESTI Romandie Chemin de Mornex 3, 1003 Lausanne Tél. 021 311 52 17, fax 021 323 54 59 info@esti.admin.ch, www.esti.admin.ch
Bulletin 5 / 2009 BULLETIN
65
RücKscHAu VErAnsTAlTunGEn ExAmEn OrGAnisATiOns
Bilder/Photos: Electrosuisse/CKe
Freileitung oder Kabel? ETG-Fachtagung vom 2. April 2009 in Zürich Am 2. April fand an der ETH Zürich die ETG-Fachtagung zum Transport von elektrischer Energie mit Freileitungen und Kabeln statt. Welches von beiden zu bevorzugen ist, hängt von vielen Faktoren ab, und die Tagung zeigte, dass die Frage alles andere als einfach zu beantworten ist.
Ligne aérienne ou câble? Journée technique ETG du 2 avril 2009 à Zurich La journée technique ETG consacrée au transport d’énergie électrique par lignes aériennes et câbles a eu lieu le 2 avril à l’EPF Zurich. La question de savoir si l’on doit donner la préférence aux lignes aériennes ou aux câbles dépend de très nombreux facteurs et la journée a montré que la question était fort complexe.
Rund 170 am Thema Interessierte fanden sich am Donnerstagmorgen im Auditorium Maximum zu einer spannenden und lebendigen Tagung der ETG ein. Der Fernübertragung von elektrischer Energie kommt aus verschiedenen Gründen eine immer grössere Bedeutung zu. Zum einen kommen die grossen erneuerbaren Energiequellen überwiegend verbrauchsfern vor, zum anderen wird eine immer höhere Versorgungssicherheit bei gleichzeitig wachsendem Energieverbrauch gefordert. Dies alles wird zu grundlegenden Veränderungen in den Netzen führen. Klaus Fröhlich, Professor für elektrische Energieübertragung an der ETH Zürich, stellte den Zuhörern die grundlegenden 3 Technologien der Energiefernübertragung vor. Bei der Freileitung, beim Kabel und auch bei der gasisolierten Leitung (GIL) gilt es, die thermische Grenzlast, den Blindleistungsbedarf, die übertragbare Leistung, und die Kosten gegeneinander abzuwägen. Dabei spielen die Umweltaspekte wie elektromagnetische Felder, tonale Emissionen und der Platzbedarf auch eine wichtige Rolle. Ebenfalls müssen die Reparierbarkeit und allfällige Reparaturzeiten beachtet werden. Erstaunlicherweise hat jedoch die Betriebsart (AC oder DC) rein technische Aspekte und spielt im Zusammen76
hang mit den Umweltkriterien kaum eine Rolle. Niemand beneidet die Politik um ihre Situation im Zusammenhang mit der elektrischen Energieübertragung. Nationalrat Hans Killer brachte es in seinem Vortrag auf den Punkt: «Alle wollen Strom, doch keiner will die dazu erforderlichen Leitungen!» Viele offene Fragen sowie die Chancen und Gefahren einer Rechtssetzung prägen das Bild. In der politischen Diskussion prallen die Stromsparer, die keinen Grund für neue Anlagen sehen, auf die, welche das wirtschaftliche Wachstum mit genügend Strom unterstützen wollen. Alessandro Magri, Nexans Suisse SA, erläuterte den Zuhörern, wie in relativ kurzer Zeit ein 9 km langes 380-kV-Kabel zwischen Mendrisio und Cagno realisiert werden konnte. Er kommt zum Schluss, dass mit TCO-Analysen in vielen Fällen gezeigt werden kann, dass die Mehrinvestitionen bei teilverkabelten Anlagen wirtschaftlich vertretbar sind. Wenn andererseits keine besonderen Schutzziele erreicht werden müssen, sind Freileitungen die bessere Lösung. Zu diesem Schluss kommt Dr. Matthias Zwicky von der Atel Netz AG. Er legte dar, dass ein Kosten-Nutzen-Vergleich die hohen Kosten einer Erdverlegung in den wenigsten Fällen rechtfertige. Er stützte
Die ETG-Fachtagung zum Thema Freileitungen oder Kabel lockte rund 170 Besucher an.
seine Argumentation auf das Beispiel des Leitungsabschnitts Chamoson-Chippis. Herbert Lugschitz vom Verbund-Austrian Power Grid wies seinerseits darauf hin, dass jedes Übertragungsmedium (Freileitung oder Kabel) seinen typischen Anwendungsbereich hat. Kabel kommen vor allem in Städten und Vorstädten, bei Flughäfen oder der Querung von Wasserstrassen zum Einsatz, wo auch eine minimale Vermaschung vorhanden ist. In Österreich kam man zum Schluss, dass für lange Verbindungen von höchster Bedeutung, wie sie der österreichische 380-kV-Ring darstellt, nur eine Freileitung die ausreichende Zuverlässigkeit und Verfügbarkeit habe. Den letzten Vortrag hielt Prof. Jochen Kreusel von der ABB AG, Mannheim. Er erläuterte die ambitionierten energiepolitischen Ziele und die Potenziale in Europa. Viele grosse Quellen erneuerbarer Energie liegen fern von den Verbrauchern. ABB hat die HochspannungsGleichstromübertragung adfb weiterentwickelt und dfbadfbv adfvfv bietet damit effiziente Möglichkeiten der Energieübertragung über lange Strecken. Mit einer beachtlichen Liste von real ausgeführten aedfvadfv Kabelverbindungen bis zu 160 km Länge überzeugte er die Zuhörer von der adfvadfvadv ds Leistungsfähigkeit dieser Technologie.
Bulletin 5 / 2009 BULLETIN
RücKscHAu VErAnsTAlTunGEn ExAmEn OrGAnisATiOns
La journée ETG sur les lignes aériennes ou câbles a attiré environ 170 visiteurs.
Die lebendige Podiumsdikussion mit grosser Besucherbeteiligung machte es deutlich: Es gibt keine einfache Antwort auf die Frage nach Freileitung oder Kabel. Jeder einzelne Anwendungsfall muss äusserst differenziert analysiert und mit allen Interessensgruppen diskutiert werden. Die Mannigfaltigkeit der Ausführungsmöglichkeiten und die Vielfalt an Anforderungen verunmöglicht eine einfache Entscheidungsfindung. Die Tagungsbeiträge sind unter www. electrosuisse.ch via ETG und Tagungsrückblicke zu finden.
Environ 170 personnes intéressées au sujet s’étaient réunies ce jeudi matin à l’Auditorium Maximum pour une journée passionnante et animée de l’ETG. Le transfert à distance de l’énergie électrique joue un rôle de plus en plus important, ceci pour diverses raisons. D’abord, les grandes sources d’énergie renouvelable sont en majorité éloignées du lieu de consommation, ensuite, on exige une fiabilité d’approvisionnement de plus en plus poussée tandis que la consommation d’énergie augmente. Tout cela va aboutir à des changements fondamentaux des réseaux. Klaus Fröhlich, professeur de transport d’énergie électrique à l’EPF Zurich,
a présenté à l’auditoire les 3 technologies fondamentales de transport à distance de l’énergie. Tant pour la ligne aérienne que pour le câble et la ligne isolée au gaz, il s’agit de tenir compte de la charge thermique limite, du besoin de puissance déwattée, de la puissance transmissible et des coûts. Sans oublier que les aspects environnementaux comme les champs électromagnétiques, les émissions tonales et l’encombrement jouent également un rôle important. De même, il faut tenir compte de la réparabilité et des éventuels temps de réparation. Il est cependant surprenant que le mode d’exploitation (courant alternatif ou continu) n’ait que des aspects techniques et ne joue guère de rôle dans le cadre des critères d’environnement. Personne n’envie à la politique sa situation dans le cadre du transport d’énergie électrique. Le conseiller national Hans Killer l’a dit tout net dans son exposé: «Tout le monde veut du courant électrique, mais personne ne veut des lignes nécessaires!» De nombreuses questions sont en suspens, concernant également les chances et risques d’une législation. Dans la discussion politique, les économiseurs de courant, qui ne voient aucune raison de construire de nouvelles installations, se heurtent à ceux qui veulent assister la croissance économique avec suffisamment d’énergie électrique. Alessandro Magri, Nexans Suisse SA, a expliqué comment on a pu réaliser, en un temps relativement court, un câble de 380 kW long de 9 km entre Mendrisio et Cagno. Il est arrivé à la conclusion que des analyses TCO permettaient dans de nombreux cas de démontrer que les investissements supplémentaires pour installations partiellement câblées étaient économiquement acceptables. D’autre part, s’il n’y a pas d’objectifs particuliers de protection à atteindre, les lignes aériennes sont la solution préférable. C’est la conclusion du Dr Matthias Zwicky d’Atel Netz AG, qui a exposé qu’une comparaison coût/utilité ne justifiait les coûts élevés des câbles souterrains que dans très peu de cas. Pour appuyer son argumentation, il a cité l’exemple du tronçon de ligne Chamoson-Chippis. Herbert Lugschitz du Verbund Austrian Power Grid a signalé de son côté que tout moyen de transport (ligne aérienne ou câble) avait son domaine d’application typique. Les câbles sont surtout utilisés dans les villes et faubourgs, aux aéroports et dans le franchissement des voies navigables où le mail-
lage est minime. En Autriche, on est arrivé à la conclusion que pour les longues distances de très haute importance, comme le réseau 380 kV autrichien, seule une ligne aérienne offrait la fiabilité et la disponibilité requises. Le dernier exposé a été présenté par le professeur Jochen Kreusel d’ABB AG, Mannheim. Il a exposé les objectifs visés de politique énergétique et les potentiels en Europe. De nombreuses grandes sources d’énergie renouvelable sont très éloignées des consommateurs. ABB a développé la transmission à courant continu haute tension et offre ainsi des. La discussion très animée au podium, avec grande participation des visiteurs, a montré clairement qu’il n’y avait pas de réponse simple à la question de savoir s’il faut préférer les lignes aériennes ou les câbles. Chaque cas d’application doit être analysé de manière extrêmement différenciée et discuté avec tous les groupes d’intérêts. La grande variété des possibilités d’exécution et des exigences rend impossible toute décision simple. Les exposés peuvent être téléchargés sur www.electrosuisse.ch via ETG et les (CKe) rétrospectives de la journée.
«Alle wollen Strom, niemand will die dazu erforderlichen Leitungen», NR Hans Killer. «Tout le monde veut du courant électrique, mais personne ne veut des lignes nécessaires!»
Prof. Göran Andersson von der ETH Zürich führte souverän durch die Tagung. Le Prof. Göran Andersson de l’EPF Zurich a souverainement guidé les participants durant. Bulletin 5 / 2009
BULLETIN
77
BRAncHE MAGAZIN BRAncHE MAGAZINE
Kraftwerk Wald Blindtext Blindtext Blindtext Blindtext Im Wald wächst Wärme – fast ausschliesslich! Rund 98% des Energieholzes aus dem Schweizer Wald werden zur Erzeugung von Heiz- oder allenfalls von Prozesswärme eingesetzt. Bis jetzt sind nicht einmal ein Dutzend Anlagen in Betrieb, welche nebst Wärme auch Strom erzeugen (Wärme-Kraft-Kopplung, WKK). Das dürfte sich aber wohl bald ändern.
Vorname Name
Grundsätzlich (und vereinfacht!) stehen 2 Technologien für die Stromerzeugung aus Holz zur Verfügung, der Dampf- und der Gasprozess. Deren wichtigste Charakteristiken sind in der oberen Tabelle auf der folgenden Seite zusammengefasst.
Beispiel Holzvergasung
den. Nach der Vergasungsinsel wird das gereinigte Synthesegas einem Gasmotor zugeführt. Dieser ist in ein sogenanntes Blockheizkraftwerk (BHKW) integriert, das die mechanische Leistung des Motors mittels eines Generators in Strom umwandelt und die anfallende Abwärme des Motors mithilfe von Wärmetauschern in einen Wärmeverbund einspeist.
Geplante Grosskraftwerke
VSE
Die Holzvergasung ist ein thermochemischer Prozess, bei dem das Holz in ein brennbares Gas – das sogenannte Synthesegas – umgewandelt wird. Bei der Vergasung wird dem Holz eine unterstöchiometrische Menge an Oxidationsmittel (Luft, Sauerstoff, Dampf) zugeführt, wobei die freigesetzte Wärme zur thermischen Zersetzung des übrigen Holzes dient. Grundsätzlich unterscheidet man zwischen dem Festbett- und dem Wirbelschichtverfahren. Ersteres gelangt
für tiefere thermische Leistungen (100 bis ca. 5000 kWth) zum Einsatz, Letzteres für einen thermischen Leistungsbereich von 10 bis 20 MWth. In einem ersten Schritt wird das Holz für den Vergasungsprozess aufbereitet. Danach folgt die Vergasungsinsel, wo die Umwandlung des Holzes in ein brennbares Gasgemisch erfolgt. Dieser Prozess erfordert eine Gaswäsche, um das Gas auf eine genügende Qualität für einen Verbrennungsmotor zu bringen. Diese Gaswäsche erfordert wiederum eine nachträgliche Behandlung des Waschwassers. Neben dem Hauptprodukt der Vergasung, dem Synthesegas, fallen auch Asche, Kohle und Wärme als Nebenprodukte während der Vergasung an. Während die Kohle dem Vergasungsreaktor nochmals zugeführt werden kann, muss die Asche gesammelt und entsorgt wer-
Holzenergie in der Schweiz dürfte durch die KEV einen weiteren Schub erhalten. 32
Im Oktober 2008 wurde die neue Heizzentrale des Holzkraftwerks Basel auf dem Gelände der KVA Basel in Betrieb genommen. Die Anlage wird zusätzlich zur bisher aus Kehricht, Öl und Gas erzeugten Wärme auch Holzwärme ins bestehende Fernwärmenetz der Stadt Basel einspeisen. Als willkommenes «Nebenprodukt» fällt Ökostrom an. Das benötigte Holz stammt aus den Wäldern der ganzen Nordwestschweiz. Der jährliche Holzverbrauch dieser Anlage beläuft sich auf rund 300 000 Sm3 (Schüttkubikmeter). Das Holzkraftwerk Basel ist damit die zweitgrösste Anlage dieser Art in der Schweiz – hinter dem Werk der Tegra AG im bündnerischen Domat/Ems. Dieses benötigt im Endausbau jährlich rund 800 000 Sm3 Energieholz und liefert heute einen Teil der bei der Stromerzeugung anfallenden Wärme in Form von Dampf an die benachbarte Ems Chemie. Zur besseren Nutzung der Abwärme und damit zur Erhöhung des gesamten Wirkungsgrads existieren Pläne, Fernleitungen zunächst bis ins Dorf Domat/Ems, später sogar bis nach Chur zu legen. Bereits heute lässt sich der Brennstoffbedarf für die WKK-Anlage der Tegra AG nicht allein auf regionaler Ebene de-
Bulletin 5 / 2009 BULLETIN
BRAncHE MAGAZIN BRAncHE MAGAZINE
cken, und es erfolgen zum Teil Holzlieferungen aus dem Berner Seeland ins Bündnerland hinauf. Mit der Anlage der Tegra AG ist auf dem Energieholzmarkt ein grundsätzlicher Paradigmenwechsel eingetreten – weg vom bisherigen «Angebotsmarkt» hin zu einem «Nachfragemarkt». Nichts verdeutlicht diese grundsätzliche Veränderung besser als jener Förster aus einer Zürcher Unterländer Gemeinde, welcher sich noch vor 4 Jahren mit grossem Engagement für die Realisierung eines Holzwärmeverbunds in seiner Gemeinde eingesetzt hat, um eine Absatzmöglichkeit für seine Schwachholzsortimente zu schaffen. Heute hat er diese Absatzmöglichkeit in Domat/Ems. Oder bald schon ganz in der Nähe. Denn auch in Zürich Nord (Aubrugg) ist ein ähnliches Holzkraftwerk wie in Basel in der Planung bereits sehr weit fortgeschritten. Bereits gefallen ist der Entscheid in der KVA der Stadt Bern: Hier beginnt EWL Bern mit dem Bau ihres Holzkraftwerks mit einem jährlichen Brennstoffbedarf von 300 000 Sm3.
Was das heisst, lässt sich wiederum anhand eines Beispiels einleuchtend zeigen: Eine der grössten bestehenden Holzheizungen der Schweiz ist diejenige der Avari AG in Wilderswil, welche über ein Nahwärmenetz zahlreiche öffentliche und private Liegenschaften in Wilderswil und Interlaken mit Wärme versorgt. Die Anlage mit insgesamt 6,4 MW Leistung ist während des ganzen Jahres in Betrieb. Im unwirtschaftlichen Sommerbetrieb wird jedoch sehr wenig Wärmeenergie verkauft. Dies ist auch der
Grund, weshalb bisher auf die Stromerzeugung verzichtet wurde. Nun gibt es eine Idee, auf dem in unmittelbarer Nähe gelegenen, stillgelegten Militärflugplatz Interlaken ein Pelletwerk zu realisieren. Dieses würde auch im Sommer sehr viel Prozesswärme für die Trocknung des Rohstoffs benötigen. Die Stromerzeugung ist also erst dann ins Auge zu fassen, wenn Absatzmöglichkeiten für die dabei anfallende Abwärme vorhanden sind. (Holzenergie Schweiz/bs)
System
Medium
Technik
(elektrisch)
(thermisch)
(theoretisch)
Dampfprozess
Wasser
Dampfturbine
> 400
> 3000
15 %
praxistauglich
Dampfmotor
> 150
> 2000
15 %
praxistauglich
ORC (Thermoöl)
Dampfturbine
> 250
> 2000
17 %
praxistauglich
Gas
Gasturbine
> 300
> 1000
30 %
Pilotphase
Gasmotor
> 50
> 200
30 %
Pilotphase
Stirlingmotor
>
>
10 %
Entwicklung
Gasprozess
Leistungsbereich
5
Elektrischer Wirkungsgrad
40
Stand der Technik
Wichtigste Charakteristiken von Dampf- und Gasprozess.
Ausblick Zusätzlich zu den bereits erwähnten Vorhaben gibt es mindestens ein Dutzend weiterer, mehr oder weniger konkreter Ideen für grosse Holzkraftwerke. Die meisten dieser Ideen sind mittlerweile beim Brennstoff Altholz angelangt – nachdem sich gezeigt hat, dass derart grosse Mengen mit reinem Waldholz nicht oder nur sehr aufwendig bereitzustellen wären. Die rückwirkend auf den 1. Januar 2008 in Kraft getretene kostendeckende Einspeisevergütung wird der Stromerzeugung aus Holz zweifellos nochmals einen gewissen Schub verleihen. Gesamtschweizerisch gesehen, besteht noch ein beträchtliches Potenzial an zusätzlich nutzbarem Energieholz, denn die aktuelle Nutzung erreicht den Gesamtzuwachs bei Weitem nicht. Allerdings gibt es sehr starke regionale Unterschiede, und ein ansehnlicher Teil des freien Potenzials konzentriert sich auf topografisch schwieriges Gelände und auf den Privatwald. Umso wichtiger ist deshalb ein haushälterischer Umgang mit der Ressource Energieholz. Für die Stromerzeugung mit theoretischen elektrischen Wirkungsgraden von bestenfalls 30% heisst dies in jedem Fall, dass die Anlagen wärmegeführt sein müssen.
Anlage
Baujahr
Typ
Brennstoff
Leistung elektrisch (kw)
Crissier VD
2001
ORC-Turbine
Altholz
600
Leistung thermisch (kW) 2 740
Bière VD
1997
ORC-Turbine
Waldschnitzel
335
1 440
Meiringen BE
2001
Dampfturbine
Wald-/Restholz
700
3 500
Otelfingen ZH
2001
Dampfturbine
Altholz/Biomüll
2 500
8 500
Tegra Domat/Ems
2006
Dampfturbine
Altholz/Waldholz/ Restholz
16 000
81 500
Dampfturbine
Altholz
1 600
5 280
Basel BS
2008
Dampfturbine
Waldholz
4 000
21 000
Wila ZH
2007
Gasmotor
Waldholz
350
350
Stand NW
2007
Gasmotor
Altholz/Waldholz
1 380
5 700
Kleindöttingen AG
Übersicht über neun Holz-Wärme-Kraft-Kopplung-Anlagen (WKK), die in der Schweiz in Betrieb sind.
Bulletin 5 / 2009 BULLETIN
33
ReChtseCKe Der Fachmann antwortet Coin légal Le spéciaListe réponD
Wie wichtig ist eine Kaffeemaschine im Büro? Frage:
Das Berner Verwaltungsgericht hat im April 2008 das von der Regierung bewilligte Verfahren zur Vergrösserung des Grimselsees aufgehoben. Das Gericht befasste sich eingehend mit der Frage nach dem anzuwendenden Bewilligungsverfahren (Konzession oder Baubewilligung) und kam zum Schluss, dass das Vorhaben im Konzessionsverfahren statt im gewählten Ernst Baumberger Baubewilligungsverfahren zu behandeln sei. Daist Leiter PR/ bei legte das Gericht die Bestimmungen des Kommunikation Wassernutzungsgesetzes (WNG) derart eng aus, Kraftwerke Oberhasli dass Vorhaben zur Optimierung von Wasserkraftwerken fortan in fast jedem Fall ein Konzessionsverfahren durchlaufen müssen. Diese sind zeit- und kostenintensiv und stellen dadurch wirtschaftlich interessante Projekte infrage. Die durch den Gerichtsentscheid entstandene Rechtsunsicherheit blockiert nebst der Vergrösserung des Grimselsees auch weitere Optimierungsprojekte der Kraftwerke Oberhasli. Diese Auslegung des WNG entspricht nicht der ursprünglichen Absicht des Gesetzgebers und verunmög-
licht dem Kanton Bern, die ehrgeizigen Ziele seiner Energiestrategie umzusetzen. Diese sieht vor, Strom aus erneuerbaren Quellen bis ins Jahr 2035 von heute 60 auf 80% zu steigern. Die Wasserkraft spielt dabei eine zentrale Rolle, und die Optimierung. Die Berner Politiker sind nun aktiv geworden und verlangen eine Revision des WNG. Sie wollen, dass Modernisierungs- und Ersatzinvestitionen in bestehende Wasserkraftwerke ohne Änderung der Konzession – d.h. mittels Baubewilligungsverfahren – abgewickelt werden können. Darunter sollen Wirkungsgradverbesserungen, Leistungssteigerungen durch Sanierung, Aus- oder Zubau von Maschinen sowie Erhöhungen von Wasserspeichern fallen. Nimmt das neu ausgestaltete WNG alle politischen Hürden, wird es ab 2010 in Kraft treten. Dieses Tempo ist notwendig, denn in der sich ausweitenden Wirtschaftskrise wird auf breiter Front nach rascher Realisierung von essenziellen Infrastrukturprojekten gerufen. Hierzu würden besonders auch Optimierungen von Wasserkraftanlagen zählen, entsprechen sie doch den breit abgestützten energiewirtschaftlichen Zielen.
Comment un appareil de café est-il important dans le bureau? Question:
En avril 2008, le Tribunal administratif bernois a abrogé la procédure approuvée par le gouvernement en vue d’agrandir le lac du Grimsel. Le Tribunal a traité en détail la question de la procédure d’autorisation à appliquer (concession ou autorisation de construction) et a abouti à la conclusion qu’il fallait traiter le projet en recourant à la procédure de concession plutôt que par la procédure d’autorisation de construction. Le Tribunal a défini les dispositions de la loi sur l’utilisation des eaux (LUE) de manière si restreinte que les projets visant à optimiser les centrales hydrauliques doivent presque dans tous les cas faire l’objet d’une procédure de concession. Ces dernières sont coûteuses, exigent beaucoup de temps et remettent de ce fait les projets économiquement intéressants en question. L’insécurité juridique qui découle de la décision du Tribunal bloque non seulement l’agrandissement du lac du Grimsel, mais aussi d’autres projets d’optimisation des Centrales. L’interprétation de la LUE ne correspond pas à l’intention d’origine du législateur et empêche le canton de Berne d’atteindre les objectifs ambitieux de sa stratégie énergétique. Cette dernière prévoit d’augmenter la part
Ernst Baumberger est responsable RP/ Communication de Centrales d’Oberhasli
d’électricité produite à partir de sources renouvelables de 60% aujourd’hui à 80% jusqu’en 2035. L’énergie hydraulique y joue un rôle central et l’optimisation. Les politiciens bernois sont dorénavant actifs et exigent une révision de la LUE. Ils demandent de pouvoir effectuer des investissements dans les centrales hydrauliques existantes pour les moderniser et les compléter sans changer la concession (c’est-à-dire au moyen de la procédure d’autorisation), ce qui devrait permettre une amélioration du rendement, une augmentation de la puissance grâce à l’assainissement, l’extension et l’installation de machines, ainsi que l’élévation de la cote d’accumulation d’eau. Si la nouvelle LUE franchit tous les obstacles politiques, elle entrera en vigueur à partir de 2010. Il est nécessaire de procéder aussi rapidement, car durant la crise économique qui se propage, les projets d’infrastructure essentiels doivent être réalisés rapidement. L’optimisation des installations hydrauliques en ferait aussi partie puisqu’elle correspond aux objectifs d’économie énergétique et peut être financée par des fonds privés. La force hydraulique est la seule source.
Bulletin 5 / 2009 BULLETIN
73