2/27 (June 2016)
YEAR 8
R&D | technology | economy | law | management
ISSN 2300-3022
Publisher
ENERGA SA
Politechnika Gdańska
Patronage
ENERGA SA
Scientific Council
Janusz Białek | Marko Cepin | Antoni Dmowski | Istvan Erlich | Irina Golub Bolesław Goranczewski | Nouredine Hadjsaid | Piotr Kacejko | Tadeusz Kaczorek Marian Kazimierkowski | Jan Kiciński | Kwang Y. Lee | Zbigniew Lubośny Jan Machowski | Jan Majewski | Om Malik | Peter Marton | Jovica Milanovic Marta Molinas | Jaroslav Nenadál | Josef Novák | Joao Abel Pecas Lopes | Jan Popczyk Sylwester Robak | Mariusz Swora | Zbigniew Szczerba | Anna Szeliga-Kowalczyk Vladimir Terzija | G. Kumar Venayagamoorthy | Jacek Wańkowicz | Douglas Wilson Ryszard Zajczyk
Programme Council
Rafał Hyrzyński | Marcin Lemański | Grzegorz Widelski | Michał Zalewski
Reviewers
Bernard Baron | Paweł Bućko | Stanisław Czapp | Andrzej Graczyk | Piotr Helt Piotr Kacejko | Waldemar Kamrat | Andrzej Kanicki | Michał Karcz | Jan Kiciński Kwang Y. Lee | Karol Lewandowski | Józef Lorenc | Zbigniew Lubośny | Jan Machowski Jerzy Marzecki | Sebastian Nojek | Wiesław Nowak | Mirosław Parol | Józef Paska Stefan Paszek | Paweł Piotrowski | Jan Popczyk | Désiré Dauphin Rasolomampionona Waldemar Rebizant | Waldemar Skomudek | Marian Sobierajski | Paweł Sowa Marcin Sroka | Jan Stępień | Zbigniew Szczerba | Dariusz Świsulski | Irena Wasiak Jacek Wasilewski | Artur Wilczyński | Kazimierz Wilkosz | Kurt Żmuda
Editor-in-Chief
Zbigniew Lubośny
Vice Editor-in-Chief
Rafał Hyrzyński
Managing Editor
Jakub Skonieczny
Copy Editors
Katarzyna Żelazek | Bernard Jackson
Topic Editors
Michał Karcz | Jacek Klucznik | Marcin Lemański Karol Lewandowski | Paweł Szawłowski
Statistical Editor
Sebastian Nojek
Proofreading
Mirosław Wójcik
Graphic design and typesetting
Art Design Maciej Blachowski
Translation
Skrivanek Sp. z o.o.
Grafix Centrum Poligrafii
Dispatch preparation
ENERGA Obsługa i Sprzedaż Sp. z o.o.
Editorial Staff Office
Acta Energetica al. Grunwaldzka 472, 80-309 Gdańsk, POLAND tel.: +48 58 77 88 466, fax: +48 58 77 88 399 e-mail: redakcja@actaenergetica.org www.actaenergetica.org
Electronic Media
Anna Fibak (Copy Editor) Paweł Banaszak (Technical Editor)
Information about the oryginal version
Electronic edition of Acta Energetica is the original version of the journal, which is available on the website www.actaenergetica.org The journal is also available in hard copy. The journal is indexed in Polish Technical Journal Contents BazTech http://baztech.icm.edu.pl, in Scientific journal database – the IC Journal Master List http://jml2012.indexcopernicus.com/masterlist.php and also in Directory of Open Access Journals (DOAJ) https://doaj.org/
Information for authors published on the website: www.actaenergetica.org
A DROP OF ENERGY Energa Group employees, integrating the community around a shared noble cause, set up an informal club of honorary blood donors “Drop of Energy", which promotes the idea and sets an example for honorary blood donation. ln 2015, during campaigns organized by the club 131 liters of blood were donated (292 donations of 450 ml each) in either roving ambulances or during organized trips to blood collection points.
KROPELKA ENERGII Pracownicy Grupy Energa, integrując się wokół wspólnego szlachetnego pomysłu, powołali Nieformalny Klub Honorowych Dawców Krwi „Kropelka Energii", który propaguje ideę i czynne uczestnictwo w honorowym krwiodawstwie. W 2015 roku, podczas organizowanych przez klub akcji – ambulansowych i wyjazdów do punk pobrań – zebraliśmy łącznie 131 litrów krwi (292 donacji, po 450 ml każda). www.energa.pl
From the Chief Editor The various objectives pursued by power companies include the provision of energy security (among other things by generating and supplying electricity in a reliable manner and of adequate quality), maximization of profit, and other goals set by the state. Assuming that profit is the difference between total revenues and costs, profit maximization can be achieved by increasing the revenues or reducing the costs. Focusing on the technical field, i.e. ignoring actions in the area of organization and management, revenue growth can be achieved by increasing the generated and sold energy volume and selling ancillary services. The sale of electricity in Poland still features an upward trend, although in the EU it has fallen over the last five years altogether by more than 150 TWh. Therefore, some increase in revenues from the sale of electricity can still be expected, albeit limited in quantity and, above all, in time. A positive factor, which will further stimulate revenues, may be systems of demand control (management). Another action is related to services for the power system, including the transmission system operator. These include services associated with voltage and frequency control, and energy balancing. Also, the integration of sales of various energy carriers (gas, heat) and the systems of so-called smart homes belong to this category. However, these areas are competitive, which are in the sphere of interest and activities of others and thus associated with a potential competitive rivalry. In terms of cost, the measure which appears to be most effective is to optimise the power system operation. This can be achieved by a significant increase in the power grid’s observability (and hence controllability), installation and construction of power grid components with suitable quality and durability, as well as through the deployment of systems of online and offline diagnostics of the grid components’ condition, such as transformers, power lines, switchgear and energy sources. By allowing one to predict failures the diagnostic systems reduce the durations of power outages (directly affecting the SAIDI index) and allow the appropriate and effective management of grid assets, including planning their replacement. It is particularly important that these power system operation optimising processes and systems, including installed equipment and technologies, take into account a time horizon similar to the lifetime of the grid components for which they are dedicated, that is, 20–40 years. For distribution companies, which are assessed in a fairly short period of time, it is not an easy task. This, among other things, is what you can read about in this issue of Acta Energetica. Enjoy reading!
Zbigniew Lubośny Editor-in-Chief of Acta Energetica
Od redaktora naczelnego Wśród różnych celów realizowanych przez spółki sektora elektroenergetycznego można wyróżnić: zapewnienie szeroko rozumianego bezpieczeństwa energetycznego (między innymi poprzez wytwarzanie i dostarczanie energii elektrycznej w sposób niezawodny i o odpowiedniej jakości), maksymalizację zysku oraz realizację innych celów wytyczonych przez państwo. Przyjmując, że zysk jest różnicą pomiędzy całkowitymi przychodami a kosztami, maksymalizację zysku można realizować poprzez zwiększenie przychodów lub zmniejszenie kosztów. Skupiając się na obszarze technicznym, to jest pomijając działania w obszarze organizacji i zarządzania, wzrost przychodów można uzyskać poprzez zwiększenie wolumenu wytwarzanej i sprzedawanej energii oraz sprzedaż usług systemowych. Sprzedaż energii elektrycznej w Polsce ma tendencję wzrostową, chociaż łącznie w krajach UE spadła na przestrzeni ostatnich pięciu lat o ponad 150 TWh. Zatem nadal można się spodziewać pewnego, chociaż ograniczonego ilościowo, a przede wszystkim czasowo, wzrostu przychodów związanych ze sprzedażą energii elektrycznej. Pewnym pozytywnym elementem, który pozwoli dodatkowo stymulować przychody, mogą być systemy zarządzania popytem. Drugie działanie jest związane z usługami na rzecz systemu elektroenergetycznego, w tym operatora systemu przesyłowego. Można tu wyróżnić usługi związane z regulacją napięć, częstotliwości oraz bilansowania energii. Do tego obszaru można również zaliczyć integrację sprzedaży różnych nośników energii (gaz, ciepło) oraz systemy tzw. domów inteligentnych. Jednak są to obszary konkurencyjne, będące w sferze zainteresowania i działania innych podmiotów, i tym samym związane z potencjalną walką konkurencyjną. W sferze kosztów działaniem, które wydaje się najbardziej efektywne, jest optymalizacja pracy systemu elektroenergetycznego. Cel ten można osiągnąć poprzez znaczący wzrost obserwowalności (i tym samym sterowalności) sieci elektroenergetycznej, instalowanie i budowę elementów sieci elektroenergetycznych o odpowiednich cechach jakości i trwałości, a także poprzez wprowadzenie systemów online i offline diagnostyki stanu elementów tej sieci, m.in. transformatorów, linii elektroenergetycznych, aparatury łączeniowej i źródeł energii. Systemy diagnostyczne, pozwalające dokonywać predykcji uszkodzeń, ograniczają czas przerw w dostawie energii (wpływając bezpośrednio na wartość wskaźnika SAIDI) oraz pozwalają odpowiednio efektywnie gospodarować majątkiem sieciowym, w tym planować wymianę urządzeń. Szczególnie ważne jest, aby powyższe procesy i systemy optymalizujące pracę systemów elektroenergetycznych, włączając w to urządzenia i technologie instalowane, uwzględniały horyzont czasu zbliżony do czasu życia elementów sieci, dla których są one dedykowane, czyli 20–40 lat. Dla spółek dystrybucyjnych, które podlegają ocenie w dość krótkich okresach czasu, nie jest to zadanie proste. O tym między innymi można przeczytać w artykułach zawartych w tym numerze Acta Energetica. Zapraszam do lektury. prof. dr hab. inż. Zbigniew Lubośny redaktor naczelny Acta Energetica
Table of contents MODELLING OF AIR AND OXY-FUEL COMBUSTION IN A CIRCULATING FLUIDIZED BED Wojciech Adamczyk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 STRUCTURAL AND TRANSPORTATION PROPERTIES OF STRONTIUM TITANATE COMPOSITES WITH ION CONDUCTIVE OXIDES Beata Bochentyn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 E-HIGHWAY 2050: METHODOLOGY OF DATA CONTEXTUALIZATION FOR THE PURPOSE OF SCENARIO BUILDING Michał Bajor, Maciej Wilk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 EXPERIMENTAL STUDY OF HIGHER HARMONICS CONTENT IN STREET LIGHTING SYSTEM CURRENT Kazimierz Bieliński, Sławomir Cieślik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 TORREFACTION AS A MEANS TO INCREASE THE USE OF SOLID BIOMASS FOR POWER GENERATION AND HEATING Maciej Cholewiński, Michał Kamiński. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 TECHNICAL RISK MANAGEMENT IN THE PROCESS OF PLANNING DISTRIBUTION GRID DEVELOPMENT Bogdan Czarnecki, Piotr Zieliński . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 ISSUES OF ESTIMATING THE MAXIMUM DISTRIBUTED GENERATION AT HIGH WIND POWER PARTICIPATION Krzysztof Dobrzyński . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 EVALUATION OF THE COMPLEMENTARITY OF WIND ENERGY RESOURCES, SOLAR RADIATION AND FLOWING WATER – A CASE STUDY OF PIŁA Jakub Jurasz, Adam Piasecki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 HARDWARE-SOFTWARE IMPLEMENTATION OF BASIC PRINCIPLES SIMULATOR OF NUCLEAR REACTOR PROCESSES Tomasz Karla, Jarosław Tarnawski, Kazimierz Duzinkiewicz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 PROBLEMS OF CONNECTING WIND FARMS TO THE POWER SYSTEM WITH HV CABLES Jacek Klucznik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 HVDC CONVERTER STATIONS TO ENABLE OFFSHORE WIND FARM INTEGRATION WITH POWER SYSTEM Mariusz Kłos, Łukasz Rosłaniec, Józef Paska, Karol Pawlak . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 PROBLEMS OF SELECTING PROTECTION FOR SHUNT REACTORS WORKING IN EXTRA-HIGH VOLTAGE GRIDS Zbigniew Lubośny, Jacek Klucznik, Krzysztof Dobrzyński . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 APPLICATION OF MATRIX NOTATION FOR THE ANALYSIS OF POWER CHANGES IN A 3‑PHASE CIRCUIT Lesław Ładniak . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 GIS AND AMI SYSTEMS AS SOURCES OF DATA TO IMPROVE GRID OPERATION EFFICIENCY, THE RESULTS OF A PILOT STUDY Sławomir Noske, Dominik Falkowski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 DETECTION OF DIFFERENTLY LOADED POWER NETWORK AREAS Tomasz Okoń, Kazimierz Wilkosz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 BALANCING THE UNBALANCED SUPPLY OF GENERATION SOURCES – ADDITIONAL COSTS IN A COMPETITIVE ENERGY MARKET Tomasz Rubanowicz, Zbigniew Prondziński . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 COMPARISON OF TRANSMISSION CAPACITIES OF TWO REGULATION SYSTEMS: LATERAL AND IN-PHASE CONTROL TRANSFORMERS Marcin Sarnicki, Ryszard Zajczyk, Bartosz Tarakan, Krzysztof Tarakan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 LABORATORY POWER SYSTEM MODEL DESIGNED FOR TESTING DYNAMIC PROCESSES Jerzy Szczepanik, Bartosz Rozegnał . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 PROPOSED AMENDMENTS TO REACTIVE ENERGY BILLING Artur Wilczyński, Paweł Bućko . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
6
Spis treści MODELOWANIE PROCESU SPALANIA POWIETRZNEGO ORAZ TLENOWEGO W CYRKULACYJNEJ WARSTWIE FLUIDALNEJ Wojciech Adamczyk.............................................................................................................................................................................................................. 14 WŁAŚCIWOŚCI STRUKTURALNE I TRANSPORTOWE KOMPOZYTÓW TYTANIANU STRONTU Z TLENKAMI PRZEWODZĄCYMI JONOWO Beata Bochentyn.................................................................................................................................................................................................................... 28 E-HIGHWAY 2050: METODYKA KONTEKSTUALIZACJI DANYCH NA POTRZEBY TWORZENIA SCENARIUSZY Michał Bajor, Maciej Wilk ................................................................................................................................................................................................... 40 EKSPERYMENTALNE BADANIA ZAWARTOŚCI WYŻSZYCH HARMONICZNYCH W PRZEBIEGACH PRĄDÓW W INSTALACJI OŚWIETLENIA ULICZNEGO Kazimierz Bieliński, Sławomir Cieślik............................................................................................................................................................................... 53 TOREFAKCJA JAKO PROCES ZWIĘKSZAJĄCY MOŻLIWOŚCI ENERGETYCZNEGO WYKORZYSTANIA BIOMASY STAŁEJ Maciej Cholewiński Michał Kamiński............................................................................................................................................................................... 68 ZARZĄDZANIE RYZYKIEM TECHNICZNYM W PROCESIE PLANOWANIA ROZWOJU SIECI DYSTRYBUCYJNEJ Bogdan Czarnecki, Piotr Zieliński ..................................................................................................................................................................................... 80 PROBLEMATYKA SZACOWANIA MAKSYMALNEJ GENERACJI ROZPROSZONEJ PRZY DUŻYM NASYCENIU ENERGETYKĄ WIATROWĄ Krzysztof Dobrzyński ........................................................................................................................................................................................................... 92 OCENA KOMPLEMENTARNOŚCI ZASOBÓW ENERGII WIATRU, PROMIENIOWANIA SŁONECZNEGO ORAZ WÓD PŁYNĄCYCH – STUDIUM PRZYPADKU PIŁA Jakub Jurasz, Adam Piasecki ............................................................................................................................................................................................. 103 REALIZACJE SPRZĘTOWO-PROGRAMOWE SYMULATORÓW PODSTAWOWYCH ZASAD PRZEBIEGU PROCESÓW REAKTORA JĄDROWEGO Tomasz Karla, Jarosław Tarnawski, Kazimierz Duzinkiewicz ..................................................................................................................................... 113 PROBLEMY PRZYŁĄCZANIA FARM WIATROWYCH DO SYSTEMU ELEKTROENERGETYCZNEGO Z WYKORZYSTANIEM KABLI WN Jacek Klucznik ..................................................................................................................................................................................................................... 123 STACJE PRZEKSZTAŁTNIKOWE HVDC UMOŻLIWIAJĄCE INTEGRACJĘ MORSKICH FARM WIATROWYCH Z SYSTEMEM ELEKTROENERGETYCZNYM Mariusz Kłos, Łukasz Rosłaniec, Józef Paska, Karol Pawlak ....................................................................................................................................... 133 PROBLEMATYKA DOBORU ZABEZPIECZEŃ DŁAWIKÓW KOMPENSACYJNYCH PRACUJĄCYCH W SIECIACH NAJWYŻSZYCH NAPIĘĆ Zbigniew Lubośny, Jacek Klucznik, Krzysztof Dobrzyński ......................................................................................................................................... 144 WYKORZYSTANIE ZAPISU MACIERZOWEGO DO ANALIZY ZMIAN MOCY W OBWODZIE 3-FAZOWYM Lesław Ładniak .................................................................................................................................................................................................................... 153 SYSTEMY GIS I AMI JAKO ŹRÓDŁA DANYCH DO POPRAWY EFEKTYWNOŚCI PRACY SIECI, WYNIKI BADAŃ W OBSZARZE PILOTAŻOWYM Sławomir Noske, Dominik Falkowski ............................................................................................................................................................................. 162 WYKRYWANIE RÓŻNIE OBCIĄŻONYCH OBSZARÓW SIECI ELEKTROENERGETYCZNEJ Tomasz Okoń, Kazimierz Wilkosz ................................................................................................................................................................................... 171 BILANSOWANIE NIEZRÓWNOWAŻONEJ PODAŻY ŹRÓDEŁ WYTWÓRCZYCH – DODATKOWE KOSZTY NA KONKURENCYJNYM RYNKU ENERGII Tomasz Rubanowicz, Zbigniew Prondziński ................................................................................................................................................................. 181 PORÓWNANIE MOŻLIWOŚCI PRZESYŁOWYCH DWÓCH UKŁADÓW REGULACYJNYCH: TRANSFORMATORÓW Z REGULACJĄ POPRZECZNĄ ORAZ TRANSFORMATORÓW Z REGULACJĄ WZDŁUŻNĄ Marcin Sarnicki, Ryszard Zajczyk, Bartosz Tarakan, Krzysztof Tarakan .................................................................................................................. 191 LABORATORYJNY MODEL SYSTEMU ELEKTROENERGETYCZNEGO PRZEZNACZONY DO BADAŃ PROCESÓW DYNAMICZNYCH Jerzy Szczepanik, Bartosz Rozegnał ................................................................................................................................................................................. 203 PROPOZYCJA ZMIAN W ROZLICZENIACH ZA ENERGIĘ BIERNĄ Artur Wilczyński, Paweł Bućko ........................................................................................................................................................................................ 215
7
W. Adamczyk | Acta Energetica 2/27 (2016) | 6–13
Modelling of Air and Oxy-fuel Combustion in a Circulating Fluidized Bed
Author Wojciech Adamczyk
Keywords fluidization, modeling, dense flows, combustion
Abstract The paper presents the use of a computer model to simulate the process of fluidization in an industrial boiler at Turów power plant. Air and oxy-fuel combustion was modelled for the study, and the effect of the geometrical model’s simplification on the bulk material distribution in the combustion chamber was examined. Numerical simulations were performed using Ansys FLUENT software enhanced with additional user defined functions that were implemented in the calculation procedure. The computer model allowed for the analysis of the effect of solid phase’s volume fraction in the combustion chamber on the heat exchange between the bulk material and the boiler’s heated surfaces. The computer simulation results showed satisfactory consistence with measured data.
DOI: 10.12736/issn.2300-3022.2016201
1. Introduction Fluidization is a multi-phase process, where a discrete phase material in particulate form is suspended in a moving fluid. The intensive mixing of bulk material in the fluidizing bed provides adequate exchange of momentum, mass and energy between the material’s individual fractions. Fluidized bed boilers are not very sensitive to the quality of the burned fuel, and are characterized by low-cost fuel preparation. An additional benefit of the fluidized bed boilers is low flue gas desulfurization costs. In the case of fluidized bed boilers, the flue gas is desulfurized by way of sulphur oxides’ binding with the limestone added to the bed. This method allows one to limit the capital expenditures for new coal fuelled units by eliminating the costly peripherals used for flue gas desulfurization. An additional advantage of the fluidized bed boilers is low NOx emission. The low combustion temperature has very large effect on the NOx reduction. However, for reduction of fuel NOx, primary and secondary methods are needed. The complicated nature of the fluidization process is associated with highly coupled interfractional interactions, as well as intermolecular interactions in the granular phase. Because of the interactions, and spatial and temporal scales’ diversity, modelling of the fluidized bed’s hydrodynamics is not a trivial task. The numerical implementation itself of the model of combustion in a fluidized bed is so complex that there are only scarce mentions in the relevant literature of the full, three-dimensional simulation models of large industrial units, which take into account both the combustion process and the interphase impacts. Little is also known about modelling of the oxy-fuel combustion in such units. The oxy-fuel combustion technology allows for reducing harmful 6
emissions into the atmosphere, with concurrent carbon dioxide capture and storage. The oxidant used in oxy-fuel combustion is a mixture of pure oxygen and recirculated exhaust gases. As a result, the exhaust gases contain almost pure carbon dioxide, which ensures high efficiency of the capture process. The oxyfuel combustion technology allows abandoning costly absorption installations, and is an attractive alternative to the absorption technology. The main aim of this study was to develop a mathematical model that allows for modelling the complex process of fluidization in the dense circulating fluidized bed of an industrial boiler. The model and calculation algorithm allow mapping the combustion process in a fluidized bed boiler at the transition from conventional (air) combustion to the oxy-fuel combustion process. For the numerical calculations FLUENT, an Ansys commercial software, extended with additional user defined functions (UDF) was used. The numerical models of fluidized-bed boilers reported in the literature are mainly two-dimensional and only take into account the flow in the combustion chamber. Only a small percentage of available publications refer to the application of the full boiler model taking into consideration the strong intermolecular impacts and the interactions between the gas and discrete phases [18]. In some numerical models developed to simulate the combustion in a fluidized bed boiler and reported in the literature empirical equations are used for describing the solid phase’s behaviour [23]. This technique allows one to skip modelling of the complex interphase interactions, and thus the time required for
W. Adamczyk | Acta Energetica 2/27 (2016) | 6–13
numerical calculations is significantly reduced. With this approach no impact of the particle agglomeration on the combustion in a fluidized bed boiler can be identified. For detailed exploration of the processes occurring in a fluidized bed boiler numerical simulations are needed that employ complex three-dimensional models and take into account both the granular flow and combustion process. This is not an easy task due to the diversity of spatial and temporal scales occurring in fluidized bed boilers. In [1] the Euler-Lagrange hybrid model oxygen combustion in a pilot plant was used for modelling [10], which takes into account the strong interaction in solid-phase and the heat exchange by means of chemical reactions alike. This model was then adapted to modelling the conventional combustion process in an industrial fluidized bed boiler with a circulating fluidised bed [2]. This study reports the application of an original computer model for modelling the combustion process in a fluidized bed boiler at Turów power plant. The results of numerical simulations are compared with measurement data, which shows very good agreement between them. Additionally, the effect of the geometrical model’s simplification on the calculated temperature profile in the fluidized bed boiler’s combustion chamber is analysed.
2. Mathematical model Depending on the discrete phase treatment, the models used to simulate the transport of particles in a dense granular flow are divided into two main groups. Most used is the Euler model, in which gas and discrete phase are treated as interpenetrating continuous phases [18]. This approach forces continuity between the phases. Major drawbacks of this model include long calculation time resulting from the need to use dense numerical grids, and the inability to directly track the particles distribution. Despite its many disadvantages, this method allows one to take into account the mutual impacts in between individual phases (gas - particle) and the intermolecular interactions based on the solid phase’s volume fraction in a given cell, on the basis of the kinetic theory of granular flow (KTGF) [12]. In Euler’s approach the actual diameter distribution is usually replaced with a characteristic diameter, which allows a significant reduction in computation time, at the expense of considerable simplification in describing the phenomenon. Taking into account the actual distribution of particles is of particular importance for modelling of the combustion or gasification process, where the particles are subject to wear and cracking. In order to take account of the particle distribution in the Euler model, the population balance can be used, which was extensively described in [5, 17]. A disadvantage of this approach is its numerical instability, which disqualifies this technique in industrial applications. A detailed description of the Euler model, together with its advantages and disadvantages, can be found in the literature [12, 18, 21, 23]. The Lagrange model, which tracks the movement of particles caused by the action of fluid and weight forces, allows direct consideration of particle distribution. The limitation of this method is its application scope, where neglected in the tracking process is the interaction of particles, and overlooked is the effect of the particle’s volume fraction on the fluid behaviour.
This method is applicable to the flows in which the solid phase’s volume fraction does not exceed 10% (e.g. in pulverized-fuel boilers), whereas in an industrial fluidized bed boiler the solid phase’s volume fraction is much higher. A great advantage of the Lagrange model is the relatively simple mechanism of describing the phenomena that occur in a single molecule, such as degassing, combustion, toughness, and weight change. Combination of these two computational techniques in a single Euler-Lagrange hybrid model allows one to take advantage of the both methods’ merits, thus eliminating most of their drawbacks. In the hybrid model the gas flow and intermolecular impacts are calculated in the Euler system, while particles are tracked in the Lagrange system. The hybrid model, also known as dense discrete phase model (DDPM), can be used for modelling the process of particles’ transport and combustion in a circulating fluidized bed boiler. The hybrid model has common roots with the multi-phase particle in cell method (MP-PIC) [20, 3], based on which is the commercial software Barracuda [4] used for numerical simulation of the fluidization process in an industrial fluidised bed [19]. For the description of intermolecular interactions and interactions between the individual phases the Euler-Lagrange hybrid model employs four-way coupling [9]. The intermolecular impacts are modelled using the KTGF kinetic theory of granular flow that extends the techniques developed within the framework of the kinetic theory of dense gases to a granular medium [7]. Taking into account the intermolecular interactions at the level of individual particles in a dense granular flow based on the Lagrangian approach requires very long calculation times and extensive hardware resources. As already mentioned, in the Euler-Lagrange hybrid model these impacts are calculated in the Euler system, on the basis of the calculated volume fraction of solid phase based on KTGF [20, 3]. The intermolecular stress determined in the Euler system is used in the particle motion equation (1) to calculate the particles’ velocity.
(1)
where: index p– particle parameters, – fluid, – velocity vector for gas phase and particles, – force of gravity, – density, pf – gas phase pressure, FD(uf – up) term defines the particles’ acceleration due to their resistance to flowing fluid, whereas the element in the particle motion equation determines the acceleration of particles due to the pressure gradients in their locations, and – intermolecular interaction stress tensor, which defines the impacts in granular phase calculated using KTGF theory in Euler grid. Additionally, in order to reduce the cost of numerical calculations, the hybrid model doesn’t track individual particles, the number of which in the system by far exceeds a billion. Individual molecules are grouped in batches of particles having the same physical properties. This approach can significantly reduce the time of numerical calculations. 7
W. Adamczyk | Acta Energetica 2/27 (2016) | 6–13
2.1. Modelling of combustion in a fluidized bed boiler Modelling of combustion in a boiler with a circulating fluidized bed goes two ways. Homogeneous reactions occur in the gas phase, where de-gassed volatiles are burnt, while heterogeneous reactions, i.e. coke breeze burning, occur on the coal surface. For modelling the volatiles combustion and the interaction between turbulent flow and chemical reactions the eddy dissipation model (EDM) [16] is used. This model is limited with the mixing rate, where the model’s assumption is infinitely short chemical reactions time. With this assumption the complicated model describing the rate of each homogeneous reaction can be omitted. Chemical reactions occur in a place where hot products are intensely mixed with cold reactants. In such a case the reactions can occur only when the hot products’ share is large enough to maintain a high temperature in the area of chemical reactions, otherwise the combustion process can be rapidly extinguished.
2.2. Oxy-fuel combustion The need to reduce CO2 emissions contributes to the development of technologies to reduce them. One of the available options is the capture and storage (CCS) of the carbon dioxide produced by combustion of fuel. CCS systems can be implemented in three ways: CO2 capture from flue gas, elimination of carbon from the fuel before its combustion, and the oxy-fuel combustion technology. In conventional combustion, where the oxidant is air, CO2 capture from flue gas is very expensive, due to its low concentration in the flue gas [11]. In order to increase the CO2 capture efficiency, an alternative technology was developed, called oxy-fuel combustion. It involves combustion of coal in a mixture of recirculated flue gases and the pure oxygen [11, 14, 8, 23] obtained in an air separation unit (ASU). This results in a very high CO2 concentration in the flue gas, which allows reducing the cost of CO2 separation. Partially returned (recycled) flue gases, which are cleaned and dried (if flue gas drying is required by the process) are directed to a mixer, where they are mixed with the oxygen produced in the ASU system. The not-returned flue gas stream portion goes to the system of CO2 capture and preparation for storage, the CO2 purification unit (CPU). There are ongoing large-scale studies aimed at adapting (retrofitting) the existing coal-fired units for the oxy-fuel combustion technology. One of the tools that can be used for this purpose is computational fluid dynamics (CFD), which allows for analysis of the impact of various parameters on the performance of a given type of boiler.
3. Model of a compact CFB boiler at Turów power plant 3.1. Numerical model description A geometric model of a circulating fluidised bed (CFB) at Turów power plant (Unit 5) is shown in Fig. 1b. The fluidized-bed boiler is provided with four particle separators, where the material is recirculated into the combustion chamber through eight external superheaters. The combustion chamber’s main dimensions are: height 42 m, depth 10 m, and width 22 m. The numerical 8
Technical analysis, % Ash
Elemental analysis, % 21.8
C
28.82
Water
40.5
H
2.32
Volatiles
22.3
S
0.31
Breeze
15.4
N
0.29
O
5.96
Tab. 1. Composition of the fuel burned in the CFB boiler at Turów plant
Lignite
Inert material
1300
1800
325
330
Max. diameter, µm
2000
1000
Min. diameter, µm
50
50
1.25
1.35
6
8
Density, kg/m3 Average diameter, µm
Distribution parameter No. of diameters
Tab. 2. Grain distribution parameters in Rosin-Rammler model
simulations were carried out using the boiler’s full geometry (with some simplification), and the boiler’s simplified model, which the outer bulk material recirculation loop was replaced by user defined functions. The numerical simulations for oxyfuel combustion were carried out for various input data in order to examine the individual parameters’ impact on the combustion chamber’s performance. This impact was determined on the basis of an analysis of the temperature profiles, which were compared with measurements for the boiler operating in the air mode. In the presented simulations the combustion process was modelled using a two-stage reaction mechanism for combustion of volatile matter, and a single-stage reaction for combustion of coke breeze. In order to stabilize the numerical solution, the continuity equation was discretized using the QUICK scheme, while for the other transport equations a discretization scheme of the second order (against the wind) was used. When modelling such a complex process as fluidization, one of the most important aspects is suitable modelling of the material’s distribution in the calculation cell. During the simulation a model was used to allow for averaging the volume fractions in each node of the calculation cells, so called node base averaging, which had greatly improved the calculation procedure’s convergence. Turow power station’s boilers are fuelled with lignite of the composition shown in Tab. 1. The lignite’s calorific value was 10,600 kJ / kg. To map the distribution of grains in the numerical simulations the Rosin-Rammler distribution model was used, and the inputs to the model are listed in Tab. 2. Input parameters for numerical simulations are listed in Tab. 3. The oxidant stream in the oxy-fuel combustion was equal to the oxidant stream fed to the combustion chamber at conventional combustion, in order to ensure the same hydrodynamics of the fluidized bed at the transition between the operating modes.
W. Adamczyk | Acta Energetica 2/27 (2016) | 6–13
AIR
OXY 1
Lignite stream, kg/s
Rec. temp. of material, oC
OXY 3
OXY 4
52.6
Oxidant stream, kg/s
H2O reduction in rec. flue gases
OXY 2
274.5 20.92
32.09
28.81
27.31
28.19
0.00
62.22
61.69
63.11
54.86
0.00
1.92
2.30
2.32
8.24
78.93
3.77
7.21
7.26
70%
8.71 30%
800–900
Oxidant temp. oC
277
Lignite temp.oC
100
Tab. 3. Analysed cases and inputs to numerical simulation
3.2. Effect of geometry simplifications on simulation results The boiler’s actual geometry cannot be reflected in the numerical model due to the large difference between its dimensions and the size of space discretizing elements (numerical grid elements). Capturing its structural details requires denser divisions of the numerical grid, which significantly extends the time required to obtain results. Often minor structural details have no significant impact on the calculation result, so a common practice is to simplify the model in order to speed up calculations and to improve the numerical model’s convergence. In order to reduce the number of numerical grid elements, the evaporator walls had been simplified to flat surfaces, where heat transfer was resolved by a one-dimensional model. The walls’ constant temperature (357°C) was assumed, as well as their thickness and material properties. Furthermore, the geometrical model didn’t reflect the complex geometry of the grate, which was replaced by a flat surface, through which a portion of the primary oxidant was fed. Further geometry simplifications involved the omission of modelling the flow in the fluidized bed boiler’s recirculation
a)
circuit (separator, runoff channels, siphon). The study included an analysis which compared the effects of the recirculation flow modelling omission. The following two cases were analysed: • model of full combustion chamber and recirculation system geometry • simplified model of combustion chamber without recirculation system. The numerical grids developed for the full and simplified geometry are shown in Fig. 1 (left). The numerical grid used in the numerical simulations for the full model contained 1.3 million elements, while the number for the simplified model was reduced to 600,000 elements. Since the simplified model was reduced to the combustion chamber, the material’s recirculation was simulated by appropriate algorithms implemented to the calculation procedure, using a set of user defined functions. In order to examine the model simplifications’ effects on the calculated profile of pressure and temperature in the combustion chamber, the numerical simulations were carried out using the full and simplified geometrical models of the boiler. The pressure profiles calculated across the combustion chamber height for the full and simplified boiler models are shown in Fig. 2. The comparison of the numerical simulation results for cases AIR and OXY 1, as well as for the full and simplified models, had proven their good consistency. The comparison of the individual profiles obtained from the simulation and the measurement data, the temperature profiles in particular, had indicated relatively large inconsistency for the model with full boiler geometry. This was a direct effect of the amount of material transported in the combustion chamber. For the full model the material weights significantly more compared to the measured data and the simplified model, as can be seen in Fig. 3. Increase in weight of the material transported in the combustion chamber increases the heat flux transmitted to the boiler walls, thereby decreasing the combustion chamber temperature. Stabilising the amount of bulk material in
b)
Fig. 1. Numerical grid for the full and simplified geometry (a), geometrical model of the boiler (b) 9
W. Adamczyk | Acta Energetica 2/27 (2016) | 6–13
Fig. 2. Pressure profiles in combustion chamber determined for simplified and full fluidized bed boiler geometries
Fig. 3. Temperature profiles in combustion chamber determined for simplified and full fluidized bed boiler geometries
the chamber for the full model was a very difficult task because of the simplifications in the elements of the reversing system’s geometry. Taking into account the reversing system’s complex geometry should significantly improve the material distribution in the model of the fluidized bed boiler’s full geometry, but it would have a significant impact on the stability of the transport equations’ solutions, and would significantly prolong the numerical simulations. At the full boiler geometry simulation, the weight of the material transported in the combustion chamber was 170 tons, while for the simplified model it was maintained at 130 tons. The weight of the material in the combustion chamber during the numerical calculation was calculated from the pressure profile using the pressure gauge equation.
3.3. Effect of thermal radiation on simulation results The effect of a model describing thermal radiation on temperature profiles in the combustion chamber was analysed as part of 10
the study. These simulations were performed for air combustion (AIR) only, due to the very long numerical computation time when using an advanced model to determine the radiative properties of gases at oxy-fuel combustion. The Discrete Ordinates model [15], in which the absorption coefficient was calculated using the Smith model [13], was used for modelling the radiative heat transfer. These simulations were designed to examine the effect of radiative heat transfer in a fluidized bed boiler’s combustion chamber on the calculated temperature profiles. In the case of modelling the combustion in pulverized fuel boilers, due to the heterogeneous and high temperature in the combustion chamber, the effect of radiation on heat transfer cannot be neglected. This is contrary to the conditions in a fluidized bed boiler’s combustion chamber, where the temperature is maintained at a relatively low level. In addition, the temperature in a fluidized bed boiler’s combustion chamber is generally levelled, which greatly reduces the radiation effect on heat exchange in the combustion chamber. In a CFB boiler the predominant heat transfer
W. Adamczyk | Acta Energetica 2/27 (2016) | 6–13
Fig. 4. Temperature profiles in combustion chamber determined with taking into account heat transfer by radiation and disregarding its effect
mechanisms are conduction and convection. This is caused mainly by the solid phase’s large volume fractions, in the vicinity of the boiler walls in particular. On the basis of this information, the omission of radiative heat transfer in numerical simulations should be justified; however, in order to confirm this hypothesis two numerical simulations were conducted. The resulting temperature profiles across the combustion chamber for the simulation with the radiation model on and off were compared with the measured data, as illustrated in Fig. 4. From the obtained results slight differences can be observed between the fluidised bed boiler model taking into account the radiation effect, and the model without the heat transfer by radiation, which confirms the low impact of radiation on the overall heat transfer in a fluidized bed boiler. Similar observations are reported in [6], where a CFB boiler with similar geometry was simulated using a fluidized bed boiler’s semi-empirical model. The comparison of numerical simulation results with measurement data shows some differences in the combustion chamber’s bottom and top parts, which is due to simplifications adopted in the fluidized bed boiler’s geometrical model.
3.4. Effect of oxidant composition on simulation results A series of numerical simulations was performed to test the effects of various oxidant compositions on the calculated temperature profile and flue gas composition in the combustion chamber of a fluidized bed boiler operating in the oxy-fuel combustion technology. Listed in Tab. 4 are the average flue gas composition at the outlet of the combustion chamber of a fluidized bed boiler operating in the oxy-fuel combustion technology. The comparison of the resulting flue gas composition shows clear differences between conventional combustion in air and oxy-fuel combustion. The resulting flue gas composition in OXY 1-4 cases allows a preliminary estimate of the potential adaptation of the tested fluidized bed boiler operating in the oxy-combustion to the CCS technology.
AIR
OXY 1
OXY 2
OXY 3
OXY 4
2.7
5.8
2.8
1.7
2.71
13.6
67.1
68.9
70.1
64.8
14.6
21.6
21.3
21.6
25.7
69.1
5.5
7.0
6.6
6.8
Tab. 4. Flue gas composition at combustion chamber outlet for various oxidant compositions
The numerical simulations also allowed an estimate of the effects of various oxidant compositions on the calculated temperature profile in the combustion chamber of the fluidized bed boiler operating in the oxy-fuel combustion technology. The resulting temperature profiles are shown in Fig. 5. The numerical simulation results were compared only with the temperature profile measured in the boiler operating in the air combustion mode. The numerical simulations are only hypothetical, aiming solely at testing the boiler’s thermal response to changed oxidant composition. It can be concluded based on the profiles obtained for the oxy-fuel combustion (OXY) cases that the boiler’s thermal response to changed oxidant composition is close to the air combustion case. The resulting temperature profiles in the OXY 1-3 case differ only in the combustion chamber’s upper part. In OXY 4 the differences are also apparent in the combustion chamber’s lower region (in the vicinity of the nozzles), which was caused by an increase in the share of water vapor in the oxidant fed to the combustion chamber.
4. Summary This paper presents the development of a mathematical model allowing one to simulate the phenomena of heat, weight and momentum flows in a fluidized bed boiler. This model was implemented to commercial CFD Ansys Fluent code, which was extended with appropriate user defined functions. Complex 11
W. Adamczyk | Acta Energetica 2/27 (2016) | 6–13
Fig. 5. Temperature profiles in combustion chamber determined for various oxidant compositions
processes of the fluidized bed dynamics were modelled using the Euler-Lagrange hybrid model, also known as dense discrete phase model (DDPM). Subject to the simulation was the operation of a boiler with a circulating fluidized bed at Turów power plant (Unit 5). The numerical simulation results were compared with measurements taken at the boiler’s operation in the air combustion mode. The temperature profiles obtained from the model are similar to the measurements. The undoubted disadvantage of this model is the long numerical calculation time, which often reaches up to one month, which may eliminate it from some direct engineering applications. The simulation results obtained for the full and simplified geometry demonstrate the possibility of reducing the time required to perform the calculations by reducing the geometrical model to the combustion chamber alone. The recirculation system consisting of a separator, runoff pipe and siphon is then replaced by appropriate algorithms that allow one to recirculate the CFB bed material. The results for the simplified model, despite considerable simplifications, show good consistency with measured data. Also analysed as part of the study was the effect of a model describing thermal radiation on temperature profiles in the combustion chamber. The simulation results confirm the conduction and convection mechanism’s significant impact on the heat transfer process in a CFB boiler, due to the large volume fractions of the solid phase, especially in the area of the boiler walls. The results for the models taking into account and neglecting heat radiation are comparable, which allows justifying the omission of radiative heat transfer in the numerical simulations of CFB boilers. As part of the study many numerical simulations were performed in order to estimate the impact of various oxidant compositions on the calculated temperature profile and flue gas compositions. The developed computer model allows one to analyse the boiler’s various operating modes, and can be extremely useful in analysing the possibilities of retrofitting CFB boilers for oxy-fuel combustion. 12
Acknowledgements The study was completed within the framework of the Strategic Programme for Research and Development “Advanced technologies for energy generation, Research Task No. 2, Development of an oxy-fuel combustion technology for pulverized fuel and fluidised bed boilers integrated with CO2 capture,” subsidised by the NCBR under contract SP/E/ 2/66420/10. REFERENCES
1. W.P. Adamczyk et al., Modeling oxy-fuel combustion in a 3D circulating fluidized bed using the hybrid Eulere-Lagrange approach, Applied Thermal Engineering, Vol. 71, 2014(a), pp. 266-275. 2. W.P. Adamczyk et al., Modeling of particle transport and combustion phenomena in a large-scale circulating fluidized bed boiler using a hybrid Euler-Lagrange approach, Particuology, Vol. 16, 2014(b), pp. 29–40. 3. M.J. Andrews, P.J. O’Rourke, The multifluid particle-in-cell (MPPIC) method for dense particulate flows, International Journal of Multiphase Flow, Vol. 22(2), 1996, pp. 379–402. 4. BARRACUDA, 2004. CPFD Software: http://cpfd-software.com 5. J. Bałdyga, W. Orciuch, A. Krasiński, Application of population balance to study complex particulate processes, Czasopismo Techniczne, Vol. 105, 2008, pp. 13–27. 6. M. Bordbar, K. Myohanen, T. Hyppanen, Coupling of a radiative heat transfer model and a three-dimensional combustion model for a circulating fluidized bed furnace, Applied Thermal Engineering, 2014. 7. S. Chapman, S. Cowling, The mathematical theory of non-uniform gases, Cambridge: Camridge Univ. Press 1970. 8. L. Chen, S. Zheng, A.F. Ghoniem, Oxy-fuel combustion of pulverized coal: characterization, fundamentals, stabilization and CFD modeling. Progress in Energy and Combustion Science, 2012, pp. 156–214. 9. C.T. Crowe et al., Multiphase flows with droplets and particles, Taylor & Francis Group, 2012.
W. Adamczyk | Acta Energetica 2/27 (2016) | 6–13
10. T. Czakiert et al., Oxy-fuel circulating fluidized bed combustion in a small pilot-scale test rig, Fuel Processing Technology, Vol. 91 Issue 11, 2010, pp. 1617–1623. 11. P. Edge et al., Combustion modelling opportunities and challenges for oxy-coal carbon capture technology., Chemical Engineering Research and Design, Vol. 89, Issue 9, 2011, pp. 1470–1493. 12. D. Gidaspow, Multiphase Flow and Fluidization. Boston MA., Academic Press 1994. 13. R. Johansson et al., Account for variations in the H2O to CO2 molar ratio when modelling gaseous radiative heat transfer with the weighted-sum-of-grey-gases model, Combustion and Flame, 2011, pp. 893–901. 14. R. Jovanovic et al., Numerical investigation of influence of homogeneous/heterogeneous ignition/combustion mechanisms on ignition point position during pulverized coal combustion in oxygen enriched and recycled flue gases atmosphere, International Journal of Heat and Mass Transfer, Vol. 54, 2011, pp. 921–931. 15. G. Krishnamoorthy, A new weighted-sum-of-gray-gases model for CO2–H2O gas mixtures, International Communications in Heat and Mass Transfer, 2010, pp. 1182–1186. 16. B.F. Magnussen, B.H. Hjertager, On mathematical models of turbulent combustion with special emphasis on soot formation and combustion, In 16th Symp. on Combustion 1976.
17. L. Mazzei, D.L. Marchisio, P. Lettier, Direct quadrature method of moments for mixing of inert poly-disperse fluidized powders and the role of numerical diffusion, Industrial & Engineering Chemistry Research, Vol. 49(11), 2003, pp. 5141–5152. 18. K. Myohanen, T. Hyppanen, A three-dimensional model frame for modelling combustion and gasification in circulating fluidized bed furnaces, International Journal of Chemical Reactor Engineering, Vol. 9(A15), 2011, pp. 55. 19. D. Snider, S. Banerjee, Heterogeneous gas chemistry in the CPFD Eulerian–Lagrangian numerical scheme (ozone decomposition), Powder Technology 2010, Vol. 199, pp. 100–106. 20. D.M. Snider, P.J. O’Rourke, M.J. Andrews, Sediment flow in inclined vessels calculated using a multiphase particle-in-cell model for dense particle flows, International Journal of Multiphase Flow, Vol. 24, 1998, pp. 1359–1382. 21. M. Syamlal, W. Rogers, T.J. O’Brien, MFIX Documentation, National Technical Information Service 1993. 22. R. Wischnewski et al., Reactive gas–solids flows in large volumes 3D modeling of industrial circulating fluidized bed combustors, Particuology, Vol. 8(1), 2010, pp. 67–77. 23. N. Zhang et al., 3D CFD simulation of hydrodynamics of a 150MWe circulating fluidized bed boiler, Chemical Engineering Journal, Vol. 162, 2010, pp. 821–28.
Wojciech Adamczyk Silesian University of Technology email: wojciech.adamczyk@polsl.pl He graduated from the Faculty of Energy and Environmental Engineering at the Silesian University of Technology (2009). He was awarded a doctoral degree at the Faculty of Energy and Environmental Engineering (2014). Since 2014, he has been working as an assistant professor at the Thermal Technology Institute. His interests include the modelling of heat, mass and momentum exchange in pulverized fuel and fluidized-bed furnaces, modelling of blood flow in selected parts of the human cardiovascular system, and non-destructive testing of thermal diffusivity using reverse methods.
13
W. Adamczyk | Acta Energetica 2/27 (2016) | translation 6–13
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 6–13. When referring to the article please refer to the original text. PL
Modelowanie procesu spalania powietrznego oraz tlenowego w cyrkulacyjnej warstwie fluidalnej Autor
Wojciech Adamczyk
Słowa kluczowe
kotły fluidalne, modelowanie, gęste przepływy, spalanie
Streszczenie
W pracy przedstawiono wykorzystanie modelu komputerowego do symulacji procesu fluidyzacji w przemysłowym kotle elektrowni Turów. W pracy modelowany był proces spalania powietrznego oraz tlenowego, a także badany był wpływ uproszczeń modelu geometrycznego na dystrybucję materiału sypkiego w komorze spalania. Symulacje numeryczne zostały przeprowadzone z wykorzystaniem oprogramowania Ansys FLUENT rozszerzonego o dodatkowe funkcje użytkownika, które zostały zaimplementowane do procedury obliczeniowej. Opracowany model komputerowy pozwolił na analizę wpływu udziału objętościowego fazy stałej w komorze spalania na proces wymiany ciepła pomiędzy materiałem sypkim a powierzchniami ogrzewalnymi kotła. Wyniki symulacji komputerowych pokazały zadowalającą zgodność z danymi pomiarowymi.
1. Wprowadzenie Proces fluidyzacji jest procesem wielofazowym, w którym materiał fazy rozproszonej w postaci cząstek stałych jest zawieszony w poruszającym się płynie. Intensywne mieszanie materiału sypkiego mające miejsce w złożu fluidalnym zapewnia odpowiednią wymianę pędu, masy oraz energii pomiędzy poszczególnymi frakcjami materiału. Kotły pracujące w technologii fluidalnej są mało wrażliwe na jakość spalanego paliwa, a także cechują się niskimi kosztami przygotowania paliwa. Dodatkową korzyścią stosowania kotłów fluidalnych są niskie koszty odsiarczania spalin, gdzie proces odsiarczania spalin odbywa się poprzez wiązanie tlenków siarki z kamieniem wapiennym dodawanym do złoża. Taka metoda pozwala na ograniczenie nakładów inwestycyjnych przy budowie nowych jednostek węglowych, przez wyeliminowanie kosztownych instalacji peryferyjnych wykorzystywanych do odsiarczania spalin. Dodatkowym atutem kotłów fluidalnych jest niska emisja związków NOx. Bardzo duży wpływ na redukcję NOx ma niska temperatura procesu spalania. W przypadku konieczności redukcji paliwowych tlenków azotu konieczne jest jednak wykorzystanie metod pierwotnych oraz wtórnych. Skomplikowany charakter procesu fluidyzacji jest związany z silnie sprzężonymi odziaływaniami międzyfazowymi, jak również oddziaływaniami międzycząsteczkowymi w fazie granularnej. Występujące odziaływania, zróżnicowanie skal czasowych i przestrzennych sprawia, że modelowanie hydrodynamiki złoża fluidalnego nie jest zadaniem trywialnym. Sama implementacja numeryczna modelu spalania w warstwie fluidalnej jest na tyle złożona, że praktycznie brak w literaturze wzmianki o pełnych, trójwymiarowych modelach symulacyjnych dużych jednostek przemysłowych uwzględniających równocześnie proces spalania oraz odziaływania międzyfazowe. Niewiele także wiadomo o modelowaniu procesu spalania tlenowego w jednostkach tego typu. Spalanie tlenowe (oxy-fuel combustion) jest technologią pozwalającą na ograniczenie emisji szkodliwych związków do atmosfery,
14
przy równoczesnym zastosowaniu technologii wychwytu oraz składowania dwutlenku węgla. W spalaniu tlenowym jako utleniacz wykorzystywana jest mieszanina czystego tlenu i recyrkulowanych spalin. W rezultacie spaliny zawierają prawie czysty dwutlenek węgla, co zapewnia dużą sprawność procesu wychwytu. Zastosowanie technologii spalania tlenowego pozwala na rezygnację z kosztownych instalacji absorpcyjnych i stanowi atrakcyjną alternatywę dla technologii absorpcyjnej. Głównym celem pracy było zbudowanie modelu matematycznego pozwalającego na modelowanie złożonego procesu fluidyzacji w gęstej cyrkulacyjnej warstwie fluidalnej przemysłowego kotła fluidalnego. Opracowany model oraz algorytm obliczeń pozwala na odwzorowanie procesu spalania w kotle fluidalnym przy przejściu ze spalania konwencjonalnego (powietrznego) na proces spalania tlenowego. Do obliczeń numerycznych wykorzystano komercyjne oprogramowanie Ansys FLUENT, rozszerzone o dodatkowe funkcje użytkownika (ang. User Defined Functions – UDF). Opisane w literaturze modele numeryczne kotłów fluidalnych dotyczą głównie modelu dwuwymiarowego, uwzględniającego przepływ wyłącznie w komorze spalania. Tylko niewielka liczba dostępnych publikacji przedstawia wykorzystanie pełnego modelu kotła przy równoczesnym uwzględnieniu silnego odziaływania międzycząsteczkowego oraz odziaływania pomiędzy fazą gazową i rozproszoną [18]. W niektórych modelach numerycznych opisanych w literaturze, wykorzystywanych do modelowania procesu spalania w kotle fluidalnym, do opisu zachowania fazy stałej wykorzystuje się równania empiryczne [23]. Takie podejście umożliwia pominięcie modelowania złożonych odziaływań międzyfazowych, a przez to wymagany czas obliczeń numerycznych ulega znacznemu skróceniu. Wykorzystując modele empiryczne, nie jest możliwe uchwycenie wpływu aglomeracji cząsteczek na proces spalania w kotle fluidalnym. W celu dokładnego poznania procesów zachodzących w kotłach fluidalnych konieczne jest prowadzenie
symulacji komputerowych, wykorzystując skomplikowane modele trójwymiarowe, uwzględniając wymianę pędu, oraz masy w gęstym przepływie granularnym. Nie jest to zadanie łatwe, ze względu na zróżnicowanie skal przestrzennych i czasowych występujących w kotłach fluidalnych. W pracy [1] do modelowania procesu spalania tlenowego w instalacji pilotażowej [10] został wykorzystany model hybrydowy Eulera-Lagrange’a, który równocześnie uwzględniał silne interakcje w fazie stałej oraz wymianę ciepła na drodze reakcji chemicznych. Model ten został następnie zaadaptowany do modelowania procesu spalania konwencjonalnego w przemysłowym kotle fluidalnym z cyrkulacyjną warstwą fluidalną [2]. W pracy opisano zastosowanie opracowanego modelu komputerowego do modelowania procesu spalania w kotle fluidalnym elektrowni Turów. Wyniki symulacji numerycznych zostały zestawione z danymi pomiarowymi, prezentując bardzo dobrą zgodność z danymi pomiarowymi. Dodatkowo przeanalizowano wpływ uproszczeń modelu geometrycznego na obliczany profil temperatury w komorze spalania kotła fluidalnego. 2. Model matematyczny W zależności od sposobu traktowania fazy rozproszonej, modele wykorzystywane do symulacji transportu cząstek w gęstym przepływie granularnym zostały podzielone na dwie podstawowe grupy. Najczęściej wykorzystuje się model Eulera, w którym fazy gazowe oraz rozproszone traktowane są jak wzajemnie przenikające się fazy ciągłe [18]. Takie podejście wymusza ciągłość pomiędzy fazami. Spośród głównych wad tego modelu należy wymienić długi czas obliczeń wynikający z konieczności stosowania gęstych siatek numerycznych oraz braku możliwości bezpośredniego śledzenia rozkładu cząstek. Mimo wielu wad tej metody pozwala ona uwzględnić wzajemne oddziaływania pomiędzy poszczególnymi fazami (gaz – cząstka) oraz interakcje międzycząsteczkowe na podstawie udziału objętościowego fazy stałej w danej komórce, w oparciu o kinetyczną teorię przepływu granularnego
W. Adamczyk | Acta Energetica 2/27 (2016) | translation 6–13
(ang. Kinetic Theory of Granular Flow – KTGF) [12]. W podejściu Eulera rzeczywisty rozkład średnic jest zwykle zastępowany jedną charakterystyczną średnicą, co pozwala na znaczącą redukcję czasu obliczeń, kosztem sporych uproszczeń w opisie zjawiska. Uwzględnienie rzeczywistego rozkładu cząstek ma szczególne znaczenie w przypadku modelowania procesu spalania lub zgazowania, gdzie cząsteczki ulegają ścieraniu oraz pękaniu. W celu uwzględnienia rozkładu cząstek w modelu Eulera można wykorzystać bilans populacji, który został obszernie opisany w pracach [5, 17]. Wadą tego podejścia jest jego niestabilność numeryczna, co dyskwalifikuje tę technikę w zastosowaniach przemysłowych. Szczegółowy opis modelu Eulera, jego wady oraz zalety można znaleźć w literaturze [12, 18, 21, 23]. Model Lagrange’a, w którym śledzony jest ruch cząstek wywołany działaniem płynu i sił masowych, umożliwia bezpośrednie uwzględnienie rozkładu cząstek. Ograniczeniem tej metody jest jej zakres zastosowania, gdzie w procesie śledzenia zaniedbuje się wzajemne oddziaływanie cząstek oraz pomijany jest wpływ udziału objętościowego cząstki na zachowanie płynu. Metoda ta znajduje zastosowanie w przepływach, w których udział objętościowy fazy stałej nie przekracza 10% (np. w kotłach pyłowych), podczas gdy w przemysłowym kotle fluidalnym udział objętościowy fazy stałej jest dużo większy. Dużą zaletą modelu Lagrange’a jest stosunkowo prosty mechanizm opisu zjawisk zachodzących w pojedynczej cząsteczce, takich jak odgazowanie, spalanie pękanie, czy zmiana masy. Połączenie dwóch wspomnianych technik obliczeniowych w jeden model hybrydowy Eulera-Lagrange’a pozwala wykorzystać zalety obydwu metod, eliminując tym samym większość ich wad. W modelu hybrydowym przepływ gazu oraz odziaływania międzycząsteczkowe obliczane są w układzie Eulera, podczas gdy śledzenie cząstek odbywa się w układzie Lagrange’a. Model hybrydowy, zwany także gęstym modelem fazy rozproszonej (ang. Dense Discrete Phase Model – DDPM), może być wykorzystany do modelowania procesu transportu oraz spalania cząstek w cyrkulacyjnym kotle fluidalnym. Model hybrydowy ma wspólne korzenie z wielofazową metodą śledzenia cząstek w komórkach obliczeniowych (ang. Multiphase Particle in Cell – MP-PIC) [20, 3], na której bazuje komercyjne oprogramowanie Barracuda [4], wykorzystywane do symulacji numerycznych procesu fluidyzacji w przemysłowych instalacjach fluidalnych [19]. Model hybrydowy Eulera-Lagrange’a w opisie oddziaływań międzycząsteczkowych oraz oddziaływań pomiędzy poszczególnymi fazami wykorzystuje tzw. sprzężenie czterostronne (ang. four-way coupling) [9]. Odziaływania międzycząsteczkowe modelowane są z wykorzystaniem kinetycznej teorii przepływu granularnego KTGF, która przenosi techniki opracowane w ramach kinetycznej teorii gęstych gazów na ośrodek granularny [7]. Uwzględnienie odziaływań międzycząsteczkowych na poziomie pojedynczych cząstek w gęstym przepływie granularnym w oparciu o podejście Lagrange’a wymaga bardzo długich czasów obliczeń oraz dużych
Carbon Capture and Storage – CCS). Układy CCS mogą być realizowane na trzy sposoby: wychwyt CO2 z produkowanych spalin, eliminacja węgla z paliwa przed procesem spalania oraz wykorzystanie technologii spalania tlenowego. W spalaniu konwencjonalnym, gdzie jako utleniacz wykorzystywane jest powietrze, wychwyt CO2 ze spalin jest bardzo kosztowny, ze względu na niskie stężenie tego związku w spalinach [11]. W celu zwiększenia efektywności wychwytu CO2 została opracowana technologia alter natywna, zwana spalaniem tlenowym (ang. oxy-fuel combustion). Polega ona na spalaniu węgla w mieszaninie recyrkulowanych spalin (1) oraz czystego tlenu [11, 14, 8, 23], otrzymywanego w układzie separacji powietrza (ang. gdzie: index – parametry cząstki, – płyn, Air Separation Unit – ASU). Uzyskuje się – wektory prędkości dla fazy gazowej w ten sposób bardzo wysokie stężenie CO2 oraz cząstki, – siła grawitacji, – gęstość, w produkowanych spalinach, co pozwala – ciśnienie fazy gazowej, określa na zredukowanie kosztów separacji CO2. opór cząstki stawiany przepływającemu Częściowo zawrócone (recyrkulowane) płynowi, człon określa przyspie- spaliny, które są oczyszczane oraz osuszane szenie cząstki wynikające z różnicy ciśnień (jeżeli suszenie spalin jest wymagane przez w miejscu, gdzie znajduje się cząstka, oraz proces), kierowane są do mieszalnika, gdzie jest tensorem określającym naprężenia następuje ich zmieszanie z tlenem wyprodumiędzycząsteczkowe dla fazy granularnej kowanym w układzie ASU. Niezawrócona obliczony z wykorzystaniem teorii KTGF. część strumienia spalin trafia do instalacji wychwytu oraz przygotowania CO2 do skłaDodatkowo w celu zmniejszenia kosztu dowania (ang. CO2 Purification Unit – CPU). obliczeń numerycznych model hybrydowy Obecnie prowadzone są zakrojone nie śledzi pojedynczych cząstek, których na szeroką skalę badania mające na celu liczba w układzie znacznie przekracza adaptację istniejących bloków węglobilion. Pojedyncze cząsteczki grupowane wych do technologii spalania tlenowego, są w paczki cząstek o tych samych własno- tzw. retrofitting. Jednym z narzędzi, które ściach fizycznych. Takie podejście pozwala może być wykorzystywane do tego celu, na znaczne skrócenie czasu obliczeń jest numeryczna mechanika płynów (ang. numerycznych. Computational Fluid Dynamics – CFD), pozwalająca na analizę wpływu różnych 2.1. Modelowanie procesu spalania parametrów na prace kotła danego typu. w kotle fluidalnym Modelowanie procesu spalania w kotle 3. Model kompaktowego kotła CFB z cyrkulacyjną warstwą fluidalną prze- elektrowni Turów biega dwutorowo. Reakcje homogeniczne przebiegają w fazie gazowej, gdzie odbywa 3.1. Opis modelu numerycznego się spalanie odgazowanych części lotnych Model geometryczny kotła z cyrkulacyjną oraz reakcje heterogeniczne przebiegające warstwą fluidalną (ang. circulating fluidized na powierzchni węgla – spalanie koksiku. bed – CFB) elektrowni Turów (Blok 5) został Do modelowania procesu spalania części przedstawiony na rys. 1b. Kocioł fluidalny lotnych oraz interakcji pomiędzy prze- wyposażony jest w cztery separatory cząstek, pływem turbulentnym a reakcjami chemicz- gdzie materiał do komory spalania recyrkunymi wykorzystywany jest model wirowy lowany jest przez osiem zewnętrznych prze(ang. Eddy Dissipation Model – EDM) [16]. grzewaczy pary. Główne wymiary komory Model ten jest ograniczony szybkością spalania to: wysokość 42 m, głębokość 10 m mieszania, gdzie założeniem modelu jest oraz szerokość 22 m. Symulacje numeryczne nieskończenie krótki czas reakcji chemicz- zostały przeprowadzone z wykorzystaniem nych. Dzięki temu założeniu skompliko- pełnej geometrii kotła (z pewnymi uproszwany model opisujący szybkość poszcze- czeniami) oraz uproszczonego modelu gólnych reakcji homogenicznych może być kotła, w którym zewnętrzna pętla recyrkupominięty. Reakcje chemiczne przebiegają lacji materiału sypkiego została zastąpiona w miejscu, gdzie następuje intensywne funkcjami użytkownika. Symulacje numemieszanie gorących produktów z zimnymi ryczne dla spalania tlenowego zostały przereagentami. Reakcje w takim przypadku prowadzone dla różnych danych wejściomogą zajść jedynie wtedy, gdy udział gorą- wych w celu przeanalizowania wpływu cych produktów jest na tyle duży, aby poszczególnych parametrów na pracę utrzymać wysoką temperaturę w strefie komory spalania. Wpływ ten był określany reakcji chemicznych, w przeciwnym razie na podstawie analizy profili temperatury, proces spalania może ulec gwałtownemu które były porównywane z danymi pomiawygaszeniu. rowymi dla kotła pracującego w trybie powietrznym. 2.2. Spalanie tlenowe W prezentowanych symulacjach proces Potrzeba zmniejszenia emisji CO2 przy- spalania był modelowany z wykorzystaczynia się do rozwoju technologii pozwala- niem dwustopniowego mechanizmu reakcji jących na ograniczenie emisji tego związku. dla spalania części lotnych oraz jednostopJedną z dostępnych możliwości jest zasto- niowej reakcji dla spalania koksiku. W celu sowanie technologii wychwytywania i skła- ustabilizowania rozwiązania numerycznego dowania dwutlenku węgla powstałego równanie ciągłości było dyskretyzowane za w wyniku procesów spalania paliwa (ang. pomocą schematu QUICK, dla pozostałych zasobów sprzętowych. Jak już zostało wcześniej wspomniane, w modelu hybrydowym Eulera-Lagrange’a oddziaływania te obliczane są w układzie Eulera, na podstawie obliczonego udziału objętościowego fazy stałej w oparciu o KTGF [20, 3]. Wyznaczony w układzie Eulera gradient naprężeń międzycząsteczkowych wykorzystywany jest przez równanie ruchu cząstki (1) do obliczenia prędkości cząstek.
15
W. Adamczyk | Acta Energetica 2/27 (2016) | translation 6–13
równań transportu wykorzystywany był schemat dyskretyzacji drugiego rzędu (pod wiatr). Podczas modelowania tak złożonego procesu, jakim jest fluidyzacja, jednym z ważniejszych aspektów jest odpowiednie modelowanie dystrybucji materiału w komórce obliczeniowej. W trakcie symulacji wykorzystano model pozwalający na uśrednienie udziałów objętościowych w poszczególnych węzłach komórek obliczeniowych (z ang. node base averaging), co znacznie poprawiło zbieżność procedury obliczeniowej. W kotłach elektrowni Turów jako paliwo wykorzystywany jest węgiel brunatny, którego skład przedstawia tab. 1. Wartość opałowa spalanego węgla wynosiła 10 600 kJ/kg. Do odwzorowania rozkładu ziaren w symulacjach numerycznych został wykorzystany model rozkładu RosinaRammlera, gdzie dane wejściowe do tego modelu zostały zebrane w tab. 2. Parametry wejściowe do symulacji numerycznych zostały zebrane w tab. 3. Strumień utleniacza w przypadku spalania tlenowego było równy strumieniowi utleniacza doprowadzanego do komory przy spalaniu konwencjonalnym, w celu zapewnienia tej samej hydrodynamiki warstwy fluidalnej przy przejściu pomiędzy trybami pracy. 3.2. Wpływ uproszczenia geometrii na wyniki symulacji Odzwierciedlenie rzeczywistej geometrii kotła w modelu numerycznym nie jest możliwe z powodu dużej różnicy pomiędzy wymiarami charakteryzujemy geometrię a wielkością elementów dyskretyzujących przestrzeń (elementy siatki numerycznej). Uchwycenie szczegółów konstrukcyjnych wymaga zastosowania gęstszych podziałów siatki numerycznej, co znacząco wydłuża czas potrzebny na otrzymanie wyników. Często drobne szczegóły konstrukcyjne nie mają znaczącego wpływu na wynik obliczeń,
Analiza techniczna, %
Analiza elementarna, %
Popiół
21,8
C
28,82
Woda
40,5
H
2,32
Części lotne
22,3
S
0,31
Koksik
15,4
N
0,29
O
5,96
Tab. 1. Skład paliwa spalanego w kotle CFB Turów
Węgiel
Materiał inertny
Gęstość, kg/m3
1300
1800
Średnia średnica, µm
325
330
Max. średnica, µm
2000
1000
Min. średnica, µm
50
50
Parametr rozkładu
1,25
1,35
6
8
Liczba średnic
Tab. 2. Parametry rozkładu ziarnowego modelu Rosina-Rammlera
16
AIR
OXY 1
Strumień węgla, kg/s
OXY 2
OXY 3
OXY 4
52,6
Strumień utleniacza, kg/s
274,5 20,92
32,09
28,81
27,31
28,19
0,00
62,22
61,69
63,11
54,86
0,00
1,92
2,30
2,32
8,24
78,93
3,77
7,21
7,26
Redukcja H2O w rec. spalinach
70%
Temp. rec. materiału, oC
8,71 30%
800–900
Temp. utleniacza, oC
277
Temp. węgla, oC
100
Tab. 3. Analizowane przypadki oraz dane wejściowe do symulacji numerycznych
a)
b)
Rys. 1. Siatka numeryczna dla geometrii pełnej oraz uproszczonej (a), model geometryczny kotła (b)
więc powszechną praktyką jest uproszczenie modelu w celu przyspieszenia obliczeń oraz polepszenia zbieżności modelu numerycznego. W celu ograniczenia liczby elementów siatki numerycznej ściany parowacza zostały uproszczone do płaskich powierzchni, gdzie przewodzenie ciepła było rozwiązywane za pomocą modelu jednowymiarowego. Na ścianach została założona stała temperatura (357°C), grubość ścian oraz własności materiałowe. Co więcej, w modelu geometrycznym nie odwzorowano skomplikowanej geometrii rusztu, został on zastąpiony płaską powierzchnią, przez którą doprowadzana była część utleniacza pierwotnego. Dalsze uproszczenia geometrii polegają na rezygnacji z modelowania przepływu w układzie recyrkulacji kotła fluidalnego (separator, kanały opadowe, syfon). W pracy przeprowadzono analizę, w której porównano wpływ pominięcia modelowania przepływu w układzie recyrkulacji. Przeanalizowano dwa przypadki: • model zawierający pełną geometrię komory spalania oraz układu recyrkulacji • model uproszczony – komora spalania bez układu recyrkulacji. Siatki numeryczne stworzone dla pełnej oraz uproszczonej geometrii przedstawiono na rys. 1 (lewy). Siatka numeryczna używana w symulacjach numerycznych dla pełnego modelu zawierała 1,3 miliona elementów, podczas gdy dla modelu uproszczonego
liczba ta została zredukowana do 600 tysięcy elementów. Ponieważ model uproszczony został ograniczony do komory spalania, recyrkulacja materiału odbywa się przy użyciu odpowiednich algorytmów zaimplementowanych do procedury obliczeniowej, wykorzystując zestaw funkcji użytkownika. W celu przeanalizowania wpływu uproszczeń modelu na obliczany profil ciśnienia oraz temperatury w komorze spalania, symulacje numeryczne zostały przeprowadzone z wykorzystaniem pełnego oraz uproszczonego modelu geometrycznego kotła. Obliczone profile ciśnienia wzdłuż wysokości komory spalania dla pełnego i uproszczonego modelu kotła zostały pokazane na rys. 2. Porównywając wyniki symulacji numerycznych dla przypadku AIR oraz OXY 1, a także modelu pełnego oraz uproszczonego, uzyskano bardzo dobrą zgodność. Zestawiając poszczególne profile otrzymane z symulacji oraz dane pomiarowe, w szczególności profile temperatur, można zaobserwować stosunkowo dużą niezgodność dla przypadku modelu z pełną geometrią koła. Na taką sytuację bezpośrednio wpływa ilość materiału transportowanego w komorze spalania. Dla pełnego modelu masa materiału jest znacznie wyższa w porównaniu z danymi pomiarowymi oraz z modelem uproszczonym, co można zaobserwować na rys. 3. Wraz ze wzrostem masy
W. Adamczyk | Acta Energetica 2/27 (2016) | translation 6–13
Rys. 2. Profile ciśnienia w komorze spalania wyznaczone dla przypadku uwzględniającego uproszczoną oraz pełną geometrię kotła fluidalnego
Rys. 3. Profile temperatur w komorze spalania wyznaczone dla przypadku uwzględniającego uproszczoną oraz pełną geometrię kotła fluidalnego
Rys. 4. Profile temperatur w komorze spalania wyznaczone dla przypadku uwzględniającego wymianę ciepła na drodze radiacji oraz pomijającego jej wpływ
transportowanego materiału w komorze spalania wzrasta strumień ciepła przekazywanego do ścian kotła, a przez to spada temperatura w komorze spalania. Ustabilizowanie ilości materiału sypkiego w komorze dla modelu pełnego było bardzo trudnym zadaniem ze względu na wprowadzone uproszczenia w elementach geometrii układu nawrotnego. Uwzględnienie złożonej geometrii układu nawrotnego powinno znacznie poprawić dystrybucję materiału w modelu zawierającym pełną geometrię kotła fluidalnego, jednak będzie to miało znaczący wpływ na stabilność rozwiązywanych równań transportu oraz w znacznym stopniu wydłuży czas symulacji numerycznych. W trakcie symulacji pełnej geometrii kotła masa materiału transportowanego w komorze spalania wynosiła 170 ton, podczas gdy dla modelu uproszczonego była ona utrzymywana na poziomie 130 ton. Masa materiału w komorze spalania podczas obliczeń numerycznych była obliczana na podstawie profilu ciśnienia za pomocą równania manometrycznego. 3.3. Wpływ promieniowania cieplnego na wyniki symulacji W ramach pracy przeanalizowano wpływ modelu opisującego promieniowanie cieplne na otrzymywane profile temperatury w komorze spalania. Symulacje te zostały przeprowadzone wyłącznie dla spalania powietrznego (AIR), ze względu na bardzo długi czas obliczeń numerycznych w przypadku zastosowania zawansowanego modelu do wyznaczania własności radiacyjnych gazów przy spalaniu tlenowym. Do modelowania radiacyjnej wymiany ciepła wykorzystywany był model Discrete Ordinates [15], w którym do obliczenia współczynnika absorpcji wykorzystywany był model Smitha [13]. Symulacje te miały na celu przebadanie wpływu radiacyjnej wymiany ciepła w komorze spalania kotła fluidalnego na obliczane profile temperatury. W przypadku modelowania procesu spalania w kotłach pyłowych, ze względu na niejednorodną i wysoką temperaturę panującą w komorze spalania, wpływ radiacji na wymianę ciepła nie może być pominięty. Taki stan rzeczy jest przeciwny do warunków panujących w komorze spalania kotła fluidalnego, gdzie temperatura utrzymywana jest na względnie niskim poziomie. Dodatkowo temperatura w komorze spalania kotła fluidalnego jest z reguły wyrównana, co w znacznym stopniu ogranicza efekt promieniowania na wymianę ciepła w komorze spalania. W kotłach CFB dominującymi mechanizmami przekazywania ciepła są przewodzenie i konwekcja. Powodowane jest to głównie dużymi udziałami objętościowymi fazy stałej, szczególnie w okolicach ścian kotła. Na bazie tych informacji pominięcie radiacyjnej wymiany ciepła w symulacjach numerycznych powinno być uzasadnione, jednakże w celu potwierdzenia tej hipotezy zostały przeprowadzone dwie symulacje numeryczne. Otrzymane profile temperatur wzdłuż komory spalania dla symulacji z włączonym i wyłączonym modelem radiacji zostały porównane z danymi pomiarowymi, co zobrazowano na rys. 4. Na podstawie otrzymanych wyników można zaobserwować nieznaczne różnice pomiędzy modelem kotła fluidalnego, uwzględniającym efekt
17
W. Adamczyk | Acta Energetica 2/27 (2016) | translation 6–13
AIR
OXY 1
OXY 2
OXY 3
OXY 4
2,7
5,8
2,8
1,7
2,71
13,6
67,1
68,9
70,1
64,8
14,6
21,6
21,3
21,6
25,7
69,1
5,5
7,0
6,6
6,8
Tab. 4. Skład spalin na wylocie z komory spalania otrzymany dla różnych składów utleniacza
Rys. 5. Profile temperatur w komorze spalania wyznaczone dla różnych składów utleniacza
promieniowania, a modelem bez wymiany ciepła na drodze radiacji, co potwierdza mały wpływ promieniowania na całościową wymianę ciepła w kotle fluidalnym. Podobne obserwacje przedstawiono w pracy [6], gdzie symulowany był kocioł CFB o podobnej geometrii przy wykorzystaniu półempirycznego modelu kotła fluidalnego. Porównując wyniki symulacji numerycznych z danymi pomiarowymi, można dostrzec pewne różnice w dolnej oraz górnej części komory spalania, co jest spowodowane przyjętymi uproszczeniami w modelu geometrycznym kotła fluidalnego. 3.4. Wpływ składu utleniacza na wyniki symulacji Seria symulacji numerycznych została przeprowadzona w celu przebadania wpływu różnych składów utleniacza na obliczany profil temperatury oraz skład spalin w komorze spalania kotła fluidalnego pracującego w technologii spalania tlenowego. W tab. 4 zestawiono wartości średniego składu spalin na wylocie z komory spalania kotła fluidalnego pracującego w technologii spalania tlenowego. Porównując otrzymany skład spalin, można dostrzec wyraźne różnice pomiędzy konwencjonalnym spalaniem w powietrzu oraz spalaniem tlenowym. Uzyskany skład spalin dla przypadków OXY 1–4 pozwala wstępnie oszacować potencjał możliwości zastosowania badanego kotła fluidalnego pracującego w trybie spalania tlenowego do technologii CCS. Symulacje numeryczne pozwoliły również na oszacowanie wpływu różnych składów utleniacza na obliczany profil temperatury w komorze spalania kotła fluidalnego, pracującego w technologii spalania
18
tlenowego. Wyznaczone profile temperatur zostały pokazane na rys. 5. Wyniki symulacji numerycznych były porównywane wyłącznie ze zmierzonym profilem temperatury uzyskanym dla kotła pracującego w trybie spalania powietrznego. Przeprowadzone symulacje numeryczne są jedynie hipotetyczne, mające na celu wyłącznie sprowadzenie termicznej odpowiedzi kotła przy zmianie składu utleniacza. Na podstawie otrzymanych profili dla przypadków spalania tlenowego (OXY) można stwierdzić, że odpowiedź termiczna kotła na zmianę utleniacza zbliża się do przypadku spalania powietrznego. Uzyskane profile temperatur dla przypadków OXY 1–3 różnią się jedynie w górnej części komory spalania. Dla przypadku OXY 4 różnice są także dostrzegalne w dolnym obszarze komory spalania (w pobliżu dysz), co spowodowane było zwiększeniem udziału pary wodnej w utleniaczu doprowadzanym do komory spalania. 4. Podsumowanie W niniejszym artykule przedstawiono opracowanie modelu matematycznego, pozwalającego na symulację zjawisk przepływu ciepła, masy i pędu w kotle fluidalnym. Model ten zaimplementowano do komercyjnego kodu CFD Ansys Fluent, który został rozbudowany o odpowiednie funkcje użytkownika. Do modelowania złożonych procesów dynamiki złoża fluidalnego wykorzystano hybrydowy model Eulera-Lagrange’a, zwany także gęstym modelem fazy rozproszonej (ang. Dense Discrete Phase Model – DDPM). Przedstawione symulacje dotyczyły pracy kotła z cyrkulacyjną warstwą fluidalną
elektrowni Turów (Blok 4). Wyniki symulacji numerycznych zostały zestawione z danymi pomiarowymi uzyskanymi podczas pracy kotła przy spalaniu powietrznym. Otrzymane z modelu profile temperatur są zbliżone do wartości zmierzonych. Niewątpliwą wadą prezentowanego modelu jest długi czas obliczeń numerycznych, który często sięga nawet miesiąca, co może go eliminować z części bezpośrednich zastosowań inżynierskich. Wyniki symulacji otrzymanych dla pełnej oraz uproszczonej geometrii ukazują możliwość redukcji czasu wymaganego na wykonanie obliczeń poprzez zredukowanie modelu geometrycznego do samej komory spalania. Układ recyrkulacji składający się z separatora, rury opadowej oraz syfonu zastąpiony jest wówczas odpowiednimi algorytmami pozwalającymi recyrkulować materiał złoża CFB. Otrzymane wyniki dla modelu uproszczonego, pomimo znacznych uproszczeń, wykazują dobrą zgodność z danymi pomiarowymi. W ramach pracy przeanalizowano również wpływ modelu opisującego promieniowanie cieplne na profile temperatury w komorze spalania. Wyniki symulacji potwierdzają tezę o znaczącym wpływie mechanizmu przewodzenia i konwekcji na proces wymiany ciepła w kotle CFB, z uwagi na duże udziały objętościowe fazy stałej, szczególnie w okolicach ścian kotła. Otrzymane wyniki dla modelu uwzględniającego oraz nieuwzględniającego promieniowanie cieplne są porównywalne, co pozwala uzasadnić pominięcie radiacyjnej wymiany ciepła w symulacjach numerycznych kotłów CFB. W pracy wykonano wiele symulacji numerycznych mających na celu oszacowanie wpływu różnych składów utleniacza na obliczany profil temperatury oraz skład spalin. Opracowany model komputerowy pozwala na analizowanie różnych trybów pracy kotła i może być niezwykle przydatny przy analizowaniu możliwości adaptacji kotła CFB do spalania tlenowego, tzw. retrofitting. Podziękowania Praca została zrealizowana w ramach Strategicznego Programu Badań Naukowych i Prac Rozwojowych pt. „Zaawansowane technologie pozyskiwania energii, Zadanie Badawcze nr 2, Opracowanie technologii spalania tlenowego dla kotłów pyłowych i fluidalnych zintegrowanych z wychwytem CO2”, dofinansowane przez NCBR, umowa nr SP/E/2/66420/10. Bibliografia 1. Adamczyk W.P. i in., Modeling oxy-fuel combustion in a 3D circulating fluidized bed using the hybrid Eulere-Lagrange approach, Applied Thermal Engineering 2014(a), Vol. 71, s. 266–275. 2. Adamczyk W.P. i in., Modeling of particle transport and combustion phenomena in a large-scale circulating fluidized bed boiler using a hybrid Euler-Lagrange approach, Particuology 2014(b), Vol. 16, s. 29–40. 3. Andrews M.J., O’Rourke P.J., The multifluid particle-in-cell (MP-PIC) method for dense particulate flows, International Journal of Multiphase Flow 1996,Vol. 22(2), s. 379–402.
W. Adamczyk | Acta Energetica 2/27 (2016) | translation 6–13
4. BARRACUDA, 2004. CPFD Software: http://cpfd-software.com 5. Bałdyga J., Orciuch W., Krasiński A., Application of population balance to study complex particulate processes, Czasopismo Techniczne 2008, Vol. 105, s. 13–27. 6. Bordbar M., Myohanen K., Hyppanen T., Coupling of a radiative heat transfer model and a three-dimensional combustion model for a circulating fluidized bed furnace, Applied Thermal Engineering, 2014. 7. Chapman S., Cowling S., The mathematical theory of non-uniform gases, Cambridge: Camridge Univ. Press 1970. 8. Chen L., Zheng S., Ghoniem A.F., Oxy-fuel combustion of pulverized coal: characterization, fundamentals, stabilization and CFD modeling. Progress in Energy and Combustion Science, 2012, s. 156–214. 9. Crowe C.T., Schwarzkopf J.D., Sommerfeled M., Tsuji Y., Multiphase flows with droplets and particles, Taylor & Francis Group, 2012. 10. Czakiert T. i in., Oxy-fuel circulating fluidized bed combustion in a small pilot-scale test rig, Fuel Processing Technology 2010, Vol. 91 Issue 11, s. 1617–1623 11. Edge P. i in., Combustion modelling opportunities and challenges for oxy-coal carbon capture technology, Chemical
Engineering Research and Design 2011, Vol. 89, Issue 9, s. 1470–1493. 12. Gidaspow D., Multiphase Flow and Fluidization, Boston MA., Academic Press 1994. 13. Johansson R. i in., Account for variations in the H2O to CO2 molar ratio when modelling gaseous radiative heat transfer with the weighted-sum-of-grey-gases model, Combustion and Flame, 2011, s. 893–901. 14. Jovanovic R. i in., Numerical investigation of influence of homogeneous heterogeneous ignition/combustion mechanisms on ignition point position during pulverized coal combustion in oxygen enriched and recycled flue gases atmosphere, International Journal of Heat and Mass Transfer 2011, Vol. 54, s. 921–931. 15. Krishnamoorthy G., A new weightedsum-of-gray-gases model for CO 2– H 2 O gas mixtures, International Communications in Heat and Mass Transfer, 2010, s. 1182–1186. 16. Magnussen B.F., Hjertager B.H., On mathematical models of turbulent combustion with special emphasis on soot formation and combustion, In 16th Symp. on Combustion 1976. 17. Mazzei L., Marchisio D.L., Lettier P., Direct quadrature method of moments for mixing of inert poly-disperse fluidized powders and the role of numerical diffusion, Industrial & Engineering
Chemistry Research 2003, Vol. 49(11), s. 5141–5152. 18. Myohanen K., Hyppanen T., A threedimensional model frame for modelling combustion and gasification in circulating fluidized bed furnaces, International Journal of Chemical Reactor Engineering 2011, Vol. 9(A15), s. 55. 19. Snider D., Banerjee S., Heterogeneous gas chemistry in the CPFD Eulerian– Lagrangian numerical scheme (ozone decomposition), Powder Technolog 2010, Vol. 199, s. 100–106. 20. Snider D.M., O’Rourke P.J., Andrews M.J., Sediment flow in inclined vessels calculated using a multiphase particlein-cell model for dense particle flows, International Journal of Multiphase Flow 1998, Vol. 24, s. 1359–1382. 21. Syamlal M., Rogers W., O’Brien T.J., MFIX Documentation, National Technical Information Service 1993. 22. Wischnewski R. i in., Reactive gas–solids flows in large volumes 3D modeling of industrial circulating fluidized bed combustors, Particuology 2010, Vol. 8(1), s. 67–77. 23. Zhang N. i in., 3D CFD simulation of hydrodynamics of a 150MWe circulating fluidized bed boiler, Chemical Engineering Journal 2010, Vol. 162, s. 821–28.
Wojciech Adamczyk
dr inż. Politechnika Śląska e-mail: wojciech.adamczyk@polsl.pl Ukończył studia na Wydziale Inżynierii Środowiska i Energetyki Politechniki Śląskiej (2009). Tytuł doktora uzyskał na Wydziale Inżynierii Środowiska i Energetyki (2014). Od 2014 roku pracuje jako adiunkt w Instytucie Techniki Cieplnej. Obszar jego zainteresowań to modelowanie procesu wymiany ciepła, masy oraz pędu w kotłach pyłowych i fluidalnych, modelowanie przepływu krwi w wybranych częściach układu krwionośnego człowieka, nieniszczące badania dyfuzyjności cieplnej z wykorzystaniem metod odwrotnych.
19
B. Bochentyn | Acta Energetica 2/27 (2016) | 20–27
Structural and Transportation Properties of Strontium Titanate Composites with Ion Conductive Oxides
Author Beata Bochentyn
Keywords solid oxide fuel cell, anode, functional layer
Abstract This paper has been written based on the author’s doctoral dissertation “Structural and transportation properties of strontium and titanate composites with ion conductive oxides”, prepared under the supervision of Prof. Dr. Hab. Eng. Bogusław Kusz at the Department of Solid State Physics of Gdańsk University of Technology. It reports the idea of the thesis and conclusions from the study. Niobium doped strontium titanate (Sr(Ti,Nb)O3) composites with selected ion conductive oxides (yttrium oxide-stabilized zirconium oxide YSZ and cerium oxide CeO2) were developed for the dissertation and their properties examined.. It was shown that Sr(Ti,Nb)O3-YSZ composite as the anode in an oxide fuel cell leads to its improved performance compared to a cell with a singlephase Sr(Ti,Nb)O3 anode. Microscopic observation confirmed that Sr(Ti,Nb)O3-YSZ composite as the functional layer between a Sr(Ti,Nb)O3 anode and YSZ electrolyte mitigates the problem of the composite anode’s delamination from the electrolyte surface. It was also shown that an appropriate modification of the Sr(Ti,Nb)O3-YSZ composite anode surface structure by infusing the process of hydrogen’s electrochemical oxidation with a catalyst (e.g. with nickel) can lead to further improvement of the fuel cell performance.
DOI: 10.12736/issn.2300-3022.2016202
1. Introduction Mixed ionic-electronic conductors (MIECs) can be used in such devices as batteries, chemical sensors, fuel cells, and in systems for electrosynthesis or separation of gases. Mixed ionic-electronic conductivity occurs in single-component ceramic materials as a consequence of their crystalline structure, as well as in composite materials, wherein one of the composite components is an electronically conductive phase, and the other is an ionic conductive phase. Development of composite materials is relatively easy, and the resulting product’s properties can be readily controlled by its appropriate preparation and selection of its components phases. Due to these factors these materials have been intensively studied in recent years for a variety of applications, including solid oxide fuel cells (SOFCs) – efficient and environmentally friendly devices for converting the chemical energy of fuel and oxidant into electricity. Huge interest in the solid oxide fuel cells is a consequence of the constantly growing demand for electricity and heat, and thus the need to seek new methods of energy generation and/or processing as an alternative to the so-called conventional power generation. Among the many types of fuel cells, which convert chemical energy of fuel and oxidant directly into electricity, of special interest are intermediate temperature solid oxide fuel cells (IT-SOFC), that is cells 20
with a solid electrolyte operating in the medium temperature range (600–800°C). In Poland these cells are still in the research stage, but in Western Europe and the United States they are being increasingly implemented. The only by-products of their operation when supplied with pure hydrogen are water and heat. In turn, a possible process of the contaminating emissions from the process of internal reforming of a fuel other than hydrogen is fully controlled. In professional systems of power generators with SOFC cells the energy of the residual gases coming from an operating cell is used in a gas turbine coupled to an electro-generator, which increases the overall efficiency of the conversion of the substrates’ energy into electricity in the system up to 60%. In addition, due to the possibility of additional waste heat utilization, combined heat and power (CHP) generation, the entire system’s efficiency can increase up to 80% [1]. Therefore, fuel cells are commonly considered to be an environmentally friendly alternative sources of clean energy. The greatest potential of SOFC applications is seen in the distributed generation, where they can be used as stationary power sources in hospitals, schools, public buildings and in individual households. They can also be installed at garbage dumps, sewage treatment plants, and farms, where they can be fuelled with the readily available, but often irretrievably wasted, biogas.
B. Bochentyn | Acta Energetica 2/27 (2016) | 20–27
Moreover, the development and implementation of a technology of the effective extraction of shale gas, recently talked about so much, could provide yet another fuel for solid oxide fuel cells. The scientific community’s undying interest in solid oxide fuel cells contributes to the dynamic development of the SOFC technology. Every day the international scientific journals receive papers addressing the preparation, testing, and modelling of individual components or entire fuel cells. The research efforts focus mainly on the optimisation of materials and methods of their application, so as to accomplish the maximum power density while minimizing ohmic and activation losses in the cell. The experience so far has shown the anode’s very significant impact on the reduction of the entire cell’s operating time and cost. The currently commercially used anode material (i.e. nickel cermet Ni-YSZ), despite its undeniable advantages, has a number of disadvantages, that result in reduced life span of a cell based on it, and significantly hinder the use of any fuel other than pure hydrogen. It significantly limits oxide cells’ suitability for distributed generation, where the primary fuel would be natural gas or biogas. The most promising alternative to Ni-YSZ are compounds with perovskite structure (e.g. SrTiO3) which, when properly doped (e.g. with Y, Nb) feature high electronic conductivity at low oxygen partial pressures. The research team, of which the author is a member, showed that strontium titanate doped with 2 molar percent of niobium (SrTi0,98Nb0,02O3-δ hereinafter abbreviated to STNb2) is a material that has the highest overall electrical conductivity of all compositions examined by the team [2]. It should be emphasized however that strontium titanate based compounds’ ionic conductivity is very poor, and they are not always well matched in terms of their coefficient of thermal expansion with the electrolyte material. These material-related issues may be resolved by the application of composite materials consisting of an electronic conductive phase and an ionic conductive phase, which are designed to overcome the aforementioned limitations of an anode with the perovskite structure. The material of this type can be used in a cell as the anode and/ or as the functional layer between the anode and the electrolyte. Literature reports indicate that the performance of a IT-SOFC cell depends on the composition of its individual components [3–7] and is a complex function of many factors. For example, researchers point out to the particle size distribution [8–10], tendency to form the so-called three-phase boundary [3, 7], electrode porosity [2] and thickness [8, 11] as some factors which significantly affect the anode material quality and performance. Wilson et al. [12] in a study of the Ni-YSZ anode microstructure simulation emphasize that the system’s tortuosity, phase adhesion and the existence of connections between phases are key factors contributing to the phenomenon of percolation in the electrode, and consequently on its performance. On the other hand, Dusastre and Kilner [13] highlight the superiority of electrode materials with mixed ion-electron conductivity over those with electron-only conductivity. Most of the above mentioned parameters determining the electrode performance and stability in a fuel cell can be controlled by suitable choice of the respective component’s preparation conditions, such as cleanliness and fragmentation of substrates, grinding
method, synthesis conditions, or distribution of phases and pore forming agents. Furthermore, of key importance is the process of applying the cell’s ready components. Often mentioned in the English language literature are methods such as pasting, screen printing, tape casting, magnetron sputtering, spray pyrolysis, tape calendering, spraying, and vapour deposition [14–21]. All of these usually lead to random distribution of phases and pores in the formed layer. Accordingly, consideration of a material for possible use as a fuel cell component requires careful analysis of its structural and electrical properties. It is necessary to examine the material’s parameters as well as to asses its interaction with other components of the already operated cell. The aim of this author’s doctoral thesis was to produce strontium titanate based ceramic composites with mixed ion-electron electrical conductivity, and to examine their properties. In this context particular emphasis was put on the potential use of these materials in oxide fuel cells as their anodes or functional layers between the electrolyte and anode in gradient cells. Similar subjects have been very scarcely addressed in scientific journals. The few published reports refer to interesting features of this type of composites, which has made this topic worthwhile.
2. Composite materials for SOFC solid oxide fuel cells In SOFC cells composite materials are mainly used as electrodes. There are also a few reports in the literature of composite electrolytes developed to improve the mechanical properties as compared to single-phase electrolytes, including a better match in terms of thermal expansion coefficient with commonly used anode and cathode materials than that of yttrium oxide stabilized pure zirconium (YSZ). For example, Shiratori et al. [22] by mixing 60 molar percent of MgO (TEC: 13,9x10-6K-1) and 40 molar percent of 3YSZ (TEC: 10,5-11,0x10-6K-1) had obtained a composite material with TEC: 11,6x10-6K-1, which is much closer to TEC of Ni-YSZ: 12,3x10-6K-1. But it should be kept in mind that MgO is an insulator. Too large a share of the compound in a composite results in a drop in the composite electrolyte’s electrical conductivity below 10-2 [Scm-1], and thus excludes its use in a solid oxide fuel cell. The most tested composite is the anode material of nickel cermet (Ni-YSZ), prepared from nickel oxide (NiO) and yttrium oxide stabilized zirconium oxide (YSZ). In use in a cell NiO is reduced to metallic nickel, which at 33% share in the composite volume provides a conductive path for electrons. On the other hand, the presence of YSZ in a composite introduces an ionic conductivity component and extends the three phase boundary (TPB). Moreover, the backbone of YSZ improves the match of the anode’s and YSZ electrolyte’s thermal expansion coefficients (TEC), and impedes the undesired agglomeration of nickel grains at temperatures above 500C°C. Furthermore, nickel significantly increases the anode’s catalytic activity due to the high efficiency of disruption of the hydrogen bonds in a H-H molecule and the hydrocarbon bonds in a C-H molecule [23]. Many composite materials are also offered for use as SOFC cathodes. It has been found that the use of a composite instead of an electron conductor can significantly improve the entire cell’s 21
B. Bochentyn | Acta Energetica 2/27 (2016) | 20–27
Fig. 1. Diagram of half-cell with gradient cathode on YSZ substrate [25]
performance. If to LSM, which conducts electrons only, ca. 50% by weight of an ionic conductor in the form of YSZ is added, a material will be produced with mixed conductivity and extensive surface for the electrochemical reduction of oxygen. As reported by Kenjo et al. [24], this may reduce the polarization resistance by as much as 25% of the value obtained for pure LSM. Another research of composites’ applications in SOFC cells aims at the development of so-called gradient cells with graded phases making up the component, usually the cathode. As reported by Deseure et al. [4], this solution allows one to take advantage of the merits of each of the materials, while minimizing the risks associated with their possible mechanical mismatch. For example, in the configuration proposed by Hart et al. [25] on a substrate of YSZ electrolyte the following layers were applied in succession: LSM-YSZ (or CGO-LSM) composite, LSM, LSM-LSCO composite, and LSCO (Fig. 1). This configuration was designed to improve the components’ match in terms of their thermal expansion coefficient, the gradient cathode’s ionic conductivity, and the catalytic activity of the cathode as a whole. As reported in [25], the authors had reduced the polarisation resistance for a cathode containing a)
LSM-CGO composite instead of LSM-YSZ, especially at lower temperatures (750–800°C), which is consistent with theoretical predictions. Moreover, it was observed [4, 25] that a cathode’s performance increases with the degree of its gradation (e.g. more composite layers of the same materials but in different proportions). It should be noted however that despite promising experimental results the manufacturing process of a cell comprising a gradient cathode (or anode) is time consuming and difficult, which significantly increases the cell’s cost. Therefore, a compromise has to be searched for to combine the gradient solution’s benefits, but at the same time minimize the cost of its manufacture. It should also be stressed that there is a significant disparity in the number of reports in the literature on the use of composite materials on the cathode side in relation to the studies of composite materials other than Ni-YSZ, which might be used as an anode. Consequently, it is a purpose of this study, consisting in the development and examination of a composite material based on SrTiO3 perovskite, which could be used as the functional layer between an SrTiO3 based anode and an electrolyte (Fig. 2), or as the anode itself and thus provide an alternative for the commercially used nickel cermets. Donor-doped strontium titanate has many advantages, but there are also some constraints that make its use as the anode material for cells produced on an industrial scale difficult. Yttrium doping (Y, Sr) TiO3 in the range of up to 10 molar percent significantly increases the material’s overall electrical conductivity and improves its TEC match with YSZ electrolyte [27, 28]. However, only 7–8 molar percent doping produces a single-phase material [29]. Strontium titanate doping with lanthanum (La,Sr)TiO3 and niobium Sr(Ti,Nb)O3 also increase the overall electrical conductivity [30–33], but in the case of lanthanum it reduces the material’s chemical stability [30]. In addition, all titanate based
b)
Fig. 2. Schematic diagram of SOFC cell layers: (A) Composite as functional layer between electrolyte (light circles) and anode (dark circles). Broken lines designate potential paths for electrons (A, B) and oxygen ions (C, D) in the composite. Lines A and C represent the existing percolating path between electrolyte and anode (possible transport of charge carriers through composite), and B and D represent the absence of a percolating path for charge carriers between electrolyte and anode; (B) Composites as functional layers between electrodes and electrolyte (modified based on [26]) 22
B. Bochentyn | Acta Energetica 2/27 (2016) | 20–27
compounds have a very low ionic conductivity [28]. What’s more, most of them have a very low resistance to mechanical stresses arising at the anode/electrolyte border in subsequent cycles of the cell’s operation due to the expansion of the SrTiO3 unit cell at lower oxygen partial pressures [34]. These problems should be resolved by the development of a composite comprising one of the said strontium titanate based compounds as the electronically conductive phase and another component with ionic conductivity. The ionic conductor role may assume, for instance, zirconium oxide stabilized with 8 molar percent of yttrium, or cerium oxide (CeO2). Cerium oxide may also improve the catalytic activity of the electrochemical reactions at the anode due to the high mobility of oxygen in the structure of CeO2, and the ability to easily store and release oxygen depending on the oxygen partial pressure at the electrode. The resulting composite material should therefore have the following characteristics: • no chemical reaction between phases in the composite • no reaction with the anode and the electrolyte materials, where the composite serves as the functional layer between these components • good match in terms of thermal expansion coefficient (TEC) to the electrolyte or to the anode and electrolyte, where the composite serves as the functional layer between these components • high ionic and electron conductivity • stability under oxidation/reduction conditions • extensive three phase border s for electrochemical oxidation of hydrogen. The few reports in the literature on this subject indicate very interesting properties of such materials. It was shown in [34–37] that there are no reactions between a SrTiO3 based electron conductor and YSZ ionic conductor even after the composite’s annealing at 1500°C in air. The composite’s thermal expansion coefficient better matches that of YSZ than a SrTiO3 anode alone [34–35], and also a composite containing (Y,Sr)TiO3 contracts very little in successive cycles of the redox process [38]. On the other hand, in the case of a composite with CeO2 as the ion conductor, in addition to its very good adhesion to the electrolyte surface, it was observed that the presence of cerium prevents the strontium titanate particle’s agglomeration [28], thereby providing better distribution of both phases in the composite’s whole volume. Sun et al. also reported that cerium improves the stability of (Y,Sr)TiO3 in various gas atmospheres [39]. However, a problem with this type of material is its TEC which is significantly different to that of YSZ electrolyte under the conditions of high temperature reduction in hydrogen [40], and diffusion of cerium into YSZ electrolyte [41]. The electron conductive phase in this study was strontium titanate doped with 2 molar percent of niobium. On the other hand, an ion conductor was YSZ. An important aim of the study was to determine the composite’s optimal composition and the preparation conditions enabling the formation of a percolating path for charge carriers, which had not been yet reported with regard to a fuel cell. An additional effect of the study was to investigate the interactions between the composite’s components in the cell operating conditions, which was an issue previously overlooked
in the literature reports, while it has a very significant impact on the stability and performance of a cell with this material.
3. Research methods and results The study included the examination of strontium titanate composites doped with niobium (STNb2) with zirconium oxide stabilized by yttrium oxide (YSZ) selected in various weight (volume) ratios. The materials were prepared using a simple and reproducible method of mixing the powdered substrates in a ball mill, and then subjected to treatment at high temperatures (1200–1400°C) in a wide range of oxygen partial pressures (0.2-10-31 atm). In order to determine the optimal composite composition and the preparation conditions allowing one to obtain compounds characterized by electrical conductivity of at least 1 Scm-1 as well as mechanical and chemical stability across a wide range of oxygen partial pressures, the resulting materials were subjected to structural and electrical examination. The examination carried out by X-ray diffraction (XRD) showed that throughout the range of tested temperatures and oxygen partial pressures the components of STNb2-YSZ composite didn’t interact in a way that would generate additional X-ray diffraction reflections in the original compound. The results are shown in Fig. 3. On the basis of microscopic observation (Fig. 4) it was shown that the 70STNb2-30YSZ composite layer used as the anode in the solid oxide fuel cell was porous and had a uniform distribution of phases in the composite. This porosity is sufficient to enable the diffusion of fuel to the three-phase border region. In addition, the layer shows good adhesion to the YSZ electrolyte substrate. Also examined was the diffusion of elements between the composite layer and the YSZ substrate after the reduction in hydrogen at 1400C. The results are shown in Fig. 5.
Fig. 3. Diffraction patterns of 70STNb2-30YSZ composite: (a) before heat treatment, (b) after reduction in hydrogen at 1300°C for 10 hrs, (c) after reduction in hydrogen at 1400°C for 10 hrs, (d) after sintering in air at 1400°C for 3hrs and after reduction in hydrogen at 1400°C for 10 hrs [42] 23
B. Bochentyn | Acta Energetica 2/27 (2016) | 20–27
Fig. 4. SEM images of a) fracture, and b) surface of half-cell with anode of 70STNb2-30YSZ composite layer, obtained from secondary electrons (SE) detector [42]
Fig. 5. Distribution of elements in the vicinity of the interface between 70STNb2-30YSZ composite anode and YSZ electrolyte. The scanning area is marked by an arrow in Fig. 4. [42]
The EDX analysis confirmed the diffusion of strontium and titanium to a depth of several micrometers to the YSZ electrolyte layer, and of yttrium and zirconium to a depth of several micrometers to the composite layer. The observed process of diffusion between the cell components suggests that the same phenomenon occurs between the grains of the phases in the composite itself. This is undesirable, particularly with regard to the diffusion of elements into the YSZ grains, because it results in the creation of phases characterized by decreased ionic conductivity. This phenomenon will be particularly dangerous in the case of a thin electrolyte (a dozen or so micrometers thick), as the reduction of the electrolyte’s ionic conductivity at the expense of the introduction of electronic conductivity at a depth of a few micrometers will lead to a decrease in the fuel cell power density. 24
In order to assess the suitability of the developed composites for solid oxide fuel cells, an analysis was conducted of the electrical parameters of cells with the anodes made of composite materials and set on 0.8 mm thick YSZ substrate. The impedance spectroscopy method was used to separate processes with different time constants occurring in the fuel cell. The results are shown in Fig. 6. It was shown that the use of 70STNb2-30YSZ composite as the anode leads to a twofold increase in the cell power density, and almost twofold decrease in the polarisation resistance’s low-frequency component as compared to a cell with a single-phase STNb2 anode. This is associated with extension of the three-phase border for the electrochemical oxidation of hydrogen at the anode through the introduction of an ion-conductive component (YSZ) to the anode material.
B. Bochentyn | Acta Energetica 2/27 (2016) | 20–27
Fig. 6a. Current-voltage characteristics and power density plots of cells with various anodes measured at 800°C in 97%H2:3%H2O atmosphere
Fig. 6b. Impedance spectra of cells with various anodes measured at 800°C at OCV in 97%H2:3%H2O atmosphere
No similar effect was observed in the composites with cerium oxide (70STNb2-30CeO2).
impregnate the anode layer with catalytically active compounds for the electrochemical oxidation of hydrogen. It was demonstrated that with a slight addition of nickel the electrical characteristics of a cell with an anode of 70STNb2-30YSZ composite are comparable with those of a cell with the commercially used Ni-YSZ anode. The results of the research conducted within the framework of the doctoral thesis made it possible to propose a new, cheap and easy to manufacture material for an anode or the functional layer between an STNb2 anode and YSZ electrolyte, which may be an alternative to nickel cermet burdened with numerous limitations. The use of new materials can contribute to the solid oxide fuel cell technology’s large-scale dissemination, including distributed generation in cells fuelled with biogas or hydrocarbons. Moreover, the dissertation complements the existing state of knowledge about the structural and transportation properties of strontium titanate based composites, and verifies the suitability of selected percolation theory models for describing the mechanisms of electrical conductivity in these materials.
Modification of the resulting composite compounds’ properties was also tested in order to improve the electrical parameters of a cell with this type of anode. It was shown that the introduction to the 70STNb2-30YSZ stoichiometric composite matrix of only 1 weight percent of nickel, which is a known catalytically active material, increases the cell power density three times compared to a cell with 70STNb2-30YSZ anode, and reduces the polarisation resistance’s low-frequency component by more than an order of magnitude (samples marked “70STNb2-30YSZ+Ni” in Fig. 6).
4. Conclusions Based on the research conducted in the framework of the doctoral thesis it can be concluded that 70STNb2-30YSZ composite has the structural and transport properties required for anode, or primarily for the functional layer between anode and electrolyte, in a solid oxide fuel cell. The use of the composite as anode material significantly increases the cell’s power density, and reduces its polarisation resistance by several times compared to a cell with a single-phase STNb2 anode. It was also found that it is necessary to employ other fuel cell preparation methods, which would allow one to avoid the joint high temperature (> 1300°C) reduction in the electrolyte and the therein set anode. For example, the cell configuration’s modification to the so-called anode supported SOFC (AS-SOFC) enables the use of a low-temperature method of thin electrolyte application (e.g. spray pyrolysis). In this way the electrolyte material is applied to an initially reduced anode substrate without the need to jointly reduce the two components. This technological approach should minimize the undesirable effect of diffusion of elements between the anode and the electrolyte. Another way to limit the diffusion of strontium to the electrolyte layer can be the use of a composite comprising strontium titanate with strontium deficiency, but the benefits of such a solution may be visible only in a thin-film electrolyte. In order to further improve the cell’s electrical parameters, it is necessary to
REFERENCES
1. J. Junxi et al., Performance comparison of three solid oxide fuel cell power systems, International Journal of Energy Research 2013, No. 37, pp. 1821–1830. 2. J. Karczewski et al. Electrical and structural properties of Nb-doped SrTiO3, Journal of Electroceramics, No. 24, 2010, pp. 326–330. 3. P. Costamagna, P.Costa, V.Antonucci, Micro-modelling of solid oxide fuel cell electrodes, Electrochimica Acta, No. 43, 1998, pp. 375–394. 4. J. Deseure et al., Theoretical optimisation of a SOFC composite cathode, Electrochimica Acta, No. 50, 2005, pp. 2037–2046. 5. L.C.R. Schneider et al., Percolation effects in functionally graded SOFC electrodes, Electrochimica Acta, No. 52, 2007, pp. 3190–3198. 6. S. Sunde, Calculation of Conductivity and Polarization Resistance of Composite SOFC Electrodes from Random Resistor Networks, Journal of the Electrochemical Society, No. 142, 1995, L50–L52. 25
B. Bochentyn | Acta Energetica 2/27 (2016) | 20–27
7. A.S. Martinez, J. Brouwer, Percolation modeling investigation of TPB formation in a solid oxide fuel cell electrode-electrolyte interface, Electrochimica Acta, No. 53, 2008, pp. 3597–3609. 8. K. Sasaki et al., Microstructure-property relations of solid oxide fuel cell cathodes and current collectors – Cathodic polarization and ohmic resistance, Journal of the Electrochemical Society, No. 143, 1996, pp. 530–543. 9. F.H. van Heuveln, F.P.F. Vanberkel, I.P.P. Huijsmans, High Temperature Electrochemical Behavior of Fast Ion and Mixed Conductors, Proceedings of the 14th Riso International Symposium on Material Science, 1993, p. 53. 10. M.J.L. Ostergard et al., Manganite-zirconia composite cathodes for SOFC: Influence of structure and composition, Electrochimica Acta, No. 40, 1995, pp. 1971–1981. 11. M. Juhl et al., Performance/structure correlation for composite SOFC cathodes, Journal of Power Sources, No. 61, 1996, pp. 173–181. 12. J.R. Wilson et al., Three Dimensional Reconstruction of a Solid Oxide Fuel Cell Anode, Nature Materials, 2006, pp. 541–544. 13. V. Dusastre, J.A. Kilner, Optimisation of composite cathodes for intermediate temperature SOFC applications, Solid State Ionics, No. 126, 1996, pp. 163–174. 14. F. Tietz, H.-P. Buchkremer, D. Stover, Components manufacturing for solid oxide fuel cells, Solid State Ionics, No. 152/153, 2002, pp. 373–381. 15. S.B. Savignat, M. Chiron, C. Barthet, Tape casting of new electrolyte and anode materials for SOFCs operated at intermediate temperature, Journal of the European Ceramic Society, No. 27, 2007, pp. 673–678. 16. C.-J. Li, C.-X. Li, M. Wang, Effect of Spray Parameters on the Electrical Conductivity of Plasma-Sprayed LA1-xSRxMnO3 coating for the cathode of SOFCs, Surface & Coatings Technology, No. 198, 2005, pp. 278–282. 17. X. Ge et al., Screen-printed thin YSZ films used as electrolytes for solid oxide fuel cells, Journal of Power Sources, No. 159, 2006, pp. 1048–1050. 18. R. Zheng, A study of Ni + 8YSZ/8YSZ/La0.6Sr0.4CoO3−δ ITSOFC fabricated by atmospheric plasma spraying, Journal of Power Sources, No. 140, 2004, pp. 217–225. 19. V.E.J. van Dieten, J. Schoonman, Thin film techniques for solid oxide fuel cells, Solid State Ionics, No. 57, 1991, pp. 141–145. 20. H.B. Wang et al., Aerosol-assisted MOCVD deposition of YDC thin films on (NiO + YDC) substrates, Materials Research Bulletin, No. 35, 2000, pp. 2363–2370. 21. G. Meng, Application of novel aerosol-assisted chemical vapor deposition techniques for SOFC thin films, Solid State Ionics, No. 175, 2004, pp. 29–34. 22. Y. Shiratori et al., YSZ-MgO composite electrolyte with adjusted thermal expansion coefficient to other SOFC components, Solid State Ionics, No. 164, 2003, pp. 27–33. 23. M. Mogensen, Composite Electrodes in Solid Oxide Fuel Cells and Similar Solid State Devices, Journal of Electroceramics, No. 5, 2000, pp. 141–152.
26
24. T. Kenjo, Nishiya M., LaMnO3 air cathodes containing ZrO2 electrolyte for high temperature Solid Oxide Fuel Cell, Solid State Ionics, No. 57, 1992, pp. 295–302. 25. N.T. Hart, Functionally graded composite cathodes for solid oxide fuel cells, Journal of Power Sources, No. 106, 2002, pp. 42–50. 26. D. Chen, Combined micro-scale and macro-scale modeling of the composite electrode of a solid oxide fuel cell, Journal of Power Sources 2010, No. 195, pp. 6598–6610. 27. H. Kurokawa, Y-doped SrTiO3 based sulfur tolerant anode for Solid Oxide Fuel Cells, Journal Power Sources, No. 164, 2007, pp. 510–518. 28. J. Karczewski et al., Electrical properties of Y0.08Sr0.92Ti0.92Nb0.08O3 after reduction in different reducing conditions, Journal of Alloys and Compounds, No. 473, 2009, pp. 496–499. 29. X. Huang, Effect of fabrication parameters on the electrical conductivity of YxSr1-xTiO3 for anode materials, Journal of Physics and Chemistry of Solids, No. 67, 2006, pp. 2609–2613. 30. S. Hashimoto, Conductivity and expansion at high temperature in Sr0,7La0,3TiO3-δ prepared under reducing atmosphere, Journal of Electroceramics, No. 16, 2006, pp. 103–107. 31. P. Blennow, Defect and electrical transport properties of Nb-doped SrTiO3, Solid State Ionics, No. 179, 2008, pp. 2047–205. 32. P. Blennow, Electrochemical characterization and redox behavior of Nb-doped SrTiO3, Solid State Ionics, No. 180, 2009, pp. 63–70. 33. F. Horikiri, N. Iizawa, L.Q. Han, Defect equilibrium and electron transport in the bulk of single crystal SrTi1-xNbxO3 (x = 0.01, 0.001, 0.0002), Solid State Ionics 2008, No. 179, pp. 2335–2344. 34. K. Ahn et al., A support layer for solid oxide fuel cells, Ceramics International, No. 33, 2007, pp. 1065–1070. 35. H. He, Characterization of YSZ-YST composites for SOFC anodes, Solid State Ionics, No. 175, 2004, pp. 171–176. 36. M.D. Gross et al., Redox stability of SrNbxTi1-xO3-YSZ for use in SOFC anodes, Journal of The Electrochemical Society, No. 156 (4), 2009, B540-B545. 37. Q. Ma et al., Y-substituted SrTiO3–YSZ composites as anode materials for solid oxide fuel cells: Interaction between SYT and YSZ, Journal of Power Sources 2010, No. 195, pp. 1920–1925. 38. Q. Fu et al., An efficient ceramic-based anode for solid oxide fuel cells, Journal of Power Sources, No. 171, 2007, pp. 663–669. 39. X. Sun et al., Evaluation of Sr0.88Y0.08TiO3–CeO2 as composite anode for solid oxide fuel cells running on CH4 fuel, Journal of Power Sources, No. 187, 2009, pp. 85–89. 40. S. Koutcheiko et al., Effect of ceria on properties of yttrium-doped strontium titanate ceramics, Ceramics International, No. 32, 2006, pp. 67–72. 41. G. Kim et al., SOFC anodes based on LST–YSZ composites and on Y0.04Ce0.48ZrM0.48O2, Journal of The Electrochemical Society, No. 155 (4), 2008, B360-B366. 42. Bochentyn B. et al., Interactions between components of SrTi0.98Nb0.02O3-δ-YSZ and SrTi0.98Nb0.02O3-δ-CeO2 composites, Physica Status Solidi A, No. 210, 2013, pp. 538–545.
B. Bochentyn | Acta Energetica 2/27 (2016) | 20–27
Beata Bochentyn e-mail: kbiel@utp.edu.pl Gdańsk University of Technology e-mail: bbochentyn@mif.pg.gda.pl She graduated from the Faculty of Applied Physics and Mathematics at the Gdańsk University of Technology (2009). In 2013 she defended the Ph.D. Thesis at her home faculty. She works as an Assistant Professor in the Department of Solid State Physics (GUT). Her main area of interest is a synthesis of mixed ion-electron conducting nanoceramics, as well as in an investigation of their structural, mechanical, electrical and catalytic properties, mainly for use in solid oxide fuel cells and thermoelectric devices.
27
B. Bochentyn | Acta Energetica 2/27 (2016) | translation 20–27
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 20–27. When referring to the article please refer to the original text. PL
Właściwości strukturalne i transportowe kompozytów tytanianu strontu z tlenkami przewodzącymi jonowo Autor
Beata Bochentyn
Słowa kluczowe
tlenkowe ogniwa paliwowe, anoda, warstwa funkcjonalna
Streszczenie
Artykuł napisano na podstawie rozprawy doktorskiej autorki pt. „Właściwości strukturalne i transportowe kompozytów tytanianu strontu z tlenkami przewodzącymi jonowo”, przygotowaną pod nadzorem prof. dr. hab. inż. Bogusława Kusza w Katedrze Fizyki Ciała Stałego Politechniki Gdańskiej. Prezentuje on ideę pracy doktorskiej oraz wnioski wynikające z przeprowadzonych badań. W pracy doktorskiej wytworzono i zbadano właściwości kompozytów tytanianu strontu domieszkowanego niobem (Sr(Ti,Nb)O3) z wybranymi tlenkami przewodzącymi jonowo (tlenek cyrkonu stabilizowany tlenkiem itru – YSZ, tlenek ceru – CeO2). Wykazano, że zastosowanie kompozytu Sr(Ti,Nb)O3-YSZ jako anody prowadzi do poprawy parametrów pracy tlenkowego ogniwa paliwowego w stosunku do ogniwa z anodą 1-fazową Sr(Ti,Nb)O3. Obserwacje mikroskopowe potwierdziły, że zastosowanie kompozytu Sr(Ti,Nb)O3-YSZ jako warstwy funkcjonalnej między anodą Sr(Ti,Nb)O3 i elektrolitem YSZ ogranicza problem delaminacji anody kompozytowej z powierzchni elektrolitu. Wykazano również, że odpowiednia modyfikacja struktury powierzchniowej anody kompozytowej Sr(Ti,Nb)O3-YSZ poprzez nasączanie katalizatorami procesu elektrochemicznego utleniania wodoru (np. niklem) może prowadzić do dalszej poprawy parametrów pracy ogniwa paliwowego.
1. Wstęp Materiały charakteryzujące się mieszanym prze wo dnic t wem j onowo-elekt ro nowym (ang. Mixed Ionic – Electronic Conductors – MIECs) mogą zostać zastosowane w takich urządzeniach jak baterie, czujniki chemiczne, ogniwa paliwowe oraz w układach do elektrosyntezy czy separacji gazów. Mieszane przewodnictwo jonowo-elektronowe występuje zarówno w ceramicznych materiałach jednoskładnikowych, jako następstwo ich budowy krystalicznej, jak i w materiałach kompozytowych, gdzie jednym ze składników kompozytu jest faza przewodząca elektronowo, a drugim faza przewodząca jonowo. Tworzenie materiałów kompozytowych jest stosunkowo proste, a właściwości otrzymanego produktu mogą być łatwo regulowane poprzez odpowiednią preparatykę i dobór faz składowych kompozytu. Czynniki te powodują, że materiały te są w ostatnich latach bardzo intensywnie badane pod kątem różnych zastosowań, w tym w tlenkowych ogniwach paliwowych (ang. Solid Oxide Fuel Cells – SOFCs) – wydajnych i przyjaznych środowisku urządzeniach służących do konwersji energii chemicznej utleniacza i paliwa na energię elektryczną. Ogromne zainteresowanie tlenkowymi ogniwami paliwowymi wynika ze stale rosnącego zapotrzebowania na energię elektryczną oraz cieplną, a tym samym z konieczności poszukiwania nowych metod pozyskiwania lub przetwarzania energii jako alternatywy dla tzw. energetyki konwencjonalnej. Wśród wielu rodzajów ogniw paliwowych, które przetwarzają energię chemiczną paliwa i utleniacza bezpośrednio na energię elektryczną, szczególnym zainteresowaniem cieszą się ogniwa IT-SOFC (ang. Intermediate Temperature Solid Oxide Fuel Cells – IT-SOFC), czyli ogniwa ze stałym elektrolitem pracujące w średnim zakresie temperatur (600–800°C). W Polsce ogniwa te znajdują się dopiero w fazie badań, ale w Europie Zachodniej i Stanach Zjednoczonych są
28
coraz powszechniej wdrażane. Jedynymi ubocznymi produktami ich pracy w przypadku zasilania czystym wodorem są woda i ciepło. Z kolei ewentualny proces emisji zanieczyszczeń powstających w procesie wewnętrznego reformingu paliw innych niż wodór jest w pełni kontrolowany. W profesjonalnych układach generatorów prądu z użyciem ogniw SOFC energia gazów resztkowych pochodzących z pracującego ogniwa wykorzystywana jest w turbinie gazowej sprzężonej z elektrogeneratorem, co prowadzi do podniesienia całkowitej sprawności konwersji energii substratów na energię elektryczną w systemie do 60%. Ponadto, dzięki możliwości dodatkowego wykorzystania ciepła odpadowego (ang. Combined Heat and Power – CHP) wydajność całego układu może wzrosnąć nawet do 80% [1]. W związku z tym ogniwa paliwowe są powszechnie uważane za przyjazne środowisku alternatywne źródło czystej energii. Największy potencjał zastosowań SOFC dostrzega się w tzw. energetyce rozproszonej, gdzie mogą być one używane jako stacjonarne źródła mocy w szpitalach, szkołach, budynkach użyteczności publicznej oraz w indywidualnych gospodarstwach domowych. Istnieje również możliwość instalowania ich przy wysypiskach śmieci, oczyszczalniach ścieków czy gospodarstwach rolnych, gdzie paliwem dla ogniwa może być łatwo dostępny, jednak często bezpowrotnie marnowany biogaz. Ponadto opracowanie i wdrożenie technologii efektywnego wydobycia cieszącego się ostatnio dużym zainteresowaniem gazu łupkowego może skutkować zasilaniem tlenkowych ogniw paliwowych również tym gazem. Niegasnące zainteresowanie świata naukowego tematyką tlenkowych ogniw paliwowych przyczynia się do dynamicznego rozwoju technologii SOFC. Każdego dnia do czasopism naukowych o międzynarodowym zasięgu wysyłane są artykuły z zakresu preparatyki, badania, czy
modelowania poszczególnych komponentów lub też całych ogniw paliwowych. Wysiłki naukowców koncentrują się głównie na optymalizowaniu materiałów i metod ich nanoszenia, tak by uzyskać jak największe gęstości mocy przy jednoczesnym zminimalizowaniu strat omowych i aktywacyjnych pracującego ogniwa. Dotychczasowe doświadczenia wskazują, że bardzo istotny wpływ na ograniczenie czasu pracy oraz koszt funkcjonowania całego ogniwa ma anoda. Obecnie komercyjnie stosowany materiał anodowy (tzw. cermet niklowy, Ni-YSZ) mimo niezaprzeczalnych zalet posiada wiele wad, które powodują ograniczenie czasu życia opartego na nim ogniwa oraz znacznie utrudniają wykorzystanie paliw innych niż czysty wodór. Znacząco ogranicza to możliwość wykorzystania ogniw tlenkowych w energetyce rozproszonej, gdzie podstawowym paliwem mógłby być gaz naturalny lub biogaz. Najbardziej obiecującą alternatywę dla Ni-YSZ stanowią związki o strukturze perowskitu (np. SrTiO3), które odpowiednio domieszkowane (np. Y,Nb) wykazują wysokie przewodnictwo elektronowe w niskich ciśnieniach parcjalnych tlenu. Zespół badawczy, którego członkiem jest autorka niniejszego artykułu, wykazał, że tytanian strontu domieszkowany w 2% molowych niobem (SrTi 0,98 Nb 0,02 O 3-δ w dalszej części pracy oznaczany skrótem STNb2) jest materiałem charakteryzującym się najwyższą całkowitą przewodnością elektryczną spośród przebadanych przez zespół składów [2]. Trzeba jednak podkreślić, że związki na bazie tytanianu strontu bardzo słabo przewodzą jonowo i nie zawsze są dobrze dopasowane pod względem współczynnika rozszerzalności termicznej do materiału elektrolitowego. Rozwiązanie tych materiałowych problemów może przynieść zastosowanie materiałów kompozytowych składających się z fazy przewodzącej elektronowo i fazy przewodzącej jonowo, które mają za zadanie eliminować wspomniane ograniczenia anody o strukturze
B. Bochentyn | Acta Energetica 2/27 (2016) | translation 20–27
perowskitu. Materiał tego typu może zostać zastosowany w ogniwie jako anoda lub/i jako warstwa funkcjonalna między anodą a elektrolitem. Doniesienia literaturowe wskazują, że uzyskiwane parametry pracującego ogniwa IT-SOFC zależą od składu poszczególnych komponentów ogniwa [3–7] i są złożoną funkcją wielu czynników. Przykładowo wśród czynników istotnie wpływających na jakość i wydajność materiału anodowego opisywanych w literaturze naukowcy podają m.in.: rozkład wielkości ziaren [8–10], tendencję do tworzenia tzw. granicy trzech faz [3, 7], porowatość [2] czy grubość elektrody [8, 11]. Wilson i wsp. [12] w pracy na temat symulacji mikrostruktury anody Ni-YSZ podkreślają, że labiryntowość (ang. tortuosity) układu, adhezja faz oraz istnienie połączeń między fazami są kluczowymi czynnikami wpływającymi na zjawisko perkolacji w elektrodzie, a w konsekwencji na jej wydajność. Z kolei Dusastre i Kilner [13] podkreślają wyższość wykorzystania materiałów o mieszanym przewodnictwie jonowo-elektronowym jako elektrod nad materiałami charakteryzującymi się przewodnictwem tylko elektronowym. Większość wymienionych wyżej parametrów determinujących wydajność i stabilność elektrody w ogniwie paliwowym może być kontrolowana poprzez odpowiedni dobór warunków preparatyki tego komponentu, takich jak czystość i rozdrobnienie substratów, sposób mielenia, warunki syntezy, czy dystrybucja faz i środków porotwórczych. Ponadto kluczowy jest również sposób nakładania gotowych komponentów ogniwa. W anglojęzycznej literaturze przedmiotu często pojawiają się takie metody jak osadzanie substratów w postaci pasty (ang. pasting), sitodruk (ang. screen printing), odlewanie folii ceramicznych (ang. tape casting), rozpylanie magnetronowe (ang. magnetron sputtering), piroliza aerozolowa (ang. spray pyrolysis), sprasowywanie folii ceramicznych (ang. tape calendering), natryskiwanie (ang. spraying) oraz osadzanie z fazy gazowej (ang. vapour deposition) [14–21]. Wszystkie one prowadzą do zazwyczaj losowej dystrybucji faz i porów w utworzonej warstwie. W związku z powyższym rozważanie danego materiału pod kątem możliwości zastosowania go jako jednego z komponentów ogniwa paliwowego wymaga przeprowadzenia wnikliwej analizy jego właściwości strukturalnych i elektrycznych. Konieczne jest przebadanie zarówno parametrów samego materiału, jak również ocena jego interakcji z innymi komponentami pracującego już ogniwa. Celem pracy doktorskiej autorki było wytworzenie i zbadanie właściwości ceramicznych kompozytów na bazie tytanianu strontu, charakteryzujących się mieszanym przewodnictwem jonowo-elektronowym. Szczególny nacisk w ramach prowadzonych badań został położony na potencjalne zastosowanie tych materiałów w tlenkowych ogniwach paliwowych jako anody lub jako warstwy funkcjonalnej między elektrolitem i anodą w tzw. ogniwach gradientowych. W bazach czasopism naukowych można znaleźć niewiele artykułów o podobnej tematyce. Nieliczne, które powstały, donoszą o ciekawych cechach tego typu kompozytów, co uczyniło podjęcie niniejszej tematyki zasadnym.
Rys. 1. Schemat półogniwa przedstawiający układ gradientowej katody na podłożu YSZ [25]
2. Materiały kompozytowe dla tlenkowych ogniw paliwowych SOFC Materiały kompozytowe w dziedzinie tlenkowych ogniw paliwowych znajdują zastosowanie przede wszystkim jako elektrody. W literaturze pojawiają się również nieliczne doniesienia na temat kompozytowych elektrolitów, których tworzenie ma na celu poprawę właściwości mechanicznych w stosunku do elektrolitów 1-fazowych, w tym lepsze dopasowanie pod względem współczynnika rozszerzalności termicznej do powszechnie stosowanych materiałów anodowych i katodowych niż ma to miejsce w przypadku czystego tlenku cyrkonu stabilizowanego tlenkiem itru (YSZ). Przykładowo Shiratori i wsp. [22] dzięki zmieszaniu 60% molowych MgO (TEC: 13,9x10-6K-1) oraz 40% molowych 3YSZ (TEC: 10,5-11,0x10-6K-1) uzyskali materiał kompozytowy o współczynniku TEC: 11,6x10-6K-1, który jest zdecydowanie bliższy do TEC dla Ni-YSZ: 12,3x10 -6K -1. Trzeba jednak pamiętać, że MgO jest izolatorem. Zbyt duży udział tego związku w kompozycie skutkuje spadkiem przewodności elektrycznej kompozytowego elektrolitu poniżej 10-2 [Scm-1], a tym samym wyklucza jego zastosowanie w tlenkowych ogniwach paliwowych. Najczęściej badanym kompozytem jest stosowany jako anoda cermet niklowy (Ni-YSZ), który przygotowuje się z tlenku niklu (NiO) i tlenku cyrkonu stabilizowanego tlenkiem itru (YSZ). W warunkach pracy ogniwa NiO ulega redukcji do metalicznego niklu, który przy udziale ok. 33% objętości kompozytu zapewnia ścieżkę przewodzenia dla elektronów. Z kolei obecność YSZ w kompozycie wprowadza składową jonową przewodnictwa oraz wydłuża granicę trzech faz (TPB). Ponadto szkielet w postaci YSZ wpływa na poprawę dopasowania współczynnika rozszerzalności termicznej (TEC) anody do elektrolitu YSZ oraz ogranicza proces niepożądanej aglomeracji ziaren niklu w temperaturach powyżej 500°C. Ponadto nikiel znacznie podnosi aktywność katalityczną anody ze względu na dużą efektywność rozrywania wiązań wodorowych w molekule H–H oraz wiązań węglowodorowych w molekule C–H [23]. Wiele materiałów kompozytowych proponuje się również do zastosowań jako katody ogniw SOFC. Stwierdzono, że zastosowanie kompozytu zamiast przewodnika elektronowego może znacznie poprawić parametry pracy całego ogniwa. Jeśli do LSM, który przewodzi tylko elektrony, wprowadzimy ok. 50% wagowych przewodnika jonowego w postaci YSZ, otrzymamy materiał o mieszanym przewodnictwie oraz rozległej powierzchni dla elektrochemicznej
redukcji tlenu. Jak donoszą Kenjo i wsp. [24] może to wpłynąć na obniżenie rezystancji polaryzacyjnej nawet o 25% w stosunku do wartości otrzymanych dla czystego LSM. Innym kierunkiem badań kompozytów do zastosowań w ogniwach SOFC jest tworzenie tzw. ogniw gradientowych z gradacją faz tworzących dany komponent, najczęściej katodę. Jak donoszą Deseure i wsp. [4], takie rozwiązanie pozwala wykorzystać zalety każdego z użytych materiałów, minimalizując jednocześnie ryzyko związane z ich ewentualnym niedopasowaniem mechanicznym. Przykładowo, w konfiguracji zaproponowanej przez Harta i wsp. [25] na podłożu z elektrolitu YSZ nanoszono kolejno warstwy: kompozyt LSM-YSZ (lub LSM-CGO), LSM, kompozyt LSM-LSCO oraz LSCO (rys. 1). Taka konfiguracja miała za zadanie uzyskać dobry stopień dopasowania pod względem współczynnika rozszerzalności termicznej poszczególnych komponentów, zwiększyć przewodnictwo jonowe gradientowej katody oraz zwiększyć aktywność katalityczną katody jako całości. Jak donoszą autorzy [25], mniejszą rezystancję polaryzacyjną uzyskali dla katody zawierającej kompozyt LSM-CGO zamiast LSM-YSZ, zwłaszcza w temperaturach niższych (750–800°C), co jest zgodne z przewidywaniami teoretycznymi. Co więcej, zaobserwowano [4, 25], że wydajność katody wzrasta w miarę zwiększania stopnia jej gradacji (np. więcej warstw kompozytowych z tych samych materiałów, ale o różnych proporcjach). Trzeba jednak zauważyć, że pomimo obiecujących rezultatów badań doświadczalnych proces produkcyjny ogniwa zawierającego katodę (lub anodę) gradientową jest czasochłonny i skomplikowany, co znacząco zwiększa koszty układu ogniwa. Konieczne jest zatem poszukiwanie kompromisu łączącego zalety rozwiązania gradientowego, ale jednocześnie minimalizującego koszty jego wytwarzania. Ponadto należy podkreślić, że istnieje znaczna dysproporcja w liczbie doniesień literaturowych na temat stosowania materiałów kompozytowych po stronie katody w stosunku do prac na temat kompozytów innych niż Ni-YSZ, które mogłyby znaleźć zastosowanie jako anoda. Stąd też wynika jeden z celów niniejszej rozprawy, polegający na stworzeniu oraz przebadaniu materiału kompozytowego na bazie perowskitu SrTiO3, który mógłby zostać użyty jako warstwa funkcjonalna między anodą na bazie SrTiO3 a elektrolitem (rys. 2) lub też jako sama anoda i w ten sposób stanowić alternatywę dla komercyjnie stosowanych cermetów niklowych.
29
B. Bochentyn | Acta Energetica 2/27 (2016) | translation 20–27
a)
b)
Rys. 2. Schemat ideowy układu warstw w ogniwie SOFC: (a) Kompozyt jako warstwa funkcjonalna między elektrolitem (jasne kółka) a anodą (ciemne kółka). Linie łamane wyznaczają potencjalne ścieżki dla ruchu elektronów (A, B) oraz jonów tlenu (C, D) w kompozycie. Linie A i C oznaczają istniejącą ścieżkę perkolacyjną między elektrolitem i anodą (możliwy transport nośników ładunku przez kompozyt), zaś B i D brak ścieżki perkolacyjnej dla ruchu nośników ładunku między elektrolitem i anodą; (b) Kompozyty jako warstwy funkcjonalne między elektrodami i elektrolitem (zmodyfikowano na podstawie [26])
Domieszkowany donorowo tytanian strontu posiada wiele zalet, jednak istniejące również ograniczenia utrudniają wdrożenie tego materiału jako anody dla ogniw produkowanych w skali przemysłowej. Domieszkowanie itrem (Y,Sr)TiO3 w zakresie do 10% molowych znacznie podnosi całkowitą przewodność elektryczną materiału oraz polepsza dopasowanie pod względem TEC do elektrolitu YSZ [27, 28]. Jednakże tylko domieszkowanie w zakresie 7–8% molowych pozwala otrzymać materiał 1-fazowy [29]. Domieszkowanie tytanianu strontu lantanem (La,Sr)TiO3 oraz niobem Sr(Ti,Nb)O3 również podnosi całkowitą przewodność elektryczną [30–33], jednak w przypadku lantanu zmniejsza stabilność chemiczną materiału [30]. Ponadto wszystkie związki na bazie tytanianu mają bardzo niską przewodność jonową [28]. Co więcej, większość z nich jest mało odporna na mechaniczne naprężenia powstające na granicy anoda/elektrolit w kolejnych cyklach pracy ogniwa ze względu na rozszerzanie się komórki elementarnej SrTiO3 w zakresie niskich ciśnień parcjalnych tlenu [34]. Rozwiązaniem tych problemów powinno być utworzenie kompozytu zawierającego jeden ze wspomnianych związków na bazie tytanianu strontu jako fazę przewodzącą elektronowo oraz drugi składnik przewodzący jonowo. Rolę przewodnika jonowego może np. pełnić tlenek cyrkonu stabilizowany tlenkiem itru w 8% molowych (YSZ) lub tlenek ceru (CeO2). Tlenek ceru może dodatkowo poprawić aktywność katalityczną reakcji elektrochemicznych na anodzie w związku z dużą ruchliwością tlenu w strukturze CeO2 oraz zdolnością do łatwego magazynowania i uwalniania tlenu w zależności od ciśnienia parcjalnego tlenu na elektrodzie. Utworzony materiał kompozytowy powinien zatem charakteryzować się następującymi cechami: • brak reakcji chemicznych między fazami w kompozycie
30
• brak reakcji z materiałem anody i elektrolitu, jeśli kompozyt byłby zastosowany jako warstwa funkcjonalna między tymi komponentami • dobre dopasowanie pod względem współczynnika rozszerzalności termicznej (TEC) do elektrolitu lub do anody i elektrolitu, jeśli kompozyt miałby być zastosowany jako warstwa funkcjonalna między tymi komponentami • wysokie przewodnictwo jonowe i elektronowe • stabilność w warunkach utleniania/ redukcji • rozległa granica trzech faz dla elektrochemicznego utleniania wodoru. Nieliczne doniesienia literaturowe z tej tematyki wskazują na bardzo ciekawe właściwości tego typu materiałów. W pracach [34–37] wykazano, że pomiędzy przewodnikiem elektronowym na bazie SrTiO3 oraz jonowym YSZ nie zachodzą żadne reakcje nawet po wygrzewaniu kompozytu w temperaturze 1500°C w powietrzu. Współczynnik rozszerzalności termicznej kompozytu jest bardziej dopasowany do TEC dla YSZ niż w przypadku samej anody SrTiO3 [34–35], a ponadto w przypadku kompozytów zawierających (Y,Sr)TiO3 zachodzi tylko bardzo niewielki skurcz materiału w kolejnych cyklach procesu redoks [38]. Z kolei w przypadku kompozytów, w których CeO2 występuje jako składnik przewodzący jonowo, oprócz bardzo dobrego przylegania kompozytu do powierzchni elektrolitu zaobserwowano, że obecność ceru zapobiega aglomeracji ziaren tytanianu strontu [28], zapewniając tym samym lepszą dystrybucję obu faz w całej objętości kompozytu. Sun i wsp. donoszą również, że cer poprawia stabilność (Y,Sr)TiO3 w różnych atmosferach gazowych [39]. Jednakże problemem w tego typu materiałach jest znaczna różnica współczynnika TEC w stosunku do elektrolitu YSZ w warunkach procesu wysokotemperaturowej redukcji w wodorze [40] oraz
dyfuzja ceru do wnętrza elektrolitu YSZ [41]. W opisywanej pracy doktorskiej jako fazę przewodzącą elektronowo zastosowano tytanian strontu domieszkowany w 2% molowych niobem. Z kolei jako składnik przewodzący jonowo wykorzystano m.in. YSZ. Istotnym celem prowadzonych badań było określenie optymalnego składu kompozytu oraz warunków preparatyki umożliwiających powstanie ścieżki perkolacyjnej dla nośników ładunku, co w odniesieniu do ogniw paliwowych nie było do tej pory nigdzie opisane. Dodatkowym efektem przeprowadzonych prac miało być również zbadanie interakcji między składnikami kompozytu w warunkach pracy ogniwa, co było zagadnieniem dotychczas pomijanym w doniesieniach literaturowych, a co bardzo istotnie wpływa na stabilność i wydajność wykorzystującego ten materiał ogniwa. 3. Metody i wyniki badań W pracy doktorskiej przeprowadzono m.in. badania kompozytów tytanianu strontu domieszkowanego niobem (STNb2) z tlenkiem cyrkonu stabilizowanym tlenkiem itru (YSZ) dobranym w różnych stosunkach wagowych (objętościowych). Materiały przygotowywano przy użyciu prostej i powtarzalnej metody mieszania substratów proszkowych w młynie kulowym, a następnie poddawano je obróbce w wysokich temperaturach (1200–1400°C), w szerokim zakresie ciśnień parcjalnych tlenu (0,2-10-31 atm). W celu określenia optymalnych składów kompozytów oraz warunków, umożliwiających otrzymanie związków charakteryzujących się przewodnością elektryczną równą co najmniej 1 Scm-1 oraz stabilnością mechaniczną i chemiczną w szerokim zakresie ciśnień parcjalnych, przeprowadzono badania strukturalne i elektryczne wytworzonych materiałów. Badania przeprowadzone metodą dyfraktometrii rentgenowskiej (XRD) wykazały,
B. Bochentyn | Acta Energetica 2/27 (2016) | translation 20–27
Rys. 3. Widma dyfrakcyjne kompozytu 70STNb2-30YSZ: (a) przed obróbką termiczną, (b) po redukcji w wodorze w temp. 1300°C przez 10h, (c) po redukcji w wodorze w temp. 1400°C przez 10h, (d) po spiekaniu w powietrzu w temp. 1400°C przez 3h i po redukcji w wodorze w temp. 1400°C przez 10h. [42]
że składniki kompozytów STNb2-YSZ w całym zakresie badanych temperatur i ciśnień parcjalnych tlenu nie wchodzą ze sobą w reakcje, które skutkowałyby powstaniem dodatkowych refleksów w dyfraktogramie rentgenowskim wyjściowego związku. Wyniki zaprezentowano na rys. 3. Na podstawie obserwacji mikroskopowych (rys. 4) udowodniono, że warstwa kompozytu 70STNb2-30YSZ zastosowanego jako anoda w tlenkowym ogniwie paliwowym jest porowata i charakteryzuje się równomierną dystrybucją faz w kompozycie. Porowatość ta jest wystarczająca, by umożliwić dyfuzję paliwa do obszaru granicy trzech faz. Ponadto warstwa wykazuje
dobrą adhezję do podłoża elektrolitowego YSZ. Przeprowadzono również badania dyfuzji pierwiastków między warstwą kompozytu a podłożem YSZ po redukcji w wodorze w temperaturze 1400°C. Wyniki zaprezentowano na rys. 5. Analiza EDX potwierdziła dyfuzję strontu i tytanu na głębokość kilku mikrometrów do warstwy elektrolitu YSZ oraz itru i cyrkonu na głębokość kilku mikrometrów do warstwy kompozytu. Zaobserwowany proces dyfuzji między komponentami ogniwa pozwala przypuszczać, że analogiczne zjawisko występuje między ziarnami faz w samym kompozycie. Jest to efekt niepożądany, zwłaszcza jeśli chodzi
o dyfuzję pierwiastków do ziaren YSZ, ponieważ skutkuje on powstaniem faz charakteryzujących się obniżoną przewodnością jonową. Zjawisko to będzie szczególnie niebezpieczne w przypadku cienkich elektrolitów (kilkanaście mikrometrów grubości), ponieważ obniżenie przewodnictwa jonowego elektrolitu kosztem wprowadzenia przewodnictwa elektronowego na głębokości kilku mikrometrów będzie skutkowało spadkiem gęstości mocy pracującego ogniwa paliwowego. W celu oceny przydatności wytworzonych kompozytów w tlenkowych ogniwach paliwowych przeprowadzono analizę parametrów elektrycznych pracujących ogniw, w których materiały kompozytowe zostały zastosowane jako anoda osadzona na podłożu YSZ o grubości 0,8 mm. Metoda spektroskopii impedancyjnej posłużyła do rozdzielenia procesów o różnych stałych czasowych zachodzących w ogniwie paliwowym. Wyniki przedstawiono na rys. 6. Wykazano, że zastosowanie kompozytu 70STNb2-30YSZ jako anody prowadzi do dwukrotnego zwiększenia gęstości mocy ogniwa oraz prawie dwukrotnego zmniejszenia składowej niskoczęstotliwościowej rezystancji polaryzacyjnej w stosunku do ogniwa z 1-fazową anodą STNb2. Jest to związane z wydłużeniem granicy trzech faz dla elektrochemicznego utleniania wodoru na anodzie dzięki wprowadzeniu składnika przewodzącego jonowo (YSZ) do materiału anody. Podobnego efektu nie zaobserwowano w przypadku kompozytów z tlenkiem ceru (70STNb2-30CeO2). Przeprowadzono również próby modyfikacji właściwości wytworzonych związków kompozytowych, mające na celu poprawę parametrów elektrycznych ogniwa pracującego z tego typu anodą. Wykazano, że wprowadzenie do matrycy stechiometrycznego kompozytu 70STNb2-30YSZ zaledwie 1% wagowego niklu, który jest znanym materiałem aktywnym katalitycznie, zwiększa gęstość mocy ogniwa trzykrotnie w stosunku do ogniwa z anodą 70STNb2-30YSZ oraz obniża składową niskoczęstotliwościową rezystancji polaryzacyjnej o ponad rząd wielkości (próbki oznaczone jako „70STNb2-30YSZ+Ni” na rys. 6).
Rys. 4. Obrazy SEM: a) przełomu oraz b) powierzchni półogniwa z warstwą kompozytu 70STNb2-30YSZ jako anodą uzyskane za pomocą detektora elektronów wtórnych (SE) [42]
31
B. Bochentyn | Acta Energetica 2/27 (2016) | translation 20–27
z parametrami ogniwa wykorzystującego komercyjnie stosowaną anodę Ni-YSZ. Wyniki badań przeprowadzonych w ramach pracy doktorskiej umożliwiły zaproponowanie nowego, taniego i łatwego w produkcji związku na anodę lub warstwę funkcjonalną między anodą STNb2 a elektrolitem YSZ, który może stanowić alternatywę dla obarczonego licznymi ograniczeniami cermetu niklowego. Zastosowanie nowych materiałów może się przyczynić do upowszechnienia technologii tlenkowych ogniw paliwowych na szeroką skalę, w tym w energetyce rozproszonej wykorzystującej biogaz lub paliwa węglowodorowe do zasilania ogniwa. Ponadto cytowana rozprawa doktorska uzupełnia istniejący stan wiedzy na temat właściwości strukturalnych i transportowych kompozytów na bazie tytanianu strontu oraz weryfikuje możliwość zastosowania wybranych modeli z teorii perkolacji do opisu mechanizmów przewodnictwa elektrycznego w tych materiałach. Bibliografia Rys. 5. Dystrybucja pierwiastków w sąsiedztwie interfejsu między anodą kompozytową 70STNb2-30YSZ a elektrolitem YSZ. Obszar skanowania został zaznaczony za pomocą strzałki na rys. 4 [42]
4. Wnioski Na podstawie badań przeprowadzonych w ramach pracy doktorskiej można wyciągnąć wniosek, że kompozyt 70STNb230YSZ spełnia wymagania w zakresie właściwości strukturalnych i transportowych stawiane materiałom na anodę lub przede wszystkim na warstwę funkcjonalną między anodą a elektrolitem w tlenkowym ogniwie paliwowym. Zastosowanie go jako anody prowadzi do wyraźnego zwiększenia gęstości mocy ogniwa oraz do kilkukrotnego zmniejszenia rezystancji polaryzacyjnej ogniwa w stosunku do ogniwa pracującego z anodą 1-fazową STNb2. Stwierdzono również, że konieczne jest zastosowanie innych metod preparatyki ogniwa paliwowego, które pozwoliłyby uniknąć wspólnej wysokotemperaturowej (>1300°C) redukcji elektrolitu i osadzonej na nim anody. Przykładowo dzięki modyfikacji konfiguracji ogniwa na tzw. konfigurację z elementem nośnym w postaci anody (ang. anode supported SOFC – AS-SOFC) możliwe
jest zastosowanie jednej z niskotemperaturowych metod osadzania cienkich elektrolitów (np. piroliza aerozolowa). W ten sposób materiał elektrolitu osadzany jest na pierwotnie zredukowanym podłożu anodowym bez konieczności wspólnej redukcji obu komponentów. Takie podejście technologiczne powinno zminimalizować niepożądany efekt dyfuzji pierwiastków między anodą a elektrolitem. Innym sposobem ograniczenia dyfuzji strontu do warstwy elektrolitu może być zastosowanie kompozytu zawierającego tytanian strontu z niedomiarem strontu, jednak korzyści z takiego rozwiązania mogą być widoczne dopiero w cienkowarstwowych elektrolitach. W celu dalszej poprawy parametrów elektrycznych pracującego ogniwa konieczne jest nasączanie warstwy anody związkami aktywnymi katalitycznie dla elektrochemicznego utleniania wodoru. Wykazano, że dzięki niewielkiemu dodatkowi niklu parametry elektryczne ogniwa z anodą kompozytową 70STNb2-30YSZ stają się porównywalne
Rys. 6a. Charakterystyki prądowo-napięciowe oraz wykresy gęstości mocy ogniw z różnymi anodami zmierzone w temperaturze 800°C w atmosferze 97%H2:3%H2O
32
1. Junxi J. i in., Performance comparison of three solid oxide fuel cell power systems, International Journal of Energy Research 2013, nr 37, s. 1821–1830. 2. Karczewski J. i in. Electrical and structural properties of Nb-doped SrTiO3, Journal of Electroceramics 2010, nr 24, s. 326–330. 3. Costamagna P., Costa P., Antonucci V., Micro-modelling of solid oxide fuel cell electrodes, Electrochimica Acta 1998, nr 43, s. 375–394. 4. Deseure J., Bultel Y., Dessemond L., Siebert E., Theoretical optimisation of a SOFC composite cathode, Electrochimica Acta 2005, nr 50, s. 2037–2046 5. Schneider L.C.R. i in., Percolation effects in functionally graded SOFC electrodes, Electrochimica Acta 2007, nr 52, s. 3190–3198. 6. Sunde S., Calculation of Conductivity and Polarization Resistance of Composite SOFC Electrodes from Random Resistor Networks, Journal of the Electrochemical Society 1995, nr 142, L50–L52. 7. Martinez A.S., Brouwer J., Percolation modeling investigation of TPB formation in a solid oxide fuel cell electrode-electrolyte
Rys. 6b. Widma impedancyjne ogniw z różnymi anodami zmierzone w temperaturze 800°C przy OCV w atmosferze 97%H2:3%H2O
B. Bochentyn | Acta Energetica 2/27 (2016) | translation 20–27
interface, Electrochimica Acta 2008, nr 53, s. 3597–3609. 8. Sasaki K. i in., Microstructure-property relations of solid oxide fuel cell cathodes and current collectors – Cathodic polarization and ohmic resistance, Journal of the Electrochemical Society 1996, nr 143, s. 530–543. 9. Heuveln F.H. van, Vanberkel F.P.F., Huijsmans I.P.P., High Temperature Electrochemical Behavior of Fast Ion and Mixed Conductors, Proceedings of the 14th Riso International Symposium on Material Science, 1993, s. 53. 10. Ostergard M.J.L. i in., Manganite-zirconia composite cathodes for SOFC: Influence of structure and composition, Electrochimica Acta 1995, nr 40, s. 1971–1981. 11. Juhl M. i in., Performance/structure correlation for composite SOFC cathodes, Journal of Power Sources 1996, nr 61, s. 173–181. 12. Wilson J.R. i in., Three Dimensional Reconstruction of a Solid Oxide Fuel Cell Anode, Nature Materials, 2006, s. 541–544. 13. Dusastre V., Kilner J.A., Optimisation of composite cathodes for intermediate temperature SOFC applications, Solid State Ionics 1996, nr 126, s. 163–174. 14. Tietz F., Buchkremer H.-P., Stover D., Components manufacturing for solid oxide fuel cells, Solid State Ionics 2002, nr 152/153, s. 373–381. 15. Savignat S.B., Chiron M., Barthet C., Tape casting of new electrolyte and anode materials for SOFCs operated at intermediate temperature, Journal of the European Ceramic Society 2007, nr 27, s. 673–678. 16. Li C.-J., Li C.-X., Wang M., Effect of Spray Parameters on the Electrical Conductivity of Plasma-Sprayed LA 1-x SR x MnO 3 coating for the cathode of SOFCs, Surface & Coatings Technology 2005, nr 198, s. 278–282. 17. Ge X. i in., Screen-printed thin YSZ films used as electrolytes for solid oxide fuel cells, Journal of Power Sources 2006, nr 159, s. 1048–1050. 18. Zheng R., A study of Ni + 8YSZ/8YSZ/ La0.6Sr0.4CoO3−δ ITSOFC fabricated by
atmospheric plasma spraying, Journal of Power Sources 2004, nr 140, s. 217–225. 19. Dieten V.E.J. van, Schoonman J., Thin film techniques for solid oxide fuel cells, Solid State Ionics 1991, nr 57, s. 141–145. 20. Wang H.B. i in., Aerosol-assisted MOCVD deposition of YDC thin films on (NiO + YDC) substrates, Materials Research Bulletin 2000, nr 35, s. 2363–2370. 21. Meng G., Application of novel aerosolassisted chemical vapor deposition techniques for SOFC thin films, Solid State Ionics 2004, nr 175, s. 29–34. 22. Shiratori Y. i in., YSZ-MgO composite electrolyte with adjusted thermal expansion coefficient to other SOFC components, Solid State Ionics 2003, nr 164, s. 27–33. 23. Mogensen M., Composite Electrodes in Solid Oxide Fuel Cells and Similar Solid State Devices, Journal of Electroceramics 2000, nr 5, s. 141–152. 24. Kenjo T., Nishiya M., LaMnO3 air cathodes containing ZrO2 electrolyte for high temperature Solid Oxide Fuel Cell, Solid State Ionics 1992, nr 57, s. 295–302. 25. Hart N.T., Functionally graded composite cathodes for solid oxide fuel cells, Journal of Power Sources 2002, nr 106, s. 42–50. 26. Chen D., Combined micro-scale and macro-scale modeling of the composite electrode of a solid oxide fuel cell, Journal of Power Sources 2010, nr 195, s. 6598–6610. 27. Kurokawa H., Y-doped SrTiO3 based sulfur tolerant anode for Solid Oxide Fuel Cells, Journal of Power Sources 2007, nr 164, s. 510–518. 28. Karczewski J. i in., Electrical properties of Y0.08Sr0.92Ti0.92Nb0.08O3 after reduction in different reducing conditions, Journal of Alloys and Compounds, 2009, nr 473, s. 496–499. 29. Huang X., Effect of fabrication parameters on the electrical conductivity of YxSr1-xTiO3 for anode materials, Journal of Physics and Chemistry of Solids 2006, nr 67, s. 2609–2613. 30. Hashimoto S., Conductivity and expansion at high temperature in Sr0,7La0,3TiO3-δ prepared under reducing
atmosphere, Journal of Electroceramics 2006, nr 16, s. 103–107. 31. Blennow P., Defect and electrical transport properties of Nb-doped SrTiO3, Solid State Ionics 2008, nr 179, s. 2047–205. 32. Blennow P., Electrochemical characterization and redox behavior of Nb-doped SrTiO3, Solid State Ionics 2009, nr 180, s. 63–70. 33. Horikiri F., Iizawa N., Han L.Q., Defect equilibrium and electron transport in the bulk of single crystal SrTi1-xNbxO3 (x = 0.01, 0.001, 0.0002), Solid State Ionics 2008, nr 179, s. 2335–2344. 34. Ahn K. i in., A support layer for solid oxide fuel cells, Ceramics International 2007, nr 33, s. 1065–1070. 35. He H., Characterization of YSZ-YST composites for SOFC anodes, Solid State Ionics 2004, nr 175, s. 171–176. 36. Gross M.D. i in., Redox stability of SrNbxTi1-xO3-YSZ for use in SOFC anodes, Journal of The Electrochemical Society 2009, nr 156 (4), B540-B545. 37. Ma Q. i in., Y-substituted SrTiO3–YSZ composites as anode materials for solid oxide fuel cells: Interaction between SYT and YSZ, Journal of Power Sources 2010, nr 195, s. 1920–1925. 38. Fu Q. i in., An efficient ceramic-based anode for solid oxide fuel cells, Journal of Power Sources 2007, nr 171, s. 663–669. 39. Sun X. i in., Evaluation of Sr0.88Y0.08TiO3– CeO2 as composite anode for solid oxide fuel cells running on CH4 fuel, Journal of Power Sources 2009, nr 187, s. 85–89. 40. Koutcheiko S. i in., Effect of ceria on properties of yttrium-doped strontium titanate ceramics, Ceramics International 2006, nr 32, s. 67–72. 41. Kim G. i in., SOFC anodes based on LST–YSZ composites and on Y0.04Ce0.48ZrM0.48O2, Journal of The Electrochemical Society 2008, nr 155 (4), B360-B366. 42. Bochentyn B. i in., Interactions between components of SrTi0.98Nb0.02O3-δ-YSZ and SrTi0.98Nb0.02O3-δ-CeO2 composites, Physica Status Solidi A 2013, nr 210, s. 538–545.
Beata Bochentyn dr inż. Politechnika Gdańska e-mail: bbochentyn@mif.pg.gda.pl Ukończyła studia na Wydziale Fizyki Technicznej i Matematyki Stosowanej Politechniki Gdańskiej (2009). W 2013 roku uzyskała tytuł doktorski na swoim macierzystym wydziale. Pracuje jako adiunkt w Katedrze Fizyki Ciała Stałego PG. Jej główny obszar zainteresowań to wytwarzanie nanostrukturalnych materiałów ceramicznych o mieszanym przewodnictwie jonowo-elektronowym oraz badanie ich właściwości strukturalnych, mechanicznych, elektrycznych i katalitycznych, głównie pod kątem zastosowań w tlenkowych ogniwach paliwowych oraz urządzeniach termoelektrycznych.
33
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | 34–39
e-Highway 2050: Methodology of Data Contextualization for the Purpose of Scenario Building
Authors Michał Bajor Maciej Wilk
Keywords long-term grid and generation development, future scenarios, data contextualization
Abstract The e-Highway 2050 project is co-financed by the EU Seventh Framework Programme and is aimed at developing a methodology to support the long-term planning of the Pan-European Transmission Network, focusing on year 2050, to ensure the reliable delivery of renewable electricity and pan-European market integration. One of the tasks of the project is to create five scenarios covering the time period 2020–2050 and taking into account financial, technological/ economic, environmental and socio-political issues. One of the key questions in the context of the whole project is how to select the typical range of technology data according to the five elaborated scenarios. To this end, an approach called data contextualization is suggested. It aims to allocate, for a given technology, typical values to key variables descriptive of this technology, within the 2050 time horizon, for each of the five considered scenarios. The key assumption used is that the main driver for contextualization is the penetration rate of a given technology (cumulated number of units at a given time). It is indeed assumed that the cost and performance trends of a technology by 2050 are directly correlated to its level of deployment. The first stage of the contextualization process was to determine the degree of influence of individual factors (uncertainties as defined for each “future” and options as defined for each “strategy”) on variables selected to be contextualized. Each parameter of the selected scenarios (future uncertainty or option) has then been analysed in order to determine its impact on a potential incentive to develop a given technology as well as its investment and O&M costs. It has been assumed that development of a given technology is stimulated and hence its penetration increases by lowering the overall investment costs and vice versa. Based on the impact of each parameter’s value, a final assessment of the projected level of both types of costs was assigned to each scenario and each technology category. Finally, the values of selected variables have been allocated to individual scenarios and technologies. The allocation has been performed based on the assessment of appropriate technology groups in a given scenario and the range of values for the selected variable.
DOI: 10.12736/issn.2300-3022.2016203
1. Context and objectives of the eHighway 2050 project The rapid expansion of renewable electricity sources and demand-side management technologies is going to change the way transmission systems are designed and operated. Electricity should be transported over longer distances, across national borders, in order to connect renewable resources located far from the main European consumption areas. Active demand response services might also be controlled over large geographical areas, therefore involving many stakeholders under different regulatory regimes. A pan-European infrastructure is thus required to enable more power and data exchanges between the 34
different stakeholders of the power system, in order to comply with these new constraints including the progressive construction of a single European electricity market. This requirement for the development of a pan-European transmission network is addressed by the e-Highway 2050 project supported by the European Commission (DG Research). The main objective of the project is the development of a methodology to support the planning of the pan-European transmission network by 2050. This planning approach must comply with the objectives of the EU energy policy with regard to ensuring reliable supplies of renewable electricity and pan-European integration of the electricity market. It consists in modular
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | 34–39
development planning, taking into account various pan-European grid patterns in order to comply with the five potential scenarios of the power system exerting the biggest impact on the pan-European transmission grid. Its construction involves a consortium of transmission system operators, research institutes, universities, industry associations and non-governmental organizations in order to provide the final results by the end of 2015.
2. General description of the planning methodology This new “bottom-up” planning methodology is built around four main stages within the framework of which stakeholders from the whole of Europe are invited to discuss assumptions as well as indirect and final results, during workshops and external consultations: • description of possible assumptions for 2020–2050 involving technology, socio-environmental and political boundary conditions • building of energy scenarios involving the foreseen generation and demand profiles, while taking into account storage, demand-side management and transmission technologies available by 2050 • grid and market simulations to find optimized grid architectures, which help match electricity production with demand profiles on the European level • proposal of modular development plans of the pan-European transmission system, covering each of the studied scenarios, and optimized by taking into account social welfare as well as environmental and political conditions. Simultaneously, a possibility of creating a mathematical description of such a long-term planning method has been studied using enhanced optimization and advanced simulation tools. The general workflow of the e-Highway 2050 project is presented in Fig. 1. To be more precise, the construction of the algorithm is organized in six technical work packages as follows: • WP1 – a package of possible strategies and futures are based on technology, socio-environmental and political boundary conditions. Combination of a strategy and a future yields a scenario. A strategy is a set of controllable options, where controllable refers to decision makers. RES deployment policies, R&D funding policies are typical options. A future is a set of non-controllable uncertainties, such as economic growth, the cost of fuels, etc. Five different scenarios have been
selected in the project. Each scenario represents a specific set of quantitative and qualitative values for the ensemble of options and strategies that defines a scenario. Selection has been performed with the aim of retaining the scenarios resulting in the most challenging power flows in the future pan-European electric system • WP2 – scenarios built as a combination of a given strategy and a given future with associated boundary conditions. These scenarios are used to build Generation, Demand and Exchange (G/D/E) volumes. Next, they are used to express these values in time with various spatial resolutions to conduct market simulations and network analyses. They will enable us to define possible simplified grid systems (a cluster approach) and related technology portfolios in the upcoming decades (2020–2050). • WP3 – a package in which the technology portfolio is to be developed including all required data used not only in WP2 simulations, but also to conduct more sophisticated analyses (compare WP4 for dynamic data and WP6 for cost and benefit analyses). • WP4 – a package of operational analyses (including shortcircuit and dynamic simulations) as well as environmental performances of possible grid architectures. • WP6 – a package of socio-economic analyses of the grid infrastructures selected in WP2 and WP4. These analyses include social welfare and environmental protection aspects. WP8 is a parallel package where the possibility to mathematically formalize such long-term planning methods is investigated using enhanced optimization and advanced simulation tools. The core of the e-Highway 2050 algorithm is developed by WP2, 4 and 6 based upon the data provided by WP3. WP2 shows which possible grid systems are compatible with market simulations and the limited transmission capacities of the lines between the clusters. WP4 and 6 are additional filters: WP4 is oriented on operational aspects of selected systems and includes, among other things, simulations. It also checks which suggested grid systems are optimum, taking into account the system dynamics. However, WP6 constitutes a social-economic filter of grid system selections complying with environmental limitations and social welfare maximisation. Therefore, WP2, 4 and 6 constitute a series of filters allowing the project partners to retain the most probable grid architectures in 2050, based upon a chain of simulation tools with the associated data provided by WP3.
Fig. 1. General workflow of the e-Highway 2050 project 35
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | 34–39
3. Technology portfolio database Technical and economic data on technologies is a critical building block of the e-Highway 2050 modular development plan. WP3 provides a cost and performance database used for the selection of candidate power system technologies in the 2050 time horizon. It also provides typical technical and economic data used by all numerical simulations performed for the selected grid architectures and each of the five e-Highway 2050 scenarios. Within the WP3 package, a portfolio of technologies (generation, storage, transmission, demand) has been selected according to their impact on transmission networks with regard to planning issues by 2050. A dedicated approach has been developed to identify the demand-side technologies of major impact for the electricity demand at 2050 (i.e. electric vehicles, heat pumps and LED/OLED). The database is divided into technologies (and sub-technologies where applicable, e.g. sea and land wind power generation). See below for these technologies: • generation and storage technology: water generation with or without tanks; PV (photovoltaic panels); concentrated solar energy; sea and land wind power; geothermal energy; gas turbines; from hard coal with or without CCS (carbon capture storage); from brown coal with or without CCS; atomic energy; energy from biomass and biogas; pumped storage water energy; CAES; electrochemical storage • demand-side technologies: electric vehicles; heat pumps; lighting • passive transmission technologies: high-voltage AC and DC cables; high-voltage AC and DC overhead lines; high-temperature conductors; combination of HVAC/HVDC transmission; gas insulated lines; superconductors
Fig. 2. Overview of the contextualization process 36
• active transmission technologies: converters for HVDC (CSC and VSC); FACTS (shunt and series); phase shift transformers and transformers with a tap changer; protection and control at substations and at system level.
4. Key features of the database construction process Collective construction process The construction process of the database has involved key stakeholders of the electricity supply chain (manufacturers, TSOs, academia, research institutes) and available scientific and technical literature. Data collection, modelling and calculations have been mainly provided by professional associations per domain of expertise. Data validation Data has been validated by members of the e-Highway 2050 consortium (via internal workshops and the Quality Commission) as well as external stakeholders in the course of a special workshop. Data uncertainties and contextualization Apart from the data collection process, the two main problems concerning databases are: uncertainties and contextualisation. • Uncertainties refer to the intervals of confidence of the values for given variables. For instance, the value of a given variable in 2050 cannot be stated as 8 MW (if one considers for instance the rated power of a typical offshore wind turbine in 2050), but rather 8 MW (+/– 10%) or it may vary within a min. max. interval that could be [6–10] MW. The increasing uncertainty over time has been a major difficulty when assessing numerical values for several data types such as costs or technical performances.
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | 34–39
• Contextualization refers to the different values that might be taken by a variable depending on the e-Highway 2050 scenario. For example, in a scenario with 100% penetration of large scale renewables in 2050, one can expect that the investment costs for wind power would be lower than the investments costs for wind power in a Scenario where renewables reach a lower penetration and the thermal electricity generation is roughly at the same level as today. Contextualization tries to answer the key question for the downstream simulations to be performed: How to adjust the typical range of technology data according to the five selected scenarios?
Data contextualization aims to allocate, for a given technology, typical values to key variables descriptive of this technology, in the 2050 time horizon, for each of the five considered scenarios. The contextualization process will be described using the example of data on the CHP (Combined Heat and Power) technology. The data in Fig. 2 presents a step-by-step approach designed and adopted in order to obtain contextualized data.
X5 Large-scale RES & no emissions
Investment costs
O&M (operation and maintenance) costs
International Climate Agreement
+
−
Dependency on fossil fuels from outside Europe
+
−
Fuel costs
++
−
CO2 emission costs
+
++
Electrification in transport, heating, industry
++
−
Demographic change
+
−
Future: Uncertainty
Tab. 1. Impact of selected factors on costs: CHP fired with waste
5. Data contextualization
Scenario
Impact on:
X7 100% RES
The input data for the process are data sheets containing range of values of different parameters (variables) describing the CHP technology (present and future) and selected future scenarios described by differing uncertainties and strategy options, which are the result of works of WP1 of the e-Highway 2050 project, in which the Institute of Power Engineering also took part.
X10 Big investment & Market
X13 Big investment in fossil fuel with CCS & Nuc
X16 Small and local
Future International Climate Agreement EU alone: prices relatively stable
Global agreement: no available cheaper installations from outside EU, demand exceeding supply leading to higher prices
EU alone: prices relatively stable
Dependency on fossil fuels from outside Europe
Low: low incentive to build waste CHP
Medium: higher incentive to build waste CHP
Medium: higher incentive to build waste CHP
Fuel costs
High: very high incentive for new waste CHP
Low: low incentive to build waste CHP
High: very high incentive for new waste CHP
CO2 emission costs
High: lead to increasing O&M costs
High: lead to increasing O&M costs
Low: no significant change
CCS maturity
No: higher prices of CCS installations
Yes: lower prices of CCS installations
No: higher prices of CCS installations
Electrification in heating
All: very low incentive to build waste CHP
Large scale (commercial etc.): no significant change
Residential: low incentive to build waste CHP
Demographic change
Growth: more demand for heat
Growth: more demand for heat
Migration only: no significant change
Public perceptions to shale gas
Negative: other fuels (e.g. waste) necessary
Positive: available gas will lower the incentive for other technologies
Negative: other fuels (e.g. waste) necessary
Shift towards greener behaviours
Major: lack of public support for waste CHP
Minor: no significant change
Major: lack of public support for waste CHP
Strategy Deployment of de-centralized Low RES (including CHP and biomass)
Medium
Low
High
Increase in energy efficiency (including DSM and flexibility)
Low: higher O&M costs due to frequent need of regulation
High High: lower O&M costs due to low need of regulation
Medium: no significant impact
Low: higher O&M costs due to frequent need of regulation
High: lower O&M costs due to low need of regulation
Increase of funds and better coordination of RDD activities (at EU level)
High: technology may become cheaper
High: technology may become cheaper
Medium: prices at medium level
Medium: prices at medium level
Low: higher technology prices
Convergent and strong Convergent and strong Convergent and strong Heterogeneous framePermitting framework (including framework: lowering framework: lowering framework: lowering work at EU level: possibly EU nature legislation) investment costs investment costs investment costs higher investment costs
Heterogeneous framework at EU level: possibly higher investment costs
Resulting scenario for costs Investment
medium
low
high
high
medium
O&M
high
medium
high
high
medium
Tab. 2. Contextualization of cost variables – waste to energy CHP 37
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | 34–39
The first stage of the contextualization process was to determine the degree of influence of individual factors (uncertainties as defined for each “future” and options as defined for each “strategy”) on variables selected to be contextualized. Only variables regarding investment and O&M (Operational and maintenance) costs were contextualized. Other variables, such as those regarding emissions or technical parameters, cannot be reliably contextualized. The analysed technologies have been grouped into four categories based on the type of fuel used by a given CHP technology. The impact of individual factors has been assessed for each of these categories as one of the following values: • ++ (major impact) • + (minor impact) • − (negligible or no impact). An example of the assessed influence of selected impact factors (future uncertainties) on the projected level of costs for waste-toenergy CHP is presented in Tab. 1. Each of the selected scenario parameters (future uncertainty or strategy option) has then been analysed in order to determine its impact on a potential incentive to develop a given technology and its investment and O&M costs. It has been assumed that a greater incentive to develop a given technology (and hence a potentially larger penetration of this technology) will result in lowering the overall investment costs and vice versa. Based on the impact of each parameter’s value, a final assessment of the projected level of both types of costs was assigned to each scenario and each technology category (compare Tab. 2 continuing the waste-fired CHP example (in some cases the future uncertainties are the same for various scenarios so they have the same impact on the predicted cost levels). Finally, the values of selected variables have been allocated to individual scenarios and technologies. The allocation has been performed based on an assessment of final marks to appropriate technology groups in a given scenario and the range of values for the selected variable as determined in the data sheets. The values for three defined levels of final marks for selected variables have been defined as follows: • If a range of values is available for a given variable in the data sheet, the low end value of the range is assigned to the “low” final mark, the high end value of the range is attached to the “high” final mark, while the “medium” final mark is attached an arithmetical mean of low and high end values of the range
38
• If only a single value of the variable is available, it is assumed to correspond to the “medium” final mark. The values for “low” and “high” final marks are then calculated using the assumption that they differ respectively by –12.5% and +12.5% from the available “medium” value. This approach is arbitrary due to a lack of better data, but in the case of variables for which a range of values is available, the difference between low and high end values for the range is 25%, therefore the mean value ±12.5%.
6. Conclusion The presented contextualization process designed and performed by the Institute of Power Engineering assists building models corresponding to future scenarios predefined by other work packages of the e-Highway 2050 project by enabling a more accurate reflection of the possible and probable characteristics of individual technologies. This in turn helps support the long-term planning of the pan-European transmission network by 2050, which is the main objective of the project. REFERENCES
1. e-Highway 2050, Annex 1 to Ms3.1: Combined Heat and Power Technology Assessment Report, written by Institute of Power Engineering. 2. E. Peirano et al., A cost and performance database of power system technologies in support of the development of the pan-European electricity highways system at the 2050 time frame, European Wind Energy Association Offshore 2013, 19–21.11.2013, Frankfurt. 3. Heat Roadmap Europe 2050 Study for The Eu27, Aalborg University, Halmstad University, PlanEnergi, May 2010. 4. F. Starr, FIMMM, Future Challenges for CHP in the UK and Continental Europe, 2010. 5. Speirs J. et al., Building a roadmap for heat 2050 scenarios and heat delivery in the UK, CHPA, Grosvenor Gardens House, London 2010. 6. Combined Heat and Power: a Decade of Progress, a Vision for the Future, Office of Energy Efficiency and Renewable Energy, United States Department of Energy, Washington, DC, 2008. 7. The most efficient waste management system in Europe, Rambøll 2006. 8. Energy Technology Perspectives. 2010 edition, International Energy Agency, France, 2010. 9. Projected Costs of Generating Electricity, International Energy Agency, France, 2015.
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | 34–39
Michał Bajor Institute of Power Engineering, Gdańsk Branch e-mail: m.bajor@ien.gda.pl Graduated from Gdańsk University of Technology, Faculty of Electronics, Telecommunications and Informatics, Department of Computer Architecture, specializing in distributed computing. Currently works as a Research Assistant/Project Manager in the Institute of Power Engineering in Gdańsk, Poland. Participated in numerous wind farm grid connection studies, as well as in other studies concerning the impact of wind farms on the electrical system and other types of grid studies. The main areas of his interest include probabilistic aspects of wind generation impact on the power system and non-deterministic computational methods of optimization of various aspects of grid operation..
Maciej Wilk Institute of Power Engineering Gdańsk Branch | Gdańsk University of Technology e-mail: m.wilk@ien.gda.pl Graduated with a major in Electrical Engineering at the Faculty of Electrical Engineering and Automatics of Gdańsk University of Technology. Currently works in the Automatics and System Analyses Department of the Institute of Power Engineering, Gdańsk Branch. He is also doing his PhD at his parent faculty. He has participated in numerous works concerning interconnection studies of wind generation and other analytical works related to dynamics of the power system. He represents the Institute of Power Engineering in the European Commission project e-Highway 2050.
39
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | translation 34–39
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 34–39. When referring to the article please refer to the original text. PL
e-Highway 2050: Metodyka kontekstualizacji danych na potrzeby tworzenia scenariuszy Autorzy
Michał Bajor Maciej Wilk
Słowa kluczowe
długoterminowy rozwój sieci i generacji, przyszłe scenariusze, kontekstualizacja danych
Streszczenie
Projekt e-Highway 2050, współfinansowany przez Siódmy Program Ramowy UE, ma na celu opracowanie metodyki długoterminowego planowania Paneuropejskiej Sieci Przesyłowej, a w dłuższej perspektywie zapewnienia niezawodnych dostaw energii elektrycznej ze źródeł odnawialnych i ogólnoeuropejskiej integracji rynkowej w roku 2050. Jednym z jego zadań jest stworzenie scenariuszy zdefiniowanych jako pięć charakterystycznych wizji przyszłości na lata 2020–2050, uwzględniających aspekty finansowe, technologiczne/gospodarcze, środowiskowe i społeczno-polityczne. Jednym z kluczowych pytań dla całego projektu jest pytanie: Jak dobrać typowy zakres danych technicznych dla każdego z wybranych scenariuszy? W tym celu proponuje się podejście zwane kontekstualizacją danych, którego celem, dla danej technologii, jest nadanie wartości typowych jej głównym zmiennym opisowym, w perspektywie roku 2050, dla każdego z pięciu rozważanych scenariuszy. Podstawowym założeniem, jakie zostało przyjęte, jest to, że kontekstualizację stymuluje głównie stopień penetracji danej technologii (skumulowana liczba jednostek w danej chwili). W istocie przyjęto, że linie trendu kosztów i wydajności danej technologii do 2050 roku są bezpośrednio skorelowane z poziomem jej wdrożenia. Pierwszy etap procesu kontekstualizacji służy określeniu stopnia wpływu poszczególnych czynników (niepewności, jakie zdefiniowano dla każdej „przyszłości”, oraz opcji, jakie zdefiniowano dla każdej „strategii”) na wybrane do kontekstualizacji zmienne. Następnie poszczególne parametry wybranych scenariuszy (niepewność lub opcja) przeanalizowano pod kątem wpływu na potencjalne stymulowanie rozwoju danej technologii, inwestycji w nią oraz kosztów jej utrzymania i eksploatacji. Założono, że rozwój danej technologii jest stymulowany, a zatem potencjalnie następuje wzrost jej penetracji przez zmniejszenie ogólnych kosztów inwestycyjnych i odwrotnie. Na podstawie wartości wpływu poszczególnych parametrów każdemu scenariuszowi i każdej kategorii technologii przypisano ostateczną ocenę przewidywanego poziomu obu rodzajów kosztów. W końcu poszczególnym scenariuszom i technologiom przypisano wartości wybranych zmiennych. Podstawą tego przypisania były ostateczne oceny grup technologii w danym scenariuszu oraz zakres wartości dla wybranej zmiennej.
1. Kontekst i cele projektu e‑Highway 2050 Szybki rozwój odnawialnych źródeł energii i technologii zarządzania popytem zmieni sposób, w jaki projektuje się i eksploatuje systemy przesyłowe energii elektrycznej. Aby przyłączać odnawialne zasoby bardzo oddalone od głównych obszarów konsumpcji w Europie, energię elektryczną trzeba transportować na duże odległości, także poprzez granice krajów. Usługami aktywnego reagowania na popyt można sterować również na dużych obszarach geograficznych, co angażuje wielu interesariuszy w różnych systemach regulacyjnych. Potrzeba zatem paneuropejskiej infrastruktury, aby poszerzyć wymianę mocy i danych między różnymi interesariuszami systemu elektroenergetycznego, w celu spełnienia nowych ograniczeń, w tym stopniowego
Rys. 1. Ogólny schemat działania projektu e-Highway 2050
40
budowania jednolitego europejskiego rynku energii elektrycznej. Odpowiedzią na ten wymóg budowy paneuropejskiej sieci przesyłowej jest projekt e-Highway 2050 współfinansowany przez Komisję Europejską (DG Research). Jego głównym celem jest opracowanie metodyki planowania ogólnoeuropejskiej sieci przesyłowej do 2050 roku. To podejście planistyczne musi być zgodne z celami unijnej polityki energetycznej dotyczącej zapewnienia niezawodnych dostaw energii elektrycznej ze źródeł odnawialnych i ogólnoeuropejskiej integracji rynku energii elektrycznej. Polega ono na modułowym planie rozwoju z uwzględnieniem różnych paneuropejskich schematów sieciowych, aby sprostać pięciu potencjalnym scenariuszom przyszłego systemu elektroenergetycznego o największym wpływie
na ogólnoeuropejską sieć przesyłową. W jego tworzeniu udział biorą konsorcjum operatorów systemów przesyłowych, instytuty badawcze, uczelnie, stowarzyszenia branżowe oraz organizacje pozarządowe, a ostateczne wyniki ogłoszone zostaną do końca 2015 roku. 2. Ogólny opis metodyki planowania Ta nowa „oddolna” metodyka planowania zbudowana jest wokół czterech głównych etapów, w ramach których zaprasza się interesariuszy z całej Europy do dyskusji nad założeniami oraz pośrednimi i końcowymi efektami w trakcie warsztatów i konsultacji zewnętrznych: • opis możliwych założeń na lata 2020– 2050 z uwzględnieniem technologicznych, społeczno-środowiskowych i politycznych warunków brzegowych
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | translation 34–39
• tworzenie scenariuszy energetycznych przy równoczesnym uwzględnieniu przewidywanych profili generacji i popytu oraz dostępnych w 2050 roku technologii magazynowania, zarządzania popytem i przesyłu • symulacje sieciowe i rynkowe, w celu zoptymalizowania architektury sieciowej, które przyczyniają się do dopasowania produkcji energii elektrycznej do profili popytu na poziomie europejskim • propozycja modułowych planów rozwoju paneuropejskiego systemu przesyłowego, obejmująca każdy z badanych scenariuszy i zoptymalizowana przy uwzględnieniu dobrostanu społeczności, uwarunkowań środowiskowych i politycznych. Jednocześnie zbadano możliwość matematycznego opisania takiej metody planowania długoterminowego przy zastosowaniu wzmocnionej optymalizacji i zaawansowanych narzędzi symulacyjnych. Ogólny schemat działania projektu e-Highway 2050 przedstawiono na rys. 1. Dokładniej rzecz biorąc, algorytm tworzy się w następujących sześciu technicznych grupach roboczych: • WP1, pakiet tworzenia zestawu możliwych strategii i przyszłości w oparciu o technologiczne, społeczno-środowiskowe i polityczne warunki brzegowe. Połączenie strategii i przyszłości daje scenariusz. Strategia jest to zestaw kontrolowanych opcji, gdzie kontrola odnosi się do decydentów. Reguły rozmieszczania OZE, finansowania R&D to typowe opcje. Przyszłość jest to zestaw niekontrolowanych niepewności, takich jak wzrost gospodarczy, koszt paliwa itp. W projekcie wybrano pięć różnych scenariuszy. Każdy scenariusz reprezentuje określony zestaw wartości ilościowych i jakościowych dla zespołu opcji i strategii, który go definiuje. Wyboru dokonano w celu zachowania scenariuszy skutkujących najbardziej ambitnymi przepływami mocy w przyszłym ogólnoeuropejskim systemie elektrycznym. • WP2, pakiet tworzenia scenariuszy jako kombinacji danej strategii i danej przyszłości wraz ze związanymi z nimi warunkami brzegowymi. Scenariusze te wykorzystuje się do budowania wolumenów Generacji, Popytu i Wymiany (Generation, Demand, Exchange – G/D/E), a następnie wyrażenia tych wartości w czasie przy różnych rozdzielczościach przestrzennych w celu przeprowadzenia symulacji rynkowych i analiz sieciowych. Pozwolą one na wyznaczenie możliwych uproszczonych układów sieciowych (podejście klastrowe) oraz związanych z nimi portfolio technologii w nadchodzących dziesięcioleciach (2020–2050). • WP3, pakiet, w którym opracowane zostanie portfolio technologii wraz ze wszystkimi wymaganymi danymi służącymi nie tylko do wykonywania symulacji w WP2, ale także do bardziej wyrafinowanych analiz (por. WP4 dla danych dynamicznych, WP6 dla analizy kosztów i korzyści). • WP4, pakiet analiz operacyjnych (w tym symulacji zwarciowych i dynamicznych) oraz środowiskowych możliwych układów sieciowych.
• WP6, pakiet analiz społeczno-ekonomicznych infrastruktur sieciowych wybranych w etapach WP2 i WP4. Analizy te obejmują dobrostan społeczny i aspekty ochrony środowiska. WP8 jest to pakiet równoległy, w ramach którego przy użyciu narzędzi wzmocnionej optymalizacji i zaawansowanej symulacji bada się możliwość matematycznego sformułowania metod planowania długoterminowego. Istota algorytmu e-Highway 2050 powstaje w pakietach WP2, 4 i 6, na podstawie danych dostarczonych przez WP3. WP2 wskazuje, które z możliwych układów sieciowych są zgodne z symulacjami rynkowymi oraz z modelowanymi ograniczonymi zdolnościami przesyłowymi linii pomiędzy klastrami. WP4 i 6 stanowią dodatkowe filtry: WP4 zorientowany jest na aspekty operacyjne wybranych układów, obejmuje między innymi symulacje i sprawdza, które z zaproponowanych układów sieciowych są optymalne z punktu widzenia dynamiki systemu. WP6 natomiast stanowi filtr społeczno-gospodarczy wyboru układów sieciowych zgodnych z ograniczeniami środowiskowymi i maksymalizacją dobrostanu społeczności. WP2, 4 i 6 stanowią zatem szereg filtrów pozwalających partnerom projektu zachować najbardziej prawdopodobne w 2050 roku układy sieciowe na podstawie łańcucha narzędzi symulacyjnych z danymi pozyskanymi z grupy WP3.
linie napowietrzne AC i DC wysokiego napięcia; przewody na wysokie temperatury; przesył kombinowany HVAC/HVDC; linie z izolacją gazową; nadprzewodniki • aktywne technologie przesyłowe: konwertery HVDC (CSC i VSC); FACTS (bocznikowe i szeregowe); transformatory z przesunięciem fazowym i transformatory z przełącznikiem zaczepów; zabezpieczenia i sterowanie w podstacjach i na poziomie systemu.
3. Baza danych portfolio technologii Dane techniczne i ekonomiczne technologii są kluczowym budulcem modułowego planowania rozwoju wg e‑Highway 2050. WP3 dostarcza bazy danych kosztów i wydajności używanych do wyboru technologii elektroenergetycznych przewidywanych w perspektywie 2050 roku. Dostarcza także typowych danych technicznych i ekonomicznych wykorzystywanych przez wszystkie symulacje numeryczne przeprowadzone dla wybranych układów sieciowych i każdego z pięciu scenariuszy e-Highway 2050. W ramach prac grupy WP3 wybrano portfel technologii (wytwarzanie, magazynowanie, przesył, popyt) stosownie do ich wpływu na sieci przesyłowe w odniesieniu do kwestii planowania do 2050 roku. Opracowano wyspecjalizowane podejście w celu identyfikacji technologii o dużym wpływie na popyt na energię elektryczną w 2050 roku (tj. pojazdy elektryczne, pompy ciepła oraz LED/OLED). Baza danych jest podzielona na technologie (oraz podtechnologie w stosownych przypadkach, np. morską i lądową generację wiatrową). Te różne technologie wymieniono poniżej: • technologie generacji i magazynowania: generacja wodna ze zbiornikiem i bez; PV (panele fotowoltaiczne); skoncentrowana energia słoneczna; wiatrowa na lądzie i morzu; geotermalna; w turbinach gazowych; z węgla kamiennego z CCS (ang. carbon capture storage) lub bez; z węgla brunatnego z CCS lub bez; energia atomowa; z biomasy i biogazu; wodna szczytowo-pompowa; CAES; magazynowanie elektrochemiczne • technologie po stronie popytu: pojazdy elektryczne; pompy ciepła; oświetlenie • pasywne technologie przesyłowe: kable AC i DC wysokiego napięcia;
Niepewność danych a kontekstualizacja Oprócz procesu zbierania danych dwa główne problemy dotyczące bazy danych to: niepewności i kontekstualizacja. • Niepewności odnoszą się do przedziałów ufności podanych wartości zmiennych. Na przykład wartości danej zmiennej (np. mocy znamionowej typowej morskiej turbiny wiatrowej) w 2050 roku nie powinno się przyjmować jako 8 MW, ale raczej jako 8 MW (+/– 10%), lub przyjąć, że wartość ta może wahać się w przedziale 6–10 MW. Ta rosnąca niepewność z czasem stała się jednym z głównych problemów przy ocenie wartości liczbowych dla kilku typów danych, takich jak koszty lub osiągi techniczne. • Kontekstualizacja odnosi się do różnych wartości, które może przyjąć dana zmienna w różnych scenariuszach e-Highway 2050. Na przykład w scenariuszu ze 100-proc. penetracji dużych źródeł odnawialnych w 2050 roku można się spodziewać, że koszty inwestycji w energetykę wiatrową byłyby niższe niż w scenariuszu, gdzie energia odnawialna osiąga niższą penetrację i generacja w elektrowniach cieplnych pozostaje na mniej więcej tym samym poziomie co obecnie. Kontekstualizacja próbuje odpowiedzieć na kluczowe dla dalszych symulacji pytanie: Jak ustawić typowy zakres danych technicznych dla każdego z wybranych scenariuszy?
4. Najważniejsze cechy procesu budowy bazy danych Proces budowy zbiorowej W proces budowy bazy danych angażowano najważniejszych interesariuszy w łańcuchu dostaw energii elektrycznej (producenci, operatorzy systemów przesyłowych, środowiska akademickie, instytuty badawcze) oraz wykorzystywano literaturę naukową i techniczną. Zbieranie danych, modelowanie i obliczenia były wykonywane głównie przez stowarzyszenia zawodowe stosownie do specjalizacji. Weryfikacja danych Weryfikację danych zapewnili członkowie konsorcjum e-Highway 2050 (poprzez wewnętrzne warsztaty i komisję ds. jakości) oraz interesariusze zewnętrzni za pośrednictwem specjalnego warsztatu.
5. Kontekstualizacja danych Celem kontekstualizacji danych, przy określonej technologii, jest nadanie wartości typowych jej kluczowym zmiennym opisowym, w perspektywie roku 2050, dla każdego z pięciu rozważanych scenariuszy. Proces kontekstualizacji zostanie opisany na przykładzie danych dotyczących technologii CHP (ang. Combined Heat and
41
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | translation 34–39
Rys. 2. Proces kontekstualizacji
Power). Na rys. 2 pokazano podejście „krok po kroku”, zaprojektowane i przyjęte, aby uzyskać dane kontekstualizowane. Dane wejściowe dla tego procesu to arkusze danych zawierające zbiór wartości różnych parametrów (zmiennych) opisujących technologię CHP (teraźniejsze i te dotyczące przyszłości) oraz wybrane przyszłe scenariusze opisane przez różne niepewności i opcje strategiczne, które są wynikiem prac na etapie WP1 projektu e-Highway 2050, w których Instytut Energetyki także uczestniczył. Pierwszy etap procesu kontekstualizacji służy określeniu stopnia wpływu poszczególnych czynników (niepewności, jakie zdefiniowano dla każdej „przyszłości”, oraz opcji, jakie zdefiniowano dla każdej „strategii”) na wybrane do kontekstualizacji zmienne. Kontekstualizowano tylko zmienne dotyczące kosztów: inwestycji i O&M (ang. Operational and maintenance). Innych zmiennych, np. dotyczących emisji lub parametrów technicznych, nie można wiarygodnie kontekstualizować. Analizowane technologie podzielono na cztery kategorie w zależności od typu paliwa używanego w danej technologii CHP. Wpływ poszczególnych czynników oceniono dla każdej z tych kategorii jako jedną z następujących wartości: • ++ (duży wpływ) • + (mały wpływ) • – (pomijalny lub żaden wpływ). Przykład oceny wpływu wybranych czynników (przyszłych niepewności) na przewidywany poziom kosztów elektrociepłowni opalanej odpadami przedstawiono w tab. 1. Następnie poszczególne parametry wybranych scenariuszy (przyszła niepewność lub opcja strategii) przeanalizowano, aby
42
określić ich wpływ na potencjalne stymulowanie rozwoju danej technologii, kosztów inwestycji w nią i kosztów jej utrzymania i eksploatacji. Założono, że bardziej stymuluje rozwój danej technologii (a zatem, potencjalnie, wzrost jej penetracji), zmniejszenie ogólnych kosztów inwestycyjnych i odwrotnie. Na podstawie wpływu wartości poszczególnych parametrów każdemu scenariuszowi i każdej kategorii technologii przypisano ostateczną ocenę przewidywanego poziomu obu rodzajów kosztów, por. tab. 2, kontynuując przykład elektrociepłowni opalanej odpadami (w niektórych przypadkach przyszłe niepewności są takie same dla różnych scenariuszy i dlatego mają taki sam wpływ na przewidywany poziom kosztów). W końcu poszczególnym scenariuszom i technologiom przypisano wartości wybranych zmiennych. Podstawą tego przypisania były ostateczne oceny grup technologii
w danym scenariuszu oraz zakres wartości dla wybranej zmiennej określony w arkuszach danych. Wartości te dla trzech zdefiniowanych poziomów ocen ostatecznych dla wybranych zmiennych zdefiniowano następująco: • Jeśli zakres wartości zmiennej podano w arkuszu danych, najniższej i najwyższej wartości z tego zakresu przypisuje się, odpowiednio, „niską” i „wysoką” ocenę ostateczną, „średnią” zaś ocenę ostateczną przypisuje się ich średniej arytmetycznej. • Jeśli podano tylko jedną wartość zmiennej, zakłada się, że odpowiada ona ocenie „średniej”. Następnie oblicza się te wartości dla ocen ostatecznych „niskich” i „wysokich” przy założeniu, że różnią się one, odpowiednio, o –12,5% i +12,5% od podanej wartości „średniej”. Podejście to jest arbitralne z powodu braku lepszych danych, ale w przypadku zmiennych, dla których podano zakres wartości, Wpływ na:
Przyszłość: Niepewność
Koszty O&M (eksploatacji i utrzymania)
Koszty inwestycji
Międzynarodowe porozumienie w sprawie klimatu
+
−
Zależność od paliw kopalnych spoza Europy
+
−
Koszty paliwa
++
−
Koszty emisji CO2
+
++
Elektryfikacja transportu, ogrzewania, przemysłu
++
−
Zmiany demograficzne
+
−
Tab. 1. Wpływ wybranych czynników na koszty: CHP opalana odpadami
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | translation 34–39
Scenariusz
X5 Duże OZE i żadnych emisji
X7 100% OZE
X10 Wielkie inwestycje i Rynek
X13 Duże inwestycje na paliwa kopalne z CCS i jądrowymi
X16 Małe i lokalne
Przyszłość Międzynarodowe porozumienie w sprawie klimatu
Tylko UE: ceny stosunkowo stabilne
Globalne porozumienie: brak tańszych instalacji spoza UE, popyt przewyższa podaż, co prowadzi do wzrostu cen
Tylko UE: ceny stosunkowo stabilne
Zależność od paliw kopalnych spoza Europy
Niska: mała zachęta do budowy CHP na odpady
Średnia: większa zachęta do budowy CHP na odpady
Średnia: większa zachęta do budowy CHP na odpady
Koszty paliwa
Wysokie: bardzo duża zachęta dla nowych CHP na odpady
Niskie: mała zachęta do budowy CHP na odpady
Wysokie: bardzo duża zachęta dla nowych CHP na odpady
Koszty emisji CO2
Wysokie: prowadzą do wzrostu kosztów O&M
Wysokie: prowadzą do wzrostu kosztów O&M
Niskie: brak istotnej zmiany
Dojrzałość CCS
Nie: wyższe ceny instalacji CCS
Tak: niższe ceny instalacji CCS
Nie: wyższe ceny instalacji CCS
Elektryfikacja ogrzewania
Całkowita: bardzo mała zachęta do budowy CHP na odpady
Na dużą skalę (komercyjna itp.): brak istotnej zmiany
Mieszkaniowa: mała zachęta do budowy CHP na odpady
Zmiany demograficzne
Wzrost: większy popyt na ciepło
Wzrost: większy popyt na ciepło
Tylko migracja: brak istotnej zmiany
Stosunek społeczeństwa do gazu łupkowego
Negatywny: konieczne inne paliwa (np. odpady)
Pozytywny: dostępność gazu zmniejszy zachętę dla innych technologii
Negatywny: konieczne inne paliwa (np. odpady)
Zmiana zachowań na bardziej ekologiczne
Znaczna: brak społecznego poparcia dla CHP na odpady
Nieznaczna: brak istotnej zmiany
Znaczna: brak społecznego poparcia dla CHP na odpady
Decentralizacja OZE (w tym CHP i biomasa)
Niska
Wysoka
Średnia
Niska
Wysoka
Wzrost sprawności energetycznej (m.in. zarządzania popytem DSM i elastyczność)
Niski: wyższe koszty O&M ze względu na potrzebę częstej regulacji
Wysoki: niższe koszty eksploatacji ze względu na małą potrzebę regulacji
Średni: brak znaczącego wpływu
Niski: wyższe koszty O&M ze względu na potrzebę częstej regulacji
Wysoki: niższe koszty eksploatacji ze względu na małą potrzebę regulacji
Wzrost funduszy i poprawa koordynacji działań RDD (na poziomie UE)
Wysoki: technologia może stanieć
Wysoki: technologia może stanieć
Średni: ceny na średnim poziomie
Średni: ceny na średnim poziomie
Niski: wyższe ceny technologii
Tryb uzyskiwania zezwoleń (w tym prawo UE dot. przyrody)
Zbieżny i silny: obniżenie kosztów inwestycji
Zbieżny i silny: obniżenie kosztów inwestycji
Zbieżny i silny: obniżenie kosztów inwestycji
Niejednolity na poziomie UE: możliwe wyższe koszty inwestycji
Niejednolity na poziomie UE: możliwe wyższe koszty inwestycji
Strategia
Scenariusz wynikowy dla kosztów Inwestycja
średni
niski
wysoki
wysoki
średni
O&M
wysoki
średni
wysoki
wysoki
średni
Tab. 2. Kontekstualizacja zmiennych kosztów – CHP opalana odpadami
różnica pomiędzy wartościami najwyższą i najniższą z tego zakresu wynosi 25%, a zatem wartość średnia to ±12,5%. 6. Wnioski Przedstawiony tu, zaprojektowany i zrealizowany w Instytucie Energetyki proces kontekstualizacji ułatwia budowanie modeli odpowiadających przyszłym scenariuszom wstępnie zdefiniowanym w innych pakietach roboczych projektu e-Highway 2050, umożliwiając dokładniejsze odzwierciedlenie możliwych i prawdopodobnych cech poszczególnych technologii. To z kolei przyczynia się do poprawy długoterminowego planowania ogólnoeuropejskiej sieci przesyłowej do 2050 roku, co jest głównym celem tego projektu.
Bibliografia 1. e-Highway 2050, Załącznik 1 do Ms3.1: Combined Heat and Power Technology Assessment Report, Instytut Energetyki. 2. Peirano E. i in., A cost and performance database of power system technologies in support of the development of the pan-European electricity highways system at the 2050 time frame, European Wind Energy Association Offshore 2013, 19–21.11.2013, Frankfurt. 3. Heat Roadmap Europe 2050 Study for The Eu27, Aalborg University, Halmstad University, PlanEnergi, maj 2010. 4. Starr F., FIMMM, Future Challenges for CHP in the UK and Continental Europe, 2010.
5. Speirs J. i in., Building a roadmap for heat 2050 scenarios and heat delivery in the UK, CHPA, Grosvenor Gardens House, Londyn 2010. 6. Combined Heat and Power: a Decade of Progress, a Vision for the Future, Biuro ds. Efektywności Energetycznej oraz Energii Odnawialnej, Amerykański Departament ds. Energii, Waszyngton, DC, 2008. 7. The most efficient waste management system in Europe, Rambøll 2006 . 8. Energy Technoloy Perspectives. 2010 edition, Międzynarodowa Agencja Energetyczna, Francja, 2010. 9. Projected Costs of Generating Electricity, Międzynarodowa Agencja Energetyczna, Francja, 2015.
43
M. Bajor, M. Wilk | Acta Energetica 2/27 (2016) | translation 34–39
Michał Bajor mgr inż. Instytut Energetyki Oddział Gdańsk e-mail: m.bajor@ien.gda.pl Ukończył studia na Politechnice Gdańskiej, Wydział Elektroniki, Telekomunikacji i Informatyki, Katedra Architektury Systemów Komputerowych, specjalność: obliczenia rozproszone. Obecnie pracuje jako asystent/kierownik ds. projektów w Instytucie Energetyki w Gdańsku. Brał udział w licznych studiach przyłączeń farm wiatrowych, a także w innych badaniach dotyczących wpływu farm wiatrowych na system elektroenergetyczny oraz badaniach sieciowych innych rodzajów. Główne obszary zainteresowań to probabilistyczne aspekty wpływu generacji wiatrowej na system elektroenergetyczny oraz niedeterministyczne metody obliczeniowe optymalizacji różnych aspektów funkcjonowania sieci. Maciej Wilk mgr inż. Instytut Energetyki Oddział Gdańsk | Politechnika Gdańska e-mail: m.wilk@ien.gda.pl Ukończył studia na Wydziale Elektrotechniki i Automatyki Politechniki Gdańskiej. Obecnie pracuje w Dziale Automatyki i Analiz Systemowych Instytutu Energetyki Oddział Gdańsk. Pracuje nad doktoratem na swym macierzystym wydziale. Brał udział w licznych studiach przyłączeń farm wiatrowych i innych prac analitycznych związanych z dynamiką systemu elektroenergetycznego. Reprezentuje Instytut Energetyki w projekcie Komisji Europejskiej e-Highway 2050.
44
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | 45–52
Experimental Study of Higher Harmonics Content in Street Lighting System Current
Authors Kazimierz Bieliński Sławomir Cieślik
Keywords higher harmonics, street lighting
Abstract Due to energy efficiency improvement requirements, street lighting system operators tend to reduce the electricity consumed by the lights themselves, and also minimize losses in the system. Smart lighting control systems are commonly used for this purpose. An important aspect of electricity power and quality issues is the higher harmonics content in street lighting system current, which was the subject of experimental research the results of which were presented in this paper.
DOI: 10.12736/issn.2300-3022.2016204
1. Introduction One important aspect of improving energy, economy and ecology efficiencies is the use of smart algorithms for the control, adjustment and compensation of interference in street lighting [1]. The most important requirements for street lighting (PN-EN 13201-2, selection of lighting classes ME, CE, S, A, ES, EV to lighting situations) refer to providing users with high-quality illumination of the road, pavement, and shoulder (utility area); good recognition (the ability to distinguish shapes and colours) and perception; reduced impact of ambient/environment, without unpleasant sensations (glare); safety in zones of conflict [2]. This problem can be seen in terms of the optimization problem, where the objective function is to minimize street lighting electricity consumption. The constraints are primarily determined by the requirements of lighting standards [3]. Practical possibilities to reduce electricity consumption and to minimize the operating cost of a street lighting system, such as smart street lighting control (ISSOU) are being sought. The problem of minimizing a street lighting system’s power consumption can not ignore the issues of power loss in the system’s wiring, including those resulting from the presence of higher harmonic currents. The issue of the presence of harmonic currents is essential in an evaluation of the interaction of a street lighting system with a low voltage power grid [4–6]. As follows from publication [7], issues concerning the impact of higher harmonics on power system components have not been fully resolved. One of the essential ISSOU components is a power electronic controller, whose main task is to control the light source in a single luminaire. Voltage-current characteristic of the power electronic converter and of the circuits in general, which are used to power the light sources, are very important. These are
non-linear characteristics, which results in the distortion of sine current waveforms and may influence the shape of voltage waveforms in the low voltage power network. Electromagnetic compatibility in terms of the acceptable levels for harmonic current emissions of a device with rated current less than 16 A is regulated by standard [8]. However, there are specific systems, such as just the electrical street lighting, which are specific in that besides dedicated devices (e.g. lamps) there are no other devices, including the possibility of connecting devices of any type. This makes solving tasks concerning, for instance, communication over power wiring (PLC) easier, but also gives cause to a specific approach to the problems related to the presence of harmonic currents. At the Institute of Electrical Engineering of the University of Technology and Life Sciences in Bydgoszcz, Poland, a test bench has been developed to study ISSOUs’ operational characteristics. One of the study topics is issues related to electricity quality in terms of harmonic currents and voltages.
2. Description of the test bench Fig. 1 shows a schematic representation of the patch panel of a physical model of a street lighting system. In the physical model luminaires may be connected in eight points (poles), which are the following distances from the power connector: 100 m first point, the second is 30 m away, then 20, 40, 30, 30, 25 and the eighth 25 m. The wiring is made of YKYżo 5 × 2.5 mm2 (7.41 Ω/ km) cable. For the measurement of power, current and voltage in individual luminaires a Yokogawa WT210 digital power meter was used, which can measure power with a basic accuracy of 0.1% (from 0.5 Hz to 100 kHz). Current and voltage waveforms were 45
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | 45–52
Fig. 1. Schematic diagram of patch panel in street lighting system’s physical model
recorded by a TDS 2024 digital oscilloscope (200 MHz, 2 GS/s) with a TESTEC voltage probe (1:100, 25 MHz) and PR30 current probe (20 A RMS, 100 mV/A). Compiled in Tab. 1 are basic details of the luminaires used in the tests.
3. Test results for individual luminaires First current and voltage waveforms were recorded in individual luminaires. Fig. 2 shows voltage and current waveforms in selected luminaires with LED light sources. Besides the voltage and current waveform recording, effective values of voltage and current, and active power were measured in the test. The oscillograph records show that the same type of light source (LED) does not warrant qualitatively similar current waveforms. Power electronic converters, as the components in between light source and wiring terminals, play a vital role here. The study was limited to an analysis of waveforms in individual phases; current waveforms in a neutral conductor are not considered. This is a simplification, which is not permissible for a detailed analysis of the issues of power loss in the system. The current waveform analysis was limited to the 25th harmonic, but as seen in the waveforms shown in Fig. 2, in some cases significantly higher order harmonics will be important. Fig. 3 shows voltage and current waveforms in luminaires with metal halide light sources. As before, qualitative differences are evident in the current waveforms, particularly of the sources of the same power rating (MH2 and MH3). Fig. 4 shows voltage and current waveforms in luminaires with sodium light sources. Selected luminaires had light sources with different rated powers: SOD1 150 W, SOD3 250 W and SOD6 100 W. Qualitative similarities of the current waveforms 46
P
No.
Symbol
Luminaire type
Source type
1
LED 1
ACRON
LED
50
2
LED 2
ACRON
LED
40
3
LED 3
SELENIUM
LED
85
4
LED 4
ACRON
LED
70
5
LED 5
LUMA 1
LED
166
6
LED 6
MINILUMA
LED
42
7
LED 7
ASTAR
LED
50
8
LED 8
OU 105 GRA
LED
105
W
9
LED 9
ASTAR
LED
40
10
SOD 1
ACRON
WLS-T E40
150
11
SOD 2
OUS
Master SON-T E40
250
12
SOD 3
SELENIUM
WLS-T E40
250
13
SOD 4
OUS
Master SON-T E40
150
14
SOD 6
MALAGA
Master SON-T E40
100
15
SOD 7
SITECO
Master SON-T E40
100
16
MH 1
LEDA 1
MCW CDO-TT plus E40
150
17
MH 2
ACRON
MCW CDO-TT plus E40
100
18
MH 3
AluRoad
MCW CDO-TT plus E40
100
Tab. 1. Basic details of tested luminaires
in lamps SOD1 and SOD6 can be seen, while that of lamp SOD3 is different. Qualitative analysis of the presented current waveforms shows that sodium and metal halide lamps (i.e. discharge light sources) are somehow similar. This allows one to assume that if there are different lamps in a phase line, but with light sources of the same type (sodium or metal halide), the current flowing from the power connector will also have a shape similar to
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | 45–52
a)
b)
c)
d)
Fig. 2. Waveforms of voltages (CH1 x 100 V/V) and currents (CH 2 x 10 A/V) recorded in the steady state operation of luminaires: a) LED2, b) LED3, c) LED6, and d) LED8
those presented for individual luminaires. In the case of lamps with LED light sources waveforms qualitatively different from the currents in individual lamps should be expected. This allows one to assume that if there are different lamps (different power electronic converters) in a phase line with light sources of the same type (LED), the current flowing from the power connector may have a different shape from those presented for individual luminaires. Thus, by appropriate selection of the lamps the resulting current’s shape may even be improved, which is essential in the context of the impact of electrical street lighting on the low voltage power distribution grid. This problem becomes interesting in the application for lighting control.
4. Test results in the system model
Results in the present case were similar to those obtained in testing each luminaire individually. As the second option, in addition to the existing luminaires on pole 1, three luminaires were added on pole 4 (190 m away from the power connector) as follows: luminaire LED2 to phase L1, SOD3 to L2, and MH2 to L3. In this way, in each phase of the power connector combined currents are flowing to/from two luminaires. Results of the measurements taken on pole 4 terminals coincided with those obtained in previous individual tests of each luminaire. The results of the measurements taken on pole 1 are shown in Fig. 5. Current waveforms in phases L2 and L3 confirm the assumptions formulated in the previous section. Fig. 5.b clearly shows how the shape is “dominated” by the shape of the current in the lamp with a stronger source (SOD3 250).
Tests were conducted for several variants of sets of luminaires with lighting sources mounted in the points of the lighting system’s physical model (Fig. 1) corresponding to actual lighting poles. As the first option, a system was simulated wherein three luminaires were connected to pole 1 (100 m away from the power connector) in the following manner: LED8 to phase L1, SOD1 to L2, and MH1 to L3. Measurements were taken at the luminaires’ steady state operation in place of their installation (pole 1).
As the third option of the luminaires set, in addition to the existing luminaires (on poles 1 and 4), three luminaires were added on pole 8 (300 m away from the power connector) as follows: luminaire LED3 to phase L1, SOD6 to L2, and MH3 to L3. Results of the measurements taken on pole 8 coincided with those obtained in previous individual tests of each luminaire. The results of the measurements taken on pole 1 are shown in Fig. 6. In this way, 47
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | 45–52
a)
a)
b)
b)
c)
c)
Fig. 3. Waveforms of voltages (CH1 x 100 V/V) and currents (CH 2 x 10 A/V) recorded in the steady state operation of luminaires: a) MH1, b) MH2 and c) MH3
Fig. 4. Waveforms of voltages (CH1 x 100 V/V) and currents (CH 2 x 10 A/V) recorded in the steady state operation of luminaires: a) SOD1, b) SOD3 and c) SOD6
the currents in each phase of the connector are made up of three streams from/to luminaires with light sources of the same type. As the third option of the luminaires set in the lighting system with a length of 300 m, to phase L1, on consecutive poles, 8 LED luminaires (LED8, LED2, LED3, LED5, LED6, LED4, LED7, LED9)
were connected to phase L2 – 6 SOD luminaires (SOD1, SOD3, SOD6, SOD2, SOD4, SOD7), and to phase L3 – 3 MH luminaires (MH1, MH2, MH3). The results of measurements taken on pole 1 in phases L1 and L2 are presented in Fig. 7. They qualitatively verify the assumptions formulated in paragraph 4 here about the shape of the combined current in the power connector.
48
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | 45–52
a)
a)
b)
b)
c)
c)
Fig. 5. Waveforms of voltages (CH1 x 100 V/V) and currents (CH 2 x 10 A/V) recorded in the first pole’s connector (variant 2): a) phase L1, b) phase L2, and c) phase L3
Fig. 6. Waveforms of voltages (CH1 x 100 V/V) and currents (CH 3 x 10 A/V) recorded in the first pole’s connector (option 2): a) phase L1, b) phase L2, and c) phase L3
5. Quantitative analysis of harmonic currents
was obtained using the classical representation of periodic functions by Fourier series. The input was the instantaneous (discrete) values of the waveform measured by a digital oscilloscope (sampling frequency 100 kHz). The total harmonic distortion factor was calculated from the following formula,
Quantitative analysis of harmonic currents flowing in the street lighting wiring (physical model) was based on the amplitude spectrum of higher harmonics (up to 25 harmonic inclusive) and total harmonic distortion factor. The amplitude spectrum
49
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | 45–52
a)
b)
Fig. 7. Waveforms of voltages (CH1 x 100 V/V) and currents (CH 2 x 10 A/V) recorded in phase L1 (a) and L2 (b) in the first pole’s connector (option 4)
Fig. 8. Amplitude spectrum (up to 25 harmonic) of the currents to/from luminaires: LED2, LED3, LED6 and LED8
Fig. 9. Amplitude spectrum (up to 25 harmonic) of the currents to/from luminaires: MH1, MH2 and MH3
(1)
where: Imh – amplitude of h harmonic current, Im1 – amplitude of the fundamental harmonic current. Fig. 8–10 show the quantitative analysis results for luminaire types: LED (Fig. 8), MH (Fig. 9) and SOD (Fig. 10), tested individually. Analysis of the total harmonic distortion factors for the individual LED lamps shows that the absolute difference between the highest and lowest values for these selected lamps is 6.9%. However, to evaluate the shape, the amplitude spectra should be analysed, which differ for these selected luminaires. Smaller differences are obtained for the lamps of SOD and MH types. Fig. 11 shows the results of quantitative analysis in the form of amplitude spectra of the currents in the power connector’s 50
Fig. 10. Amplitude spectrum (up to 25 harmonic) of the currents to/ from luminaires: SOD1, SOD3 and SOD6
two phases L1 and L2, in various configurations of the test system. The total harmonic distortion factor is also quoted. The results confirm that combining various types of lamps, but
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | 45–52
a)
b)
Fig. 11. Amplitude spectrum (up to 25 harmonics) of currents in L1 (a) and L2 (b) on pole 1, in various options
with the same type of LED light sources, reduces the content of the predominant harmonic orders (3, 5 and 7) in the resulting current waveform (in the power connector), thereby reducing the total harmonic distortion factor.
6. Summary These experimental results are a contribution to the continuing study of the real impact of harmonic currents on power system components (mainly power losses), and the ways to mitigate their adverse effects. There are specific electrical systems where the adverse impact on a low voltage power distribution grid can be reduced in a natural way (without additional systems and funding). These aspects should be analysed, especially where smart control systems are in place. The results presented here are the outcome of the project entitled: “Design of Smart Street Lighting Control System” co-funded under the GEKON programme.
3. 4.
5.
6.
7.
REFERENCES 8. 1. K. Bieliński, “Monitorowanie jako narzędzie wspomagające zarządzanie energią” [Monitoring as an energy management supporting tool], Rynek Energii, No. 6, 2012, pp. 10–14. 2. K. Bieliński, “Monitorowanie czynne procesu oświetlania ulicznego” [Active monitoring of street lighting process], Zarządzenie Energią
i Teleinformatyka ZET 2015, Matematyka i Studia, KAPRINT, Lublin, pp. 39–47. Polish standard PN-EN 13201 (1-4): 2007 Road lighting, PKN Warsaw 2007. S. Czapp, “Odkształcenie prądu pobieranego przez urządzenia oświetleniowe i jego wpływ na instalację zasilającą” [Deformation of current in lighting devices and its impact on the supply grid], Acta Energetica, No. 1, 2009, pp. 25–40. S. Czapp, “Efektywność energetyczna urządzeń oświetleniowych a jakość energii elektrycznej” [Energy efficiency of lighting devices and electricity quality], Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej, No. 31, 2012. M. Maciążek, M. Pasko, “Wybrane metody eliminacji wyższych harmonicznych z przebiegów prądów i napięć” [Selected methods of higher harmonics elimination from voltage and current waveforms], Elektronika, Vol. 51, No. 2, 2010, pp. 9–14. S. Cieślik, P. Boniewicz, “Wpływ wyższych harmonicznych napięcia na pracę odbioru zasilanego przez transformator” [Impact of higher harmonic voltage on load powered by transformer], Proceedings of XVI Symposium „Modern power, telecommunication, and information equipment and services”, Poznań 2013, pp. 28–31. Polish standard PN-EN 61000-3-2: 2007, Electromagnetic compatibility (EMC) Part 2-3: Limits. Limits for harmonic current emissions (load current ≤16 A per phase).
51
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | 45–52
Kazimierz Bieliński e-mail: kbiel@utp.edu.pl University of Technology and Life Sciences in Bydgoszcz Graduated in electrical engineering from the Academy of Technology and Agriculture in Bydgoszcz (1980). In 1993 he defended his doctorate at the Technical University of Lublin. His research interests include: energy efficiency, systems of active monitoring of technical facilities, energy management, issues related to the operation of energy and power systems with distributed generation. Author and co-author of over 60 articles and scientific papers and 10 scientific monographs and numerous energy audits and feasibility studies of energy effectiveness projects.
Sławomir Cieślik University of Technology and Life Sciences in Bydgoszcz e-mail: slavcies@utp.edu.pl Graduated in electrical engineering from the Academy of Technology and Agriculture in Bydgoszcz (1995). In 2000 he defended his doctorate at the Faculty of Electrical and Control Engineering of Gdansk University of Technology. In 2014 he gained the postdoctoral degree at the Faculty of Electrical Engineering of Poznań University of Technology. His research interests relate to mathematical modelling and computer simulation of complex electromechanical and electrical power systems, including digital simulation of power systems in real time, and issues of power systems operation, particularly with distributed generation. Author of over 95 articles and research papers and 2 scientific monographs. Author and consultant of over 300 studies associated with the connection of generating units to a power system.
52
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | translation 45–52
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 45–52. When referring to the article please refer to the original text. PL
Eksperymentalne badania zawartości wyższych harmonicznych w przebiegach prądów w instalacji oświetlenia ulicznego Autorzy
Kazimierz Bieliński Sławomir Cieślik
Słowa kluczowe
wyższe harmoniczne, oświetlenie uliczne
Streszczenie
Wymagania dotyczące poprawy efektywności energetycznej skłaniają eksploatatorów oświetlenia ulicznego do zmniejszenia ilości energii zużywanej przez same lampy, ale również do minimalizacji strat energii w instalacji. W tym celu dużym zainteresowaniem cieszą się inteligentne systemy sterowania oświetleniem. Jednym z ważnych aspektów dotyczących zagadnień energetycznych oraz jakościowych energii elektrycznej jest zawartość wyższych harmonicznych prądów w instalacji oświetlenia ulicznego, co było przedmiotem badań eksperymentalnych, których wyniki zaprezentowano w tym artykule.
1. Wstęp Jednym z ważnych aspektów poprawy efektywności energetycznej, ekonomicznej i ekologicznej jest zastosowanie inteligentnych algorytmów sterowania, regulacji i kompensacji zakłóceń w oświetleniu ulicznym [1]. Najważniejsze wymagania stawiane oświetleniu ulicznemu (wg normy PN-EN 13201-2, dobór klas oświetlenia ME, CE, S, A, ES, EV do sytuacji oświetleniowych) dotyczą: zapewnienia użytkownikom wysokiej jakości oświetlenia jezdni, chodnika, pobocza (obszaru użytkowego); dobrego rozpoznawania (zdolność rozróżniania
kształtów i barw), postrzegania; ograniczenia wpływu otoczenia/środowiska, niepowodowania przykrych odczuć (olśnienia); bezpieczeństwa w strefach konfliktowych [2]. Problem ten można rozpatrywać w kategoriach zagadnienia optymalizacyjnego, w którym funkcją celu jest minimalizacja poziomu zużycia energii elektrycznej przez instalacje oświetlenia ulicznego. Warunki ograniczające determinowane są głównie przez wymagania norm oświetlenia [3]. Poszukuje się praktycznych możliwości ograniczenia ilości zużywanej energii elektrycznej oraz minimalizacji kosztów
eksploatacji instalacji oświetlenia ulic, m.in. z zastosowaniem inteligentnego systemu sterowania oświetleniem ulicznym (ISSOU). Problematyka minimalizacji poboru mocy przez oświetlenie nie może pomijać zagadnień strat mocy w instalacji elektrycznej oświetlenia, w tym spowodowanych występowaniem wyższych harmonicznych w przebiegach prądów. Zagadnienie istnienia harmonicznych prądów ma zasadnicze znaczenie w ocenie współpracy instalacji oświetlenia ulicznego z elektroenergetyczną siecią zasilającą niskiego napięcia [4–6]. Jak wynika z publikacji [7], zagadnienia dotyczące wpływu wyższych harmonicznych
Rys. 1. Schemat poglądowy tablicy połączeń w modelu fizycznym instalacji oświetlenia ulicznego
53
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | translation 45–52
na elementy systemu elektroenergetycznego nie są do końca rozwiązane. Jednym z zasadniczych elementów ISSOU jest energoelektroniczny sterownik, którego głównym zadaniem jest sterowanie źródłem światła w pojedynczej oprawie oświetleniowej. Bardzo ważne są charakterystyki napięciowo-prądowe przekształtnika energoelektronicznego oraz w ogólności układów, które są stosowane do zasilania źródeł światła. Są to charakterystyki nieliniowe, co w efekcie powoduje odkształcenia od sinusoidy przebiegów prądów, a nawet może wpływać na kształt przebiegów napięć w sieci elektroenergetycznej niskiego napięcia. Kompatybilność elektromagnetyczna w zakresie poziomów dopuszczalnych emisji harmonicznych prądu urządzeń o prądzie znamionowym mniejszym od 16 A regulowana jest normą [8]. Istnieją jednak instalacje specyficzne, w tym właśnie instalacja elektryczna oświetlenia ulicznego, które charakteryzują się tym, że poza urządzeniami dedykowanymi (np. lampy) nie ma innych urządzeń, w tym możliwości przyłączania urządzeń dowolnego typu. Ułatwia to rozwiązania zadań dotyczących np. komunikacji z wykorzystaniem przewodów instalacji elektroenergetycznej (PLC), ale również daje przyczyny do specyficznego podejścia do problemów związanych z istnieniem wyższych harmonicznych prądów. W Instytucie Inżynierii Elektrycznej Un i w e r s y t e t u Te c h n o l o g i c z n o -Przyrodniczego w Bydgoszczy opracowano
stanowisko eksperymentalne, które ma służyć do badania charakterystyk użytkowych ISSOU. Jednym z elementów badań są zagadnienia dotyczące jakości energii elektrycznej w zakresie wyższych harmonicznych napięć i prądów. 2. Opis stanowiska eksperymentalnego Na rys. 1 przedstawiono schemat poglądowy tablicy połączeń modelu fizycznego instalacji oświetlenia ulicznego. W modelu fizycznym
jest możliwość podłączenia opraw oświetleniowych w ośmiu punktach (słupach), które są w następujących odległościach od złącza zasilającego: 100 m pierwszy punkt, drugi 30 m dalej, następnie 20, 40, 30, 30, 25 oraz ósmy 25 m. Instalacja wykonana jest kablem YKYżo 5 × 2,5 mm2 (7,41 Ω/km). Do pomiarów mocy, natężenia prądu oraz napięcia pojedynczych opraw wykorzystano cyfrowy miernik mocy WT210, produkcji Yokogawa, który pozwala
Lp.
Symbol
Typ oprawy
Typ źródła
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
LED 1 LED 2 LED 3 LED 4 LED 5 LED 6 LED 7 LED 8 LED 9 SOD 1 SOD 2 SOD 3 SOD 4 SOD 6 SOD 7 MH 1 MH 2 MH 3
ACRON LED ACRON LED SELENIUM LED ACRON LED LUMA 1 LED MINILUMA LED ASTAR LED OU 105 GRA LED ASTAR LED ACRON WLS-T E40 OUS Master SON-T E40 SELENIUM WLS-T E40 OUS Master SON-T E40 MALAGA Master SON-T E40 SITECO Master SON-T E40 LEDA 1 MCW CDO-TT plus E40 ACRON MCW CDO-TT plus E40 AluRoad MCW CDO-TT plus E40
P W 50 40 85 70 166 42 50 105 40 150 250 250 150 100 100 150 100 100
Tab. 1. Podstawowe dane badanych opraw oświetleniowych
a)
b)
c)
d)
Rys. 2. Przebiegi napięć (CH1 × 100 V/V) i prądów (CH2 × 10 A/V) zarejestrowane w stanach ustalonych pracy opraw: a) LED2, b) LED3, c) LED6 oraz d) LED8
54
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | translation 45–52
mierzyć moc z błędem podstawowym 0,1% (zakres częstotliwości od 0,5 Hz do 100 kHz). Rejestracji przebiegów prądów i napięć dokonano za pomocą oscyloskopu cyfrowego TDS 2024 (200 MHz, 2 GS/s) z wykorzystaniem sond napięciowej TESTEC (1:100, 25 MHz) i prądowej PR30 (20 A RMS, 100 mV/A). W tab. 1 zestawiono podstawowe dane dotyczące opraw wykorzystywanych w badaniach eksperymentalnych. 3. Wyniki badań dla pojedynczych opraw W pierwszej kolejności zarejestrowano przebiegi czasowe prądów i napięć dla poszczególnych opraw oświetleniowych.
Na rys. 2 przedstawiono przebiegi napięć i prądów dla wybranych opraw ze źródłami światła typu LED. Poza rejestracją oscylogramów napięcia i prądu, podczas badań mierzono wartości skuteczne napięć i prądów oraz wartość mocy czynnej. Na oscylogramach widać, że ten sam typ źródła światła (LED) nie gwarantuje podobnego jakościowo przebiegu prądu w czasie. Zasadniczą rolę odgrywają tutaj przekształtniki energoelektroniczne, które są elementami pośredniczącymi pomiędzy źródłem światła i zaciskami instalacji elektrycznej. W badaniach ograniczono się do analizy przebiegów czasowych w poszczególnych fazach, nie rozpatruje się przebiegów czasowych
a)
a)
b)
b)
c)
c)
Rys. 3. Przebiegi napięć (CH1 × 100 V/V) i prądów (CH2 × 10 A/V) zarejestrowane w stanach ustalonych pracy opraw: a) MH1, b) MH2 oraz c) MH3
prądów w przewodzie neutralnym. Jest to uproszczenie, które nie jest dopuszczalne w przypadku szczegółowej analizy zagadnień strat mocy w instalacji. Analizę przebiegów prądów ograniczono do 25 harmonicznej, chociaż jak widać na przebiegach pokazanych na rys. 2, w niektórych przypadkach znaczenie będą miały harmoniczne znacznie wyższych rzędów. Na rys. 3 przedstawiono przebiegi napięć i prądów dla opraw z metalohalogenkowymi źródłami światła. Podobnie jak poprzednio widoczne są jakościowe różnice w przebiegach prądów, szczególnie widoczne dla źródeł o tej samej mocy znamionowej (MH2 i MH3).
Rys. 4. Przebiegi napięć (CH1 × 100 V/V) i prądów (CH2 × 10 A/V) zarejestrowane w stanach ustalonych pracy opraw: a) SOD1, b) SOD3 oraz c) SOD6
55
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | translation 45–52
Na rys. 4 przedstawiono przebiegi napięć i prądów dla wybranych opraw z sodowymi źródłami światła. Wybrane oprawy różnią się m.in. mocą znamionową źródeł światła SOD1 150 W, SOD3 250 W i SOD6 100 W. Można zauważyć podobieństwo jakościowe przebiegów prądów lamp SOD1 i SOD6, natomiast przebieg prądu lampy SOD3 jest już odmienny. Analizując przedstawione przebiegi prądów w ujęciu jakościowym, można stwierdzić, że dla lamp sodowych i metalohalogenkowych (czyli wyładowczych źródeł światła), uzyskuje się pewne podobieństwo. Pozwala to na przypuszczenie, że jeżeli w ciągu liniowym w danej fazie będą różne lampy,
ale ze źródłami światła tego samego typu (sodowe lub metalohalogenkowe), to prąd wypływający ze złącza zasilającego również będzie miał kształt zbliżony do prezentowanych dla pojedynczych opraw. W przypadku lamp ze źródłami światła typu LED należy się spodziewać różnych jakościowo przebiegów prądów pojedynczych lamp. Pozwala to na przypuszczenie, że jeżeli w ciągu liniowym, w danej fazie będą różne lampy (różne przekształtniki energoelektroniczne) ze źródłami światła tego samego typu (LED), to prąd wypływający ze złącza zasilającego może mieć odmienny kształt od prezentowanych dla pojedynczych opraw. A zatem przez odpowiedni dobór
a)
a)
b)
b)
c)
c)
Rys. 5. Przebiegi napięć (CH1 × 100 V/V) i prądów (CH2 × 10 A/V) zarejestrowane w złączu pierwszego słupa (wariant 2): a) faza L1, b) faza L2 oraz c) faza L3
56
lamp możliwe będzie nawet poprawienie kształtu prądu wypadkowego, co ma zasadnicze znaczenie w kontekście oddziaływania instalacji elektrycznej oświetlenia ulicznego na elektroenergetyczną sieć dystrybucyjną niskiego napięcia. Zagadnienie to staje się interesujące w przypadku zastosowania sterowania oświetleniem. 4. Wyniki badań w modelu instalacji Następnie przeprowadzono badania eksperymentalne dla kilku wariantów zestawów opraw ze źródłami świtała montowanych w punktach modelu fizycznego instalacji oświetleniowej (rys. 1), odpowiadających rzeczywistym słupom oświetleniowym.
Rys. 6. Przebiegi napięć (CH1 × 100 V/V) i prądów (CH2 × 10 A/V) zarejestrowane w złączu pierwszego słupa (wariant 3): a) faza L1, b) faza L2 oraz c) faza L3
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | translation 45–52
W pierwszym wariancie symulowano układ, w którym do słupa nr 1 (odległego o 100 m od złącza zasilającego) instalacji oświetleniowej podłączono trzy oprawy w następujący sposób: do fazy L1 podłączono oprawę LED8, do fazy L2 podłączono oprawę SOD1 oraz do fazy L3 podłączono oprawę MH1. Pomiary wykonano dla stanu ustalonego pracy opraw w miejscu ich instalacji (słup 1). Dla omawianego przypadku uzyskano wyniki podobne do tych, jakie otrzymano w badaniach każdej oprawy pojedynczo. W drugim wariancie, oprócz już pracujących opraw włączonych na słupie nr 1, dołączono kolejne oprawy do słupa oświetleniowego nr 4 (odległego o 190 m od złącza zasilającego) w następujący sposób: do fazy L1 podłączono oprawę LED2, do fazy L2 dołączono oprawę SOD3 oraz do fazy L3 podłączono oprawę MH2. W ten sposób w każdej fazie w złączu zasilającym płyną prądy wypadkowe z dwóch opraw. Wyniki pomiarów przeprowadzonych na zaciskach słupa nr 4 pokrywały się z wynikami otrzymanymi we wcześniejszych, indywidualnych badaniach każdej oprawy. Natomiast wyniki pomiarów dokonanych na słupie nr 1 przedstawiono na rys. 5. Przebiegi prądów w fazach L2 i L3 potwierdzają przypuszczenia sformułowane w poprzednim punkcie artykułu. Na rys. 5b wyraźnie widać
„dominację” kształtu przez kształt prądu lampy ze źródłem światła o większej mocy (SOD3 250 W). W trzecim wariancie połączeń opraw w instalacji oświetleniowej, obciążonej już oprawami na słupach 1 i 4, dołączono kolejne oprawy do słupa nr 8 (odległego o 300 m od złącza zasilającego) w następujący sposób: do fazy L1 podłączono oprawę LED3, do fazy L2 dołączono oprawę SOD6 oraz do fazy L3 podłączono oprawę MH3. Wyniki pomiarów przeprowadzonych na słupie nr 8 pokrywały się z wynikami otrzymanymi we wcześniejszych, indywidualnych badaniach każdej oprawy. Natomiast wyniki pomiarów dokonanych na słupie nr 1 zaprezentowano na rys. 6. W ten sposób w każdej fazie w złączu zasilającym płyną prądy wypadkowe z trzech opraw, każda ze źródłem światła tego samego typu. W czwartym wariancie połączeń opraw w instalacji oświetleniowej o długości 300 m do fazy L1 na kolejnych słupach instalacji włączono 8 opraw typu LED (LED8, LED2, LED3, LED5, LED6, LED4, LED7, LED9), do fazy L2 dołączono 6 opraw typu SOD (SOD1, SOD3, SOD6, SOD2, SOD4, SOD7), natomiast do fazy L3 dołączono 3 oprawy typu MH (MH1, MH2, MH3). Wyniki pomiarów przeprowadzonych na słupie nr 1 w fazach L1 i L2 zaprezentowano na rys. 7. Jakościowo zostały potwierdzone
a)
sformułowane w punkcie 4 tego artykułu przypuszczenia dotyczące kształtu prądów wypadkowych w złączu zasilającym. 5. Analiza ilościowa wyższych harmonicznych prądów Analiza ilościowa zawartości wyższych harmonicznych w prądach płynących w przewodach instalacji elektrycznej oświetlenia ulicznego (modelu fizycznego) została dokonana na podstawie widma amplitudowego wyższych harmonicznych (do 25 harmonicznej włącznie) oraz całkowitego współczynnika odkształcenia harmonicznymi. Widmo amplitudowe uzyskano przy zastosowaniu klasycznego rozkładu funkcji okresowych w szereg Fouriera. Danymi wejściowymi były wartości chwilowe (dyskretne) przebiegu uzyskane za pomocą oscyloskopu cyfrowego (częstotliwość próbkowania 100 kHz). Całkowity współczynnik odkształcenia harmonicznymi obliczono wg zależności (1) gdzie: Imh – amplituda h-tej harmonicznej prądu, Im1 – amplituda harmonicznej podstawowej prądu.
b)
Rys. 7. Przebiegi napięć (CH1 × 100 V/V) i prądów (CH2 × 10 A/V) zarejestrowane w fazie L1 (a) oraz L2 (b) w złączu pierwszego słupa w wariancie 4
Rys. 8. Widmo amplitudowe (do 25 harmonicznej) prądów dla opraw: LED2, LED3, LED6 oraz LED8
Rys. 9. Widmo amplitudowe (do 25 harmonicznej) prądów dla opraw: MH1, MH2 oraz MH3
57
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | translation 45–52
Na rys. 8–10 przedstawiono wyniki analizy ilościowej dla opraw typu: LED (rys. 8), MH (rys. 9) i SOD (rys. 10), badanych pojedynczo. Analizując wartości całkowitego współczynnika odkształcenia harmonicznymi dla poszczególnych lamp LED, można zaobserwować, że bezwzględna różnica pomiędzy wartością najwyższą i najniższą dla tych wybranych lamp wynosi 6,9%. Jednak do oceny kształtu należy analizować widma amplitudowe, które różnią się dla tych wybranych opraw. Mniejsze różnice uzyskuje się dla lamp typu SOD i MH. Na rys. 11 przedstawiono wyniki analizy ilościowej w postaci widm amplitudowych prądów płynących ze złącza zasilającego w dwóch fazach L1 i L2 dla różnych wariantów konfiguracji badanej instalacji. Podano również wartości całkowitego współczynnika odkształcenia harmonicznymi. Przedstawione wyniki potwierdzają, że połączenie różnego typu lamp, ale z tym samym typem źródła światła LED, powoduje zmniejszenie zawartości harmonicznych dominujących rzędów (3, 5 i 7) w wypadkowym przebiegu prądu (w złączu zasilającym), a tym samym zmniejszenie wartości całkowitego współczynnika odkształcenia harmonicznymi. 6. Podsumowanie Przedstawione wyniki badań eksperymentalnych są przyczynkiem do kontynuowania prac w zakresie rzeczywistego oddziaływania wyższych harmonicznych prądów na elementy systemu elektroenergetycznego (głównie straty mocy) i sposobów na zmniejszanie niekorzystnych skutków istnienia harmonicznych prądów. Istnieją specyficzne instalacje elektryczne, w których w sposób naturalny (bez dodatkowych układów i nakładów finansowych) można uzyskać zmniejszenie ich negatywnego oddziaływania na elektroenergetyczną sieć dystrybucyjną niskiego napięcia. a)
Rys. 10. Widmo amplitudowe (do 25 harmonicznej) prądów dla opraw: SOD1, SOD3 oraz SOD6
Należy te aspekty analizować, szczególnie w przypadkach stosowania inteligentnych systemów sterowania. Wyniki badań przedstawione w tym artykule są efektem realizacji projektu pt.: „Projekt Inteligentnego Systemu Sterowania Oświetleniem Ulicznym”, który jest dofinansowany z programu GEKON.
b)
Rys. 11. Widmo amplitudowe (do 25 harmonicznej) prądów na słupie nr 1 dla faz L1 (a) oraz L2 (b) dla różnych wariantów
Bibliografia 1. Bieliński K., Monitorowanie jako narzędzie wspomagające zarządzanie energią, Rynek Energii 2012, nr 6, s. 10–14. 2. Bieliński K., Monitorowanie czynne procesu oświetlania ulicznego, Zarządzenie Energią i Teleinformatyka ZET 2015, Matematyka i Studia, KAPRINT, Lublin, s. 39–47. 3. Norma PN-EN 13201 (1–4): 2007, Oświetlenie dróg, PKN Warszawa 2007.
58
4. Czapp S., Odkształcenie prądu pobieranego przez urządzenia oświetleniowe i jego wpływ na instalację zasilającą, Acta Energetica 2009, nr 1, s. 25–40. 5. Czapp S., Efektywność energetyczna urządzeń oświetleniowych a jakość energii elektrycznej, Zeszyty Naukowe Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej 2012, nr 31. 6. Maciążek M., Pasko M., Wybrane metody eliminacji wyższych harmonicznych z przebiegów prądów i napięć, Elektronika 2010, r. 51, nr 2, s. 9–14.
7. Cieślik S., Boniewicz P., Wpływ wyższych harmonicznych napięcia na pracę odbioru zasilanego przez transformator, Materiały XVI Sympozjum „Współczesne urządzenia oraz usługi elektroenergetyczne, telekomunikacyjne i informatyczne”, Poznań 2013, s. 28–31. 8. P N - E N 61000-3-2:2007, Kompatybilność elektromagnetyczna (EMC), część 2–3: Poziomy dopuszczalne. Poziomy dopuszczalne emisji harmonicznych prądu (fazowy prąd zasilający odbiornika < lub = 16 A).
K. Bieliński, S. Cieślik | Acta Energetica 2/27 (2016) | translation 45–52
Kazimierz Bieliński
dr inż. e-mail: kbiel@utp.edu.pl Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy Studia na kierunku elektrotechnika ukończył w Akademii Techniczno-Rolniczej w Bydgoszczy (1980). W roku 1993 obronił doktorat na Politechnice Lubelskiej. Jego zainteresowania naukowe dotyczą: efektywności energetycznej, systemów aktywnego monitorowania obiektów technicznych, zarządzania energią, zagadnień związanych z funkcjonowaniem systemów energetycznych i elektroenergetycznych współpracujących z generacją rozproszoną. Autor i współautor ponad 60 artykułów i referatów naukowych oraz 10 monografii naukowych i wielu opracowań o charakterze audytów energetycznych lub analiz opłacalności realizacji przedsięwzięć proefektywnościowych.
Sławomir Cieślik
dr hab. inż., prof. nadzw. UTP Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy e-mail: slavcies@utp.edu.pl Studia na kierunku elektrotechnika ukończył w Akademii Techniczno-Rolniczej w Bydgoszczy (1995). W 2000 roku obronił doktorat na Wydziale Elektrotechniki i Automatyki Politechniki Gdańskiej. W 2014 roku uzyskał stopień naukowy doktora habilitowanego na Wydziale Elektrycznym Politechniki Poznańskiej. Jego zainteresowania naukowe dotyczą modelowania matematycznego i symulacji komputerowej złożonych układów elektromechanicznych i elektroenergetycznych, w tym symulatorów cyfrowych układów elektroenergetycznych pracujących w czasie rzeczywistym oraz zagadnień funkcjonowania systemów elektroenergetycznych, szczególnie z generacją rozproszoną. Autor ponad 95 artykułów i referatów naukowych oraz 2 monografii naukowych. Jest autorem i konsultantem ponad 300 opracowań związanych z przyłączaniem jednostek wytwórczych do systemu elektroenergetycznego.
59
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | 60–67
Torrefaction as a Means to Increase the use of Solid Biomass for Power Generation and Heating
Authors Maciej Cholewiński Michał Kamiński
Keywords torrefaction, biomass, fuel combustion, renewable energy sources
Abstract A technical constraint of the use of solid biomass in high power pulverized coal boilers is the clear divergence of physiochemical properties of this type of fuel compared to boiler coal. It implies coal units’ operating restrictions that affect demand from the power generation sector, which should be an important partner for agriculture and forestry. Biomass’ utility may be improved by its prior valorisation. This paper compares the physiochemical properties of solid products of the torrefaction process, which essentially consists in the thermal (200–300oC) treatment of a raw fuel in an inert atmosphere (e.g. pure nitrogen). Some selected operating parameters of hard coal and lignite, solid biomass (first and second generation) and biochar, a fuel qualitatively similar to low-rank coal, are analysed.
DOI: 10.12736/issn.2300-3022.2016205
Introduction Solid biomass is a primary energy carrier with a bright future ahead. A by-product of agriculture and forestry, it is increasingly regarded not only as a fuel for the municipal sector, but also a potential substitute for boiler coal in commercial and industrial power generation. Importantly, its use in coal plants on a large scale – as far as technically, economically and logistically viable – contributes to the development of renewable energy sources (RES), thus the achievement of one of the most important requirements of Poland’s and the European Union’s current energy policy. The use of biomass helps to reduce the environmental impact of the energy industry, which outputs into the environment many substances commonly regarded as pollution [15]. Unfortunately, the constraints, technical (e.g. availability) and economic (capex and opex costs) alike, identified as characteristic of raw biomass’ energy utilization, significantly reduce the demand for this product from the high capacity power generation sub sector. Currently, as regards the base load power plants with highcapacity units, special attention is paid primarily to the idea of the development of renewable energy sources. Modern energy technologies implemented in this type of units are mainly based on the process of burning fossil fuels, typically hard coal and lignite, and converting the chemical energy released to a usable energy, i.e. electricity and/or heat. Such an approach warrants economic and technical viability, but also results, as previously noted, with increased emission to the environment of sulphur(IV) oxide (SO2), nitrogen oxides (N2O, NO, NO2), ash, heavy metals 60
(mainly Hg) and greenhouse gases (especially CO2) and with direct lithosphere degradation. As regards large power units, the goals, both environmental (less emissions) and political (proper share of green energy), can be accomplished just by firing or co-combustion of solid biomass with a coals, which the applicable legislation classifies as a renewable source [20]. Biofuels can be legitimate substitutes for fossil fuels (also on a large industrial scale), and because of their substantial technical potential they allow partial independence from external supplies of fuels, and diversification of their sources, if the projects undertaken for this purpose are characterised by favourable economic indicators (production, transport and use). Important, however, is the fact that the systematic development of distributed renewable energy sources and the support for local generation units (also biomass-fired heat and co-generation plants) adversely affect the biomass prices for the large scale power generation sector. Consequently, modern solid biofuel production technologies, aimed at firing large capacity thermal power stations, cannot be very competitive in relation to the mining sector. Due to many differences in the physiochemical properties of boiler coal and raw or merely pre-processed biomass, the applicability of biomass in large pulverised fuel units is clearly limited. However, the intensity of adverse operating events, relating to biomass storage and preparation alike, and the combustion chamber itself, can be significantly reduced through proper valorisation of raw fuel already before its delivery to a thermal power plant. One of the technologies that are increasingly taken into consideration as applicable on an industrial scale, is torrefaction.
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | 60–67
It enables the production of biofuels with parameters similar to lignite and well suitable for storage and milling. It greatly expands the possibilities of biomass’ use for electricity generation in existing coal-fired or multi-fuel units. It is not only a real chance to meet the environmental requirements imposed on a given combustion installation, but also allows for the development of rural areas, which are the main supplier of fuel for the large capacity commercial power plants.
Problems related to biomass co-firing The idea of using biomass in large coal-fired units clearly developed in Poland in the first decade of the twenty-first century. The dominant technology in this case was the co-firing of coal with solid biomass (typically straw), which is a popular solution in the trading of certificates of electricity origin (green, which is a pro-environmental tool for increasing the RES share in the Polish market), something which is quite new in Poland. It has been or is being implemented in Polish power plants (Siersza, Konin, Połaniec, Opole, Stalowa Wola, Jaworzno) and co-generation plants (Wrocław, Poznań, Tychy), in both pulverized and fluidized bed coal-fired boilers. Coal and biomass can be co-fired, accomplished in several ways (depending on the boiler type, extra fuel share, and technical considerations) by: • mixing the two fuel types upstream of pulverisers, and joint milling or injection of the additional fuel through an individual preparation node (e.g. hammer mill for pellets, pulverised fuel pipes, burners) – direct co-firing, • hybrid system (steam generation for manifold from parallel operating dedicated boilers – fired with coal and biomass), • prior biomass gasification and syngas combustion (also as reburning fuel), or biomass combustion in pre-furnace and directing flue gas to main heat exchanger, • biomass combustion on a grill located in the slag hopper, or injection of biomass slurry with oil through oil burners. As regards pulverized coal boilers, i.e. the technology with the largest share in the capacity installed in Poland and in the world [18], a number of technical, economic and operational constraints have contributed mainly to the development of plants capable of direct co-firing. In such systems, biomass is typically fed to an existing coal handling system, where it is pulverised together with coal (in coal pulverisers) and mixed with the coal dust, and – already as a multifuel mixture – is fed through dust burners into the combustion chamber. The advantage of this solution is the use the „coal” infrastructure, thus minimising the additional costs associated with the new fuel’s combustion. However, many adverse effects have been identified which may occur in the case of its implementation [13]. This indicates that they result mainly from the noticeable differences in physiochemical and structural properties between boiler coal and the biomass itself [18]. Their intensity is admittedly limited by reducing the share of biofuels in coal, for example down to 3–12% of the fuel mixture’s chemical energy (also due to existing pulverisers’ capacity limits) [4, 12, 18], but still they are the source of many operational problems (conducive to a decline in the availability of, and increase in, the auxiliary equipment’s failure
rates), including storage, transport, pulverising and the fuel combustion process [6]. The impact of biomass on boiler can vary significantly. It depends on, among other factors, its type, performance parameters (ash content, chlorine or alkali metals), mass share in the mixture, and the combustion technologies. An extremely important issue in the case of biomass co-firing is first and foremost the need to maintain appropriate combustion conditions and to ensure high availability of the system – preferably at the level before the upgrade. Combustion chambers, usually designed for coal only, require as stable as possible performance characteristics (calorific value, volatile content, elemental matrix, moisture, mineral substance composition, exhaust gas composition) of the chemical energy carrier burned there. Therefore, a fuel added to the mixture should be quality-wise as close as possible to so called guarantee fuel. In the case of differences between coals and solid biomass, particular attention is paid to the differences in oxygen content, volatile content, and moisture content (in working condition). They all contribute to, among other effects, changes the in fuel ignition conditions and combustion dynamics, e.g. by increasing the flame speed and changing its stability range. The step of biomass drying and pyrolysis occurs at lower temperatures than during thermal decomposition of coal. Furthermore, the heat released during the biomass combustion represents approx. 70% volatiles, and 40% coal [18]. Most often it results in problems in the combustion process implementation, and in the risk of underburn generation, and increased emissions per unit of the usable energy output. Pulverized fuel from biomass can burn longer than hard coal particles of coal (especially if not enough crushed), which leads to increase the share of combustible in ash, and to decrease its commercial value. The phenomenon can be avoided by grinding biomass as finely as possible, which requires, however, additional funding and energy. Raw biomass may also contain large amounts of moisture, which greatly decreases its calorific value, and increases exhaust gas emission per unit of fuel, thereby leading to changes in the flow conditions within the chamber, and abnormal distribution of individual heating surfaces’ thermal loads. Besides biomass’ moisture and different inner structure, its direct use is limited also due to its low bulk density (300–700 kg m-3), heterogeneity and dispersion of sources [12]. With the use of pulverized coal boilers, an additional problem in grinding the coal and biomass mixture in coal pulverisers is meeting the milling requirements for the modified fuelair mixture composition. Biomass’ fibrous structure is far from that of boiler coal (especially hard coal), which may contribute to deterioration of the dedicated fuel’s pulverisation. Deteriorated pulverisation translates into boiler performance [23]. The other identified operational problems of coal and biomass co-firing include increased HCl content in exhaust gas (chlorine content to 0.6% in biomass; intensified corrosive chloride) [12], decreased exhaust gas temperature (increased carbon monoxide emission) [18], decreased ash melting point (presence of alkalis, silica and chlorine contributes to decrease in the softening temperature even as much as down to 730°C, and to slagging and ashing phenomena) [17], the risk of flame recession to pulverised fuel pipe (biomass reacts quicker than hard 61
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | 60–67
coal – flame retardant fuses are required), the risk of fire-explosion (volatiles release from biomass are at a lower temperature than from hard coal). Due to differences in biomass and coal characteristics of ignition, a new fuel depots are also required. The identified operational problems result in a decrease in the boiler efficiency, and thus in an increase in pollutants emissions per electricity output unit (CO2 emission increased by 2.5% for every percentage point [18]). Technical problems in co-firing can be mitigated through the construction of dedicated coal pulveriser systems for the additional fuel, separation of burners, or biomass-only fired boilers and pre-furnaces [23]. Also justified is biomass’ processing into so-called biofuels, characterized by lower moisture, better bulk density, higher calorific value and partially close physiochemical parameters relatively to coal. Understandably, such refinement and/or valorisation treatment requires some expenditures. Their level should guarantee the resulting fuel’s economic and technical competitive advantage over fossil fuels.
Torrefaction The phenomena described in the previous chapter can be constrained by, among other means, the biomass’ proper preparation by at least one of the valorisation methods. They combine mechanical, thermal, and chemical techniques to enable the fuel’s conversion to another form, or a change of some of its physiochemical properties [8]. Currently popular mechanical and thermal methods (grinding, pelletisation, drying) are usually insufficient to obtain favourable performance characteristics in the case of pulverized coal boilers. Torrefaction has much greater potential here – not used yet on an industrial scale, but considered to be a forward-looking method [7]. Torrefaction (roasting, slow pyrolysis) is a thermal treatment of solid biomass fuel in an inert atmosphere (without oxidant, λ ≈ 0) at atmospheric pressure. Typically, the processed material stays at an elevated temperature (200–350°C) for 15–90 min [22]. The process products are: solid char (so called biocarbon) and torgas (mainly steam and CO2). Because of its duration and temperature, in contrast to other thermal treatments of fuel, the process produces no significant amounts of liquids [2, 4]. Torrefaction essentially contributes to concurrent fuel
dehumidification (drying effect), partial degassing, and structural changes (breaking lignin and cellulose chains by elevated temperatures [5]), thus leading to increased calorific value, fuel’s unification and its physiochemical properties improved in view of co-firing with coal. In power generation its applications include biomass pre-treatment with a jet generator (to reduce O/C ratio in the fuel) for its subsequent gasification [9, 16]. The process is divided into five main stages: 1. feedstock heating 2. feedstock drying (to 100°C, free moisture removal – dehydration) 3. indirect heating 4. roasting (above 200°C) 5. cooling. Fuel substantially loses its weight at stage 4, which is caused by a progressive degassing process (evaporation of the organic compounds with evaporation point below the process temperature). Cooling in an inert atmosphere (below 150°C [5]) is meant to avoid self-ignition of the char in contact with oxidant containing air. The process temperature and duration should be chosen individually for each type of biomass. Too high a temperature (usually above 350°C) can lead to the formation of charcoal, and too long roasting time does not contribute to fundamental changes within the char, which reduces the efficiency of the plant and increases the energy consumption of the process [5]. Also in the event of structural changes occurring in the resulting biofuel, individual temperature regimes are recommended for the processes of drying, depolymerization, and degassing of various polymers (hemicellulose, lignin and cellulose). Within the torrefaction process temperature range only the first two polysaccharides find conditions appropriate for carbonization and ace for an initial pyrolysis. This leads to the conclusion that the output biochar quality will depend on the input fuel structure. Importantly, the emitted volatiles will differ for different biomass input for given process parameters. At torrefaction the input solid fuel loses some weight and energy. In the high process temperature moisture and volatile compounds are released (most intensely at 250–500°C [16]) that account for ca. 23–30% of the original fuel weight and 10% of
Fig. 1. Mass and energy balance of torrefaction product, source: own study M – process input % by weight E – process input % by energy 62
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | 60–67
its energy potential (Fig. 1). These values indicate higher energy concentration in the char (ca. 30% higher than in feedstocks), which is a desirable phenomenon in the economic transport of chemical energy media [4, 5]. Torrefaction makes fuel brittle (improved milling properties due to the fibrous structure rupture), and the new hydrophobic properties contribute to lower moisture absorption (max. 2% [9]), and improved resistance to biodegradation (with dehydration and hydroxyl groups’ destruction the formability of hydrogen bonds with water is limited [5]). Furthermore, the resulting biofuel’s elemental composition is closer to carbon – the O/C and H/C ratios decrease in relation to raw biomass (van Krevelen diagram, Fig. 2.) [22]. The final solid product is also more uniform than the feedstock introduced into the process, and the organic acids and other lean substances removed along with volatile parts (including those causing smoke) contribute to better energy balance of the combustion process [16]. It also contains less tar precursors [23]. In addition, torrefaction shortens the volatiles and coke ignition time, thereby increasing the fuel’s suitability to fluidized bed technologies [5]. Due to the structural physiochemical changes, char ignites faster and at lower temperatures than raw biomass. The combustion process itself takes longer (less volatiles) and generates more heat [3]. Once the physiochemical mechanisms of torrefaction were identified, and its effect on biofuel quality determined, the first attempts were made to commercialise this solution on an industrial scale. A number of torrefaction devices were developed (the large-scale solutions include belt dryer, screw reactor, rotating drum, multiple hearth furnace, torbed reactor, microwave reactor, and moving compact bed) [23]. The various technologies are overviewed and described in [11]. While torrefaction in the power industry is still limited mainly to pilot installations (it is more common in the construction industry and furniture production [10]), in the near future it should become more widespread. Importantly, it ought to be taken into account that each biomass type requires different roasting conditions (time, temperature) and handling. This requires permanent cooperation with local biomass producers who ensure stable supplies of the same material type with similar utility specification. For the first time industrial torrefaction was implemented as a pilot production of a metallurgical coke substitute in France (Laval-de-Cere) already in the 1980s. The feedstock in this case was forestry wood residue, in an amount sufficient to yield 12,000 tonnes of char per year [2]. Because of its large size (indirect screw reactor), difficulty in maintaining a stable temperature, and relatively low energy efficiency (max. 75%) the solution was not widely replicated and after 10 years of service the installation was decomissioned. The experience earned from its operation inspired further laboratory studies, and the emergence of new, more competitive solutions. One of recently developed torrefaction technology is based on direct reactor, and employed at the Energy Research Centre of the Netherlands (ECN). The torgas stream is partly returned to the reactor and used as an supplementary source of heat for both pre-drying and main torrefaction (after pre-heating). Gaseous product consists primarily of water vapour (H2O),
carbon dioxide (CO2), and flammable parts: carbon monoxide (CO) and methane (CH4). In Amel (Belgium) a plant that produces pellets and charcoal (up to 40,000 tonnes yearly) from a solid torrefaction product have been already build and launched as well. The resulting biofuel is co-fired at a nearby cogeneration plant, which feeds the reactor with heat via municipal network. Moreover, Dutch plant Topell Energy with a multi-stage torbed reactor features nearly 50% greater annual production capacity (nearly 60,000 tonnes). Outside Belgium and the Netherlands many installations are developed (or operated), among others in Spain (San Sebastian), Austria (Frohnleiten), the USA (Crockett) and Canada (Terrace). Another torrefaction implementation, dedicated primarily to straw feedstock, employs a fountain fluidized bed, in which at a suitable temperature a fluidizing medium of appropriate composition allows for efficient low-temperature process of biomass roasting [14]. Furthermore, more reasonable application would be direct reactors with a moving bed allowing one to shorten the roasting time and reduce production costs. It should be noted that industrial biochar production should be coupled with pelletizing. No excessively complex process lines are needed for this (conventional pellet production line infrastructure is sufficient), and yet it allows to improve the resulting biofuel’s volumetric energy density, which affects the material transportation cost. With a solution of this type the raw material is ground after torrefaction, which allows a reduction in the energy input, while the integration of the drying, pyrolysis and pelletization processes allows one to produce a biofuel with better properties, with maximum utilization of the energy supplied to the system. An example is ECN Biomass in the Netherlands, which has developed a method for simultaneous torrefaction and pelletizing called TOP Pellets. The resulting biofuel has more chemical energy per volume unit (up to 15.5 GJ/m3) than the pellets of biomass previously only mechanically processed (10.5 GJ/m3) [23]. An important aspect of industrial torrefaction is the output biofuels’ pricing. The prices should be competitive with boiler coal, or should be conducive to the unit’s better economic performance (incl. contaminant emission reduction, external subsidies). According to JSW SA (in 2015), the average coal price for industrial customers is 300 PLN/ton, which at the calorific value 27 MJ/kg gives the index 11.1 PLN/GJ. Provided that, depending on the discounts, transport accounts for 14–29% of fuel price [19], the total cost of purchase of coal and its transportation at 200 km distance amounts to 342–387 PLN/t (12.7–14.3 PLN/GJ). According to the authors [23], the costs of pellet production from char (TOP Pellet process) in Poland would be ca. 340 PLN/t, with a nominal yearly output of 56,000 t. The cost of production of chemical energy is 16.5 PLN/GJ. According to [11, 21], transport and storage by the TOP method would cost 10–14 PLN/GJ (ca. 300 PLN/ton of fuel). Together with generation costs it is ca. 660 PLN/per ton of biofuel, which is almost twice as much as coal (ca. 360 PLN/t) – mainly due to the high cost of pellet transport. However, it is nearly 20% lower when compared to the total costs of conventional pellet combustion [13]. What’s more, suitable logistics and marketing might additionally reduce the pellet transport by as much as half [5]. Further reduction of 63
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | 60–67
a electricity production costs (according to the Energy Regulatory Office, in 2014 the average electricity price for the units centrally supplied with coal amounted to 178.18 PLN/MWh and the average weighted cost of coal, including transportation, to 86.55 PLN/MWh) should be expected also from the reduction of fees for the use of the environment (NOy, SOx, Hg, ash emissions), or the total costs of atmosphere protection measures. The cost of 2nd generation pellet production may be as much as 25% higher than pellets from conventionally produced biofuels (from thermally unprocessed biomass). Indicated, in this case, are the prices of one ton of biofuel: 650 PLN for pellets from wood biomass and agro (mostly straw), and 820 PLN for the same feedstock, but subject to prior torrefactioni [5].
Comparison of each energy medium properties In Tab. 1 physiochemical parameters of biomass: raw and subjected to torrefaction at different process temperatures were listed and compared to typical coals: bituminous and lignite. In the case of cereal biomass, the maximum changes in the relevant range of temperature were noted at 270°C. At this temperature the calorific value is 27 MJ/kg. For woody biomass, at 290°C the basic pyrolysis process was still in progress, manifesting itself primarily through the progressive changes in the physiochemical
Wt
A
V
LLV
properties. In the case of agro type biomass, already at 230°C the resulting fuel’s elemental matrix started to differ significantly from the feedstock. The resulting volatile and oxygen content in the biofuel was similar in terms of quality to low-ranking power coal. As independent studies have shown, slow pyrolysis’ optimal temperature is 250–300°C. Further increase of the process temperature may lead to the char’s calorific value 30 MJ/kg, hydrogen content 3–4%, carbon content up to 80% and FC index 75% [16]. Analysis of the van Krevelen diagram (Fig. 2) leads to the conclusion that by the torrefaction a new biofuel can be produced with the composition similar to low-carbon brown coal (lignite). This point is confirmed by independent studies reported in [22]. It has been experimentally shown that the resulting biofuel quality depends on such factors as the feedstock type and process temperature. Moreover, also different products may be obtained by different durations of the fuel’s presence in the reactor. The process length is important, since the biomass with higher moisture content will be dried longer, and hence the basic low-temperature pyrolysis will occur later in a less humid fuel [16]. With increasing temperature, the resulting biofuel calorific value increases as well. The highest calorific value of a biofuel in the analytical condition is similar to coal. As regards fuel’s operating
C
H
N
S
A
O/C
H/C
sample % weight
MJ/kg
% weight
–
sample boiler coals hard coal
2.4
7.8
34.9
27.0
77.2
4.6
1.2
1.1
5.7
0.07
0.06
lignite
4.4
16.1
44.4
18.9
55.2
4.5
0.7
1.8
17.3
0.31
0.08
cereal pellet raw
7.2
2.3
82.4
17.2
45.5
6.5
2.2
0.1
36.2
0.80
0.14
230oC, 30 mins
2.5
4.9
51.7
24.7
62.1
5.2
3.8
0.1
27.9
0.48
0.10
250oC, 30 mins
2.1
4.9
50.3
25.3
62.9
5.3
4.0
0.1
20.7
0.35
0.10
270oC, 30 mins
1.1
6.1
39.8
27.4
66.5
4.9
4.3
< 0.1
17.1
0.27
0.09
290oC, 30 mins
0.8
6.1
38.7
27.5
66.7
5.0
4.3
0.1
17.0
0.25
0.07
woody pellet raw
6.7
0.9
84.0
20.0
51.7
6.1
0.3
< 0.1
34.3
0.66
0.12
230oC, 30 mins
2.4
1.7
66.8
23.0
58.7
5.8
0.2
< 0.1
31.2
0.53
0.10
250oC, 30 mins
2.1
1.6
65.8
23.5
59.6
5.8
0.2
< 0.1
30.7
0.52
0.10
270oC, 30 mins
2.5
1.9
59.3
24.8
63.3
5.6
0.3
< 0.1
26.4
0.42
0.09
290oC, 30 mins
0.7
2.4
46.1
27.4
67.9
5.2
0.4
< 0.1
23.4
0.34
0.08
Tab. 1. Comparison of physiochemical properties of various char torrefaction products (analytical condition, roasting time 30 mins), source: [6] C, H, N, S, O, Hg – weight fractions of the individual elements, LLV – lower calorific value, V – volatile content, A – ash content, Wt – total moisture content 64
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | 60–67
Fig. 2. Van Krevelen diagram for the studied fuels, source: own study
condition, it can even be equal due to the biofuel’s good hydrophobic properties. This allows for inputting more RES energy to the boiler, while maintaining a pre-set biofuel weight share in the combusted mixture.
Conclusions The paper presents the torrefaction as a process which can increase the electricity generation sector’s demand for biofuels. It points to the operational issues that occur during combustion of an only mechanically processed biomass, and to the benefits from prior subjecting it to the torrefaction process. Moreover, both char and hard coal price ratios were estimated, in view of the project implementation on an industrial scale. Good aspects of a slow pyrolysis process consist in the advantageous characteristics of solid biofuel torrefaction products: low moisture content, hydrophobicity, stability, homogeneity, good milling properties, and chemical energy concentration within fuel volume. Torrefaction constitutes a technical solution to generate a high quality biofuel with controlled and consistent quality, at a relatively stable production cost. This allows more accurate selection of co-firing infrastructure, lower costs of its operation in a coal unit, and mitigation of some risks arising from the biomass presence in fuel depots, combustion chamber and exhaust gas ducts. Torrefaction only slightly reduces corrosive phenomena and slagging and ashing rates [2], but it improves milling properties, and brings the volatile share and elemental matrix closer to the steam coal level. On an industrial scale torrefaction can be employed in oxygen combustion systems (Oxy Fuel process), wherein nitrogen, which might be a waste product from oxygen production (e.g. by cryogenic air separation), can be heated with waste heat (e.g. exhaust gases) and directed to a reactor (e.g. the bed one). For economic reasons, it seems to be reasonable to couple the low-temperature carbonization installations in a in close proximity of thermal power plants – excess heat (e.g. in summer) can, for example, supply a periodically operating reactor. The resulting biofuel can be then safely stored and used in coal boilers during the heating season.
As regards the commercial power sector, the current plant’s performance may significantly limit its applications. Future plant capabilities are expected at the level of 20,000–60,000 tons per year. With Rotawave microwave technology by CanBiocoal from the UK, output capacity of as much as 110,000 tons of pellets per year seems achievable [6, 23]. At a 10-percent share of biofuels (with calorific value 27 MJ/kg in operating condition), this stream will enable co-combustion of a biochar with a hard coal with similar calorific value, in a unit with net electric power of 460 MWel (unit availability 80%, and net efficiency 40%). It is pointed out that with ECN, a Dutch technology, the industrial scale output capacity should reach the level of the largest standard pellet production lines, i.e. 100,000 tons per year or more. Other data indicate plans (Topell) for up to 1-million-ton output capacity [5]. Torrefaction should contribute to an future increase in the biomass source base (origin, quality, type) available for energy purposes, while pelletisation of the resulting char can contribute to improvement of economic performance [1]. The increase in biofuel’s production prices is compensated by its increased energy parameters, and thus lower costs per unit of chemical energy accumulated in it. Besides the high power units considered here, the char pellets can be fed to retort, grate, and fluidized bed furnaces, or special pellet-fired burners, which considerably increases their usability also in other power plants, also with lower heat capacities. The so called 2nd generation pellets, after industrial dissemination of their production technology, should be a valuable fuel dedicated to the power industry (combustion, co-firing with coal, gasification), liquid fuel production technology, chemical and metallurgical industries (as a reducing agent) and individual heating systems (grate fireplaces, pellet boilers). An important issue in terms of their use’s profitability, currently fairly unfavourable compared to coal, will undoubtedly be the adequate logistics and, possibly, subsidies related to RES implementation in the coal sector.
65
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | 60–67
Acknowledgements The authors would like to thank Dr. Eng. Krzysztof Czajka for his assistance in the reported studies’ execution, and Prof. Dr. Hab. Eng. Wiesław Rybak for his substantive assistance. REFERENCES
1. P.C.A. Bergman, Combined torrefaction and pelletisation, The TOP process, ECN Biomass report, Petten 2005. 2. P.C.A. Bergman et al., Torrefaction for biomass co-firing in existing coal-fired power stations, ECN Biomass report, Petten 2005. 3. T.G. Bridgeman et al., Torrefaction of reed canary grass, wheat straw and willow to enhance solid fuel qualities and combustion properties, Fuel, Vol. 87, 2008. 4. J. Ilmurzyńska, Termiczne metody przekształcania biomasy [Thermal methods of converting biomass], Institute of Power Engineering, Department of Thermal Processes, Seminar „Piroliza biomasy [Biomass pyrolisis]”, Wrocław, October 2013. 5. M. Jakubiak, W. Kordylewski, Toryfikacja biomasy [Biomass torrefaction], Archiwum Spalania, Vol. 10, No. 1–2, 2010, pp. 11–25. 6. M. Kamiński, Jakość produktów torefakcji [Torrefaction product quality], Master’s degree thesis (promoter: Prof. Dr Hab. Eng. Wiesław Rybak), Wrocław: Faculty of Mechanical and Power Engineering of Technical University of Wrocław University of Technology, 2013. 7. M. Kamiński, Toryfikacja biomasy – metodologia pomiarów, badania dotyczące jakości produktu procesu [Biomass torrefaction – measurement methodology, process product quality tests], Proceedings of Young Scientists Conference “Impact of young scientists on the Polish science achievements”, Issue V, Part 3: engineering sciences, Krakow: Creativetime, 2014, pp 106–111. 8. M. Kamiński, A. Ruziewicz, M. Cholewiński, Przegląd wstępnych metod waloryzacji biomasy [Overview of preliminary methods for biomass valorisation], Dokonania Młodych Naukowców, No. 5, 2014, pp. 399–401. 9. E. Klimiuk, M. Pawłowska, T. Pokój, Biopaliwa. Technologie dla zrównoważonego rozwoju [Biofuels. Technologies for sustainable development], Warsaw 2012. 10. M. Kopczyński, Toryfikacja wierzby energetycznej [Torrefaction of hemp willow], Energetyka Cieplna i Zawodowa, Vol. 2, 2012, pp. 39–42. 11. J. Koppejan et al., Status overview of torrefaction technologies, IEA Bioenergy Task 32 report, Enschede 2012.
66
12. Spalanie i paliwa [Combustikn and fuels], editor Kordylewski W., Wrocław 2008. 13. W. Kordylewski, Współspalanie biomasy z węglem [Biomass with coal co-firing], course aid „Spalanie i paliwa [Combustikn and fuels]” [online], http://www.spalanie.pwr.wroc.pl/dydaktyka/wyklad_spal_ en.htm [dostęp: 28/04/2015]. 14. W. Kordylewski, Tatarek A., Wybrane właściwości toryfikatów z krajowych i importowanych biomas [Selected properties of biochars from domestic and imported biomass], Archiwum Spalania, Vol. 12, No. 3, 2012, pp. 109–116. 15. The National Centre for Emissions Management (KOBiZE), National emission inventory: SO2, NOx, CO, NH3, NMLZO, dust, heavy metals and POP in 2011–2012, Synthetic report, version v2, 2014. 16. M. Kratofil et al., Badania procesu toryfikacji biomasy [Studies of biomass torrefaction process], Polityka Energetyczna, Vol. 17, book 4, 2014, pp. 137–146. 17. H.P. Nielsen et al., The implications of chlorine-associated corrosion on the operation of biomass-fired boilers, Prog. Energy Combustion Science, Vol. 26, 2000. 18. W. Rybak, Spalanie i współspalanie biopaliw stałych [Combustion and co-combustion of solid biofuels], Wrocław 2006. 19. K. Stala-Szlugaj, Koszty dostawy węgla kamiennego do wybranych użytkowników [Costs of hard coal delivery to selected users], Polityka Energetyczna, Vol. 15, book 2, 2015, pp. 85–98. 20. M. Ściążko, J. Zuwała, M. Pronobis, Zalety i wady współspalania biomasy w kotłach energetycznych na tle doświadczeń eksploatacyjnych pierwszego roku współspalania biomasy na skalę przemysłową [Advantages and disadvantages of biomass co-firing in power boilers on the background of the operating experience from the first year of biomass co-firing on industrial scale], Energetyka i Ekologia, March, 2006, pp. 207–220. 21. A. Uslu, A. Faaij, P. Bergman, Pre-treatment technologies and their effect on international bioenergy support chain logistics, Technoeconomic evaluation of torrefaction, fast pyrolysis and pelletisation, Energy, Vol. 33, 2008, pp. 1206–1223. 22. M. Wilk, A. Magdziarz, I. Kalemba, Characterization of renewable fuels’ torrefaction process with different instrumental techniques, Energy, No. 87, 2015, pp. 259–269. 23. J. Zuwała, M Kopczyński., J. Robak, Ocena efektywności techniczno-ekonomicznej sprzężonego układu toryfikacja-peletyzacjawspółspalanie biomasy [Evaluation of the technical and economic effectiveness of coupled biomass torrefaction-pelletisation-co-firing], Polityka Energetyczna, Vol. 17, book 4, 2014, pp. 147–158.
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | 60–67
Maciej Cholewiński Wrocław University of Science and Technology e-mail: maciej.cholewinski@pwr.edu.pl Graduated in Power Engineering from the Faculty of Mechanical and Power Engineering of Wrocław University of Science and Technology. Currently a PhD student (of energy engineering) at the Chair of Energy Technologies, Turbines and Modelling of Thermal and Fluid Flow Processes (W9/K3) of Wrocław University of Technology, tutor: Prof. Dr. Eng. Wiesław Rybak. Main areas of his research interest: forecasting of emissions from combustion processes, physiochemical analysis of solid fuels, energy technologies of new generation (including nuclear energy, alternative energy sources, use of waste energy), computer-aided design. Author or co-author of over 30 scientific publications in peer-reviewed journals, a scholar at the Department of Economy of the Office of Lower Silesia Marshal.
Michał Kamiński Wrocław University of Environmental and Life Sciences e-mail: michal.kaminski@up.wroc.pl Graduated in energy engineering from the Faculty of Mechanical and Power Engineering of Wrocław University of Technology. Currently a PhD student (of agricultural engineering) at the Department of Low Emission Energy Sources and Waste Management at the Wrocław University of Environmental and Life Sciences, tutor: Prof. Dr. Leszek Romański. Main areas of his research interest: renewable energy and waste management, system analysis with thermal imaging methods, methods of measuring of mass and volume flow rates. Author or co-author of a dozen or so scientific publications in peer-reviewed journals, a scholar at the Department of Economy of the Office of Lower Silesia Marshal.
67
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | translation 60–67
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 60–67. When referring to the article please refer to the original text. PL
Torefakcja jako proces zwiększający możliwości energetycznego wykorzystania biomasy stałej Autorzy
Maciej Cholewiński Michał Kamiński
Słowa kluczowe
torefakcja, biomasa, spalanie paliw, odnawialne źródła energii
Streszczenie
Jednym z ograniczeń technicznego wykorzystania biomasy stałej w pyłowych kotłach energetycznych dużej mocy jest wyraźna rozbieżność właściwości fizykochemicznych tego typu paliw w stosunku do węgli energetycznych. Związane z nią ograniczenia eksploatacyjne bloków węglowych wpływają na popyt ze strony energetycznego sektora wytwórczego, który powinien być ważnym partnerem dla przemysłu rolnego i leśnego. Poprawa wskaźników użytkowych biomasy możliwa jest po jej uprzedniej waloryzacji. W artykule porównano własności fizykochemiczne stałych produktów procesu torefakcji, zasadniczo polegającego na termicznej (20–300°C) obróbce surowego paliwa w atmosferze inertnej (np. czystego azotu). Przeanalizowano wybrane parametry użytkowe węgli kamiennych i brunatnych, biomasy stałej (pierwszej i drugiej generacji) oraz toryfikatu – paliwa zbliżonego jakościowo do niskouwęglonych kopalin.
Wstęp Biomasa stała stanowi jeden z rozwojowych nośników energii pierwotnej. Związana z działalnością rolnictwa oraz leśnictwa, traktowana jest coraz częściej już nie tylko jako paliwo wyłącznie dla sektora komunalno-bytowego, lecz także potencjalny substytut węgli energetycznych dla energetyki zawodowej i przemysłowej. Co istotne, jej wykorzystanie w obrębie instalacji węglowej w dużej skali – o ile jest uzasadnione technicznie, ekonomicznie oraz logistycznie – przyczynia się do rozwoju tzw. odnawialnych źródeł energii, a więc realizacji jednego z ważniejszych postulatów prowadzonej obecnie polityki energetycznej Polski oraz Unii Europejskiej. Stosowanie biomasy pozwala na zmniejszenie presji wywieranej na środowisko naturalne przez przemysł energetyczny wprowadzający do otoczenia wiele substancji powszechnie uznawanych za zanieczyszczenia [15]. Niestety, zidentyfikowane ograniczenia techniczne (m.in. dyspozycyjność) oraz ekonomiczne (koszty inwestycyjne oraz eksploatacyjne), charakterystyczne dla energetycznej utylizacji surowej biomasy, wyraźnie ograniczają popyt na ten towar ze strony energetyki skupiającej duże moce wytwórcze. Obecnie szczególną uwagę przywiązuje się przede wszystkim do idei rozwoju odnawialnych źródeł energii (OZE) w przypadku jednostek energetycznych pracujących w tzw. podstawie obciążenia, skupiających bloki o dużych mocach nominalnych. Współczesne technologie energetyczne realizowane w tego typu jednostkach opierają się głównie na procesach spalania paliw kopalnych, najczęściej węgli kamiennych i brunatnych, oraz konwersji uwalnianej energii chemicznej na energię użytkową – elektryczną lub cieplną. Takie podejście, gwarantujące korzystną stronę ekonomiczną oraz techniczną, skutkuje jednak, co uprzednio zaznaczono, wzmożoną emisją do otoczenia tlenków siarki(IV) (SO2), tlenków azotu (N2O, NO, NO2), popiołów i gazów cieplarnianych (głównie CO2) oraz bezpośrednią degradacją litosfery.
68
W przypadku dużych bloków energetycznych spełnienie wymagań środowiskowych (zmniejszenie emisji) oraz politycznych (uzyskanie odpowiedniego udziału zielonej energii) może być prowadzone właśnie poprzez spalanie bądź współspalanie biomasy stałej, zaliczanej w myśl funkcjonującego prawodawstwa do źródeł odnawialnych [20]. Biopaliwa mogą stanowić uzasadniony substytut paliw kopalnych (także w dużej skali przemysłowej), a ze względu na swój znaczny potencjał techniczny umożliwiają częściowe uniezależnienie się od zewnętrznych dostawców paliw i dywersyfikację źródeł ich pozyskania – o ile podejmowane w tym celu przedsięwzięcia cechują korzystne wskaźniki ekonomiczne (produkcji, transportu oraz wykorzystania). Co jednak istotne, systematyczny rozwój rozproszonych OZE oraz wspieranie lokalnych jednostek wytwórczych (m.in. opalanych biomasą ciepłowni lub elektrociepłowni) niekorzystnie wpływają na koszty pozyskania biomasy dla tzw. dużej energetyki. Co jest z tym związane, współczesne technologie do produkcji biopaliw stałych, nastawione na obsługę siłowni cieplnych dużych mocy, mogą być mało konkurencyjne w stosunku do sektora górniczego. Stosowalność biomasy surowej lub jedynie wstępnie przetworzonej, ze względu na wiele rozbieżności we własnościach fizykochemicznych w stosunku do węgli energetycznych, jest w przypadku dużych bloków pyłowych wyraźnie ograniczona. Intensywność niekorzystnych zjawisk eksploatacyjnych, dotyczących zarówno składowania i przygotowania biomasy, jak samej komory paleniskowej, może jednak zostać znacząco zredukowana poprzez odpowiednią waloryzację surowego paliwa jeszcze przed jej dostarczeniem na teren siłowni cieplnej. Jedną z technologii, którą coraz częściej bierze się pod uwagę jako możliwą do zastosowania w skali przemysłowej, jest torefakcja. Umożliwia ona produkcję biopaliw o parametrach zbliżonych do węgli brunatnych oraz korzystnych cechach w kontekście ich składowania oraz przemiału. Znacznie poszerza możliwości
energetycznego wykorzystania biomasy w obrębie istniejących bloków węglowych lub wielopaliwowych. Stanowi nie tylko realną szansę na spełnienie wymagań środowiskowych, narzucanych na daną instalację spalania, ale również pozwala na rozwój obszarów wiejskich, będących głównym dostawcą paliwa dla energetyki zawodowej dużych mocy. Problemy związane z zagadnieniem współspalania biomasy Idea wykorzystania biomasy w obrębie dużych bloków węglowych wyraźnie rozwinęła się w Polsce w pierwszej dekadzie XXI wieku. Dominującą technologią w tym przypadku było współspalanie węgla z biomasą stałą (najczęściej słomą), stanowiące popularne rozwiązanie w przypadku obrotu obowiązującymi do niedawna w polskiej energetyce certyfikatami pochodzenia energii elektrycznej (zielonymi, stanowiącymi narzędzie proekologiczne w zwiększaniu udziału OZE na rynku polskim). Było bądź jest ono realizowane w krajowych elektrowniach (Siersza, Konin, Połaniec, Opole, Stalowa Wola, Jaworzno) oraz elektrociepłowniach (Wrocław, Poznań, Tychy), z wykorzystaniem w tym celu kotłów pyłowych oraz fluidalnych. Współspalanie węgla z biomasą może być realizowane na kilka sposobów (w zależności od rodzaju kotła, udziału dodatkowego paliwa, uwarunkowań technicznych), poprzez: • mieszanie obu rodzajów paliw przed instalacją młynową i wspólny przemiał bądź wprowadzanie dodatkowego paliwa przez indywidualny węzeł przygotowania (młyn np. młotkowy w przypadku pelletów, pyłoprzewody, palniki) – współspalanie bezpośrednie • realizację układu hy br ydowego (produkcja pary na kolektor zbiorczy z równolegle działających kotłów dedykowanych – opalanych węglem i biomasą) • uprzednie zgazowanie biomasy i spalanie syngazu (także jako paliwo reburningowe) lub też spalenie biomasy
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | translation 60–67
w przedpalenisku i skierowanie spalin na wymiennik ciepła • spalanie biomasy na ruszcie znajdującym się w leju żużlowym lub wtrysk zawiesiny biomasy wraz z olejem przez palniki olejowe. W przypadku kotłów pyłowych, a więc technologii mającej największy udział w obrębie zainstalowanych mocy w Polsce i na świecie [18], wiele ograniczeń technicznych, ekonomicznych oraz eksploatacyjnych przyczyniło się przede wszystkim do rozwoju instalacji umożliwiających współspalanie bezpośrednie. W tego rodzaju układach biomasa wprowadzana jest najczęściej do istniejącego układu nawęglania, gdzie razem z węglem ulega zmieleniu (w młynach węglowych) oraz zmieszaniu razem z pyłem i – już jako mieszanina wielopaliwowa – jest wprowadzana palnikami pyłowymi do komory paleniskowej. Zaletą przedstawionego rozwiązania jest wykorzystanie infrastruktury „węglowej”, co ogranicza do minimum dodatkowe koszty związane ze spalaniem nowego paliwa. Zidentyfikowano jednak wiele niekorzystnych zjawisk mogących występować w przypadku realizacji powyższego przedsięwzięcia. Wskazuje się, że wynikają one głównie z zauważalnych różnic we właściwościach fizykochemicznych oraz strukturalnych między węglami energetycznymi i samą biomasą [18]. Ich intensywność jest wprawdzie ograniczana poprzez zmniejszanie udziału biopaliw w węglu, np. do 3–12% energii chemicznej mieszaniny paliwowej (także ze względu na ograniczenia w wydajności istniejących młynów) [4, 12, 18], jednak wciąż stanowią one źródło licznych problemów eksploatacyjnych (prowadzących do spadku dyspozycyjności i wzrostu awaryjności urządzeń pomocniczych), obejmujących składowanie, transport, przemiał oraz sam proces spalania paliwa [6]. Oddziaływanie biomasy na kocioł może być różne. Zależy ono m.in. od jej rodzaju, parametrów użytkowych (zawartości popiołu, chloru czy metali alkalicznych), udziału masowego w mieszaninie oraz technologii spalania. Niezwykle istotnym zagadnieniem w przypadku współspalania biomasy jest przede wszystkim potrzeba dotrzymania odpowiednich warunków spalania oraz zapewnienia wysokiej dyspozycyjności instalacji – najlepiej na poziomie sprzed modernizacji. Komora paleniskowa, projektowana najczęściej pod kątem wykorzystania jedynie paliwa węglowego, wymaga możliwie stabilnych parametrów użytkowych (kaloryczności, zawartości części lotnych, matrycy pierwiastkowej, wilgoci, składu substancji mineralnej, ilości spalin) spalanego w niej nośnika energii chemicznej. Dlatego też wprowadzane dodatkowo do mieszanki paliwo powinno być możliwie zbliżone jakościowo do paliwa tzw. gwarancyjnego. W przypadku różnic pomiędzy węglami oraz biomasą stałą szczególną uwagę zwraca się na rozbieżności w zawartości tlenu, części składników lotnych oraz wilgoci (w stanie roboczym). Wszystkie one wpływają m.in. na zmianę warunków zapłonu paliwa oraz dynamikę procesu spalania, np. poprzez zwiększenie prędkości płomienia i zmianę zakresu jego stabilności. Etap suszenia i pirolizy biomasy następuje w niższych temperaturach niż podczas
termicznej dekompozycji węgli. Co więcej, ciepło wydzielane w trakcie spalania biomasy w ok. 70% przypada na części lotne, z kolei dla węgli – do 40% [18]. Najczęściej skutkuje to problemami w realizacji procesu spalania, ryzykiem generowania niedopału oraz wzrostem emisji jednostkowej, przypadającej na jednostkę produkowanej energii użytkowej. Powstający koksik z biomasy może spalać się dłużej niż cząstki węgla kamiennego (szczególnie w przypadku niedostatecznego rozdrobnienia), co przyczynia się do zwiększenia udziału części palnych w popiele i spadku jego wartości handlowej. Technicznym sposobem na ominięcie opisanego zjawiska staje się możliwie dokładny przemiał biomasy, wymagający jednak dodatkowych nakładów finansowych oraz energetycznych. Biomasa surowa może także zawierać również większe ilości wilgoci, co znacząco wpływa na spadek jej wartości opałowej, sama natomiast generuje więcej spalin przypadających na jednostkę paliwa, prowadząc do zmian w warunkach przepływowych wewnątrz komory i zaburzenia rozkładów obciążeń cieplnych poszczególnych powierzchni ogrzewalnych. Bezpośrednie wykorzystywanie biomasy, poza zawilgoceniem oraz odmienną strukturą wewnętrzną, ograniczone jest ze względu na niską gęstość nasypową (300–700 kg.m-3), niejednorodność oraz rozproszenie źródeł jej pozyskiwania [12]. Stosując kotły pyłowe, dodatkowym problemem przy mieleniu mieszanki węgla i biomasy w młynach węglowych staje się dotrzymanie wymagań przemiałowych zmodyfikowanego składu mieszanki paliwowo-powietrznej. Struktura włóknista biomasy znacznie odbiega od tej, która tworzy węgle energetyczne (szczególnie kamienne), przez co może się przyczyniać do pogarszania jakości przemiału paliwa dedykowanego. Pogorszenie jakości przemiału przekłada się następnie na pracę samego kotła [23]. Do pozostałych stwierdzonych problemów eksploatacyjnych podczas współspalania węgla z biomasą zalicza się m.in. wzrost emisji HCl w spalinach (zawartość chloru do 0,6% w biomasie; intensyfikacja korozji chlorkowej) [12], obniżenie temperatury spalin (wzrost emisji tlenku węgla (II)) [18], spadek temperatury topnienia popiołów (obecność alkaliów, krzemionki oraz chloru przyczynia się do spadku temperatury mięknięcia nawet do 730°C i zjawisk żużlowania i popielenia) [17], ryzyko cofnięcia się płomienia do pyłoprzewodu (biomasa reaguje szybciej niż węgiel kamienny – wymagane są bezpieczniki przeciwogniowe), zagrożenia pożarowo-wybuchowe (części lotne w przypadku biomasy wydzielają się przy niższych temperaturach niż ma to miejsce w węglach kamiennych). Ze względu na różnice w charakterystykach zapłonu biomasy i węgla wymagane są także nowe powierzchnie magazynowe. Zidentyfikowane problemy eksploatacyjne skutkują spadkiem sprawności kotła, a co jest z tym związane – wzrostem emisji zanieczyszczeń na jednostkę produkowanej energii (wzrost emisji CO2 o 2,5% na każdy 1 punkt procentowy [18]). Problemy natury technicznej podczas współspalania można ograniczać poprzez budowę dedykowanych instalacji młynowych na dodatkowe paliwo, oddzielnych
palników bądź też całych kotłów opalanych jedynie biomasą [23]. Celowe staje się także przetwarzanie samej biomasy w tzw. biopaliwa, cechujące się mniejszym zawilgoceniem, korzystniejszą gęstością nasypową, wyższą kalorycznością oraz częściowo zbliżonymi parametrami fizykochemicznymi w stosunku do węgla. Co zrozumiałe, prowadzone w tym celu zabiegi uszlachetniania lub waloryzacji wymagają pewnych nakładów finansowych. Ich poziom winien gwarantować konkurencyjność – ekonomiczną, techniczną – powstającego biopaliwa względem paliw kopalnych. Torefakcja Opisane w poprzednim rozdziale zjawiska można ograniczyć m.in. poprzez odpowiednie przygotowanie biomasy za pomocą co najmniej jednej z metod jej tzw. waloryzacji. Skupiają one techniki mechaniczne, termiczne oraz chemiczne umożliwiające konwersję paliwa do innej postaci lub też zmianę części jego własności fizykochemicznych [8]. Popularne obecnie metody mechaniczne i termiczne (rozdrabnianie, peletyzacja, suszenie) są najczęściej niewystarczające do uzyskania korzystnych parametrów użytkowych w przypadku kotłów pyłowych. Znacznie większy potencjał wykazuje tu torefakcja – niestosowana jeszcze w skali przemysłowej, lecz uznawana za metodę przyszłościową [7]. Torefakcję (prażenie, powolną pirolizę) stanowi termiczna obróbka stałego paliwa biomasowego w atmosferze inertnej (bez dostępności utleniacza, tj. λ ≈ 0) przy ciśnieniu atmosferycznym. Typowy czas przebywania przetwarzanego materiału w podwyższonej temperaturze (na poziomie 200–350°C) zawiera się w zakresie 15–90 min [22]. Produktami procesu są: stały karbonizat (tzw. biowęgiel) oraz torgaz (głównie para wodna oraz CO2). Ze względu na czas oraz temperaturę, w przeciwieństwie do innych procesów obróbki termicznej paliwa, nie powstają w nim znaczące ilości ciekłych produktów [2, 4]. Torefakcja zasadniczo przyczynia się do jednoczesnego pozbycia się wilgoci z paliwa (efekt suszenia), częściowego odgazowania oraz zmian strukturalnych (zjawisko rozrywania łańcuchów ligniny i celulozy w wyniku działania podwyższonej temperatury [5]), prowadząc do zwiększenia wartości opałowej, ujednolicenia paliwa oraz poprawy jego własności fizykochemicznych pod kątem współspalania z węglem. W przypadku energetyki znajduje on zastosowanie m.in. przy wstępnej obróbce biomasy na potrzeby późniejszego jej zgazowania z wykorzystaniem generatorów strumieniowych (dzięki zmniejszeniu stosunku O/C w paliwie) [9, 16]. Proces dzieli się na pięć głównych etapów: 1. nagrzewanie substratu 2. jego suszenie (do 100°C, swobodne usunięcie wilgoci – dehydratacja) 3. pośrednie ogrzewanie 4. prażenie właściwe (powyżej 200°C) 5. chłodzenie. Zasadniczy ubytek masy paliwa ma miejsce w 4 etapie, co jest spowodowane postępującym procesem odgazowania (odparowanie związków organicznych o temperaturze parowania poniżej temperatury procesu). Chłodzenie w atmosferze inertnej (poniżej 150°C [5]) pozwala na uniknięcie
69
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | translation 60–67
samozapłonu karbonizatu w kontakcie z zawierającym utleniacz powietrzem. Temperatura procesu oraz czas przebywania w jego obrębie powinny zostać dobrane indywidualnie dla każdego rodzaju biomasy. Zbyt wysoka temperatura (najczęściej ponad 350°C) może prowadzić do powstawania węgla drzewnego, zaś zbyt długi czas prażenia nie przyczynia się do zasadniczych zmian w obrębie karbonizatu, co ogranicza wydajność instalacji i zwiększa energochłonność procesu [5]. Także w przypadku zmian strukturalnych, zachodzących w obrębie powstającego biopaliwa stałego, wskazuje się na indywidualne reżimy temperaturowe procesów: suszenia, depolimeryzacji oraz odgazowania różnych polimerów (hemicelulozy, ligniny oraz celulozy). W zakresie temperatur procesu torefakcji jedynie dwa pierwsze polisacharydy napotykają na warunki do karbonizacji oraz wstępnej pirolizy właściwej. Fakt ten prowadzi do wniosku, że jakość otrzymywanego biowęgla będzie zależna od struktury paliwa wejściowego. Co istotne, wydzielające się części lotne będą różne dla różnej biomasy wejściowej przy zadanych parametrach procesowych. Podczas torefakcji następuje ubytek masy i energii w stosunku do paliwa wsadowego. Wysokie temperatury procesu skutkują uwalnianiem się wilgoci oraz lotnych związków (najintensywniej przy 250–500°C [16]) stanowiących ok. 23–30% masy początkowej paliwa oraz 10% potencjału energetycznego (rys. 1.). Wartości te wskazują na zagęszczenie energii w obrębie karbonizatu (o ok. 30% w stosunku do substratów), co jest zjawiskiem pożądanym w ekonomicznym transporcie nośników energii chemicznej [4] [5]. Dzięki torefakcji paliwo staje się kruche (poprawa własności przemiałowych dzięki rozerwaniu struktury włóknistej), a nowe właściwości hydrofobowe przyczyniają się do mniejszej pochłanialności wilgoci (maksymalnie 2% [9]) oraz zwiększonej odporności na degradację biologiczną (dehydratacja i zniszczenie grup hydroksylowych ogranicza zdolność do formowania wiązań wodoru z wodą [5]). Co więcej, skład pierwiastkowy uzyskiwanego biopaliwa jest bardziej zbliżony do węgla – w stosunku do biomasy surowej maleje proporcja O/C oraz H/C (diagram van Krevelena) [22]. Powstające paliwo jest też bardziej jednorodne niż substrat wprowadzany do procesu, a usunięcie wraz z częściami lotnymi kwasów organicznych oraz innych niskokalorycznych substancji (w tym powodujących dymienie) przyczynia się do poprawy bilansu energetycznego procesu spalania [16]. Zawiera ono również mniej prekursorów substancji smolistych [23]. Stosując torefakcję, skraca się także czas zapłonu części lotnych oraz koksu, zwiększając tym samym stosowalność paliwa w technologiach fluidalnych [5]. Ze względu na zmiany strukturalne i fizykochemiczne zapłon karbonizatu następuje szybciej i w niższych temperaturach niż w surowej biomasie. Sam proces spalania przebiega z kolei w dłuższym przedziale czasowym (mniej części lotnych) oraz generuje więcej ciepła [3]. Wraz ze zidentyfikowaniem mechanizmów fizykochemicznych zachodzących podczas torefakcji oraz określeniem jej
70
Rys. 1. Bilans masy i energii procesu torefakcji, źródło: opracowanie własne: M – % masy wprowadzanej do procesu, E – % energii wprowadzanej do procesu
wpływu na jakość biopaliw podjęto pierwsze próby komercjalizacji rozwiązania w skali przemysłowej. Pojawiły się różne rozwiązania techniczne reaktorów do torefakcji – w przypadku rozwiązań na wielką skalę stosować można m.in. reaktory taśmowe (ang. belt dryer), śrubowe (ang. screw reactor), bębnowe (ang. rotating drum), półkowe (ang. multiple hearth furnace), fluidalne (ang. torbed reactor), mikrofalowe (ang. microwave reactor) lub ze złożem ruchomym (ang. moving compact bed) [23]. Przegląd różnych technologii zamieszczono w pracy [11]. O ile proces torefakcji w przypadku przemysłu energetycznego ogranicza się obecnie głównie do instalacji pilotowych (częściej spotykana jest w sektorze budownictwa czy produkcji mebli [10]), o tyle w najbliższej przyszłości winna ona ulec rozpowszechnieniu. Co ważne, niezbędne jest uwzględnienie faktu, że każdy rodzaj biomasy wymaga odrębnych warunków prażenia (czas, temperatura) oraz instalacji transportowej. Wymaga to nawiązania stałej współpracy z lokalnymi producentami biomasy, gwarantującymi stabilne dostawy danego rodzaju materiału o zbliżonych parametrach użytkowych. Po raz pierwszy proces przemysłowej torefakcji, skierowanej na produkcję paliwa stanowiącego substytut koksu hutniczego, został wdrożony w postaci pilotażowej we Francji (w Laval-de-Cere) już w latach 80. XX wieku. Substratem były w tym przypadku odpady leśne w postaci drewna, w ilości pozwalającej na uzysk 12 tys. ton rocznie karbonizatu [2]. Ze względu na gabaryty (ślimakowy reaktor pośredni), trudności w utrzymaniu stabilnej temperatury oraz niskiej sprawności energetycznej (maksymalnie 75%) rozwiązanie to nie znalazło szerszego zastosowania i po 10 latach zostało wycofane z eksploatacji. Doświadczenia z pracy powyższej instalacji posłużyły jednak do kontynuacji prac laboratoryjnych oraz powstania nowych, bardziej konkurencyjnych rozwiązań. Jedną ze współcześnie rozwijanych technologii torefakcji jest układ bazujący na reaktorze bezpośrednim, realizowany przez Energy Research Centre of the Netherlands (ECN). Powstający w nim strumień torgazu jest częściowo zawracany do reaktora, stanowiąc czynnik wykorzystywany do suszenia oraz torefakcji (po uprzednim podgrzaniu). Produkt ten składa się głównie z pary wodnej (H2O), dwutlenku węgla (CO2) oraz części palnych: tlenku węgla(II) (CO) i metanu (CH4). W belgijskim Amel z kolei istnieje już zakład produkujący pellet i węgiel drzewny
(do 40 tys. ton rocznie) ze stałego produktu procesu torefakcji. Powstające biopaliwo jest przeznaczone do współspalania w pobliskiej elektrociepłowni, która zasila reaktor ciepłem sieciowym. Blisko 50% większą zdolnością produkcyjną charakteryzuje się holenderska instalacja Topell Energy z reaktorem wielostopniowym Torbed. Poza Belgią i Holandią wiele instalacji powstaje (bądź istnieje) również w Hiszpanii (San Sebastian), Austrii (Frohnleiten), Stanach Zjednoczonych (Crockett) oraz Kanadzie (Terrace). Innym rozwiązaniem zagadnienia torefakcji, dedykowanym przede wszystkim dla substratu w postaci słomy, może być użycie fontannowego złoża fluidalnego, w którym czynnik fluidyzujący o odpowiedniej temperaturze i składzie pozwala na efektywny proces prażenia niskotemperaturowego biomasy [14]. Zasadniejsze staje się także stosowanie reaktorów bezpośrednich ze złożem ruchomym, pozwalające na skrócenie czasu prażenia oraz obniżenie kosztów produkcji. Należy zaznaczyć, że przemysłowej produkcji biowęgla powinien towarzyszyć proces peletyzacji. Nie prowadzi on do nadmiernego skomplikowania linii technologicznej (może on być realizowany z wykorzystaniem infrastruktury linii produkcyjnych pelletów konwencjonalnych), umożliwia jednak poprawę objętościowej gęstości energii powstającego biopaliwa, co rzutuje na koszty transportu materiału. Rozdrabnianie surowca przy tego typu rozwiązaniu odbywa się po torefakcji, co pozwala na zmniejszenie nakładów energetycznych, natomiast zintegrowanie procesów suszenia, pirolizy oraz peletyzacji umożliwia uzyskiwanie biopaliwa o korzystnych właściwościach, przy maksymalnym wykorzystaniu energii dostarczanej do instalacji. Przykładem może być holenderski ECN Biomass, który opracował metodę jednoczesnej torefakcji i peletyzacji o nazwie TOP Pellets. Powstające w niej biopaliwo zawiera więcej energii chemicznej w jednostce objętości (do 15,5 GJ/m3) niż pellet z biomasy, uprzednio przetworzonej jedynie metodami mechanicznymi (do 10,5 GJ/m3) [23]. Ważnym punktem przemysłowego procesu torefakcji są ceny produkowanego biopaliwa. Winny być one konkurencyjne w stosunku do węgli energetycznych lub też powinny umożliwiać uzyskanie korzystnych wskaźników ekonomicznych bloku (także dzięki redukcji emisji zanieczyszczeń czy też uzyskiwanym subwencjom zewnętrznym). Średnia cena węgla dla odbiorców przemysłowych zawiera się,
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | translation 60–67
wg JSW SA, w granicach 300 zł za tonę, co przy kaloryczności 27 MJ/kg daje indeks 11,1 zł/ GJ. Po przyjęciu, że transport stanowi, w zależności od uzyskanych upustów, 14–29% kosztów zakupionego paliwa [19], zakup i przewóz węgla na odległość 200 km wskazuje na łączną kwotę 342–387 zł/t (12,7–14,3 zł/ GJ). Koszty produkcji tony pelletu z karbonizatu (proces TOP Pellet) wg autorów [23] w warunkach polskich mogą wynosić ok. 340 zł, przy nominalnej wielkości produkcji 56 tys. ton rocznie. Przeliczając wartość na GJ energii chemicznej, otrzymuje się wartość na poziomie 16,5 zł/GJ. Koszt transportu oraz składowania wg [11, 21] wyniesie dla metody TOP 10–14 zł za każdy GJ energii (ok. 300 zł za tonę paliwa). Łącznie z kosztami związanymi z wytwarzaniem daje to więc ok. 660 zł za tonę biopaliwa, co stanowi wartość blisko dwukrotnie wyższą w porównaniu z paliwem węglowym (ok. 360 zł/t) – głównie ze względu na wysokie koszty transportu pelletów. Porównując ją jednak do kosztów całkowitych towarzyszących spalaniu pelletów konwencjonalnych, to jest ona blisko o 20% niższa [13]. Co więcej, po odpowiednich zabiegach logistycznych i marketingowych można się spodziewać dodatkowej redukcji kosztów transportu pelletów nawet o połowę [5]. Dalszej redukcji kosztów produkcji elektryczności (wg URE w 2014 roku średnia cena energii elektrycznej dla jednostek centralnie dysponowanych węglem wyniosła 178,18 zł/MWh, a średnioważony koszt węgla, z uwzględnieniem transportu – 86,55 zł/MWh) należy się spodziewać także poprzez ograniczenie opłat za korzystanie ze środowiska naturalnego (emisje NOy, SOx, Hg, popiołu), czy też łącznych kosztów związanych z instalacjami ochrony atmosfery. W przypadku kosztów produkcji pelletów II generacji, to koszt ich wytwarzania może być nawet o 25% wyższy aniżeli biopaliwa wytwarzanego w sposób konwencjonalny (z biomasy nieprzetwarzanej termicznie). Wskazano w tym przypadku na cenę jednostkową za tonę biopaliwa na poziome 650 zł dla pelletów z biomasy drzewnej i agro (głównie słomy) oraz 820 zł dla tego samego substratu, poddanego jednak uprzedniej torefakcji [5]. Porównanie własności poszczególnych nośników energii W tab. 1. przedstawiono parametry fizykochemiczne biomasy surowej oraz poddanej torefakcji, w różnych temperaturach procesowych, wraz z porównaniem do typowych węgli: kamiennego oraz brunatnego. W przypadku biomasy zbożowej maksimum zmian w rozpatrywanym zakresie temperatur odnotowano przy wartości 270°C. W tej temperaturze wartość opałowa paliwa wynosi 27 MJ/kg. Dla biomasy drzewnej, przy temperaturze 290°C, dalej postępował zasadniczy proces pirolizy, przejawiający się przede wszystkim postępującymi zmianami we własnościach fizykochemicznych. W przypadku biomasy typu agro już temperatura 230°C przyczyniła się do znaczących zmian matrycy pierwiastkowej generowanego paliwa w stosunku do substratu. Uzyskana zawartość części lotnych oraz tlenu w otrzymywanym biopaliwie była zbliżona jakościowo do niskokalorycznych węgli energetycznych.
Wt
A
V
Qi
C
H
N
S
O
O/C
H/C
próbka % wag
MJ/kg
% wag
–
przykładowe węgle energetyczne węgiel kamienny
2,4
7,8
34,9
27,0
77,2
4,6
1,2
1,1
5,7
0,07
0,06
węgiel brunatny
4,4
16,1
44,4
18,9
55,2
4,5
0,7
1,8
17,3
0,31
0,08
pellet zbożowy surowy
7,2
2,3
82,4
17,2
45,5
6,5
2,2
0,1
36,2
0,80
0,14
230°C, 30 min
2,5
4,9
51,7
24,7
62,1
5,2
3,8
0,1
27,9
0,48
0,10
250°C, 30 min
2,1
4,9
50,3
25,3
62,9
5,3
4,0
0,1
20,7
0,35
0,10
270°C, 30 min
1,1
6,1
39,8
27,4
66,5
4,9
4,3
< 0,1
17,1
0,27
0,09
290°C, 30 min
0,8
6,1
38,7
27,5
66,7
5,0
4,3
0,1
17,0
0,25
0,07
pellet drzewny surowy
6,7
0,9
84,0
20,0
51,7
6,1
0,3
< 0,1
34,3
0,66
0,12
230°C, 30 min
2,4
1,7
66,8
23,0
58,7
5,8
0,2
< 0,1
31,2
0,53
0,10
250°C, 30 min
2,1
1,6
65,8
23,5
59,6
5,8
0,2
< 0,1
30,7
0,52
0,10
270°C, 30 min
2,5
1,9
59,3
24,8
63,3
5,6
0,3
< 0,1
26,4
0,42
0,09
290°C, 30 min
0,7
2,4
46,1
27,4
67,9
5,2
0,4
< 0,1
23,4
0,34
0,08
Tab. 1. Porównanie własności fizykochemicznych różnych karbonizatów z torefakcji (stan analityczny, czas prażenia 30 min), źródło: [6]: C, H, N, S, O, Hg – udziały wagowe poszczególnych pierwiastków, Qi – wartość opałowa, V – zawartość części lotnych, A – zawartość popiołu, Wt – zawartość wilgoci całkowitej
Rys. 2. Diagram van Krevelena dla analizowanych paliw, źródło: opracowanie własne
Jak wskazują niezależne badania, za optymalną temperaturę dla procesu powolnej pirolizy można uznać 250–300°C. Dalsze zwiększanie temperatury procesu może prowadzić do uzyskiwania wartości ciepła spalania karbonizatu na poziomie 30 MJ/ kg, zawartości wodoru 3–4% oraz węgla do 80%, natomiast wskaźnika FC na poziomie 75% [16]. Analiza diagramu van Krevelena (rys. 2.) pozwala na stwierdzenie, że na drodze torefakcji można uzyskać paliwo zbliżone składem do niskowęglowych węgli energetycznych (brunatnych). Tezę potwierdzają niezależne badania opublikowane w pracy [22]. Na drodze badań stwierdzono, że na jakość uzyskiwanego biopaliwa wpływ mają takie parametry jak rodzaj substratów oraz
temperatura procesu. Co więcej, także w przypadku różnych czasów przebywania paliwa w obszarze reaktora należy się spodziewać produktów różniących się między sobą. Długość procesu jest o tyle ważna, iż biomasa o większej zawartości wilgoci dłużej będzie podlegać etapowi suszenia, a tym samym zasadnicza piroliza niskotemperaturowa nastąpi później w paliwie mniej wilgotnym [16]. Wraz ze wzrostem temperatury następował wzrost wartości opałowej powstającego biopaliwa. Największa odnotowana wartość biopaliwa w stanie analitycznym była zbliżona do węgla kamiennego. W przypadku stanu roboczego paliwa, ze względu na korzystne właściwości hydrofobowe biopaliwa, może ona ulec nawet zrównaniu.
71
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | translation 60–67
Pozwala to na wprowadzanie większej ilości energii z OZE do kotła, przy zachowaniu zadanego udziału masowego biopaliwa w obrębie spalanej mieszanki. Wnioski W pracy przedstawiono zagadnienie torefakcji jako procesu umożliwiającego zwiększenie popytu na biopaliwa ze strony wytwórczego sektora energetycznego. Wskazano na problemy eksploatacyjne, występujące w czasie spalania jedynie mechanicznie przetworzonej biomasy oraz korzyści, które w tym przypadku wnosi poddanie jej opisywanemu procesowi. Oszacowano również indeksy cen: karbonizatu oraz węgla kamiennego w odniesieniu do realizacji przedsięwzięcia w skali przemysłowej. Korzystne cechy biopaliwa stałego pochodzącego z procesu torefakcji, tj.: niska zawartość wilgoci, hydrofobowość, trwałość, jednorodność, korzystne własności przemiałowe, zagęszczanie energii chemicznej w obrębie objętości paliwa, stanowią o korzystnej stronie procesu powolnej pirolizy. Po torefakcji uzyskuje się paliwo o kontrolowanej, stałej jakości przy relatywnie stabilnych kosztach wytwarzania. Pozwala to na trafniejszy dobór infrastruktury do współspalania, niższe koszty eksploatacyjne związane z jej funkcjonowaniem na terenie bloku węglowego oraz redukcję części zagrożeń związanych z obecnością biomasy na składowiskach, w komorze paleniskowej oraz ciągu spalinowym. Torefakcja w niewielkim stopniu ogranicza zjawiska korozyjne oraz intensywność żużlowania i popielenia [2], przyczynia się jednak do poprawy właściwości przemiałowych oraz zbliżenia udziału części lotnych i matrycy pierwiastkowej do poziomu węgli energetycznych. Torefakcja na skalę przemysłową może być stosowana w instalacjach spalania tlenowego (technologia Oxy Fuel), gdzie azot, stanowiący odpad z instalacji wytwarzania tlenu, np. na drodze kriogenicznej separacji powietrza, może być ogrzewany ciepłem odpadowym (np. przez spaliny) oraz kierowany do reaktora (np. fluidalnego). Ze względów ekonomicznych zasadne staje się także kojarzenie instalacji niskotemperaturowej karbonizacji w otoczeniu elektrociepłowni – ciepło nadmiarowe (np. w okresie letnim) może przykładowo zasilać reaktor pracujący okresowo. Powstające biopaliwo może być następnie bezpiecznie składowane oraz wykorzystywane w kotłach węglowych w czasie sezonu grzewczego. W przypadku energetyki zawodowej znacznym ograniczeniem są obecnie osiągane wydajności instalacji. Wskazuje się na planowane wydajności przyszłych instalacji równe na poziomie 20–60 tys. ton rocznie. Zastosowanie technologii mikrofalowej Rotawave brytyjskiego CanBiocoal powinno umożliwiać osiągnięcie produkcji równej nawet 110 tys. ton pelletów rocznie [6, 23]. Przy 10-procentowym udziale biopaliwa (o kaloryczności na poziomie 27 MJ/kg w stanie roboczym) strumień ten pozwoli na współspalanie z węglem kamiennym, o podobnej kaloryczności, w bloku o mocy elektrycznej netto na poziomie 460 MWel (przy dyspozycyjności bloku na poziomie 80% i sprawności netto rzędu 40%). Wskazuje się, że w przypadku holenderskiej technologii ECN jej planowana wydajność
72
w skali przemysłowej winna osiągnąć poziom największych linii produkcyjnych standardowych pelletów – co najmniej 100 tys. ton rocznie. Inne dane wskazują na plany osiągania w tym czasie wydajności rzędu nawet 1 mln ton (firma Topell) [5]. Wykorzystanie torefakcji pozwoli na powiększenie źródeł biomasy (pochodzenie, jakość, rodzaj) stosowanej na cele energetyczne, natomiast peletyzacja powstającego w niej karbonizatu może się przyczynić do poprawy wskaźników ekonomicznych [1]. Wzrost cen produkcji biopaliwa jest kompensowany poprzez wzrost parametrów energetycznych, a tym samym spadek kosztów przypadających na jednostkę energii chemicznej zakumulowanej w paliwie. Poza rozpatrywanymi blokami dużej mocy karbonizat w postaci pelletów może być stosowany w paleniskach retortowych, rusztowych, fluidalnych czy też w specjalnych palnikach do pelletów, co znacznie zwiększa jego wykorzystanie również w innych instalacjach energetycznych, także mniejszych mocy. Pellety tzw. drugiej generacji, po przemysłowym rozpowszechnieniu technologii ich wytwarzania, powinny stanowić wartościowe paliwo dedykowane dla energetyki zawodowej (spalanie, współspalanie z węglem, zgazowanie), technologii produkcji paliw płynnych, przemysłu chemicznego i metalurgicznego (jako środek redukcyjny) oraz indywidualnych układów grzewczych (kominki, kotły na pellety). Istotną kwestią pod kątem opłacalności ich stosowania – w obecnych warunkach dość niekorzystnej w porównaniu z węglem kamiennym – stanie się bez wątpienia odpowiednia logistyka oraz ewentualne subsydia związane z wdrażaniem odnawialnych źródeł energii w sektorze węglowym. Podziękowania Autorzy składają podziękowania dr. inż. Krzysztofowi Czajce za pomoc w realizacji przytoczonych badań oraz prof. dr. hab. inż. Wiesławowi Rybakowi za pomoc merytoryczną. Bibliografia 1. Bergman P.C.A., Combined torrefaction and pelletisation, The TOP process, ECN Biomass report, Petten 2005. 2. Bergman P.C.A. i in., Torrefaction for biomass co-firing in existing coal-fired power stations, ECN Biomass report, Petten 2005. 3. Bridgeman T.G. i in., Torrefaction of reed canary grass, wheat straw and willow to enhance solid fuel qualities and combustion properties, Fuel 2008, Vol. 87. 4. Ilmurzyńska J., Termiczne metody przekształcania biomasy, Instytut Energetyki, Zakład Procesów Cieplnych, Seminarium „Piroliza biomasy”, Wrocław, październik 2013. 5. Jakubiak M., Kordylewski W., Toryfikacja biomasy, Archiwum Spalania 2010, vol. 10, nr 1–2, s. 11–25. 6. Kamiński M., Jakość produktów torefakcji, praca dyplomowa stopnia magisterskiego (promotor: prof. dr hab. inż. Wiesław Rybak), Wrocław: Wydział Mechaniczno-Energetyczny Politechniki Wrocławskiej 2013.
7. Kamiński M., Toryfikacja biomasy – metodologia pomiarów, badania dotyczące jakości produktu procesu, Materiały Konferencji Młodych Naukowców „Wpływ młodych naukowców na osiągnięcia polskiej nauki”, V edycja, cz. 3: nauki inżynieryjne, Kraków: Creativetime, 2014, s. 106–111. 8. Kam i ńsk i M., Ruz i e w i cz A., Cholewiński M., Przegląd wstępnych metod waloryzacji biomasy, Dokonania Młodych Naukowców 2014, nr 5, s. 399–401. 9. Klimiuk E., Pawłowska M., Pokój T., Biopaliwa. Technologie dla zrównoważonego rozwoju, Warszawa 2012. 10. Kopczyński M., Toryfikacja wierzby energetycznej, Energetyka Cieplna i Zawodowa 2012, vol. 2, s. 39–42. 11. Koppejan J. i in., Status overview of torrefaction technologies, IEA Bioenergy Task 32 report, Enschede 2012. 12. Spalanie i paliwa, red. Kordylewski W., Wrocław 2008. 13. Kordylewski W., Współspalanie biomasy z węglem, materiały do kursu „Spalanie i paliwa” [online] http://www.spalanie. pwr.wroc.pl/dydaktyka/wyklad_spal_ en.htm [dostęp: 28.04.2015]. 14. Kordylewski W., Tatarek A., Wybrane właściwości toryfikatów z krajowych i importowanych biomas, Archiwum Spalania 2012, vol. 12, nr 3, s. 109–116. 15. Krajowy Ośrodek Bilansowania i Zarządzania Emisjami, Krajowy bilans emisji SO2, NOx, CO, NH3, NMLZO, pyłów, metali ciężkich i TZO za lata 2011– 2012, Raport syntetyczny, wersja v2, 2014. 16. Kratofil M. i in., Badania procesu toryfikacji biomasy, Polityka Energetyczna 2014, t. 17, z. 4, s. 137–146. 17. Nielsen H.P. i in., The implications of chlorine-associated corrosion on the operation of biomass-fired boilers, Prog. Energy Combustion Science 2000, Vol. 26. 18. Rybak W., Spalanie i współspalanie biopaliw stałych, Wrocław 2006. 19. Stala-Szlugaj K., Koszty dostawy węgla kamiennego do wybranych użytkowników, Polityka Energetyczna 2015, t. 15, z. 2, s. 85–98. 20. Ściążko M., Zuwała J., Pronobis M., Zalety i wady współspalania biomasy w kotłach energetycznych na tle doświadczeń eksploatacyjnych pierwszego roku współspalania biomasy na skalę przemysłową, Energetyka i Ekologia 2006, marzec, s. 207–220. 21. Uslu A., Faaij A., Bergman P., Pre-treatment technologies and their effect on international bioenergy support chain logistics, Techno-economic evaluation of torrefaction, fast pyrolysis and pelletisation, Energy 2008, Vol. 33, s. 1206–1223. 22. Wilk M., Magdziarz A., Kalemba I., Characterization of renewable fuels’ torrefaction process with different instrumental techniques, Energy 2015, nr 87, s. 259–269. 23. Zuwała J., Kopczyński M., Robak J., Ocena efektywności techniczno-ekonomicznej sprzężonego układu toryfikacja-peletyzacja-współspalanie biomasy, Polityka Energetyczna 2014, t. 17, z. 4, , s. 147–158.
M. Cholewiński, M. Kamiński | Acta Energetica 2/27 (2016) | translation 60–67
Maciej Cholewiński
mgr inż. Politechnika Wrocławska e-mail: maciej.cholewinski@pwr.edu.pl Absolwent studiów na kierunku Energetyka na Wydziale Mechaniczno-Energetycznym Politechniki Wrocławskiej. Obecnie doktorant (dziedzina: Energetyka) w Katedrze Technologii Energetycznych, Turbin i Modelowania Procesów Cieplno-Przepływowych (W9/K3) na Politechnice Wrocławskiej, opiekun naukowy: prof. dr hab. inż. Wiesław Rybak. Główne obszary zainteresowań naukowych: prognozowanie emisji zanieczyszczeń z procesów spalania, analizy fizykochemiczne paliw stałych, technologie energetyczne nowej generacji (m.in. energetyka jądrowa, alternatywne źródła energii, wykorzystanie energii odpadowej), komputerowe wspomaganie projektowania. Autor lub współautor ponad 30 publikacji naukowych w recenzowanych czasopismach, stypendysta Wydziału Gospodarki Urzędu Marszałkowskiego Województwa Dolnośląskiego.
Michał Kamiński
mgr inż. Uniwersytet Przyrodniczy we Wrocławiu e-mail: michal.kaminski@up.wroc.pl Absolwent studiów na kierunku Energetyka na Wydziale Mechaniczno-Energetycznym Politechniki Wrocławskiej. Obecnie doktorant (dziedzina: Inżynieria Rolnicza) w Zakładzie Niskoemisyjnych Źródeł Energii i Gospodarki Odpadami na Uniwersytecie Przyrodniczym we Wrocławiu, opiekun naukowy: prof. dr hab. Leszek Romański. Główne obszary zainteresowań naukowych: odnawialne źródła energii i gospodarka odpadami, analiza instalacji z wykorzystaniem metod termowizyjnych, metody pomiaru strumieni przepływu masy i objętości. Autor lub współautor kilkunastu publikacji naukowych w recenzowanych czasopismach, stypendysta Wydziału Gospodarki Urzędu Marszałkowskiego Województwa Dolnośląskiego.
73
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | 74–79
Technical Risk Management in the Process of Planning Distribution Grid Development
Authors Bogdan Czarnecki Piotr Zieliński
Keywords risk management, distribution grid, development planning
Abstract Risk management requires quantification of threats in terms of the probability of the threat occurring, and consequences resulting from the critical occurrences. The greatest threat is posed by the events with a high probability and at least major consequences, as well as events with considerable consequences and at least major probability. In this context, risk management involves undertaking steps aimed at lowering the probability of threatening occurrences and/or minimisation of potential consequences. In the case of risk management related to HV grid development, the most important threat is grid overloads.
DOI: 10.12736/issn.2300-3022.2016206
1. Introduction Power system operators raise funds for the development and modernization of transmission and distribution infrastructure through tariffs approved by the President of the Energy Regulatory Office. One of the goals of the ERO President is to prevent excessive increases in energy prices, and one of the relevant measures is limiting the resources allocated by operators for development of their grid assets. Therefore, the operators have limited funds available for capital expenditures, which in turn forces the optimisation of their allocation. Since such funds available to operators for grid modernization may be insufficient compared to the needs, their suboptimal allocation is associated with a risk of deterioration in the distribution service’s quality and reliability. Risk management requires quantifying threats in terms of the probability and consequences of their occurrence. The greatest threat is posed by events with a high probability and at least medium consequences, as well as those with large consequences and at least medium probability. The greatest threat area is highlighted in red. Risk management involves undertaking steps aimed at lowering the probability of threatening occurrences and/or prevention (minimisation) of potential consequences. In the case of risk management related to HV grid development, the most important threat is grid overload related to incomplete grid topology. One of the grid development planning tasks
Effects
Critical
5
10
15
20
25
Serious
4
8
12
16
20
Medium
3
6
9
12
15
Small
2
4
6
8
10
Minor
1
2
3
4
5
Very low
Low
Medium
High
Very high
Probability
Tab. 1. Risk matrix
is to warrant the energy supply reliability at minimum costs. Implementation of these two contradictory objective functions requires the capex project scope optimisation1 and consideration of planning the system’s development and planning grid operation as interrelated processes2. With growing consumer demand for power and the capacity of connected conventional and renewable sources, the grid operation reliability can be achieved by either: a) eliminating the effects of hazards at the system development planning stage through investment in grid assets, b) minimizing the probability of critical events at the system operations management by identifying and avoiding the coincidence of events constituting a threat to the system.
1 The aim of a capex project is to maximize the benefits from spending limited financial resources. 2 Due to the fact that the optimisation of investment decisions at the development planning stage may result in restrictions (conditions) of the grid operations.
74
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | 74–79
2. Technical risk management One of the development planning tasks is to ensure grid operation reliability and optimise the allocation of investment resources (improvement of investment performance indicators [PLN/reliability_of supply_improvement]). Grid reliability deterioration with growing consumer demand for power and the capacity of connected sources, renewable in particular, may be prevented by: 1. investment in grid assets and system extension; there is a risk associated with the optimisation of conflicting objective functions: to increase grid operation safety and to minimise the investment in system expansion (risk of the project scope’s over- or under-estimation in relation to the real needs) 2. to minimise the risk of critical events or their effects through: a) identification of external factors posing a threat to the grid operation safety, for example a coincidence of selected grid component outages with the level of consumer demand for power or power output to the system from local generation (e.g. wind farms) b) identification of a zero-investments method of avoiding threats – coordination of grid component outages with forecasts of external risk factors, accomplished at the grid operation planning and running stage. Planned outages represent 95% of the grid component outage duration. Their coordination taking into account external factors that contribute to overloads (e.g. demand for power), allows eliminating the risk of overload c) identification of alternative actions for system modernization that offset external risk factors, e.g. consumer load management techniques or wind farms output curtailments. The decision to abandon or postpone a capex project in favour of alternative measures will later result in the need to adjust the rules of grid operation and planning. Treating the processes of grid development planning and of grid operation planning and running in an integrated way allows allocating investment resources in the areas where no alternative risk avoidance measures are available. Grid investments risk management (determination of the optimal scope and sequence of investments) requires a qualitative and quantitative description of the probability of causes, and the extent of threats to the system’s reliable operation, which enables a comparison of costs and benefits. As a result, projects may be selected for postponing, where there are alternative zero-investment measures to counter the risks, and investments may be prioritised based on performance indicators determined on the basis of capital expenditures and estimated avoided threats. A tool for quantitative assessment of the threats to energy supply reliability is the probabilistic power flow methodology.
3. Calculation methodology Deterministic analyses, based on which power grid development is planned, have many constraints preventing a quantitative
description of the system performance in a long-term horizon (15 years), in particular: 1. power flows are calculated for a few arbitrarily selected power system conditions, with assumed power demand in particular HV grid nodes, power output from REs to grid, and grid topology. In fact, the system performance is associated with the occurrence of various combinations of load and generation in individual HV grid nodes and their coincidence with individual grid component outages 2. are based on many simplifying assumptions and do not fully reflect power system’s operating conditions, in particular: a) some of the assumptions and conditions are overly conservative, e.g. the assumption of areal RES generation close to 100% of installed capacity, or of rated lines capacities (regardless of weather conditions). Making investment decisions on the basis of such assumptions can lead to the project’s oversizing, and thus reducing future grid infrastructure utilization rates b) some of the assumptions may be overly optimistic, in particular – the adopted demand for power may not correspond to the extreme loads recorded by SCADA3, the number of simultaneous grid component outages often exceeds the N-1 contingences (for selected cases N-2) taken into account in deterministic analyses. Investment decisions based on such assumptions may prove to be insufficient, and the financial consequences of re-modernisation may prove higher than the cost of extending the original project scope prior to the decision 3. deterministic analyses do not allow to specify the probability of threats to system operation, and therefore they do not allow assessing whether other alternative to investment methods of preventing overload4 are a better solution from the technical and/or financial point of view. To avoid the above power system performance assessment limitations, probabilistic analysis should be applied. These authors propose the Monte Carlo method, used for mathematical modelling of processes too complex for analytical definition. The modelling is based on a random choice of values characterizing the process, selected in accordance with the probability distribution, which must be known. Grid operation is modelled using multiple repeated power flow calculations taking into account the daily and seasonal variations in consumer demand for power, output from power sources connected to HV and MV grids, and grid topology. Variability of operating conditions is modelled randomly based on the statistics developed on data from SCADA systems, while maintaining the correlation between them (e.g. daily-seasonal changes in demand for power in particular nodes and their groups, or power output to grid from single wind farms and their groups, depending on their location). Due to the very large number of results from multiple repeated power flow calculations, they can be analysed by statistical methods only. Probabilistic analysis produces probability distributions of the occurrence of a specific grid operating condition, in particular
3 Accordingly, minimum in the off-peak and maximum at the peak. 4 For example, the coordination of planned outages with external grid operation conditions (weather, volatility of demand for power).
75
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | 74–79
Fig. 1. Pseudo-random time series of group of wind farms generation
of power flows through individual grid components. Statistical analysis of likely overloaded grid components allows investigating the correlation between the occurrences of overload and of certain grid conditions: individual grid component outages, nodal and areal customer demand for power, wind farm power outputs, etc. Power flow model inputs (outages, loads, generation) can be drawn, in accordance with the probability distribution of their occurrence, or obtained from a pseudo-random generator of load and generation sequences. The second option allows for tracking grid condition sequences (e.g. consecutive at sub-area conditions occurring at 15-minute intervals, resulting from the peak power demand and from variable wind generation output), which makes it possible to assess, for instance, single overload duration or analysis of the operation of energy storage with a given capacity, interoperable with a wind farm (storage charging and discharging process).
4. Risk measures As already mentioned, planned outages account for approx. 95% of the total grid component outage duration. Their mutual coordination and correlation with other overload occurrence favouring factors will effectively offset the risk of threats to grid performance. The following summarizes the features, which are critical in the opinion of these authors, which allow one to assess the feasibility of coordinating outages with grid operating conditions in order to avoid overload and to evaluate the purpose and scope of the grid’s necessary upgrade and extension. 1. The average annual energy at risk of being not distributed due to overload. Energy, the transfer of which makes a grid component being overloaded5, depending on the duration of overloads in the year and their magnitudes. A large amount of energy at risk 5 And as a consequence the risk of failure to supply energy to the end users.
76
of being not transfered (in relation to the total annual energy transmitted by the line) is a prerequisite for placing the line high in the ranking of the grid investment list. 2. The average annual duration of a grid component’s overloads. Long overload duration may attest to threats related to outages of multiple grid components or the sensitivity to grid operating conditions (power demand, local generation). Both causes will make the grid component outages coordination difficult, which is a prerequisite for rank the component highly among those in need of upgrade. 3. Average duration of a single overload of a grid component’s. This parameter can be determined by a pseudo-random generator of load and generation sequences, and by taking into account the duration of a single outage of individual grid components. If the average duration of a single overload is short, it is a prerequisite to lower the component’s position in the ranking of items for upgrade. If the analysis resolution <= 15 min, any overload with such duration may be omitted. 4. Number of grid components, the outage of which makes the analysed line overloaded. The higher the number, the more difficult it will be to coordinate the planned outages. A similar analysis should be carried out for pairs of out of order grid components. It has been observed that there are pairs of components, the separate outages of which are not critical (do not cause overload), but their concurrent outage may lead to overload of other lines. Such pairs should be specified in the grid operating guidelines as prohibited outage combinations. 5. Nodal and/or areal customer demand for power, at which the tested grid component gets overloaded. A factor that allows for coordination of outages correlated with energy consumer behaviours. If a relationship is observed between the demand for power, outages of certain
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | 74–79
grid components and overloads of other grid components, risk management requires one to forecast power demand and to develop an outage plan that takes them into consideration. 6. Nodal and/or areal local generation output at which the tested grid component gets overloaded, as in the case of demand for power, forecasts of wind and solar generation output are required, based on numerical weather forecast, for operating coordination of outages.
installed capacity. Correlating the component’s planned outage with the generation output forecast for the next day will allow one to avoid the upgrade of line LP1 to LP4 6. At the same time it may be necessary to upgrade line LPi, if (resulting from the coordination) outages LWn will take place when the wind generation is less than 40% of the installed capacity of farms in the area7. If overloads occur throughout the entire 0% to 100% range of the areal generation, it means that their occurrence is not dependent on the areal generation and that there is not possible to coordinate outages because of weather conditions. Based on the performance statistics of a wind farm group it may be determined for how many hours per year (by seasons and times of day) its wind generation exceeds the permissible level because of the overload of line LP1 to LP4 , and how it can disrupt the outage planning process, in particular: for how much (percentage) of the grid works duration no works may be performed on line LWn, and what is the relationship between the shortened time available for outage of component LWn and the total annual duration of outage LWn, required for normal operation. The coordination of component outages may be complemented with a decision to lower wind farm outputs. To assess the reasons for such output lowering, a wind farm group’s long run production lost costs (over the time by which the lines upgrade has been postponed) should be compared with the avoided upgrade costs. Such WF lost annual output may be relatively eassily quantified. Due to the fact that the WF output in an area is strongly correlated, the longest duration should be selected of the overload of all lines in successive brackets of the WF’s power output to the system, multiplied by WF capacity installed in the area, and the difference [FW power bracket – 60% (no overload)]. In the present example, it will be annually:
5. Risk analysis tools In deterministic analysis of power grid development, the first items to be considered are the grid components that get overloaded. Upgrade decisions are made on the basis of the maximum overloads recorded in N-1 states without taking into account the expected values of energy at risk of being not transfer, average annual overload duration, etc. In risk analyses by probabilistic methods the first items to consider are those grid components the outage of which makes another grid component overloaded. An example list of lines that get overloaded due to the local generation output, while the tested grid component is disconnected, is shown in Tab. 2, which contains the durations [h/a] of line overload at terms of a given grid component’s outage and areal generation output. The overload magnitude is irrelevant in this case, because an excess over the line load carrying capacity has a binary (0/1) nature. For determination of the local areal generation the grid area associated with the tested component must be defined. It is proposed to assume that the area associated with a disconnected component includes the grid nodes, in which a generation (or load) change results in a corresponding change in the power flow through the tested line. Local areal generation means the power output to the grid from the sources (e.g. wind farms) connected in the area, expressed as a percentage of the sources’ installed capacity. In the presented example the outage of grid line LWn is associated with the overload of lines LP1 to LP4, but only at a large wind power output over 70% of the temporary utilization of the
Overloaded component
Electricity at risk of being not transfer [MWh/a]
(1) where: PINST – wind farm capacity installed in the area.
Annual outage duration [h/a]
Local areal generation 0
10
20
30
40
50
60
70
80
90
100
LP1
2.9
13
–
–
–
–
–
–
–
–
10
3
0
LP2
4.4
32
–
–
–
–
–
–
–
6
11
4
1
LP3
2
6
–
–
–
–
–
–
–
–
–
4
2
LP4
5.4
41
–
–
–
–
–
–
–
7
14
5
1
LPi
60
30
20
10
–
–
–
–
–
–
–
–
Total
152
Tab. 2. Overloads of grid components LPi associated with outage of component LWn
6 Provided that the outage of line LW is the only cause for the occurrence of overloads of these components. n 7 This upgrade is all the more justified, because it results from insufficient transmission capacities dedicated to the needs of energy consumers – component overloads
result from lack of local generation, probably at high demand for power.
77
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | 74–79
The result is 5.8 [h] * PINST [MW] = 5.8 PINST [MWh/a]. As shown in the above example, it will not be the sum of the energy at risk of being not transfer by all lines LP1 to LP4 , because the generation reduction to 60% will eliminate overload in all lines. The agreed scope of the coordination of outages of component LWn, reducing the overload of line LP1 to LP4, will be included in the analysis of grid upgrades’ order of the execution. Similar considerations should be carried out for the overloads arising from consumer demand for power. In this case, the outages coordination shall be complemented with load management programs (demand reduction at system operator request). The deliverable is an agreed list of outages of component LWn, coordinated with coordinated with external grid operation conditions. If for component LWn no coordinated list of outages could be agreed upon, the option of building a new line LWm parallel to LWn should be considered. It is assumed that at least one of the lines will be in operation. The criterion for the choice between building a new line LWm (if technically feasible) and upgrading all components LP1 to LP4 is the capital expenditure. It should be borne in mind that the selection algorithm of upgrade scope LP1 to LPi admits options of incomplete elimination of overloads, while the construction of a new line eliminates them completely. Subjected to similar analysis should be all components LWn, the outages of which give rise to overloading other grid components. If for overloaded component LPi successfully agreed upon has been the coordination of all overload causing outages LW1 to LWn, the upgrade may be postponed. Other overloaded components, for which the coordination of all outages has not been successfully agreed upon, should be arranged in order of their upgrades’ importance in such a way that the invested funds are spent in the most effective manner. Example data for the analysis is compiled in Tab. 3, which contains a percentage breakdown of the total energy at risk of being not transfer by intervals specified by overload magnitudes. Possible upgrade scopes are the discrete values resulting from changes in operating temperature or conductor cross-section8.
Overloaded component
Electricity at risk of no-transfer [MWh/a]
Total annual Average overload single overduration [h/a] load duration
The investment efficiency measure is an index determined as the ratio of total cost of grid reinforcement in reference to energy recovered (production lost in the zero-investment option, which will be recovered after the project completion):
(2)
where: – efficiency ratio of investment in upgrade of line i in option k 9, C – grid asset life time [years], – cost of reinforcement of line i in option k, – cost of energy at risk of not being transferred through line i (cost of not carried out reinforcement of line i above option k ), – energy recovered through reinforcement line i at outage of component n, which may be transmitted upon completion of upgrade k, n – number of switched-off grid component i – number of overloaded line, k – line i upgrade option that warrants a certain increase of load carrying capacity, Cost of the abandoned upgrade of line i above option k is related with energy at risk of no-transfer10 and is a kind of penalty for the system operator for failure to transmit the required energy. The sum of capital expenditures and abandoned reinforcement costs constitute the total cost incurred by the operator. Energy recovered (transmitted) is an gain. Index illustrates the effectiveness of capex outlays in time horizon c. Cost of abandoned upgrade of line i above option k may be determined as function: (3) where: – electricity not transmitted by line i at outage of
Electricity at risk of no-transfer, depending on overload magnitude
0%
10%
20%
30%
40%
50% 1%
LW1
2.9
13
47%
24%
20%
6%
3%
LW2
4.4
32
56%
27%
13%
3%
1%
60%
70%
LW3
2
6
63%
26%
5%
5%
LW4
5.4
41
32%
25%
17%
11%
6%
5%
3%
1%
44%
25%
16%
7%
4%
2%
1%
0%
LWn
60
Total
152
80%
90%
100%
Tab. 3. Overloads of grid component LPi associated with outages of grid components LWn
8 For example, an increase from 40°C to 60°C or 80°C of the of the operating temperature of a 240 mm2 conductor results in an increase in its load carrying capacity in
summer, respectively to 170% and 200% of the original cpacity.
9 Upgrade option means here the transmission capacity increase from the upgrade. 10 When upgrade option k does not ensure complete elimination of line i overload.
78
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | 74–79
component n, due to insufficient scope of upgrade k, CK – penalty for failure to transmit the electricity; . The type of function describing the dependence of not transmitted electricity cost should be chosen empirically. The increase in upgrade scope will increase , decline , with a concurrent increase (formula(2)). If however the function of determination will prefer a deep upgrade scope (large. with relatively small ), this can lead to a substantial increase in capex costs, with a slight increase in „recovered” electricity 11.
6. Conclusions Investment risk management based on stochastic analysis results involves in particular: 1. identification of the risks that can be avoided without investment, by management of planned grid component outages, and postponement of the reinforcements for which there are alternative technical solutions of reducing risk occurrence 2. optimisation of the scope of HV grid reinforcement taking into account the probability of risks occurring and their potential effects (increase or decrease in the grid reinforcement scope in relation to the results of deterministic analyses) 3. prioritization of grid reinforcements with regard to cost and grid performance improvement, for instance giving priority to the upgrade of a line moderately overloaded over a relatively long time in the year, over a line exposed to large overloading but for a short time in the year (unlikely occurrence).
As a result, improved efficiency of investment in HV grid development should be expected. The proposed methodology allows a quantitative assessment of the risks in terms of the likelihood of occurrence of their causes and their magnitudes. The outcomes of the investment risk analyses on the basis of a grid operation’s stochastic simulation include: 1. probability distributions of line loads (overloads) in terms of magnitude, duration and energy at risk of being not transfer 2. guidelines for the coordination of grid component outage planning, allowing one to avoid (reduce the occurrence probability of) overloads: a) array of forbidden combinations of outages of pairs of grid components b) arrays of allowed outages in functions of: areal consumer power demand and of local generation 3. guidelines for complementary actions to coordinate outages, allowing, for example, the development of load management programs (DSR): a) estimated annual duration and magnitude of the reduction of power consumed by customers b) one-time limitation duration (consumer’s propensity to join the program) c) electricity lost in the year d) incidence of limitations.
Bogdan Czarnecki Gdańsk Branch of the Institute of Power Engineering e-mail: b.czarnecki@ien.gda.pl Graduated from the Faculty of Electronics at the University of Electrical Engineering in St. Petersburg (1990), graduated from MBA course at Gdańsk Foundation for Management Development (2002). Since 2000 manager of the Department of System Strategy and Development at the Gdańsk Branch of the Institute of Power Engineering. His professional interest include issues related to power system development planning.
Piotr Zieliński ENERGA-OPERATOR SA e-mail: piotr.zielinski@energa.pl Graduated in power engineering from the Faculty of Electrical and Control Engineering at Gdańsk University of Technology (1976). Manager of Development Office at ENERGA-OPERATOR SA. His professional interests include: long-term planning, engineering calculations, operational development of 110 kV grid, and reactive power management optimisation.
11
As a result, a situation may occur whereby transmission capacity increase is not accompanied by expected increase in demand for power (due to the increase in energy prices containing system expansion costs), which in turn can lead to oversizing the upgrade in relation to actual needs (as projected at the stage of system development analysis).
79
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | translation 74–79
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 74–79. When referring to the article please refer to the original text. PL
Zarządzanie ryzykiem technicznym w procesie planowania rozwoju sieci dystrybucyjnej Autorzy
Bogdan Czarnecki Piotr Zieliński
Słowa kluczowe
zarządzanie ryzykiem, sieć dystrybucyjna, planowanie rozwoju
Streszczenie
Zarządzanie ryzykiem wymaga kwantyfikacji zagrożeń w kategoriach prawdopodobieństwa wystąpienia przyczyn zagrożenia oraz konsekwencji wynikających z zaistnienia krytycznych zdarzeń. Największe zagrożenie stwarzają zdarzenia o dużym prawdopodobieństwie i co najmniej znacznych skutkach oraz zdarzenia o dużych konsekwencjach i co najmniej znacznym prawdopodobieństwie. W tym kontekście zarządzanie ryzykiem polega na podejmowaniu działań mających na celu obniżenie prawdopodobieństwa wystąpienia przyczyn powodujących zagrożenia i/lub minimalizację skutków wystąpienia zagrożeń. W przypadku zarządzania ryzykiem związanym z planowaniem rozwoju sieci WN podstawowym zagrożeniem są przeciążenia sieci.
1. Wstęp Operatorzy systemów elektroenergetycznych pozyskują środki na rozwój i modernizację infrastruktury przesyłowo-dystrybucyjnej poprzez taryfy zatwierdzane przez prezesa URE. Jednym z celów prezesa URE jest zapobieganie nadmiernemu wzrostowi cen energii, m.in. poprzez limitowanie środków przeznaczanych przez operatorów na rozwój majątku sieciowego. Operatorzy funkcjonują więc w warunkach ograniczonych środków inwestycyjnych, co z kolei wymusza optymalizację ich alokacji. W związku z tym, że ilość środków, którymi dysponują operatorzy na modernizację sieci, może być niewystarczająca w stosunku do potrzeb, nieoptymalna ich alokacja wiąże się z ryzykiem pogorszenia jakości i niezawodności usługi dystrybucyjnej. Zarządzanie ryzykiem wymaga kwantyfikacji zagrożeń w kategoriach prawdopodobieństwa wystąpienia oraz konsekwencji zaistnienia krytycznych zdarzeń. Największe zagrożenie stwarzają zdarzenia o wysokim prawdopodobieństwie i co najmniej średnich skutkach oraz zdarzenia o poważnych konsekwencjach i co najmniej średnim prawdopodobieństwie. Obszar największego zagrożenia oznaczono kolorem czerwonym. Zarządzanie ryzykiem polega na podejmowaniu działań mających na celu obniżenie prawdopodobieństwa wystąpienia przyczyn powodujących zagrożenia i/lub zapobieganie (minimalizację) skutków wystąpienia zagrożeń. W przypadku zarządzania ryzykiem związanym z planowaniem rozwoju sieci WN podstawowym zagrożeniem są przeciążenia sieci związane z niepełną topologią sieci. Planowanie rozwoju sieci ma za zadanie m.in. równoczesne zagwarantowanie niezawodności i minimalizację kosztów dostaw energii. Realizacja tych dwóch sprzecznych funkcji celu wymaga optymalizacji zakresu inwestycji1
S k u t k i
Krytyczne
5
10
15
20
25
Poważne
4
8
12
16
20
Średnie
3
6
9
12
15
Małe
2
4
6
8
10
Niewielkie
1
2
3
4
5
Bardzo niskie
Niskie
Średnie
Wysokie
Bardzo wysokie
Prawdopodobieństwo Tab. 1. Macierz ryzyka
i traktowania procesów planowania rozwoju systemu oraz planowania i prowadzenia ruchu jako powiązanych2. Zapewnienie niezawodności pracy sieci, w miarę wzrostu zapotrzebowania na moc odbiorców i mocy przyłączanych źródeł konwencjonalnych i OZE, można zrealizować alternatywnie: a) eliminując skutki wystąpienia zagrożeń na etapie planowania rozwoju systemu, poprzez inwestycje sieciowe, b) minimalizując prawdopodobieństwo wystąpienia zdarzeń krytycznych na etapie planowania i prowadzenia ruchu systemu, poprzez identyfikację i unikanie koincydencji zdarzeń tworzących zagrożenia dla pracy systemu. 2. Zarządzanie ryzykiem technicznym Planowanie rozwoju ma za zadanie m.in. zagwarantowanie niezawodności pracy sieci oraz optymalizację alokacji środków inwestycyjnych (poprawa wskaźników efektywności inwestycji [zł/poprawa niezawodności dostaw]). Zapobieganie przyczynom obniżenia niezawodności pracy sieci w miarę wzrostu zapotrzebowania na moc odbiorców i mocy przyłączanych źródeł, szczególnie OZE, można zrealizować poprzez:
1. inwestycje sieciowe i rozbudowę systemu; powstaje ryzyko związane z optymalizacją wzajemnie sprzecznych funkcji celu: podniesienia bezpieczeństwa pracy sieci i minimalizacji kosztów inwestycyjnych rozbudowy systemu (ryzyko zawyżenia lub zaniżenia zakresu inwestycji w stosunku do rzeczywistych potrzeb) 2. minimalizowanie ryzyka wystąpienia zdarzeń krytycznych lub ich skutków realizowane poprzez: a) identyfikację czynników zewnętrznych stwarzających zagrożenia dla bezpieczeństwa pracy sieci, np. koincydencja wyłączeń wybranych elementów sieci z poziomem zapotrzebowania na moc odbiorców lub mocy oddawanej do systemu przez lokalną generację (np. farmy wiatrowe) b) identyfikację bezinwestycyjnych metod unikania zagrożeń – koordynację wyłączeń elementów sieci z prognozami zewnętrznych czynników ryzyka, prowadzoną na etapie planowania i prowadzenia ruchu sieci. Wyłączenia planowane stanowią 95% czasu trwania wyłączeń elementów sieci. Ich koordynacja uwzględniająca czynniki zewnętrzne, przyczyniające
1 Celem inwestycji jest maksymalizacja korzyści z wydatkowania ograniczonych zasobów finansowych. 2 Ze względu na fakt, że optymalizacja decyzji inwestycyjnych na etapie planowania rozwoju może skutkować ograniczeniami (uwarunkowaniami) prowadzenia ruchu sieci.
80
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | translation 74–79
się do powstawania przeciążeń (np. zapotrzebowanie na moc), pozwala na wyeliminowanie ryzyka wystąpienia przeciążeń c) identyfikację działań alternatywnych dla modernizacji systemu, niwelujących zewnętrzne czynniki ryzyka, np. wykorzystanie technik zarządzania obciążeniem odbiorców lub optymalizacja zakresu ograniczania mocy FW na żądanie operatora systemu. Decyzja o zaniechaniu lub odsunięciu w czasie inwestycji na rzecz działań alternatywnych będzie skutkowała później koniecznością dostosowania zasad planowania i prowadzenia ruchu. Traktowanie procesów planowania rozwoju sieci oraz planowania i prowadzenia ruchu w sposób zintegrowany pozwala na alokację środków inwestycyjnych w obszarach, gdzie nie są dostępne alternatywne dla inwestycji środki unikania ryzyka. Zarządzanie ryzykiem inwestycji sieciowych (określenie optymalnego zakresu i hierarchizacja ważności) wymaga jakościowego i ilościowego opisu prawdopodobieństwa wystąpienia przyczyn oraz wielkości zagrożeń dla niezawodnej pracy systemu, umożliwiającego porównanie nakładów i efektów. W konsekwencji można wskazać inwestycje do odsunięcia w czasie, dla których istnieją alternatywne bezinwestycyjne środki przeciwdziałania zagrożeniom, oraz dokonać hierarchizacji inwestycji w oparciu o wskaźniki efektywności, wyznaczane na podstawie nakładów inwestycyjnych i oszacowanych co do wielkości unikniętych zagrożeń. Narzędziem pozwalającym na ilościową ocenę zagrożeń dla niezawodności dostaw energii jest metodyka probabilistyczna (ang. probabilistic power flow). 3. Metodyka obliczeń Analizy deterministyczne, na których podstawie wykonuje się plany rozwoju sieci elektroenergetycznej, posiadają wiele ograniczeń uniemożliwiających ilościowy opis pracy systemu w horyzoncie długookresowym (do 15 lat), w szczególności: 1. rozpływy mocy wykonywane są dla kilku arbitralnie wybranych stanów systemu elektroenergetycznego, przy założonych: zapotrzebowaniu na moc w węzłach sieci WN, mocy oddawanej do sieci przez OZE, topologii. W rzeczywistości praca systemu jest związana z występowaniem różnych kombinacji obciążeń i generacji w poszczególnych węzłach sieci WN oraz ich koincydencji z włączeniami poszczególnych elementów sieci 2. opierają się na wielu upraszczających założeniach i nie odzwierciedlają w pełni warunków pracy systemu elektroenergetycznego, w szczególności: a) część przyjmowanych założeń i warunków jest nadmiernie konserwatywna, np. zakładanie obszarowej generacji OZE bliskiej 100% mocy zainstalowanej lub przyjmowanie obciążalności linii jako wartości statycznych (pomijanie wpływu
warunków atmosferycznych na obciążalność linii). Podejmowanie decyzji inwestycyjnych na podstawie takich założeń może prowadzić do przewymiarowania planowanych inwestycji, przez co obniżenia przyszłych wskaźników wykorzystania infrastruktury sieciowej b) część z przyjmowanych założeń może być nadmiernie optymistyczna, w szczególności przyjęte wielkości zapotrzebowania na moc mogą nie odpowiadać skrajnym wartościom obciążeń rejestrowanych przez SCADA3, ilość równoczesnych wyłączeń elementów sieci często przekracza uwzględniane w analizach deterministycznych stany N-1 (dla wybranych przypadków N-2). Decyzje inwestycyjne podejmowane na podstawie takich założeń mogą okazać się niewystarczające, a skutki finansowe powtórnych modernizacji większe od kosztów rozszerzenia pierwotnego zakresu inwestycji przed jej podjęciem 3. analizy deterministyczne nie pozwalają określić częstości występowania stanów zagrożenia pracy systemu, przez co nie umożliwiają oceny, czy inne, alternatywne dla inwestycji metody przeciwdziałania przeciążeniom4 nie są lepszym rozwiązaniem z technicznego i/lub finansowego punktu widzenia. Chcąc uniknąć powyższych ograniczeń dla oceny pracy systemu elektroenergetycznego, należy zastosować analizy probabilistyczne. Autorzy proponują metodę Monte Carlo, wykorzystywaną do matematycznego modelowania procesów zbyt złożonych do analitycznego zdefiniowania. Modelowanie polega na losowym wyborze wielkości charakteryzujących proces, a losowanie wielkości charakteryzujących proces dokonywane jest zgodnie z rozkładem prawdopodobieństwa, który musi być znany. Modelowanie pracy sieci polega na wielokrotnym powtarzaniu obliczeń rozpływowych z uwzględnieniem dobowo-sezonowej zmienności zapotrzebowania na moc odbiorców generacji przyłączonej do sieci WN i SN oraz topologii sieci. Zmienność warunków pracy jest modelowana probabilistycznie w oparciu o statystyki opracowane na podstawie danych z systemów SCADA, z zachowaniem korelacji pomiędzy nimi (np. dobowo-sezonowe zmiany zapotrzebowania na moc w GPZ i grupach GPZ lub moc oddawana do sieci przez pojedyncze farmy wiatrowe i grupy farm, w zależności od ich rozmieszczenia). Ze względu na bardzo dużą liczbę wyników otrzymanych na skutek wielokrotnego przeprowadzenia obliczeń rozpływowych, ich analiza jest możliwa wyłącznie metodami statystycznymi. Wynikami analizy probabilistycznej są rozkłady prawdopodobieństwa wystąpienia konkretnych stanów pracy sieci, w szczególności przepływów mocy przez poszczególne elementy sieci. Dla przeciążających się elementów sieci analiza statystyczna pozwala na zbadanie korelacji pomiędzy występowaniem przeciążeń i występowaniem określonych stanów
sieci: wyłączeń poszczególnych elementów, węzłowym i obszarowym zapotrzebowaniem odbiorców na moc, mocy oddawanych do sieci przez farmy wiatrowe itd. Dane wejściowe do modeli rozpływowych (wyłączenia, obciążenia, generacje) mogą być losowane, zgodnie z rozkładami prawdopodobieństwa ich wystąpienia, lub uzyskiwane w wyniku działania pseudolosowego generatora sekwencji wartości obciążeń i generacji. Drugie rozwiązanie pozwala na śledzenie sekwencji stanów pracy sieci (np. następujące po sobie w 15-minutowych interwałach stany podobszaru, wynikające ze szczytowego zapotrzebowania na moc oraz ze zmiennej generacji wiatrowej), dzięki czemu możliwa staje się ocena, np. jednorazowych czasów trwania przeciążeń lub analiza pracy zasobnika energii o zadanej pojemności, współpracującego z farmą wiatrową (proces ładowania i rozładowania zasobnika). 4. Miary ryzyka Jak już wspomniano, wyłączenia planowane stanowią ok. 95% łącznego czasu trwania wyłączeń elementów sieci. Ich wzajemna koordynacja i skorelowanie z innymi czynnikami, sprzyjającymi wystąpieniu przeciążeń, pozwoli skutecznie zniwelować ryzyko zagrożeń pracy sieci. Poniżej zestawiono krytyczne zdaniem autorów cechy pozwalające na ocenę możliwości skoordynowania wyłączeń z warunkami pracy sieci, w celu unikania przeciążeń oraz oceny celowości i zakresu niezbędnych modernizacji i rozbudowy sieci. 1. Średnia roczna ilość energii zagrożonej nieprzesłaniem ze względu na przeciążenia Energia, której przesłanie powoduje przeciążenie elementu sieci5, zależna od czasu trwania przeciążeń w roku i ich wielkości. Duża ilość energii zagrożonej nieprzesłaniem (w relacji do całkowitej rocznej ilości energii przesyłanej przez dany element) jest przesłanką do umieszczenia linii wysoko w rankingu elementów sieci wymagających modernizacji. 2. Średnioroczny czas trwania przeciążeń elementu sieci Długi czas trwania przeciążeń może świadczyć o zagrożeniach związanych z wyłączeniami wielu elementów sieci lub wrażliwością na warunki pracy sieci (zapotrzebowanie na moc, lokalna generacja). Obydwie przyczyny będą utrudniały koordynację wyłączeń elementów sieci, co stanowi przesłankę do umieszczenia elementu wysoko w rankingu elementów sieci wymagających modernizacji. 3. Średni czas trwania pojedynczego przeciążenia elementu sieci Parametr ten można wyznaczyć za pomocą pseudolosowych generatorów sekwencji obciążeń i generacji oraz przy uwzględnieniu czasów jednorazowego wyłączenia poszczególnych elementów sieci. Jeżeli średni czas trwania pojedynczego przeciążenia jest krótki, jest to przesłanka do obniżenia pozycji elementu w rankingu elementów sieci do modernizacji. Jeżeli analiza jest robiona
3 Odpowiednio minimalnym w dolinie i maksymalnym w szczycie. 4 Na przykład koordynacja planowych wyłączeń z zewnętrznymi uwarunkowaniami pracy sieci (pogoda, zmienność zapotrzebowania na moc). 5 A w konsekwencji zagrożenie awarii niedostarczenia energii do odbiorcy.
81
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | translation 74–79
z rozdzielczością <=15 min, przeciążenia o takim czasie trwania można pominąć. 4. Ilość elementów sieci, których wyłączenie powoduje powstawanie przeciążeń badanej linii Im większa ich liczba, tym trudniejsze do skoordynowania będą planowane wyłączenia. Podobna analiza powinna zostać przeprowadzona dla par wyłączanych elementów sieci. Zaobserwowano, że występują pary elementów, których wyłączenie oddzielnie nie jest krytyczne (nie powoduje przeciążeń), jeżeli jednak wystąpi jednocześnie, może doprowadzić do powstawania przeciążeń. Takie pary powinny być wprowadzone do wytycznych prowadzenia ruchu sieci jako zabronione kombinacje wyłączeń. 5. Poziom węzłowego i/lub obszarowego zapotrzebowania na moc odbiorców, przy którym występują przeciążenia badanego elementu sieci Czynnik pozwalający na koordynację wyłączeń skorelowanych z zachowaniem odbiorców energii. Jeżeli zaobserwowano związek pomiędzy zapotrzebowaniem na moc, wyłączaniem określonych elementów sieci i przeciążaniem się innych elementów sieci, zarządzanie ryzykiem wymaga w takich przypadkach wykonywania prognoz zapotrzebowania na moc i tworzenia planu wyłączeń z ich uwzględnieniem. 6. Poziom węzłowej i/lub obszarowej generacji lokalnej, przy którym występują przeciążenia badanego elementu sieci Podobnie jak w przypadku zapotrzebowania na moc, dla operatywnej koordynacji wyłączeń wymagane są prognozy generacji wiatrowej i słonecznej, wykonywane na podstawie numerycznych prognoz pogody. 5. Narzędzia analizy ryzyka Prowadząc deterministyczne analizy rozwoju sieci elektroenergetycznej, w pierwszej kolejności bierze się pod uwagę przeciążające się elementy sieci. Decyzje o modernizacji podejmowane są na podstawie maksymalnych zarejestrowanych przeciążeń w stanach N-1 bez uwzględnienia oczekiwanych: energii zagrożonej nieprzesłaniem, średniego rocznego czasu trwania przeciążeń itd. W analizach ryzyka prowadzonych za pomocą metod probabilistycznych proponuje się w pierwszej kolejności przeprowadzenie badań elementów, których wyłączenia powodują przeciążanie się innych elementów sieci. Przykład zestawienia linii ulegających przeciążeniom ze względu na poziom lokalnej generacji, w warunkach wyłączenia badanego elementu sieci, przedstawiono w tab. 2, która zawiera czasy [h/a], przez które występowało przeciążenie linii, przy zadanym wyłączanym elemencie sieci i poziomie generacji obszarowej. Wielkość przeciążenia nie ma w tym przypadku znaczenia, ponieważ przekroczenie dopuszczalnego obciążenia linii ma charakter dwustanowy (0/1) i jest nieakceptowalne.
Wyznaczenie poziomu obszarowej generacji lokalnej wymaga określenia obszaru sieci powiązanego z badanym elementem. Proponuje się przyjąć, że obszar powiązany z wyłączanym elementem obejmuje węzły sieci, w których zmiana generacji (lub obciążenia) powoduje adekwatne zmiany przepływu mocy przez badany element. Przez obszarowy poziom generacji lokalnej rozumiana jest moc oddawana do sieci przez źródła (np. farmy wiatrowe) przyłączone do tych węzłów sieci, wyrażona jako procent mocy zainstalowanej tych źródeł. Dla przedstawionego przykładu wyłączeniu elementu sieci LWn towarzyszy przeciążanie się linii LP1 do LP4, wyłącznie w warunkach dużej generacji wiatrowej, powyżej 70% chwilowego wykorzystania mocy zainstalowanej. Skorelowanie planowanych wyłączeń elementu z prognozowaną na dzień następny generacją pozwoli na uniknięcie modernizacji linii L P1 do L P4 6. Równocześnie niezbędna może się okazać modernizacja linii LPi, jeżeli (na skutek koordynacji) wyłączenia LWn odbędą się w czasie, gdy generacja wiatrowa będzie mniejsza od 40% mocy zainstalowanej farm w obszarze7. Jeżeli przeciążenia występują w pełnym zakresie generacji obszarowej od 0% do 100%, oznacza to, że ich występowanie nie zależy od generacji obszarowej i nie ma potrzeby koordynacji wyłączeń ze względu na warunki meteorologiczne. Na podstawie statystyk pracy grupy farm wiatrowych możliwe jest określenie, przez ile godzin w roku (w podziale na sezony i godziny doby) generacja wiatrowa przekracza dopuszczalny poziom ze względu na przeciążenia linii LP1 do LP4 oraz określenie, jak bardzo może to zakłócić proces planowania wyłączeń, w szczególności: przez jaki procent czasu pracy służb zajmujących się pracami sieciowymi nie będzie możliwe prowadzenie prac związanych z linią LWn oraz w jakiej relacji pozostają – skrócony czas dostępny dla wyłączeń elementu LWn i łączny roczny czas wyłączeń LWn, wymagany ze względu na normalną eksploatację. Działaniem komplementarnym dla koordynacji wyłączeń elementu może być również decyzja o zaniżaniu mocy farm wiatrowych. Dla oceny zasadności zaniżeń należałoby odnieść wartość produkcji utraconej grupy farm wiatrowych w okresie wieloletnim (czas, na jaki modernizacja sieci została odroczona) do kosztów unikniętych modernizacji linii. Ilościowo roczną produkcję utraconą FW jest stosunkowo łatwo określić. Ze względu na fakt, że produkcja FW w obszarze jest silnie skorelowana, należy wybrać najdłuższy czas trwania przeciążenia wszystkich linii w kolejnych przedziałach mocy oddawanej do systemu przez FW, pomnożyć przez moc zainstalowaną FW w obszarze oraz różnicę [przedział mocy FW – 60% (brak przeciążeń)]. W rozpatrywanym przykładzie będzie to rocznie:
(1)
gdzie: PINST – obszarowa moc zainstalowana farm wiatrowych. W wyniku otrzymujemy 5,8 PINST [MWh]. Jak widać na powyższym przykładzie, nie będzie to suma energii zagrożonej nieprzesłaniem wszystkimi liniami LP1 do LP4 , ponieważ redukcja generacji do poziomu 60% zlikwiduje przeciążenia na wszystkich liniach. Uzgodniony zakres koordynacji wyłączeń elementu LWn, znoszący przeciążenia linii LP1 do LP4, zostanie uwzględniony w analizie kolejności wykonywania modernizacji sieciowych. Analogiczne rozważania należy przeprowadzić dla przeciążeń wynikających z zapotrzebowania na moc odbiorców. W tym przypadku działaniami komplementarnymi do koordynacji wyłączeń będą programy zarządzania obciążeniem (redukcja zapotrzebowania na żądanie operatora systemu). W efekcie otrzymuje się uzgodnioną listę wyłączeń elementu LWn, skoordynowaną z warunkami pracy sieci. Jeżeli dla elementu LWn nie udało się uzgodnić skoordynowanej listy wyłączeń, należy rozważyć opcję budowy równoległego do LWn nowego ciągu liniowego LWm. Zakłada się przy tym, że co najmniej jeden z ciągów będzie załączony. Kryterium wyboru pomiędzy nowym ciągiem liniowym LWm (jeżeli istnieje techniczna możliwość budowy) a modernizacją wszystkich elementów LP1 do LP4 jest koszt inwestycyjny. Należy przy tym uwzględnić, że algorytm wyboru zakresu modernizacji LP1 do LPi dopuszcza warianty niecałkowitej likwidacji przeciążeń, podczas gdy budowa nowego ciągu liniowego znosi je całkowicie. Analogicznej analizie powinny zostać poddane wszystkie elementy LWn, których wyłączenia powodują powstawanie przeciążeń innych elementów sieci. Jeżeli dla przeciążającego się elementu LPi udało się uzgodnić koordynację wszystkich wyłączeń LW1 do LWn, powodujących przeciążenia, to jego modernizację można odsunąć w czasie. Pozostałe elementy przeciążające się, dla których nie zdołano uzgodnić koordynacji wszystkich wyłączeń, należy uszeregować pod względem ważności przeprowadzenia inwestycji w taki sposób, by inwestowane środki były wydatkowane w sposób najbardziej efektywny. Przykład danych do analizy zestawiono w tab. 3, która zawiera procentowy podział całkowitej energii, zagrożonej nieprzesłaniem pomiędzy przedziały określone wielkościami przeciążeń. Możliwe zakresy modernizacji są wielkościami dyskretnymi, wynikającymi ze zmiany temperatur pracy lub przekroju przewodów 8.
6 Pod warunkiem, że odstawienie linii LWn jest jedynym powodem występowania przeciążeń tych elementów. 7 Modernizacja ta jest tym bardziej uzasadniona, ponieważ wynika z niedostatecznych zdolności przesyłowych dedykowanych potrzebom odbiorców energii – przeciążenia elementu spowodowane są brakiem lokalnej generacji, prawdopodobnie w warunkach wysokiego zapotrzebowania na moc. 8 Dla przykładu dla przewodu 240 mm2 zwiększenie temperatury pracy z 40°C do 60°C lub 80°C skutkuje latem wzrostem obciążalności odpowiednio do 170% i 200% pierwotnej obciążalności.
82
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | translation 74–79
Element przeciążający się
Energia zagrożona nieprzesłaniem [MWh/a]
Czas trwania przeciążeń w roku [h/a]
0
10
20
30
40
50
60
70
80
90
100
LP1
2,9
13
–
–
–
–
–
–
–
–
10
3
0
LP2
4,4
32
–
–
–
–
–
–
–
6
11
4
1
LP3
2
6
–
–
–
–
–
–
–
–
–
4
2
LP4
5,4
41
–
–
–
–
–
–
–
7
14
5
1
LPi
60
30
20
10
–
–
–
–
–
–
–
–
Suma
152
Obszarowy poziom generacji lokalnej
Element przeciążający się
Energia zagrożona nieprzesłaniem [MWh/a]
Łączny czas przeciążeń w roku [h/a]
Jednorazowy średni czas przeciążeń
Tab. 2. Zestawienie przeciążeń elementów sieci LPi związanych z wyłączeniem elementu LWn
LW1
2,9
13
47%
24%
20%
6%
3%
LW2
4,4
32
56%
27%
13%
3%
1%
LW3
2
6
63%
26%
5%
5%
LW4
5,4
41
32%
25%
17%
11%
6%
5%
3%
1%
44%
25%
16%
7%
4%
2%
1%
0%
LWn
60
Suma
152
Energia zagrożona nieprzesłaniem w zależności od wielkości przeciążeń
0%
10%
20%
30%
40%
50%
1%
60%
70%
80%
90%
100%
Tab. 3. Zestawienie przeciążeń elementu sieci LPi związanych z wyłączeniami elementów sieci LWn
Miarą efektywności inwestycji jest wskaźnik wyznaczany jako stosunek łącznych kosztów modernizacji i zaniechania modernizacji do energii odzyskanej (zagrożonej nieprzesłaniem w wariancie bezinwestycyjnym, którą uda się przesłać po wykonaniu inwestycji):
(2)
gdzie: – wskaźnik efektywności inwestycji polegającej na modernizacji linii i w wariancie k 9, – koszt modernizacji linii i w wariancie k, – koszt zaniechania modernizacji linii i powyżej wariantu k (koszt nieprzesłania wymaganej ilości energii), – energia zagrożona nieprzesłaniem liną i przy wyłączeniu elementu n, której przesłanie będzie możliwe po zrealizowaniu wariantu modernizacji k, i – numer przeciążającej się linii, n – numer wyłączanego elementu sieci, k – wariant modernizacji linii o numerze i gwarantujący wzrost zdolności przesyłowych o określoną wartość, c – czas życia inwestycji sieciowej [lata].
Koszt zaniechania modernizacji linii i powyżej wariantu k jest związany z energią zagrożoną nieprzesłaniem10 i jest rodzajem kary dla operatora systemu za nieprzesłanie wymaganej ilości energii. Suma nakładów inwestycyjnych i kosztów zaniechań inwestycji konstytuują łączny koszt poniesiony przez operatora. Energia odzyskana (przesłana) stanowi korzyść. Wskaźnik obrazuje efektywność wydatkowania środków inwestycyjnych w horyzoncie czasowym c. Koszt zaniechania modernizacji linii i powyżej wariantu k może być wyznaczany jako funkcja: =f(
,CK) (3)
gdzie: – ilość nieprzesłanej energii linią i przy wyłączeniu elementu n, ze względu na niedostateczny zakres modernizacji k, CK – kara na nieprzesłanie energii; ≤ . Rodzaj funkcji opisującej zależność kosztów niedostarczenia energii powinien zostać dobrany empirycznie. Wzrost zakresu inwestycji spowoduje wzrost , spadek , przy równoczesnym wzroście
(wzór (2)). Jeżeli jednak funkcja wyznaczenia będzie preferowała głęboki zakres inwestycji (znaczna wartość przy stosunkowo niewielkiej ), może to prowadzić do znacznego wzrostu kosztów inwestycyjnych, przy nieznacznym przyroście energii „odzyskanej” 11. 6. Wnioski Z arządzanie r yzykiem inwestycji na podstawie wyników analiz stochastycznych polega w szczególności na: 1. identyfikacji zagrożeń, których można unikać bezinwestycyjnie przez zarządzanie planowymi wyłączeniami elementów sieci i odsunięcie w czasie inwestycji, dla których istnieją alternatywne techniczne rozwiązania obniżenia prawdopodobieństwa wystąpienia zagrożeń 2. optymalizacji zakresu modernizacji lub rozbudowy sieci WN z uwzględnieniem prawdopodobieństwa wystąpienia zagrożeń i ich potencjalnych skutków (zwiększenie lub zmniejszenie zakresu inwestycji w stosunku do wyników analiz deterministycznych) 3. priorytetyzacji inwestycji ze względu na koszty i poprawę wskaźników
9 Przez wariant modernizacji rozumie się przyrost zdolności przesyłowych w stosunku do stanu przed modernizacją. 10 W przypadku, gdy wariant modernizacji k nie zapewnia całkowitej likwidacji przeciążeń linii i. 11 W efekcie możliwe jest doprowadzenie do sytuacji, w której wzrostowi zdolności przesyłowych nie towarzyszy prognozowany wzrost zapotrzebowania na moc (ze względu na wzrost cen energii zawierających koszty rozbudowy systemu), co w efekcie może prowadzić do przewymiarowania inwestycji w stosunku do rzeczywistych (prognozowanych na etapie analiz rozwoju systemu) potrzeb.
83
B. Czarnecki, P. Zieliński | Acta Energetica 2/27 (2016) | translation 74–79
funkcjonowania sieci, polegającej np. na udzielaniu pierwszeństwa modernizacji linii przeciążającej się w niewielkim stopniu przez stosunkowo długi czas w roku, przed linią mogącą się znacznie przeciążyć przez krótki czas w roku (niewielkie prawdopodobieństwo wystąpienia). W efekcie należy oczekiwać poprawy efektywności inwestowania w rozwój sieci WN. Prop onowana meto dy ka p ozwala na ilościową ocenę zagrożeń w kategoriach prawdopodobieństwa wystąpienia przyczyn i wielkości zagrożeń. Wynikiem analiz
ryzyka zakresu inwestycji prowadzonych na podstawie stochastycznych metod symulacji pracy sieci są: 1. rozkłady prawdopodobieństwa obciążeń (przeciążeń) linii w kategoriach wielkości, czasu trwania i energii zagrożonej nieprzesłaniem 2. wytyczne dotyczące koordynacji planowania wyłączeń elementów sieci, pozwalające na unikanie (zmniejszenie prawdopodobieństwa wystąpienia) przeciążeń: a) tablica zabronionych kombinacji wyłączeń par elementów sieci b) tablice dozwolonych wyłączeń w funkcjach: obszarowego zapotrzebowania
na moc odbiorców oraz poziomu generacji lokalnej 3. wytyczne dotyczące działań komplementarnych dla koordynacji wyłączeń, pozwalających na przykład na konstruowanie programów zarządzania obciążeniem (DSR): a) szacunkowy roczny czas i wielkość redukcji mocy pobieranej przez odbiorców b) jednorazowy czas ograniczeń (skłonność odbiorcy do przystąpienia do programu) c) wolumen energii utraconej w roku d) częstość występowania ograniczeń.
Bogdan Czarnecki
mgr inż., MBA Instytut Energetyki Instytut Badawczy Oddział Gdańsk e-mail: b.czarnecki@ien.gda.pl Absolwent Wydziału Elektroniki Uniwersytetu Elektrotechnicznego w Petersburgu (1990), absolwent studiów MBA Gdańskiej Fundacji Kształcenia Menedżerów (2002). Od 2000 roku jest kierownikiem Zakładu Strategii i Rozwoju Systemu w Instytucie Energetyki Oddział Gdańsk. Zawodowo zajmuje się m.in. zagadnieniami związanymi z planowaniem rozwoju systemu elektroenergetycznego.
Piotr Zieliński
mgr inż. ENERGA-OPERATOR SA e-mail: piotr.zielinski@energa.pl Absolwent Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej, specjalność elektroenergetyka. Zatrudniony w ENERGA-OPERATOR SA na stanowisku kierownika Biura Rozwoju. Obszar jego zainteresowań zawodowych obejmuje m.in.: planowanie długoterminowe, obliczenia inżynierskie, operacyjny rozwój sieci elektroenergetycznej 110 kV oraz optymalizację gospodarki mocą bierną.
84
K. Dobrzyński | Acta Energetica 2/27 (2016) | 85–91
Issues of Estimating the Maximum Distributed Generation at High Wind Power Participation
Author Krzysztof Dobrzyński
Keywords Distributed generation, power estimation, wind power
Abstract This paper presents the methods of estimating the maximum power that can be connected to the power system in distributed generation sources. Wind turbine generator systems (WTGS) were selected as the subject for analysis. Nonetheless, the considerations presented in this paper are only general and also apply to other types of power sources, including the sources that are not considered part of distributed generation.
DOI: 10.12736/issn.2300-3022.2016207
1. Introduction Polish law lacks a precise definition of distributed generation. Across the world, distributed generation sources are considered to include small generation units with different upper limits of nominal power, i.e.: 50–150 MW. Those sources are connected directly to the distribution network or to the consumer’s internal network. Often, they also generate electric power in combination with heat. Distributed generation sources can include: • units working in combination (gas-fuelled turbines and engines) • small hydroelectric power plants • wind turbine generator systems • photovoltaic cells (solar power plants) • fuel cells • power generation from biomass • power generation from geothermal sources. Assignment in distributed generation based on the nominal power differs between countries. In Poland, the upper limit of the nominal power of the sources connected to the distribution network of up to 110 kV is defined as the power range of 150–200 MW [7]. On the other hand, when dividing distributed generation according to the technology used, one can identify: • renewable distributed generation • modular distributed generation • combined distributed generation. At present across the world, especially in highly developed countries, environmental protection is essential. Until now, several legally binding documents have been issued that relate in detail to reducing the environmental impact of industry. This is inseparably linked to the power industry, which contributes to environmental pollution especially through power generation. Thus, it
has become important, especially in recent years, to promote reducing the emission of harmful substances, especially undesirable gases, into the environment. A solution is to increase the shares of renewable power sources in power generation. Renewable power generation is a strategic objective of the energy policy of the European Union, which is expressed in Directive 2009/28/EC [4]. This document defines the principles of the support and promotion of power from renewable energy sources and sets the objective of obtaining a 20% share of renewable power sources in the total power consumption by 2020 (for Poland it is 15% in the final gross power consumption) and 15% share in transport. In March 2015, the President of the Republic of Poland signed the act on renewable energy sources [13], which constituted a legislative fulfilment of the obligations of Poland to the legislation of the European Union. This act is meant to provide the impetus for the development of prosumer renewable energy, assuming the development of micro-sources (up to 40 kW of electric power) that generate power mainly for the internal purposes of households. However, the present shape of the act raises many concerns and recurring criticism, both from the government and from the organisations that promote the development of renewable energy sources. Considerations related to distributed generation, especially among system operators, repeatedly raised questions regarding the maximum total power of the sources that could operate in the system. However, the main purpose of system operators is to ensure safe operation of the power system. The response to the question on the maximum power depends on several factors. One of the main factors is the type of considered source, because the impact of the source on the power system depends on its type. Distributed generation sources are constructed mainly by private investors, so the development of those sources can be 85
K. Dobrzyński | Acta Energetica 2/27 (2016) | 85–91
predicted to a limited extent. At the legal level, the development can be stimulated to some extent, for example by increasing the profitability of investment in sources of a specific type (subsidies etc.). This situation creates a need for a compact method that would enable considering various scenarios related to changes in the development of different types of sources, as well as to changes in the power system topology. The subject of specifying maximum power values, also for wind power plants, is also a subject of the research conducted (in a slightly different manner than presented in the paper) by other national research centres, e.g. by the Lublin University of Technology [6] or the Gdańsk Division of the Institute of Power Engineering [1].
2. The criteria for connecting sources to the power system The connection of another generation source to the power system depends on the specific technical requirements that must be fulfilled. Their number and types depends mainly on the power and type of the source to connect, and the level of the voltage, to which the source is connected. However, here the connection point (voltage level) is strictly related with the connected source power, i.e. the lower the nominal voltage of the system, the lower
Fig. 1. Overall structure of the maximum power estimation method 86
the nominal power of the source. Basing the considerations on wind power, we assumed that a wind turbine generator or wind farm with the power from few kW to dozens MW are considered part of distributed generation. Regardless of the type of source, it is possible to identify the following requirements for its connection to the power system: • current harmonics introduced by the source to the power system • frequency and power exchange fluctuations – static and dynamic deviations in frequency and power exchange • short-circuit parameters – the ratio of the short-circuit apparent power at the wind farm connection point to its nominal apparent power, a requirement related to the earthing effectiency of the grid neutral point and a requirement related to the limitation of earth fault currents • local stability – the stability margin and an analysis of the eigenvalues of the grid matrix • global stability – the short-circuit critical time • voltage stability – an analysis of sensitivity coefficients or eigenvalues of the Jacobian matrix or restrictions due to grid parameters • voltage changes – voltage fluctuations, and short- and longterm flickers • load limit of power system components.
K. DobrzyĹ&#x201E;ski | Acta Energetica 2/27 (2016) | 85â&#x20AC;&#x201C;91
3. Estimating the maximum power connectable to the power system Estimating the maximum power that can be connected to the power system is a complex problem [2, 3]. The solution, i.e. the resulting power value, depends on the initial assumptions and the available data, especially related to the power system.
The method proposed in the paper (Fig. 1) includes the criteria listed in Chapter 2 and input parameters related to the power system on the one hand and resulting from the algorithm assumed on the other hand. The input parameters of the proposed method include the following:
Fig. 2. Overall structure of the algorithm 87
K. Dobrzyński | Acta Energetica 2/27 (2016) | 85–91
• current topology of the power system – the structure results from the assumed mathematical model of the power system • operation point of the power system – depends on power system topology and the generation and load assumed to occur in the system • existing distributed generation in the system – distributed generation sources are included if present before the analysis • technical constraints of the system – constraints due to the permissible current and voltage values for system components, such as lines or transformers • type of WTGS used in the considered wind farm • structure of the internal grid of the wind farm – the selection of type and parameters of power lines and connection structures within the farm • reactive power compensation method in the wind farm – applies to farms equipped with wind turbine with asynchronous generators, in other cases it consists to adjust the power factor of the wind farm • 1-node or n-node variant – estimating the maximum power in one node or in multiple nodes • node relevance – the division of nodes, at which distributed power generation sources are to be connected, into two relevance levels. First, the maximum power is estimated for the nodes classified at the first relevance level. After obtaining the maximum connectible power at those nodes, the estimation process is performed for the second relevance level nodes • node sequence – determination of the node sequence, according to which the maximum power is estimated. The procedure under the proposed maximum power estimation method can be divided into three separate parts: 1. The introductory part, consisting of: a. the selection of the criteria to consider in the maximum power estimation process. This is determined primarily by the type of source assumed for analysis (in the case of some sources, there is no need to analyse select criteria due to their negligible impact on the result) and the computing capabilities of the assumed power system analysis software b. specification of the input parameters that primarily determine the algorithm structure assumed in analysis. 2. The part responsible for analysis. In this part of the method, the maximum power estimation process is running on according to specific procedures, the selection of which is determined by the assumed input parameters. At this stage, the algorithm uses the assumed model of the power system. As a result, it determines the objective function value and the maximum power that can be connected at the selected node (or nodes). Fig. 2 presents the overall structure of the proposed algorithm, in which the components marked with letters A to F are further parts of the algorithm, not shown here due to the limited volume of this paper. 3. The final part, in which the user selects the variant of power source connection at the considered nodes of the power system based on the results obtained. Thus, the assumed structure of the maximum power estimation method allows an automatic completion of multiple comparative 88
analyses, which facilitates selection of the optimum variant. Here one should note that the final evaluation is at the discretion of the user and it is the user that decides on the final selection.
4. Objective function Determining the maximum connectible power of the power system for distributed generation sources and finding the optimum locations for them is related to the issue of optimisation, while its form depends on the assumption of one of two variants. The first variant applies to the connection of a power source at a particular point of the system (at the selected node), while the second relates to the placement of sources in the entire system, sub-system or specific area. In the first case, the problem of finding the maximum power can be converted into the problem of minimising the objective function K. In this case the solution is the minimum value from a set of values k. Here the objective function K is proposed in the following form: (1) where:
(2)
where: i – i-th criterion; j – j-th variant; w – w-th node (in the case of maximum power estimation for a single node w = 1); αi,w – weight of the i-th criterion at the w-th node; αi,w × ξi,w – criteria function, of which the shape depends on the i-th criterion in the w-th node. The objective function defined according to the equation (2) means that the sought value is the maximum power Pmax, that can be connected at the node w in the variant j: (3) The weight of the objective function (2) is proposed as a function depending on parameters ai, bi, ci and the criteria function ξi:
(4)
where: ai,w, bi,w, ci,w, – parameters of the weight function for the i-th criterion. A graphical interpretation of the assumed weight function is presented in Fig. 3. The purpose of the weight function is to enable an independent impact of the particular criteria on the final result of the objective function Kw. It is possible due to the parameters ai and bi that determine the component value of the objective function (αi × ξi). Parameter ai enables determining the point on ξi–axis
K. Dobrzyński | Acta Energetica 2/27 (2016) | 85–91
(6)
where: m – number of the nodes with a power source. Form the objective function (5) means that the sought value is the total power PMAX consisting of the maximum power values Pmax obtained in the variant l, at the considered nodes w: (7) Fig. 3. Weight function α
5. Interpreting the results obtained in the maximum power estimation process
(Fig. 3), from which the weight function αi, and thus the objec- As a result of the maximum power estimation algorithm operative function Kw, changes its value. The purpose of this parameter tion, an objective function value is determined that indicates the is to adjust the width of the safety margin of movement of the optimum solution. Furthermore, many other results are obtained, component of the objective function associated with criterion. In a proper interpretation of which allows making a final decision turn, the parameter bi determines the rate, at which the weight on the suitable solution. function αi responds to criteria function changes ξi, when located The main purpose of the algorithm is to estimate the value of within the set margin. Parameters ai and bi can remain the same power that can be installed at the selected points of the power (a1 = a2 = a3 … = ai and b1 = b2 = b3 = … = bi) for all compo- system. This task can be divided into four different cases: nents of the objective function (αi × ξi). Then, their impact on the • estimation of the maximum power at the selected node of the value of the objective function Kw is the same. It is also permispower system sible to skip select criteria in the analysis, which allows adjusting • estimation of the maximum power at the selected n nodes of the maximum power estimation method to a particular power the power system source or simplifying the optimisation process. • determining the value of the objective function for the power The parameter ci is equivalent to the limit value of the given source connected to the selected node of the power system criterion, expressed in relative values. By default, it assumes • determining the value of the objective function for the total the value of one (ci = 1), which means that the limit value is the power of sources connected to the selected n nodes of the maximum value of the given criterion. The maximum power estipower system. mation process is finished upon the excess of the limit value of In the first two cases the estimation process ends when at least any criterion. The final value of the objective function Kw and the one criterion requirement is not fulfil. Assuming that in each of maximum power of the estimated distributed generation source those two cases the analysis covers t variants (t different nodes Pmax are assumed as the values determined at the calculation or t different n-node configurations), the results are t different step before the occurrence of the excess condition. pairs consisting of the objective function value (Kw or Hl) and the The shape of the objective function changes when seeking the maximum generation located at multiple points of the power system, where the problem of estimating the maximum problem can be narrowed down to a particular area or sub-system. In that case, the number of nodes w and their location and the initial assumptions constitute a particular variant l. Finding the maximum power for the considered area of the power system, is related to the determination of the objective function Hl (5). This function is the smallest value of the set that consists of the values of the objective function Kw (1) for the nodes selected for analysis. So, it is assumed that the form of the objective function Hl determined for the defined area is: (5) where: l – variant depending on the number of nodes assumed in the analysis, the location of those nodes and criteria; hl – the total of the values of the objective function Kw (1) determined at the considered nodes:
Fig. 4. An example distribution of values of the objective function Kw or Hl 89
K. Dobrzyński | Acta Energetica 2/27 (2016) | 85–91
Fig. 5. An example distribution of values of the objective function Kw or Hl for the set power of the considered power sources
power PMAX. The objective function value (as well as power PMAX) is a value from the calculation step, which precedes the step at which one of the limit values is exceeded and the estimation proces is ended. Fig. 4 presents example results that can be obtained when estimating the maximum power at a single node or n nodes of the system. Furthermore, the figure includes two areas in which the best solutions should be sought.
The optimum solution should be sought in Area 1, for the highest power values obtained at the considered nodes (node) of the power system and the lowest value of the objective function (Kw or Hl). An exception is the estimation of the maximum power at a single node, where the calculation of the value of the objective function is based on only one component αi × ξi. Then, the optimum solution is located in Area 2, because the high value of the objective function Kw can mean that the component αi × ξi shows little response to changes of power at the considered node. The proposed method can also help to select the best locations to connect sources with the given power. Then, similarly to the cases described above, the value of the objective function indicates the best solution. The difference is that the calculated values of the objective function (Kw or Hl) are distributed along a straight line determined by the maximum power PMAX, which is assumed at the begin of the analysis. Fig. 5 shows an example distribution of values of the objective function for different variants1. In this example, the value of power PMAX determined before the analysis is 150 MW. The use of values of the objective function (Kw or Hl) for selecting the optimum location, when the maximum power PMAX of the considered sources is imposed before the analysis, is not always possible. This is related with the range ξi∈(ai÷ci), in which the particular components of the objective function Kw assume nonzero values. It means that the specification of the criteria function
Fig. 6. Summary of example values of criteria functions ξi 1 Here the term “variant” means a selection of one node from a range of possibilities or a selection of one node configuration from a range of possible configurations.
90
K. Dobrzyński | Acta Energetica 2/27 (2016) | 85–91
range ξi (by selecting parameters ai and ci) and the maximum power PMAX determine whether the particular components of the objective function αi × ξi obtain non-zero values during the analysis, thus influencing the value of the objective function Kw. When it is not possible to determine the objective function Kw (all weights αi are zero), the best solution can be selected using criteria function values ξi. The values determined at the final calculation step can be arrayed in the chart shown in Fig. 6. The individual axes marked 1–20° correspond to the criteria requirements included in the analysis. The figure shows, for example, the line that interconnects the points indicating the values from which the criteria function has a non-zero value (in violet). Those points are based on the assumed values of the particular parameters ai of the weight function. For example, the parameter a1 equal to 0.6 for a criterion based on the current harmonics content, corresponds to the value of 60% on axis 1° of the chart. The inclusion of the results for different variants in one graph (in Fig. 6 the variants are marked in red and blue) allows drawing conclusions on the best solution relatively easily. Based on the graph, it is also possible to determine which of the criteria requirements are especially “sensitive” to the considered distributed generation source. The purpose of such a presentation of results is to facilitate decision-making regarding the best solution among those obtained in the maximum power estimation process.
6. Conclusions The increasing demand for electric power and the ageing of the existing power sources compels the construction of new sources. In many systems, including the National Power System, it is accompanied by a change in the structure of generating unite operation on the power system. This results from the fact that Poland had joined the European Union and then the EU introduced directives to promote renewable power development. It is forecast that the amount of electric power generated in high power source and industrial power plants firing lignite or coal will continue to decrease in the following years. The loss in the power balance will be compensated for by distributed sources, most of which will probably be renewable sources. The method of estimating the maximum power that can be connected at the node (nodes) of the power system proposed in the paper allows evaluating different variants of connection of new power sources. The versatility of this method enables using any type of sources, including high power sources. On the other hand, the assumed shape of the algorithm allows full automation
of calculations and using commercially available software in the estimation process to calculate voltage levels and power flow, as well as to analyse the dynamics of the power system. Thus, it is relatively easy to perform calculations for different generation and load distributions (including automatically taken) in power system nodes. This allows including and comparing different concepts of power system development. REFERENCES
1. M. Bajor, Bezpieczna praca systemu o ograniczonych zdolnościach przesyłowych w sytuacji wysokiej generacji wiatrowej, Konferencja “Aktualne Problemy w Elektroenergetyce” [Safe operation of a system with restricted transfer capacities at high wind generation, conference entitled “Current problems in the power industry], Jurata 2011. 2. K. Dobrzyński, Metodyka szacowania maksymalnej generacji rozproszonej ulokowanej w elektrowniach wiatrowych, rozprawa doktorska [The methods of estimating the maximum distributed generation in wind power plants, PhD dissertation], Gdańsk 2012. 3. K. Dobrzyński, Szacowanie maksymalnej mocy generacji rozproszonej w systemie elektroenergetycznym, [Estimating the maximum power of distributed generation in the power system], Wydawnictwo Politechniki Gdańskiej, Gdańsk 2014. 4. Directive of the European Parliament and Council No. 2009/28/EC of 23 April 2009 on the promotion of the use of energy from renewable sources (Journal of Laws. WE L 140 of 5.6.2009). 5. P. Kacejko, J. Machowski, Zwarcia w sieciach elektroenergetycznych [Short-circuits in power systems], Warszawa 1993. 6. P. Kacejko, P. Pijarski, Generation Level Matching to the Transmission Capability of Overhead Lines, Acta Energetica, No. 1/14, 2013. 7. P. Kacejko, Generacja rozproszona w systemie elektroenergetycznym [Distributed generation in the power system], Lublin 2004. 8. P. Kundur, Power system stability and control, McGraw-Hill 1994. 9. Z. Lubośny, Elektrownie wiatrowe w systemie elektroenergetycznym [Wind power plants in the power system], Warszawa 2006. 10. Z. Lubośny, Farmy wiatrowe w systemie elektroenergetycznym [Wind farms in the power system], Warszawa 2009. 11. Z. Lubośny, Elektroenergetyczna automatyka zabezpieczeniowa farm wiatrowych [Power system protection automation in wind farms], Warszawa 2013. 12. J. Machowski, Regulacja i stabilność systemu elektroenergetycznego [Power system adjustment and stability], Publishing House of the Warsaw University of Technology, Warszawa 2007. 13. Act of 20 February 2015 on renewable energy sources.
Krzysztof Dobrzyński Gdańsk University of Technology e-mail: krzysztof.dobrzynski@pg.gda.pl Graduated from the Faculty of Electrical Engineering of Warsaw University of Technology in 1999. In 2012 he obtained his PhD degree at the Faculty of Electrical and Control Engineering of Gdańsk University of Technology. An assistant professor at the Power Engineering Department of Gdańsk University of Technology. His areas of interest include interoperation of distributed generation sources with the power system, mathematical modelling, power system control, and intelligent systems in buildings..
91
K. Dobrzyński | Acta Energetica 2/27 (2016) | translation 85–91
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 85–91. When referring to the article please refer to the original text. PL
Problematyka szacowania maksymalnej generacji rozproszonej przy dużym nasyceniu energetyką wiatrową Autor
Krzysztof Dobrzyński
Słowa kluczowe
generacja rozproszona, szacowanie mocy, energetyka wiatrowa
Streszczenie
W artykule przedstawiono metodykę szacowania maksymalnej mocy, jaką można przyłączyć do systemu elektroenergetycznego w źródłach generacji rozproszonej. Ze względu na aktualną dynamikę rozwoju jako przedmiot analiz wybrano elektrownie wiatrowe. Niemniej jednak przedstawione w artykule rozważania mają ogólny charakter i znajdują zastosowanie również do innego typu źródeł energii elektrycznej, w tym również do źródeł niezaliczanych do generacji rozproszonej.
1. Wstęp W polskim prawie brakuje definicji dokładnie precyzującej pojęcie „generacji rozproszonej”. Na świecie do źródeł generacji rozproszonej zalicza się małe jednostki wytwórcze z różnie przyjmowaną górną granicą mocy znamionowej, tj.: 50–150 MW. Źródła te są przyłączone bezpośrednio do sieci dystrybucyjnej lub do wewnętrznej sieci elektroenergetycznej odbiorcy. Często też wytwarzają energię elektryczną w skojarzeniu z ciepłem. Do źródeł generacji rozproszonej można zaliczyć: • jednostki pracujące w skojarzeniu (turbiny i silniki na paliwo gazowe) • małe elektrownie wodne • elektrownie wiatrowe • ogniwa fotowoltaiczne (elektrownie słoneczne) • ogniwa paliwowe • wytwarzanie energii z biomasy • wytwarzanie energii elektrycznej ze źródeł geotermalnych. Przynależność do generacji rozproszonej ze względu na moc znamionową jest różna w wielu krajach. W Polsce górną granicę mocy znamionowej źródeł podłączanych do sieci rozdzielczej nieprzekraczającej 110 kV określa się przedziałem mocy 150–200 MW [7]. Z kolei dzieląc generację rozproszoną według zastosowanej technologii, można mówić o: • odnawialnej generacji rozproszonej • modułowej generacji rozproszonej • skojarzonej generacji rozproszonej. Aktualnie na świecie, a w szczególności w krajach wysoko rozwiniętych, znaczącą rolę odgrywa szeroko rozumiana ochrona środowiska. Do tej pory powstało wiele dokumentów mających moc prawną, które w szczegółowy sposób traktują o ograniczaniu wpływu przemysłu na środowisko naturalne. Nierozerwalnie związana jest z tym energetyka, która szczególnie w aspekcie wytwarzania przyczynia się do zanieczyszczania środowiska naturalnego. Dlatego istotne stało się, zwłaszcza na przestrzeni ostatnich lat, działanie na rzecz ograniczania przedostawania się do naturalnego środowiska szkodliwych substancji, a w szczególności niepożądanych gazów. Jednym ze sposobów tego ograniczenia jest wzrost udziału odnawialnych źródeł energii (OZE) w produkcji energii.
92
Obecnie energetyka odnawialna jest strategicznym celem polityki energetycznej Unii Europejskiej, co znalazło wyraz w Dyrektywie 2009/28/WE [4]. Dokument ten określa zasady wspierania i promowania energii elektrycznej pochodzącej z OZE i stawia za cel osiągnięcie w 2020 roku udziału źródeł odnawialnych w całkowitym zużyciu energii na poziomie 20% (dla Polski jest to poziom 15% w końcowym zużyciu energii brutto) oraz na poziomie 15% w transporcie. Z kolei w Polsce w marcu 2015 roku prezydent podpisał ustawę o odnawialnych źródłach energii [13], która stanowi legislacyjne wypełnienie zobowiązań Polski wobec prawodawstwa Unii Europejskiej. Ustawa ta ma się stać przyczynkiem do rozwoju energetyki odnawialnej tzw. prosumenckiej, gdzie zakłada się rozwój mikroźródeł (do 40 kW mocy elektrycznej) wytwarzających energię elektryczną głównie na potrzeby własne gospodarstw domowych. Obecny kształt ustawy budzi jednak wiele wątpliwości i głosów krytyki, zarówno ze strony obecnego rządu premier Beaty Szydło, jak i ze strony organizacji wspierających rozwój energetyki odnawialnej. Wielokrotnie w rozważaniach dotyczących generacji rozproszonej, zwłaszcza prowadzonych przez operatorów systemowych, stawiane jest pytanie o maksymalną, sumaryczną moc takich źródeł, które mogą pracować w systemie. Przy czym głównym celem operatorów systemowych jest tu zapewnienie bezpiecznej pracy systemu elektroenergetycznego. Odpowiedź na pytanie o maksymalną wartość mocy zależy od wielu aspektów. Jednym z podstawowych jest typ rozważanego źródła, ponieważ wpływ źródła na system elektroenergetyczny zależy od jego typu. Źródła generacji rozproszonej budowane są głównie przez prywatnych inwestorów, dlatego też ich stopień rozwoju można przewidywać w ograniczony sposób. Na poziomie prawnym można ten rozwój w pewien sposób stymulować, na przykład poprzez zwiększanie opłacalności inwestowania w źródła określonego typu (dotacje itp.). Sytuacja ta powoduje, że pożądana jest zwarta metodyka, która dawałaby możliwość uwzględniania w analizach różnych scenariuszy związanych ze zmianami w rozwoju źródeł różnego typu, jak również
ze zmianami zachodzącymi w topologii systemu elektroenergetycznego. Tematyka określania maksymalnych mocy, w tym również farm wiatrowych, jest również przedmiotem badań prowadzonych (w nieco odmienny sposób niż przedstawiony w artykule) przez inne krajowe ośrodki badawcze, m.in. przez Politechnikę Lubelską [6] czy Oddział Gdański Instytutu Energetyki [1]. 2. Kryteria przyłączania źródeł do systemu elektroenergetycznego Przyłączenie kolejnego źródła wytwórczego do systemu elektroenergetycznego jest uwarunkowane określonymi wymaganiami technicznymi, jakie muszą zostać spełnione. Liczba wymagań i ich rodzaj zależy w głównej mierze od mocy przyłączanego źródła, jego typu oraz poziomu napięcia, do którego przyłączane jest źródło. Przy czym miejsce przyłączenia (poziom napięcia) jest tu ściśle związany z mocą przyłączanego źródła, tzn. im niższe napięcie znamionowe sieci, tym mniejsza moc znamionowa źródła. Opierając rozważania na energetyce wiatrowej, przyjęto, że elektrownia lub farma wiatrowa o mocy od pojedynczych kilowatów do dziesiątek megawatów zaliczana jest do generacji rozproszonej. Abstrahując od typu źródła, można wyszczególnić następujące kryteria warunkujące jego przyłączenie do systemu elektroenergetycznego: • harmoniczne prądu wprowadzane przez rozważane źródło do systemu elektroenergetycznego • wahania częstotliwości i mocy wymiany – statyczna i dynamiczna zmiana częstotliwości oraz mocy wymiany • poziom wielkości zwarciowych – stosunek mocy zwarciowej w miejscu przyłączenia farmy wiatrowej do jej mocy znamionowej pozornej, warunek odnoszący się do skuteczności uziemienia punktu neutralnego sieci oraz warunek związany z ograniczeniem prądów zwarć doziemnych • stabilność lokalna – kątowy lub mocowy współczynnik przepustowości sieci oraz analiza wartości własnych macierzy systemowej • stabilność globalna – krytyczny czas trwania zwarcia
K. Dobrzyński | Acta Energetica 2/27 (2016) | translation 85–91
Rys. 1. Ogólna struktura metodyki szacowania maksymalnej mocy
• stabilność napięciowa – analiza współczynników czułości lub analiza wartości własnych macierzy Jacobiego lub ograniczenia wynikające z parametrów sieci • zmiany napięcia – wahania napięcia oraz migotanie krótkotrwałe i długotrwałe • dopuszczalne obciążenie elementów systemu elektroenergetycznego. 3. Szacowanie maksymalnej mocy możliwej do przyłączenia w systemie Szacowanie maksymalnej mocy, jaką można przyłączyć do systemu elektroenergetycznego, jest złożonym problemem [2, 3]. Samo rozwiązanie, czyli poszukiwana wartość mocy, zależy od przyjętych na wstępie założeń oraz dostępnych danych, zwłaszcza dotyczących samego systemu. W proponowanej w artykule metodyce (rys. 1) uwzględniane są kryteria wymienione w rozdziale 2 oraz parametry wejściowe, które z jednej strony dotyczą systemu elektroenergetycznego, a z drugiej strony wynikają z przyjętego algorytmu. Do parametrów wejściowych proponowanej metodyki można zaliczyć: • aktualną strukturę systemu elektroenergetycznego – struktura ta wynika z przyjętego modelu matematycznego systemu • punkt pracy systemu elektroenergetycznego – zależy on od topologii systemu oraz od przyjętych wartości generacji i obciążeń występujących w systemie • istniejącą generację rozproszoną w systemie – uwzględnia się źródła generacji rozproszonej, jeżeli takie występują przed analizą • ograniczenia techniczne systemu – ograniczenia wynikające z dopuszczalnych wartości prądów i napięć dla
• •
•
•
•
•
elementów sieciowych, takich jak linie czy transformatory typ elektrowni wiatrowej zastosowanej w rozważanej farmie strukturę sieci wewnętrznej farmy wiatrowej – wybór typu oraz parametrów linii elektroenergetycznych oraz struktury połączeń wewnątrz farmy sposób kompensacji mocy biernej w farmie – dotyczy farm wyposażonych w elektrownie z generatorami asynchronicznymi, w pozostałych przypadkach sprowadza się to do wprowadzenia współczynnika mocy, z jakim pracuje farma wariant 1-węzłowy lub n-węzłowy – wybór między szacowaniem maksymalnej mocy w jednym węźle lub w wielu węzłach stopień ważności węzłów – podział węzłów, w których zakłada się przyłączenie źródeł generacji rozproszonej według dwóch stopni ważności. W pierwszej kolejności szacowanie maksymalnej mocy odbywa się dla węzłów zaszeregowanych do pierwszego stopnia ważności. Po osiągnięciu maksymalnej mocy możliwej do przyłączenia w tych węzłach proces szacowania przeprowadzany jest dla węzłów drugiego stopnia ważności gradację węzłów – ustalenie kolejności węzłów, w jakiej odbywa się szacowanie maksymalnej mocy.
Postępowanie w ramach proponowanej metodyki szacowania maksymalnej mocy można podzielić na trzy osobne części: 1. Część wstępna, na którą składa się: a. wybór kryteriów, które należy uwzględnić w procesie szacowania maksymalnej mocy. Zdeterminowane
jest to przede wszystkim przyjętym w analizie typem źródła (w przypadku niektórych źródeł nie ma potrzeby analizowania wybranych kryteriów ze względu na ich znikomy wpływ na uzyskiwany wynik) oraz możliwościami obliczeniowymi przyjętego do symulacji programu b. określenie parametrów wejściowych, które w głównej mierze decydują o przyjętej w obliczeniach strukturze algorytmu 2. Część odpowiadająca za obliczenia. W tej części metodyki proces szacowania maksymalnej mocy przebiega według określonych procedur, o których wyborze decydują przyjęte parametry wejściowe. Na tym etapie algorytm w obliczeniach wykorzystuje przyjęty model systemu elektroenergetycznego. W efekcie wyznaczona jest wartość funkcji celu oraz maksymalna moc, jaką można przyłączyć w wybranym węźle (lub węzłach) w postaci przyjętych typów źródeł generacji rozproszonej. Na rys. 2 przedstawiono ogólną strukturę zaproponowanego algorytmu, gdzie elementy struktury oznaczone literami A–H stanowią dalsze części algorytmu, niepokazywane tutaj ze względu na ograniczoną ilość miejsca w niniejszej publikacji 3. Część końcowa, w której użytkownik na podstawie otrzymanych wyników decyduje o wyborze wariantu przyłączenia źródeł energii elektrycznej, w rozpatrywanych punktach systemu elektroenergetycznego. Tak przyjęta struktura metodyki szacowania maksymalnej mocy daje możliwość automatycznego wykonania wielu analiz
93
K. Dobrzyński | Acta Energetica 2/27 (2016) | translation 85–91
Rys. 2. Ogólna struktura algorytmu
porównawczych, ułatwiając w ten sposób wybór najlepszego wariantu. Należy przy tym pamiętać, że ocena końcowa należy do użytkownika i to on decyduje o ostatecznym wyborze. 4. Funkcja celu Wyznaczenie maksymalnej mocy możliwej do przyłączenia do systemu elektroenergetycznego w źródłach generacji rozproszonej oraz znalezienie dla nich najlepszych
94
lokalizacji wiąże się z zagadnieniem optymalizacyjnym, a jego forma zależy od przyjęcia jednego z dwóch wariantów. Pierwszy wariant dotyczy przyłączenia źródła energii elektrycznej w danym punkcie systemu (w wybranym węźle), a drugi ulokowania źródeł w całym systemie, podsystemie lub na określonym obszarze. W pierwszym przypadku problem poszukiwania maksymalnej mocy można sprowadzić do problemu minimalizacji funkcji
celu K. Rozwiązaniem w tym przypadku jest wartość minimalna ze zbioru wartości k. Proponuje się tu funkcję celu K o następującej postaci: (1) gdzie: (2)
K. Dobrzyński | Acta Energetica 2/27 (2016) | translation 85–91
gdzie: i – i-te kryterium, j – j-ty wariant, w – w-ty węzeł (w przypadku szacowania maksymalnej mocy w pojedynczym węźle w = 1), αi,w – waga i-tego kryterium w w-tym węźle, αi,w × ξi,w – funkcja kryterialna, której kształt zależy od i-tego kryterium w w-tym węźle. Zdefiniowana funkcja celu według zależności (2) oznacza, że poszukiwana jest maksymalna wartość mocy P max, jaką można przyłączyć w węźle w w danym wariancie j: (3) Wagę w funkcji celu (2) zaproponowano jako funkcję zależną od parametrów ai, bi, ci oraz od funkcji kryterialnej i:
Rys. 3. Funkcja wagi α
(4) gdzie: ai,w, bi,w, ci,w, – parametry funkcji wag dla i-tego kryterium. Graficzną interpretację przyjętej funkcji wagi przedstawiono na rys. 3. Zadaniem funkcji wag jest umożliwienie niezależnego wpływu poszczególnych kryteriów na końcowy wynik funkcji celu Kw. Możliwe jest to dzięki parametrom ai i bi, które decydują o wartości składowej funkcji celu (αi × ξi) danego kryterium. Parametr ai umożliwia ustalenie punktu na odciętej ξi (rys. 3), od którego funkcja wagi αi, a co za tym idzie funkcja celu Kw zmienia swoją wartość. Zadaniem tego parametru jest regulowanie szerokości pewnego marginesu bezpieczeństwa, w którym porusza się część funkcji celu odpowiedzialna za dane kryterium. Z kolei parametr bi decyduje o tym, jak szybko funkcja wag αi reaguje na zmianę funkcji kryterialnej ξi, znajdując się w zadanym marginesie. Parametry ai i bi mogą pozostać takie same (a1 = a2 = a3 … = ai oraz b1 = b2 = b3 = … = bi) dla wszystkich składowych funkcji celu (αi × ξi), wówczas ich wpływ na wartość funkcji celu Kw jest jednakowy. Dopuszcza się również pominięcie w analizie wybranych kryteriów, co daje możliwość dopasowania metodyki szacowania maksymalnej mocy do konkretnego źródła energii elektrycznej lub uproszczenia procesu optymalizacji. Parametr ci odpowiada granicznej wartości danego kryterium, wyrażonej w wartościach względnych. Domyślnie przyjmuje on wartość równą jeden (ci = 1), co oznacza, że wartością graniczną jest maksymalna wartość dla danego kryterium. Proces szacowania maksymalnej mocy zostaje zakończony z chwilą przekroczenia wartości granicznej dowolnego kryterium. Za końcową wartość funkcji celu Kw i maksymalną moc szacowanego źródła generacji rozproszonej Pmax przyjmuje się wartości wyznaczone w kroku obliczeniowym poprzedzającym wystąpienie przekroczenia. Kształt funkcji celu zmienia się w przypadku poszukiwania maksymalnej generacji rozlokowanej w wielu miejscach systemu elektroenergetycznego, gdzie problem szacowania
Rys. 4. Przykładowy rozkład wartości funkcji celu Kw lub Hl otrzymany w wyniku szacowania maksymalnej mocy
Rys. 5. Przykładowy rozkład wartości funkcji celu Kw lub Hl dla zadanej mocy rozważanego źródła (źródeł) energii elektrycznej
maksymalnej mocy można zawęzić do określonego obszaru lub podsystemu. W takim przypadku liczba węzłów w oraz ich lokalizacja w połączeniu z przyjętymi na wstępie założeniami składają się na określony wariant l. Znalezienie maksymalnej mocy,
możliwej do przyłączenia w rozważanym obszarze systemu elektroenergetycznego, sprowadza się do wyznaczenia funkcji celu Hl (5). Funkcja ta jest najmniejszą wartością ze zbioru, na który składają się sumy wartości funkcji celu Kw (1) dla wybranych do analizy 95
K. Dobrzyński | Acta Energetica 2/27 (2016) | translation 85–91
Rys. 6. Zestawienie przykładowych wartości funkcji kryterialnych
węzłów. Przyjęto zatem, że funkcja celu Hl wyznaczana dla zdefiniowanego obszaru ma postać: (5) gdzie: l – wariant zależny od liczby przyjętych w analizie węzłów, lokalizacji tych węzłów oraz kryteriów, hl – suma, na którą składają się wartości funkcji celu Kw (1) wyznaczanych w rozważanych węzłach: (6) gdzie: m – liczba węzłów, w których rozważa się przyłączenie źródła energii elektrycznej. Opisanie funkcji celu zależnością (5) oznacza, że poszukiwana jest sumaryczna moc PMAX składająca się z maksymalnych wartości mocy Pmax uzyskanych w danym wariancie l w rozważanych węzłach w: (7) 5. Interpretacja wyników uzyskanych w procesie szacowania maksymalnej mocy W efekcie działania algorytmu szacowania maksymalnej mocy wyznaczana jest wartość funkcji celu, która wskazuje optymalne rozwiązanie. Ponadto otrzymuje się wiele innych wyników, których odpowiednia interpretacja daje możliwość ostatecznego podjęcia decyzji o właściwym rozwiązaniu. Głównym zadaniem algorytmu jest oszacowanie, jaką wartość mocy można zainstalować w wybranych punktach systemu elektroenergetycznego. Zadanie to można podzielić na cztery różne przypadki: • szacowanie ma ksyma lnej mo c y w w y b r a ny m w ę ź l e s y s t e m u elektroenergetycznego 1
96
.
• s z a c o w a n i e maksymalnej moc y w n-węzłach systemu elektroenergetycznego • wyznaczenie wartości funkcji celu dla określonej mocy źródła energii elektrycznej przyłączonego do wybranego węzła systemu elektroenergetycznego • wyznaczenie wartości funkcji celu dla określonej, sumarycznej mocy źródeł energii elektrycznej przyłączonych do n-węzłów systemu elektroenergetycznego. W pierwszych dwóch przypadkach proces szacowania kończy się, kiedy przynajmniej jeden z warunków kryterialnych przestaje być spełniony. Zakładając, że w każdym z tych dwóch przypadków analizowanych jest t-wariantów (t różnych węzłów lub t różnych konfiguracji n-węzłowych), to w wyniku otrzymuje się t różnych par, na które składają się wartość funkcji celu (Kw lub Hl) oraz moc PMAX. Wartość funkcji celu (jak również moc PMAX) jest wartością z kroku obliczeniowego poprzedzającego krok, w którym jedna z wartości granicznych związanych z warunkami kryterialnymi została przekroczona i nastąpiło zatrzymanie procesu szacowania. Na rys. 4 przedstawiono przykładowe wyniki, jakie można otrzymać w przypadku szacowania maksymalnej mocy w pojedynczym węźle lub w n-węzłach systemu. Na rysunku zaznaczono również dwa obszary, w których należy poszukiwać najlepszych rozwiązań. Najlepszego rozwiązania należy poszukiwać w Obszarze 1, dla największych osiągniętych mocy w rozważanych punktach (punkcie) systemu oraz najmniejszej wartości funkcji celu (Kw lub Hl). Wyjątkiem jest przypadek szacowania maksymalnej mocy w pojedynczym węźle, kiedy do obliczenia wartości funkcji celu wykorzystywana jest tylko jedna składowa ξi × αi.
Wówczas optymalne rozwiązania lokują się w Obszarze 2, ponieważ duża wartość funkcji celu Kw może oznaczać, że dana składowa ξi × αi w relatywnie niewielkim stopniu reaguje na zmianę mocy w rozważanym węźle. Proponowana metodyka może również pomóc w wyborze najlepszej (najlepszych) lokalizacji, do których można przyłączyć źródło (źródła) o określonej mocy. Wówczas, podobnie jak w przypadkach opisanych powyżej, wartość funkcji celu wskazuje najlepsze rozwiązanie. Z tą różnicą, że obliczone wartości funkcji celu (Kw lub Hl) rozkładają się wzdłuż prostej wyznaczonej przez maksymalną moc PMAX, którą zakłada się na wstępie analizy. Na rys. 5 przedstawiono przykładowy rozkład wartości funkcji celu dla różnych wariantów1. W tym przykładzie wartość mocy PMAX określona przed analizą równa jest 150 MW. Wykorzystanie wartości funkcji celu (Kw lub Hl) do wyboru najlepszej lokalizacji w przypadku, kiedy przed analizą narzuca się maksymalną moc PMAX rozważanych źródeł, nie zawsze jest możliwe. Ma to związek z przedziałem ξi∈(ai÷ci), w którym poszczególne składniki funkcji celu Kw przyjmują wartości niezerowe. Oznacza to, że zdefiniowanie przedziału funkcji kryterialnej ξi (przez dobór parametrów ai i ci) oraz określenie maksymalnej wartości mocy PMAX decydują, czy poszczególne składowe funkcji celu ξi × αi podczas analizy uzyskają wartości niezerowe, wpływając tym samym na wartość funkcji celu Kw. Jeśli wyznaczenie funkcji celu Kw (wszystkie wagi αi okażą się zerowe) nie jest możliwe, do wyboru najlepszego rozwiązania można posłużyć się wartościami funkcji kryterialnych ξ i . Wartości te, wyznaczone w ostatnim kroku obliczeniowym, można zestawić na wykresie radarowym pokazanym na rys. 6. Poszczególne osie
Wariant oznacza tu wybór jednego węzła spośród wielu możliwych lub wybór jednej konfiguracji węzłów spośród wielu możliwych konfiguracji.
K. Dobrzyński | Acta Energetica 2/27 (2016) | translation 85–91
oznaczone od 1° do 20° odpowiadają danym warunkom kryterialnym biorącym udział w analizie. Na rysunku zamieszczono m.in. przebieg łączący punkty oznaczające wartości, od których dana funkcja kryterialna przyjmuje niezerową wartość (kolor fioletowy). Punkty te wynikają z przyjętych wartości poszczególnych parametrów ai funkcji wag. Na przykład parametr a1 równy 0,6, dla kryterium opartego na zawartości harmonicznych prądu, na wykresie odpowiada wartości 60% w osi 1º. Zamieszczając na jednym wykresie wyniki dla różnych wariantów (na rys. 6 warianty oznaczone są kolorami czerwonym i niebieskim), można w relatywnie łatwy sposób wnioskować o najlepszym rozwiązaniu. Na podstawie wykresu można również stwierdzić, które z warunków kryterialnych są szczególnie „wrażliwe” na rozważane źródło generacji rozproszonej w poszczególnych wariantach. Celem takiej prezentacji wyników jest pomoc w łatwiejszym podjęciu decyzji co do wyboru najlepszego rozwiązania spośród wielu, które otrzymuje się w procesie szacowania maksymalnej mocy. 6. Podsumowanie Wzrost zapotrzebowania na energię elektryczną oraz starzenie się źródeł energii elektrycznej wymusza budowanie nowych źródeł. Towarzyszy temu w wielu systemach, a w tym w Krajowym Systemie Elektroenergetycznym, zmiana struktury wytwarzania. Wynika ona z faktu przystąpienia Polski do Unii Europejskiej, a następnie uchwalenia dyrektyw UE promujących rozwój energetyki odnawialnej. Prognozuje się, że ilość energii elektrycznej wytwarzanej w elektrowniach systemowych
oraz przemysłowych spalających węgiel brunatny lub kamienny będzie w kolejnych latach sukcesywnie spadać. Uzupełnienie ubytku w bilansie energii elektrycznej będzie realizowane przez źródła rozproszone, gdzie prawdopodobnie przeważająca ich część będzie źródłami odnawialnymi. Proponowana w artykule metodyka szacowania maksymalnej mocy możliwej do przyłączenia we wskazanych węzłach (węźle) systemu elektroenergetycznego daje możliwość oceny różnych wariantów przyłączenia nowych źródeł energii elektrycznej do tego systemu. Uniwersalność tej metodyki pozwala na wykorzystanie źródeł dowolnego typu, w tym dużej mocy. Z kolei przyjęty kształt algorytmu pozwala na całkowite zautomatyzowanie obliczeń z możliwością wykorzystania w procesie szacowania komercyjnych programów do obliczeń poziomów napięć i rozpływu mocy oraz analizy dynamiki systemu elektroenergetycznego. To powoduje, że w relatywnie łatwy sposób można przeprowadzić obliczenia dla różnych rozkładów generacji i poboru mocy (w tym automatycznie generowanych) w węzłach systemu elektroenergetycznego. Pozwala to uwzględnić i porównać różne koncepcje rozwoju systemu elektroenergetycznego. Bibliografia 1. Bajor M., Bezpieczna praca systemu o ograniczonych zdolnościach przesyłowych w sytuacji wysokiej generacji wiatrowej, Konferencja „Aktualne problemy w elektroenergetyce”, Politechnika Gdańska, Jurata 2011.
2. Dobrzyński K., Metodyka szacowania maksymalnej generacji rozproszonej ulokowanej w elektrowniach wiatrowych, rozprawa doktorska, Gdańsk 2012. 3. Dobrzyński K., Szacowanie maksymalnej mocy generacji rozproszonej w systemie elektroenergetycznym, Gdańsk 2014. 4. Dyrektywa Parlamentu Europejskiego i Rady nr 2009/28/WE z dnia 23 kwietnia 2009 r. w sprawie promowania stosowania energii ze źródeł odnawialnych, Dz. U. WE L 140 z 5.6.2009. 5. Kacejko P., Machowski J., Zwarcia w sieciach elektroenergetycznych, Warszawa 1993. 6. Kacejko P., Pijarski P., Generation Level Matching to the Transmission Capability of Overhead Lines, Acta Energetica 2013, nr 1/14. 7. Kacejko P., Generacja rozproszona w systemie elektroenergetycznym, Lublin 2004. 8. Kundur P., Power system stability and control, McGraw-Hill 1994. 9. Lubośny Z., Elektrownie wiatrowe w systemie elektroenergetycznym, Warszawa 2006. 10. Lubośny Z., Farmy wiatrowe w systemie elektroenergetycznym, Warszawa 2009. 11. Lubośny Z., Elektroenergetyczna automatyka zabezpieczeniowa farm wiatrowych, Warszawa 2013. 12. Machowski J., Regulacja i stabilność systemu elektroenergetycznego, Warszawa 2007. 13. Ustawa z dnia 20 lutego 2015 r. o odnawialnych źródłach energii, Dz. U. z 2015 r. poz. 478.
Krzysztof Dobrzyński
dr inż. Politechnika Gdańska e-mail: k.dobrzynski@eia.pg.gda.pl Ukończył studia na Wydziale Elektrycznym Politechniki Warszawskiej w 1999 roku. W 2012 roku uzyskał tytuł doktorski na Wydziale Elektrotechniki i Automatyki Politechniki Gdańskiej. Pracuje jako adiunkt w Katedrze Elektroenergetyki Politechniki Gdańskiej. Obszar jego zainteresowań to współpraca źródeł generacji rozproszonej z systemem elektroenergetycznym, modelowanie matematyczne, sterowanie systemem elektroenergetycznym, instalacje inteligentne w budynkach.
97
J. Jurasz, A. Piasecki | Acta Energetica 2/27 (2016) | 98–102
Evaluation of the Complementarity of Wind Energy Resources, Solar Radiation and Flowing Water – a Case Study of Piła
Authors Jakub Jurasz Adam Piasecki
Keywords electric power system, renewable energy, instability
Abstract The paper analyses the complementarity of electrical energy yield, using a multiannual, monthly and daily approach, for a small hydroelectric power station, wind turbine and photovoltaic plant. The results obtained point to the existence of a strong negative correlation between the solar industry and the wind industry from the perspective of monthly changes. The energy yield generated by a hydroelectric power station is significantly correlated with the generation yield of wind sources. When considering a multiannual perspective, the existence of a correlation between small-scale water and solar power plants was identified. The conclusions of this study may serve as vital rationales when planning the contribution of these sources to the Polish National Power System (KSE).
DOI: 10.12736/issn.2300-3022.2016208
Introduction The production of electrical energy from variable renewables is a considerable burden for the Polish National Power System. This stems from the fact that for many years its development was dependent on power units generating energy from brown and hard coal. Changing electrical energy demands were and continue to be balanced by energy stored by pumped-storage power stations. The development of renewable energy sources and their increasingly prominent share in Poland’s energy mix provide the power station control process with some uncertainties relating to the yield of electrical energy from photovoltaic or wind power plants. The level of uncertainty linked to these sources is to some extent offset by the favourable impact of spatial distribution on the levelling of the energy yield curve [1, 2], and the development of the forecasting methods of energy production in different time horizons [2]. This study attempts to evaluate the complementarity of wind energy resources, solar radiation and flowing water on the basis of data collected for the town of Piła (Wielkopolska Voivodeship). The results obtained may be of assistance at the planning stage of the development of renewable resources, contributing to a reduction of the costs of their instabilities.
Data – methodology – energy yield The analysis was conducted on the basis of three time series which include the years 1985–2004 and which describe, as follows: the average daily flow of the Gwda River (measurement point at profile Piła located at 21.2 km of the river course, which 98
closes the river Gwda drainage area, with an area of 4704 km2) [3], the daily total energy from solar radiation falling onto a plane inclined at an angle of 30° [4] and the hourly wind speeds at the height of 10 metres obtained from [5]. The wind-related data was verified against the data resulting from [3], and then calculated for the height of 100 metres, the target height of the axis of the wind turbine rotor with rated power of 2 MW, on the basis of the dependencies presented in [6]. Nonetheless, as indicated in [14], the data of the Institute of Meteorology and Water Management (IMGW), which originates from a single sensor mounted at the height of 10 metres, cannot be considered as dependable and their conversion to greater heights above the ground level is burdened with error. In addition, this data is averaged using the daily approach, and the use of averaged values may result in underestimation. The correctness of the calculations was evaluated based on the existing measurements relating to the Margonin Wschód Wind Farm [9]. Tab. 1 presents the essential statistics linked to the previously mentioned time series. The energy yield from a wind turbine and a photovoltaic system were calculated in accordance with the dependencies presented in [7], while the production of electrical energy by a hydroelectric power station was based on the data obtained from [3] and the calculation methods included in [8]. The results obtained were verified against the data presented in [9] in relation to a wind farm, and [10], in relation to a small hydroelectric power station. The disparity in the results did not exceed 5%, and it should be noted that comparable results might have been obtained
J. Jurasz, A. Piasecki | Acta Energetica 2/27 (2016) | 98–102
Flow [m3/s]
Insolation [kWh/m2/day]
Wind speed at 100 metres [m/s]
Average
27.693
3.113
5.999
Deviation
9.437
1.985
2.794
Variance
89.048
3.940
7.805
Skewness
1.233
0.572
0.502
Kurtosis
2.718
–0.703
0.130
Statistics
Tab. 1. Characteristics of variable time series used in the evaluation of electrical energy yield in the years of 1985–2004
for different time intervals. The evaluation correctness for PV was assessed on the basis of references in the literature [8, 11] regarding the functioning of these types of energy sources in Poland – the results obtained were deemed dependable.
The concept of complementarity The concept of complementarity in the production of energy from different sources of energy may be understood as their capacity to generate electrical energy in a complementary way. The complementarity of energy sources may be assessed from the point of view of time, space or both these dimensions simultaneously. As this study only relates to a single location, special focus has been put on the time complementarity – using the multiannual, monthly and daily approach. Fig. 1 is an example of a perfect complementarity of two sources of energy whose yield curve is a sinusoid. In this case, the perfect complementarity is characterised by the value of the correlation coefficient equalling 1. The operation of three unstable energy sources may appear as shown in Fig. 2, where similarly to Fig. 1, a perfect complementarity of these sources can be identified. In reality, sources I and II could be a photovoltaic generator and a wind turbine, while source III could be a fuel cell [12]. However, this study focuses on the ability of wind, solar and water sources to complement each other.
(approximately 25% of time series records). From this perspective, the photovoltaic plant, considering its 100% reliability, is a more dependable source of energy – it must be remembered, however, that local climatic conditions (insolation, wind speed) are of key importance in this distinction, and consequently it is not possible to draw further conclusions on the basis of a single location. The distribution of electrical energy produced by small hydroelectric power stations has the biggest impact on the shape of the histogram for the total yield. One can observe no cases of zero electrical energy production and approx. 1200 days when the production of electrical energy was close to the rated value. The shape of these distributions is primarily determined by the statistical parameters of time series (flow, wind speed, insolation) and the method used to calculate the yield of electrical energy – start speed and maximum speed for a wind turbine, or the maximum capacity (maximum flow rate) in the case of a hydroelectric power station. In order to evaluate the variability of the individual sources of energy for the value of the daily yield, an average value was calculated, as well as standard deviation, and a coefficient of variation which binds the two previous parameters in the form of a quotient. It can be observed that the hydroelectric power station is characterised by the largest value of the average daily production of electrical energy and limited standard deviation in relation to it. Consequently, the coefficient of variation is more than half the size than that for the photovoltaic plant, and more than four times smaller than that for the wind turbine. The result
Results On the basis of previously mentioned sources, the energy yield generated by particular sources was calculated. Further calculations analysed the size of generated energy in reference to 1 MW of installed power. It should be noted that the hydroelectric power station located on the Gwda River has the maximum capacity of 1.1 MW, and the energy yield from the wind turbine was based on the actual power curve for the Vestas V90 turbine with rated power of2 MW. Fig. 3 depicts histograms of the electrical energy yield defined using the daily approach, created with the use of the analysis of a time series of 20-years with suitable variables. Designations assumed: SHPS – small hydroelectric power station, PV – photovoltaic plant, WT – wind turbine, TOTAL – total yield of previous three energy sources. It ought to be recognised that not even a single MWh of energy was generated for nearly 1800 days
Fig. 1. An example of a perfect complementarity of two energy sources
Fig. 2. Three hypothetical energy sources perfectly complementing each other within a time range relating to energy production 99
J. Jurasz, A. Piasecki | Acta Energetica 2/27 (2016) | 98–102
Fig. 3. Yield histograms for specific energy sources for the years 1985–2004
of this high value of the coefficient of variation is the perception of a particular source as unstable, often referred to as chimeric. Fig. 4 presents statistical parameters for the electrical energy yield from three sources defined using the daily approach. Based on the data from 1985–2004, an average total monthly energy yield was calculated for the individual sources (Fig. 5). As mentioned previously, this yield is depicted as converted to 1 MW of installed power. As a result, the photovoltaic plant generates within a year approx. 13% of the electrical energy yield of the hydroelectric power station and 40% of the wind turbine. Taking into consideration the monthly variability of the insolation value and the shape of the energy yield curve from Fig. 5, it could be observed that the installation of additional capacities in photovoltaics would enable partial elimination of the minimum total yield (SHPS, PV, WT) generated in the summer months (June–August). The last stage of the analysis of the temporal variability is the multiannual time horizon (Fig. 6). Here, the assessment included only the variability of the total annual yield of energy from a particular energy source, as presented in Fig. 6. As can be seen in the case of photovoltaic plants and wind farms, this variability is relatively limited, and from the point of view of the coefficient of variation, it amounts to 3% and 7%, respectively. A higher value for this parameter was noted in the case of the hydroelectric power station, which equalled 13% for average annual production of about 5.5 MWh with standard deviation at 0.72 MWh. The most crucial stage of the evaluation was defining whether, if in the event of a drop in the quantity of energy generated by a single source within a particular time interval, other sources demonstrate an advantageous dependency and for that same time interval they begin to generate more electrical energy. 100
Fig. 4. Comparison of three energy sources using statistical parameters – for the daily yield
Fig. 5. Average monthly yield of energy from specific energy sources
It seems that the analysis of the course of the diagrams in Fig. 5 confirms this hypothesis, as the drop in the energy yield from SHPS and WT is accompanied by an increase in the production of electrical energy by PV. This dependency is depicted in Tab. 2 with the use of correlation coefficients. Depending on the assumed interpretation angle of their value, the monthly approach suggests that the wind and solar power generation methods are strongly correlated negatively. Consequently, through manipulation of
J. Jurasz, A. Piasecki | Acta Energetica 2/27 (2016) | 98–102
Fig. 6. Average monthly yield of energy from specific energy sources
the capacities installed in specific sources, and by making their total annual yields similar, one could even attempt partial levelling of the yield curve. Attention should be paid to the correlation between SHPS and WT, whose monthly value equals approx. 0.6. In the case of a daily time interval it is rather difficult to discuss a significant correlation between these energy sources. Moreover, the analysis should be conducted using the hourly approach. In view of the specificity, the variable insolation level (only during the day) and the wind speed (day and night), it would be impossible to state if on a sunny date the wind farms as a rule would not generate any energy by solely basing the analysis on the correlation coefficients listed in Tab. 2. Some indications relating to the hourly complementarity of wind and solar resources may be supplied by analysing the system data linked to the generation of electrical energy by Polish wind farms [13]. Using the multiannual approach, only the correlation between the photovoltaic sources and the hydroelectric power station (R2 = –0.48) seems crucial. This dependency may be explained by the occurrence of years characterised by different precipitation levels, which in turn indirectly (cloud coverage) translates into insolation and directly into the quantity of river water. In the course of the calculations made, a total of 7305 yield values of electrical energy for every type of analysed energy source were generated. These values, normalised to the range 0–1, were depicted in the form of a contour diagram shown in Fig. 7. The diagram served to demonstrate the operation of a hydroelectric power station depending on the yield generated by PV and WT. Attention should be paid to the partial positioning of the contour lines along the y = x line. The positioning of the contour lines in Fig. 7 confirms the mutual dependencies between the analysed sources of energy. Energy generation by PV is near the maximum (0.8–1), when WT is at a low level (0–0.2). At that point, one should expect generation of energy at a level not exceeding 0.5 of maximum generation (summer months). However, if the wind turbines generate energy at the level of (0.8–1), the production of energy by SHPS may approach values exceeding 0.7. It is probable that the dependencies shown in Fig. 7 result from a monthly and still poorly analysed daily correlation between the specific sources of energy. The dependencies and results from the previous stages of the study may serve to optimise the functioning of the electric power system. This is made more likely by the fact that unstable sources of renewable energy, particularly wind and solar power generation, are gaining in importance.
Daily
SHPS
PV
WT
SHPS
1
–0.20
0.17
PV
–0.20
1
–0.32
WT
0.17
–0.32
1
Monthly
SHPS
PV
WT
SHPS
1
–0.29
0.60
PV
–0.29
1
–0.90
WT
0.60
–0.90
1
Multiannual
SHPS
PV
WT
SHPS
1
–0.48
0.21
PV
–0.48
1
–0.01
WT
0.21
–0.01
1
Tab. 2. Values of correlation coefficients for different time steps
Fig. 7. Contour diagram depicting SHPS in relation to PV and WT. SHPS – levelling of the smallest squares, weighed by distance
Overview The growing share and the importance of renewable energy sources in the domestic energy balance are increasing challenges on every level of its functioning. Planning of the development and the share of specific unstable renewable energy sources should take into consideration their characteristics and the correlations between them, in addition to purely economic calculations. The analysis has established an advantageous correlation between the wind and solar power generation when the monthly totals approach and the multiannual perspective between hydro and solar energy was taken into consideration. It seems that these findings could serve as guidelines for local authorities in 101
J. Jurasz, A. Piasecki | Acta Energetica 2/27 (2016) | 98–102
establishing solutions aiming at ensuring energy self-sufficiency. In the longer term it is advisable to perform further studies on this subject matter in order to verify the conclusions obtained against other areas and regions of Poland. REFERENCES
1. J. Jurasz, J. Mikulik, “Wpływ dystrybucji przestrzennej na stabilność źródeł fotowoltaicznych” [Spatial distribution impact on photovoltaic sources stability] in: Interdyscyplinarne zagadnienia w inżynierii i ochronie środowiska [Interdisciplinary Issues in Engineering and Environmental Protection], edited by A. Kotowski, K. Piekarska, B. Kaźmierczak, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2015. 2. J. Kleissl, “Solar Energy Forecasting and Resource Assessment”, Waltham: Academic Press (Elsevier) 2013. 3. Rocznik Hydrologiczny, Institute of Meteorology and Water Management – Państwowy Instytut Badawczy, 1994. 4. Solar Energy Services for Professionals, www.soda-pro.com. 5. Global Modelling and Assimilation Office, www.gmao.gfsc.nasa.gov. 6. G. Majewski, B. Nasiłowska, “Energia wiatru – ocena zasobów i problemy inwestycji w odnawialne źródła energii na przykładzie gminy Latowicz (woj. mazowieckie)” [Wind energy – assessment of resources and investment problems in renewable sources of energy based on the gmina of Latowicz (Masovian Voivodeship), Przegląd Naukowy – Inżynieria i Kształtowanie Środowiska (Scientific Review – Engineering and Environmental Sciences), No. 51, 2011, pp. 61–71.
7. G. Notton, S. Diaf, L. Stoyanov, “Hybrid Photovoltaic / Wind Energy Systems For Remote Locations”, Energy Procedia, Vol. 6, 2011, pp. 666–677. 8. J. Zimny, “Odnawialne źródła energii w budownictwie niskoenergetycznym” [Renewable energy sources in low-energy buildings], Kraków – Warsaw 2010. 9. Report on the environmental impact of the planned project. Construction of stage II of the Margonin Wschód wind farm with accompanying infrastructure, www.margonin.pl. 10. www.ew.koronowo.pl. 11. J. Lenarczyk, “Wynik sezonowych badań wydajności energetycznej instalacji fotowoltaicznej o mocy szczytowej 668 W” [Results of seasonal tests of energy efficiency of the photovoltaic installation with a peak power of 668 W], Problemy Inżynierii Rolniczej, Vol. 1, 2013, pp. 151–161. 12. B. Ceran, K. Sroka, “Performance Analysis of a Hybrid Generation System of Wind Turbines, Photovoltiac Modules, and a Fuel Cell”, Acta Energetica, No. 2/23, 2015, pp. 36–42, DOI:10.12736/ isnn.2300-3022.2015204. 13. www.pse.pl. 14. M. Duraczyński, “Badanie i analiza energii wiatru dla potrzeb energetyki w Polsce Południowo-Wschodniej” [Research and analysis of wind energy for the energy sector in South-East Poland], doctoral thesis, AGH University of Science and Technology in Kraków, Kraków 2012/2013.
Jakub Jurasz AGH University of Science and Technology e-mail: jakubkamiljurasz@gmail.com PhD student at the AGH University of Science and Technology in Kraków in production engineering. His interests include: studying the use of renewable energy sources in production processes and functioning of the electric power system with the growing share of unstable sources of electrical energy.
Adam Piasecki AGH University of Science and Technology e-mail: adm.piasecki@gmail.com PhD student at the AGH University of Science and Technology in Kraków. Specialises in hydrological aspects, including water resource management. Participant of numerous domestic and international conferences, author and co-author of several dozen articles.
102
J. Jurasz, A. Piasecki | Acta Energetica 2/27 (2016) | translation 98–102
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 98–102. When referring to the article please refer to the original text. PL
Ocena komplementarności zasobów energii wiatru, promieniowania słonecznego oraz wód płynących – studium przypadku Piła Autorzy
Jakub Jurasz Adam Piasecki
Słowa kluczowe
system elektroenergetyczny, energia odnawialna, niestabilność
Streszczenie
W pracy dokonano analizy komplementarności uzysku energii elektrycznej w ujęciu wieloletnim, miesięcznym oraz dobowym dla małej elektrowni wodnej, turbiny wiatrowej oraz farmy fotowoltaicznej. Uzyskane wyniki pozwalają stwierdzić istnienie silnej ujemnej korelacji pomiędzy energetyką słoneczną oraz wiatrową z perspektywy miesięcznych zmian. Uzysk energii z elektrowni wodnej jest istotnie skorelowany z generacją źródeł wiatrowych. Dla wieloletniego horyzontu czasowego wskazano na istnienie korelacji pomiędzy małą energetyką wodną a słoneczną. Płynące z opracowania wnioski mogą być istotnymi przesłankami na etapie planowania udziału tych źródeł w Krajowym Systemie Elektroenergetycznym.
Wstęp Produkcja energii elektrycznej w zmiennych źródłach odnawialnych jest znacznym obciążeniem dla Krajowego Systemu Elektroenergetycznego. Jego rozwój był bowiem przez wiele lat oparty na blokach energetycznych pozyskujących energię z węgla brunatnego i kamiennego. Wahania w zapotrzebowaniu na energię elektryczną były i są bilansowane poprzez magazyny energii w postaci elektrowni szczytowo-pompowych. Rozwój odnawialnych źródeł energii oraz ich coraz wyraźniejszy udział w koszyku energetycznym Polski obciąża proces sterowania pracą elektrowni kolejnymi niewiadomymi w postaci uzysku energii z farm fotowoltaicznych czy też elektrowni wiatrowych. Stopień niepewności dotyczących tych źródeł jest do pewnego stopnia niwelowany poprzez korzystny wpływ dystrybucji przestrzennej na wygładzenie krzywej uzysku energetycznego [1, 2] oraz rozwój metod prognozowania produkcji energii w różnym horyzoncie czasowym [2]. W poniższym opracowaniu podjęto próbę oceny komplementarności zasobów energii wiatru, słońca oraz wód płynących, na podstawie danych zebranych dla miasta Piły (województwo wielkopolskie). Otrzymane wyniki mogą być pomocne na etapie planowania rozwoju źródeł odnawialnych, tak by minimalizować powstające koszty ich niestabilności. Dane – metodologia – uzysk energii Analizę przeprowadzono na podstawie trzech szeregów czasowych obejmujących lata 1985–2004 i opisujących odpowiednio: średni przepływ dobowy na rzece Gwdzie (punkt pomiarowy profil Piła znajdujący się na 21,2 km biegu rzeki, zamykający zlewnię Gwdy o powierzchni 4704 km2) [3], dobową sumę energii promieniowania słonecznego padającego na płaszczyznę nachyloną pod kątem 30° [4] oraz godzinowe prędkości wiatru na wysokości 10 metrów pozyskane z [5]. Dane odnośnie wietrzności zweryfikowano z danymi pochodzącymi z [3], a następnie przeliczono na wysokość 100 metrów, docelową wysokość osi
Przepływ [m3/s]
Nasłonecznienie [kWh/m2/dzień]
Prędkość wiatru na 100 metrach [m/s]
Średnia
27,693
3,113
5,999
Odchylenie
9,437
1,985
2,794
Wariancja
89,048
3,940
7,805
Skrzywienie
1,233
0,572
0,502
Kurtoza
2,718
–0,703
0,130
Statystyka
Tab. 1. Charakterystyka szeregów czasowych zmiennych użytych w szacowaniu uzysku energii elektrycznej w latach 1985–2004
wirnika turbiny o mocy znamionowej 2 MW, na podstawie zależności przedstawionych w [6]. Jednakże, jak wskazują [14], dane Instytutu Meteorologii i Gospodarki Wodnej (IMGW), pochodzące z pomiarów pojedynczego czujnika zamontowanego na wysokości 10 metrów, nie są miarodajne, a ich przeliczanie na większą wysokość nad poziomem gruntu obarczone jest błędem. Ponadto dane te są uśredniane w ujęciu dobowym, co może prowadzić do niedoszacowania ze względu na posługiwanie
się wartościami średnimi. Poprawność obliczeń oceniono na podstawie istniejących pomiarów odnoszących się do Parku Wiatrowego Margonin Wschód [9]. W tab. 1 przedstawiono podstawowe statystyki wspomnianych szeregów czasowych. Uzysk energii z turbiny wiatrowej oraz systemu fotowoltaicznego obliczono zgodnie z zależnościami przedstawionymi w [7], natomiast produkcję energii elektrycznej z elektrowni wodnej oparto
Rys. 1. Przykład idealnej czasowej komplementarności dwóch źródeł energii
103
J. Jurasz, A. Piasecki | Acta Energetica 2/27 (2016) | translation 98–102
Rys. 2. Trzy hipotetyczne źródła energii doskonale uzupełniające się w czasowym wymiarze produkcji energii
na danych pozyskanych z [3] oraz metodzie obliczeń zawartej w [8]. Uzyskane wyniki zweryfikowano z danymi przedstawionymi w [9] odnośnie elektrowni wiatrowej oraz [10] w wypadku MEW (mała elektrownia wodna). Rozbieżność wyników nie przekraczała 5%, przy czym należy mieć na uwadze, że porównywane uzyski mogły zostać opracowane dla różnych przedziałów czasowych. Poprawność oszacowania dla PV oceniono na podstawie literaturowych doniesień [8, 11] na temat funkcjonowania tego typu źródeł energii w Polsce – uzyskane wyniki uznano za wiarygodne. Pojęcie komplementarności Pojęcie komplementarności w wytwarzaniu energii z różnych źródeł energii może być rozumiane jako ich zdolność do generowania energii elektrycznej bądź cieplnej w sposób uzupełniający się. Komplementarność źródeł energii może zostać oceniona z punktu widzenia czasu, przestrzeni lub obu tych wymiarów jednocześnie. Ze względu na odwoływanie się w tym opracowaniu do jednej lokalizacji, uwagę skupiono wyłącznie na komplementarności czasowej, w skali: wieloletniej, miesięcznej oraz dobowej. Na rys. 1 zaprezentowano przykład idealnej komplementarności dwóch źródeł energii, których krzywa uzysku ma postać sinusoidy. Idealna komplementarność w tym wypadku odznacza się wartością współczynnika korelacji równą 1. Praca trzech niestabilnych źródeł energii może wyglądać tak, jak przedstawiono to na rys. 2, gdzie podobnie jak na rys. 1 występuje doskonała czasowa komplementarność tych źródeł. W rzeczywistości źródła I oraz II mogłyby być generatorem fotowoltaicznym i turbiną wiatrową, natomiast źródło III ogniwem paliwowym [12]. W tym opracowaniu rozważano jednak zdolność do uzupełniania się źródeł wiatrowych, słonecznych oraz wodnych. Wyniki Na podstawie wspomnianych wcześniej źródeł dokonano przeliczenia energii generowanej przez poszczególne źródła. W późniejszych obliczeniach wielkość generowanej energii rozpatrywano w odniesieniu do 1 MW mocy zainstalowanej. Należy zaznaczyć, że istniejąca na Gwdzie elektrownia wodna cechuje się mocą
104
maksymalną 1,1 MW, a uzysk z turbiny wiatrowej oparto na krzywej mocy rzeczywistej turbiny Vestas V90 o mocy znamionowej 2 MW. Na rys. 3 przedstawiono histogramy uzysku energii elektrycznej w ujęciu dobowym, na podstawie analizy 20-letniego szeregu czasowego odpowiednich zmiennych. Przyjęte oznaczenia: MEW – mała elektrownia wodna, PV – elektrownia fotowoltaiczna, WT – turbina wiatrowa, SUMA – zestawienie sumarycznego uzysku wcześniejszych trzech źródeł energii. Na uwagę zasługuje fakt, że w wypadku energetyki wiatrowej przez blisko 1800 dni (około 25% rekordów szeregu czasowego) nie została wygenerowana nawet pojedyncza MWh energii. Z tej perspektywy elektrownia fotowoltaiczna, zakładając jej 100-proc. niezawodność, jest pewniejszym źródłem energii – przy tym rozróżnieniu kluczowe są lokalne warunki klimatyczne (nasłonecznienie, prędkość wiatru), tak więc na podstawie jednej lokalizacji nie sposób wyciągać dalszych wniosków. Rozkład produkcji energii elektrycznej z MEW w największym stopniu wpływa na kształt histogramu dla uzysku sumarycznego. Można zaobserwować brak przypadków o zerowej produkcji energii elektrycznej oraz ok. 1200 dób, gdy produkcja energii elektrycznej była bliska znamionowej. Kształt tych rozkładów
determinowany jest w głównej mierze przez parametry statystyczne szeregów czasowych (przepływ, prędkość wiatru, nasłonecznienie) oraz sposób, w jaki obliczany był uzysk energii elektrycznej – prędkość startowa oraz maksymalna dla turbiny wiatrowej czy też maksymalny przełyk (maksymalne natężenie przepływu) w wypadku elektrowni wodnej. W celu zbadania zmienności poszczególnych źródeł energii dla wartości uzysku dziennego obliczono wartość średnią, odchylenie standardowe oraz współczynnik zmienności, który wiąże dwa wcześniejsze parametry w postaci ilorazu. Można zaobserwować, że elektrownia wodna cechuje się największą wartością średniej dziennej produkcji energii elektrycznej oraz w stosunku do niej niewielkim odchyleniem standardowym. W efekcie jej współczynnik zmienności jest nieco ponad dwa razy mniejszy niż ten dla elektrowni fotowoltaicznej oraz przeszło cztery razy od tego dla turbiny wiatrowej. Konsekwencją wysokiej wartości współczynnika zmienności jest postrzeganie danego źródła jako niestabilnego, często również określanego mianem chimerycznego. Na rys. 4 przedstawiono parametry statystyczne dla uzysku energii elektrycznej z trzech źródeł w ujęciu dobowym. Na podstawie danych z lat 1985–2004 wyliczono średni sumaryczny miesięczny uzysk energii z poszczególnych źródeł (rys. 5). Jak już wspomniano, uzysk ten przedstawiany jest w przeliczeniu na 1 MW mocy zainstalowanej. Tym samym elektrownia fotowoltaiczna generuje w skali roku ok. 13% uzysku energii elektrycznej elektrowni wodnej oraz 40% turbiny wiatrowej. Biorąc pod uwagę miesięczną zmienność wartości nasłonecznienia oraz kształt krzywej uzysku energii z rys. 5, można domniemywać, że instalacja dodatkowych mocy wytwórczych w fotowoltaice pozwoliłaby na częściową eliminację minimum sumarycznego uzysku (MEW, PV, WT) powstającego w miesiącach letnich (czerwiec – sierpień). Ostatnim etapem rozważań zmienności czasowej jest wieloletni horyzont czasowy (rys. 6). Tutaj ocenie poddano wyłącznie
Rys. 3. Histogramy uzysku z poszczególnych źródeł energii na przestrzeni lat 1985–2004
J. Jurasz, A. Piasecki | Acta Energetica 2/27 (2016) | translation 98–102
Rys. 4. Porównanie trzech źródeł energii za pomocą parametrów statystycznych – dla uzysku dziennego
Dobowa
MEW
PV
WT
MEW
1
–0,20
0,17
PV
–0,20
1
–0,32
WT
0,17
–0,32
1
Miesięczna
MEW
PV
WT
MEW
1
–0,29
0,60
PV
–0,29
1
–0,90
WT
0,60
–0,90
1
Wieloletnia
MEW
PV
WT
MEW
1
–0,48
0,21
PV
–0,48
1
–0,01
WT
0,21
–0,01
1
Tab. 2. Wartości współczynników korelacji dla różnych kroków czasowych
Rys. 5. Średni miesięczny uzysk energii z poszczególnych źródeł energii
Rys. 6. Sumaryczny roczny uzysk energii z poszczególnych źródeł energii
Rys. 7. Wykres warstwicowy MEW względem PV i WT. MEW – wygładzanie najmniejszych kwadratów, ważone odległością
zmienność sumarycznego rocznego uzysku energii z każdego źródła energii, co przedstawiono na rys. 6. Jak widać, w wypadku elektrowni fotowoltaicznych i wiatrowych zmienność ta jest stosunkowo niewielka, a z punktu widzenia współczynnika
zmienności wynosi odpowiednio 3% i 7%. Większą wartość tego parametru odnotowano dla elektrowni wodnej i wynosił on 13% dla średniej rocznej produkcji około 5,5 MWh przy odchyleniu standardowym wynoszącym 0,72 MWh.
Najistotniejszym etapem badania było określenie, czy jeśli w danym oknie czasowym następuje spadek ilości energii generowanej z jednego źródła, to pozostałe wykazują korzystną zależność i dla tego samego okresu zaczynają produkować więcej energii elektrycznej. Wydaje się, że analiza przebiegu wykresów na rys. 5 potwierdza tę hipotezę, gdyż spadkowi uzysku z MEW oraz WT towarzyszy wzrost produkcji energii elektrycznej z PV. Zależność tę przedstawiono w tab. 2 za pomocą współczynników korelacji. W zależności od przyjętej konwencji interpretacji ich wartości, w ujęciu miesięcznym widać, że energetyka wiatrowa i słoneczna są ze sobą silnie ujemnie skorelowane. Tym samym, manipulując mocami zainstalowanymi w poszczególnych źródłach, tak by ich sumaryczny roczny uzysk był do siebie zbliżony, można dążyć do częściowego wygładzenia krzywej uzysku. Na uwagę zasługuje korelacja między MEW a WT, która w ujęciu miesięcznym wynosi ok. 0,6. W wypadku dobowego przedziału czasu trudno jest mówić o występowaniu znaczącej korelacji pomiędzy tymi źródłami energii. Co więcej, rozważania należałoby prowadzić w ujęciu godzinowym. Ze względu na specyfikę, zmienności nasłonecznienia (wyłącznie dzień) oraz prędkości wiatru (dzień i noc), na podstawie zawartych w tab. 2 wartości współczynników korelacji nie sposób stwierdzić, czy w słoneczny dzień z reguły nie będzie generowana energia z turbin wiatrowych. Pewnych przesłanek co do godzinowej komplementarności zasobów wiatru i słońca może dostarczyć analiza danych systemowych dotyczących generacji energii elektrycznej w polskich elektrowniach wiatrowych [13]. W ujęciu wieloletnim istotna wydaje się wyłącznie korelacja pomiędzy źródłami fotowoltaicznymi oraz elektrownią wodną (R2 = –0,48). Zależność tę można tłumaczyć występowaniem lat charakteryzujących się różną sumą opadów atmosferycznych, co pośrednio (zachmurzenie) przekłada się na nasłonecznienie i bezpośrednio na ilość odprowadzanej wody rzekami.
105
J. Jurasz, A. Piasecki | Acta Energetica 2/27 (2016) | translation 98–102
W ramach obliczeń wygenerowano łącznie 7305 wartości uzysku energii elektrycznej dla każdego z analizowanych źródeł energii. Wartości te, znormalizowane do przedziału 0–1, zestawiono w postaci wykresu warstwicowego zaprezentowanego na rys. 7. Zaprezentowano na nim pracę elektrowni wodnej w zależności od uzysku generowanego przez PV oraz WT. Na uwagę zasługuje częściowe ułożenie się warstwic wzdłuż prostej y = x. Ułożenie warstwic na rys. 7 potwierdza wzajemne zależności między analizowanymi źródłami energii. Produkcja energii z PV jest bliska maksimum (0,8–1), gdy WT jest na niskim poziomie (0–0,2). Należy wówczas oczekiwać produkcji energii w wysokości nieprzekraczającej 0,5 generacji maksymalnej (miesiące letnie). Jednak gdy turbiny wiatrowe będą generować energię na poziomie (0,8–1), produkcja energii z MEW może zbliżać się do wartości przekraczających 0,7. Prawdopodobnie zależności przedstawione na rys. 7 wynikają z miesięcznej i słabo jeszcze rozpoznanej dobowej korelacji pomiędzy poszczególnymi źródłami energii. Przedstawione zależności i wyniki z wcześniejszych etapów pracy mogą posłużyć do optymalizacji funkcjonowania systemu energetycznego. Zwłaszcza że coraz większą rolę odgrywają w nim niestabilne źródła energii odnawialnej, w tym przede wszystkim energetyka wiatrowa i słoneczna. Podsumowanie Rosnący udział i znaczenie odnawialnych źródeł energii w krajowym bilansie energetycznym jest i będzie stawał się coraz większym wyzwaniem na każdej płaszczyźnie
jego funkcjonowania. Odpowiednie planowanie rozwoju oraz udziału poszczególnych źródeł niestabilnej energii odnawialnej winno oprócz rachunku ekonomicznego zostać oparte na ich charakterystyce oraz relacji pomiędzy nimi. Analiza wykazała korzystną relację pomiędzy energetyką wiatrową i słoneczną w ujęciu sum miesięcznych oraz z perspektywy wieloletniej pomiędzy energią wodną i słoneczną. Wydaje się, że dzięki temu może to stanowić wskazówkę dla władz lokalnych w zakresie wypracowania rozwiązań zmierzających do zapewnienia samowystarczalności energetycznej. W dalszej perspektywie wskazane jest przeprowadzenie kolejnych badań na ten temat, w celu weryfikacji wysuniętych wniosków w innych obszarach i regionach Polski. Bibliografia 1. Jurasz J., Mikulik J., Wpływ dystrybucji przestrzennej na stabilność źródeł fotowoltaicznych [w:] Interdyscyplinarne zagadnienia w inżynierii i ochronie środowiska, red. Kotowski A., Piekarska K., Kaźmierczak B., Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2015. 2. Kleissl J., Solar Energy Forecasting and Resource Assessment, Waltham: Academic Press (Elsevier) 2013. 3. Rocznik Hydrologiczny 1994, Instytut Meteorologii i Gospodarki Wodnej – Państwowy Instytut Badawczy, Warszawa. 4. Solar Energy Services for Professionals, www.soda-pro.com. 5. Global Modeling and Assimilation Office, www.gmao.gfsc.nasa.gov.
6. Majewski G., Nasiłowska B., Energia wiatru – ocena zasobów i problemy inwestycji w odnawialne źródła energii na przykładzie gminy Latowicz (woj. mazowieckie), Przegląd Naukowy – Inżynieria i Kształtowanie Środowiska 2011, nr 51, s. 61–71. 7. Notton G., Diaf S., Stoyanov L., Hybrid Photovoltaic / Wind Energy Systems For Remote Locations, Energy Procedia 2011, Vol. 6, s. 666–677. 8. Zimny J., Odnawialne źródła energii w budownictwie niskoenergetycznym, Kraków – Warszawa 2010. 9. Raport o oddziaływaniu planowanego przedsięwzięcia na środowisko. Budowa II obwodu farmy wiatrowej Margonin Wschód wraz z infrastrukturą towarzyszącą, www.margonin.pl. 10. www.ew.koronowo.pl. 11. Lenarczyk J., Wynik sezonowych badań wydajności energetycznej instalacji fotowoltaicznej o mocy szczytowej 668 W, Problemy Inżynierii Rolniczej 2013, z. 1, s. 151–161. 12. Ceran B., Sroka K., Performance Analysis of a Hybrid Generation System of Wind Turbines, Photovoltiac Modules, and a Fuel Cell., Acta Energetica 2015, nr 2/23, s. 36–42, DOI:10.12736/ isnn.2300-3022.2015204. 13. www.pse.pl. 14. Duraczyński M., Badanie i analiza energii wiatru dla potrzeb energetyki w Polsce Południowo-Wschodniej, praca doktorska, AGH w Krakowie, Kraków 2012/2013.
mgr inż. Jakub Jurasz
AGH Akademia Górniczo-Hutnicza e-mail: jakubkamiljurasz@gmail.com Doktorant Akademii Górniczo-Hutniczej w Krakowie w dyscyplinie inżynieria produkcji. Jego zainteresowania obejmują: wykorzystanie odnawialnych źródeł energii w procesach produkcyjnych oraz funkcjonowanie systemu elektroenergetycznego przy rosnącym udziale niestabilnych źródeł energii elektrycznej.
mgr Adam Piasecki
AGH Akademia Górniczo-Hutnicza e-mail: adm.piasecki@gmail.com Doktorant Akademii Górniczo-Hutniczej w Krakowie. Zajmuje się szeroko pojętą problematyką hydrologiczną, w tym gospodarką wodną. Uczestnik wielu konferencji krajowych i międzynarodowych, a także autor i współautor kilkudziesięciu artykułów.
106
T. Karla et al. | Acta Energetica 2/27 (2016) | 107–112
Hardware-Software Implementation of Basic Principles Simulator of Nuclear Reactor Processes
Authors Tomasz Karla Jarosław Tarnawski Kazimierz Duzinkiewicz
Keywords modeling, simulation, nuclear reactor, real-time requirements, education, training
Abstract The paper presents implementation process of basic principle simulators of a nuclear reactor processes. Simulators are based on point-models of processes: kinetics of neutrons, heat generation and exchange, poisoning and burning-up nuclear fuel. Reference simulator was developed in MATLAB/Simulink without taking into account real-time operation. Second simulator was built using the toolbox xPC with hard real-time requirements. Functional decomposition of a nuclear reactor was performed and processes with different time scales were isolated. Simulation of each separated process in Raspberry PI computer with coordination mechanism among them led to a distributed soft real-time simulator. Idea of web-based simulator is also presented. The engine of the web-based simulator can be implemented on the server while the presentation of the state of the simulator and the prescription of parameters can be performed using a web browser. This allows simultaneous access to the simulator using different devices, including mobile as tablets, laptops and mobile phones. Compliance tests of simulators with reference simulator were conducted and the results proved the correctness of implementation. A review of the properties and potential applications of the various versions of developed simulators is presented.
DOI: 10.12736/issn.2300-3022.2016209
1. Introduction Understanding the basic principles of nuclear reactor (NR) processes may be important for many reasons and for many potential recipients. In addition to theoretical knowledge simulators can be used to learn the dynamics of processes and their interdependencies as very valuable means of teaching. It is possible to specify various aspects of simulation, eg.: work in real time which reproduce time dependencies of processes that develop the sense of the dynamics of the object, allowing the testing of different scenarios with the analysis of the impact of individual parameters, the possibility of observing and archiving processes data or the ability to connect control systems for simulated object. For the users of simulators important aspects will be: the handling of simulator, user interface that allows one to manipulate the simulated object and observe the results of its operations. Above description presents that the different learning objectives and dissemination can be achieved with different versions of the simulators. The topics of simulators where already considered in [2, 3, 8, 9]. In this article authors have considered different hardware-software implementations of basic principle nuclear reactor simulators. Considered simulators are based on point models of processes and implemented using
Matlab/Simulink environment, real-time system xPC, Raspberry PI computer and network simulator operated via a web browser. In order to obtain real-time work authors considered distributed versions of simulators. This paper examines the possibility of obtaining step of the simulation corresponding to the actual speed of the neutron kinetic process, compliance simulators with the reference version. Paper contains also assessing the usefulness of simulators for different tasks, taking into account the most important criteria and utility costs.
2. Characteristics of the object dynamics NR in simplified schemes is presented as a source of heat with regulated power [10]. The operation of the NR consists of a series of processes. One of the simplest but well reflecting the nature of the processes in the NR is point model, in which all variables are the values averaged over the volume of the core. More information about them can be found in [5, 6]. All simulators considered in this paper were based on such models [1]. Figure 1 presents processes and control effects of NR included in simulators. First group includes nuclear reactions (neutron kinetics, poisoning and burnup of fuel) and heat transfer processes. 107
T. Karla et al. | Acta Energetica 2/27 (2016) | 107–112
Fig. 1. The main processes occurring in a nuclear reactor affecting its state
Neutron kinetics includes changes of neutron density ( ) in volume of the core depending on core’s reactivity ( ). Poisoning and burnup processes presents changes of reactor’s reactivity ( ) related with the formation of xenon (Xe – 135),iodine (J – 135), samarium (Sm – 149) and promethium (Pm – 149) in nuclear fuel as well as changes of reactivity ( ) related to the change in the composition of the fuel during its burnup. Heat generation and transfer processes determine thermal conditions in the reactor related with neutron density and their changes of reactivity ( ). Control effects include operations related with control of reactivity through regulation of positions of control rods ( ) and boric acid concentration in moderator ( ). All of these processes have different time scales. Table 1 summarizes the various processes and their transition times. The difference between the fastest and the slowest processes occurring in the reactor reaches to several orders of magnitude. Therefore, they are further divided into quick and slow processes (Fig. 1).
3. Hardware and software realizations of simulators There are many different possibilities of implementation of simulators, both in terms of hardware and software. Typical academic approach is application of popular software MATLAB/Simulink (M/S) running on PC class computers. Initially simulator in M/S was developed, and then variants of this reference simulator in other environments and hardware platforms were carried out: the simulator working in hard real-time with a small step of the simulation on PC, the simulator working in soft realtime on the hardware platform based on a low-cost device Raspberry PI (RPI) [11] and a variant of the network simulator that allows one to operate from a web browser. The distribution of simulation between multiple devices according to the ideas of multiagent operations [7] was considered to reduce the computation cost for the individual devices, and thus obtain a smaller step of the simulation. 108
Proces
The duration of transient states
Neutron kinetcs
10-5 to 10-3seconds
Heat transfer between fuel and coolant/moderator, Changes in reactivity resulting from changes in temperatures of fuel and coolant/moderator
3 to 6 minutes
Change in reactivity by changing position of control rods
up to 125s
Change in reactivity by changing concentration of boric acid in moderator
several hours
Xenon poisoning occurring while changing power level of reactor
up to 60 hours
Samarium poisoning
15 to 20 days
Nuclear fuel burnup
tens of days and months
Tab. 1. Processes occurring in the reactor and their duration of transient states
3.1. Reference simulator MATLAB/Simulink Basing on the mathematical model equations a simulation model in Simulink environment was developed. Solutions were obtained using solver ode3 based on Bogacki-Shampine algorithm. The calculations were performed in freerun mode (without time restrictions for calculations). The simulator provides a preview of all the process variables in the form of dedicated display blocks and/or in the form of charts waveforms, there is the ability to archive the results of simulations. The authors have adopted this version of the simulator as a reference because it does not have any simplifications, the simulation is performed in a centralized manner and performed independently of the realtime requirements allowing to get the simulation of any step.
3.2. Real-time simulators Simulations performed in the reference simulator in the Simulink environment were not meant to work and present the results in real time. Depending on the adopted simulation step (accepted from range 1E-3s to 1E-5s corresponding to the average life time of neutrons) for calculating the results of simulation in specific moments, calculations are carried out about 10 times slower
T. Karla et al. | Acta Energetica 2/27 (2016) | 107â&#x20AC;&#x201C;112
to 100 times as fast as a real time. Work with the simulator that reflects dynamics of the real-time object has a large educational value, allow one to gain experience with the dynamics of the object which is necessary when working with real object. MATLAB/Simulink have toolboxes that allow a simulation while maintaining real-time operation. The authors have considered toolboxes Real-Time Windows Target (RTWT) and xPC, which allow one to run the simulation on PC and toolbox containing a package of modules to cooperate and compile applications on the platform Raspberry Pi.
3.2.1. Hard Real-time simulator with small step of simulation Hard RT simulator that can work with the adopted by the authors the most challenging step of calculations at 1E-5s required the use of a solution having a high computing power. M/S with RTWT toolbox allows one to run simulations in RT mode in the Windows environment. However, the efficiency of this tool on test computers was insufficient at step 1E-5. The alternative was toolbox xPC which is oriented on simulations in RT, offering much higher performance, because it performs calculations on specially prepared versions of the operating system with microkernel, containing only the necessary components needed
to carry out the simulation. In addition, another variant of the simulator was developed using the xPC, in which the simulation was distributed between 3 PCs. Time decomposition of nuclear reactor processes presented in Tab. 1 allowed to group the various processes in blocks, which can be performed with higher simulation steps (Fig. 2). This solution required one to ensure communication between devices and the synchronization of each of the blocks of the simulation with the other blocks. The method of synchronization for moments of start, pause and end of calculations on individual devices was developed. Due to the limited visualization tools available in xPC toolbox, authors developed an additional application that runs on the fourth RTWT computer, which was used for the management of simulation, presentation of the results in real time and archiving. All units were connected to each other via a gigabit Ethernet switch using the connectionless UDP protocol (Fig. 3).
3.2.2. Soft Real-time simulator on Raspberry Pi platform An alternative implementation involves using low-cost devices RPI to build the simulator running in real time with soft time constraints. Using Simulink toolbox Support Package for
Fig. 2. The division into function and computing blocks
Fig. 3. Physical connections in the simulator 109
T. Karla et al. | Acta Energetica 2/27 (2016) | 107–112
3.3. Conformity assessment study of simulators
Fig. 4. Multi-access web-based simulator
Raspberry Pi RT simulator application was generated as a standalone application that runs without the use of M/S. The step of calculations was set at 1E-3 (the upper limit of the average lifetime of neutrons). Toolbox allows the generation of application code but only if discrete blocks are used and allows one only to use the built-in solver called discrete. After, the compilation application was executed on the designed platform RPI, but performance of a single device wasn’t enough to assure the required step within reasonable constraints of soft RT for such a simulation. The solution was implementation of distributed simulation. Similarly as in the case of distributed simulation using the toolbox xPC variant simulator processes were divided into 3 blocks and implemented on three RPI. The mechanism of synchronization was implemented. The visualisation application which runs on the fourth RPI was developed in C code and was independent from M/S. Also in this case all units were connected to each other via a gigabit Ethernet switch using the connectionless UDP protocol. Further works assume direct implementation of simulator in C code, which can improve performance of the simulator on the RPI platform (reduce computational cost).
3.2.3. Multiple access Web-based simulator The authors considered the implementation of a Web-based simulator in a server unit whose operations would be handled from a web browser. There isn’t any simple solution that would guarantee its work in a hard time environment so the authors decided to implement it with soft real time requirements. Due to the applied infrastructure and its ability to provide multiple access to the simulator the implementation of the server must take into account the work of many instances. The target hardware platform is an efficient PC computer as a server-oriented simulator. The clients will be devices with web browsers that will have access to the server and can have a different character: classic PC, laptop, tablet, or even a mobile phone. This idea is presented in Fig. 4. Visualization can be designed using network and web technologies like: AJAX, JavaScript and HTML. The archiving of results can be handled by a PHP application. 110
After implementation of RT simulators conformity assessment of their results was performed. The process of verification was divided into two parts. The first test concerned the correctness of communication between devices. Distributed versions of simulators performed calculations on different devices which could conclude with wrong results of simulation. Three aspects of communication were taken into consideration which could possibly have an effect on final results of calculations: packet losses, wrong order of received packets and latency in communication. All three aspects were examined using a mechanism developed by authors which uses additional numbering of consecutive sent packets. The loss of packets and wrong order was observed when numeration of received packets was discontinuous or changed. Latency was observed by counting time of transmission of packet marked with specified number from sending unit to target device which returns the number to sending unit again. After receiving an answer from the target device, in sending unit occurs comparison of send and receive times of specified packet number and latency time is calculated. The second test was to verify the simulation results of reference and RT based simulators which run the same pre-made scenarios of control and disturbances trajectories included in the model. By comparing the results of the reference and RT simulators at certain moments of time the average simulation error determined by the formula (1) for each of the RT simulators was calculated. The results of the verification process are presented in Tab. 2.
(1)
where: –value from the reference simulator, simulator, N – number of simulation samples.
–value from RT
4. Summary of the characteristics of developed simulators The presented simulators have different features which allow assessment of their suitability for potential applications. The authors adopted some criteria of quality, in terms of evaluating the various simulators. One of them is the Conformity, determined on the basis of conformity between the results of simulation described in Section 3.3. Another criterion is the ability to work in RT mode, which greatly increases the feeling of working with a real object by simulating its actual dynamics. The criterion
Packet loss
Wrong order of packets
Average latency
xPC
0.00003%
0%
0.8ms
0.3%
RPI
0.00016%
0%
7ms
0.65%
Average error
Tab. 2. Summary of the results of the verification process of simulators
Scenarios
HMI
HIL
Dissemination
Cost
Web-based
Archiving
RPi
Operator options
xPC
Real-Time
MATLAB/ Simulink
Conformity
T. Karla et al. | Acta Energetica 2/27 (2016) | 107–112
Reference
Absent
Standard controls of M/S
High
High
Medium
Absent
Medium
Medium
High
Hard
Simple, Limited, Difficult
Medium
Medium
Medium
Medium
Low
High
Medium
Soft/Hard
Simplified – application desinged by authors for RPI
Medium
Medium
High
High
Very High
Medium/Low
Medium
Soft
Flexible, convenient, web technology controls
High
Medium
High
Absent
High
Low
Tab. 3. Summary of features of presented simulators
for determining range of the possibilities of influencing the parameters and variables of the object is specified as the Operator options. An important feature is the possibility of archiving simulation results for later analysis. Criterion Scenarios defines the possibilities of programming of certain trajectories of control and disturbances variables in the simulation runs. Possibilities of visualisation of processes which are commonly known as user interface or HMI (Human Machine Interface) were assessed. RT simulators can be used in Hardware in the Loop (described in [4]) which was taken into consideration when comparing features of simulators. Availability of solutions, hardware and software, as well as the popularity of the tools were included in the criterion Dissemination. The last criterion taken into consideration is the cost of simulator implementation. The features of simulators incorporating all the criteria are listed in Tab. 3. All implementations provide simulation results of satisfactory quality and sufficient for the purposes of training and education. RT operation mode is possible in versions of the xPC and RPI and web-based simulator, but due to the variation in terms of computing power available to work with hard real-time constraints with smaller step of simulation is only possible for the xPC. There is also a significant difference in terms of archiving. Reference simulator M/S and the web-based one can save the results of all process variables directly from the simulation. In case of xPC and RPI archiving is done by visualization applications, so it is possible to only record the observed values. The greatest potential for the development of work scenarios has reference simulator M/S, because it is possible to freely modify all the variables and structures directly in the model. The possibilities of other simulators in this aspect are dependent directly on implemented mechanisms of visualization applications. Reference simulator uses blocks display and scope available in the M/S. Visualisation Applications have clear graphics and are ergonomically designed, depending on the hardware platform. Taking into account the costs of simulators xPC and M/S versions find potential use in academic units while popularizing actions
will be more appropriate for RPI low-budget projects and a webbased simulator.
5. Conclusion The paper presents and compares different software and hardware implementations of basic principles of nuclear reactor processes simulators. On the basis of mathematical point models of reactor processes a reference simulator was built in MATLAB/Simulink, which may be used in a wide range of research and analysis. Two another simulators were created that operate in real time with hard and soft time requirements. The results of the compliance test showed only minor deviations to the reference simulator so it makes them well suited for research requiring real-time performance, eg. Hardware-in-theLoop. In addition, they allow one to get a better sense of the dynamics of the real object than the reference version of the simulator which also has a high educational value. The authors also present the concept of a web-based simulator, which is the subject of further work. Functional analysis of all simulators taking into account multi-various criteria, such as operator capabilities, availability and costs, allowed determining their applications between typically academic and dissemination. REFERENCES
1. G. Baum et al., “Modele symulacyjne procesów zachodzących w podstawowych urządzeniach obiegu pierwotnego w warunkach normalnej eksploatacji i niedużych zakłóceń (SYMREP)”, Instytut Elektroenergetyki i Automatyki Politechniki Gdańskiej, 1989. 2. T. Karla, J Tarnawski. K Duzinkiewicz, “Symulator czasu rzeczywistego procesów reaktora jądrowego”, Aktualne Problemy Automatyki i Robotyki, Akademicka Oficyna Wydawnicza EXIT, 2014, pp. 558–569 3. K. Duzinkiewicz, A. Cimiński, Ł. Michalczyk, “Symulator szybkich procesów dynamiki reaktorajądrowego wodnego ciśnieniowego”, Pomiary Automatyka Robotyka, No. 9, 2013, pp. 97–101. 111
T. Karla et al. | Acta Energetica 2/27 (2016) | 107–112
4. B. Puchalski et al., “Programowo-sprzętowa platforma symulacyjna – Hardware In the Loop – zaawansowanego układu sterowania poziomem wody w pionowej wytwornicy pary elektrowni jądrowej”, Aktualne Problemy Automatyki i Robotyki, Akademicka Oficyna Wydawnicza EXIT, 2014, pp. 570–580. 5. Y. Oka, K. Suzuki, “Nuclear Reactor Kinetics and Plant Control”, Springer 2013. 6. D.L. Hetrick, “Dynamics of Nuclear Reactors”, The University of Chicago Press, Chicago and London, 1971. 7. L. Sterling, K. Taveter, “The Art of Agent-Oriented Modeling”, The MIT Press, 2009.
8. H. Seok et al., “Development of software for the microsimulator for the KO-RI nuclear power plant unit 2”, Nuclear technology, No. 106(3), 1994, pp. 384–396. 9. A. Kluge, et al., “Designing training for process control simulators: a review of empirical findings and current practices”, Theoretical Issues in Ergonomics Science, No. 10(6), 2009, pp. 489–509. 10. D. Flynn (Ed.), “Thermal power plant simulation and control”, IET, No. 43, 2003. 11. Raspberry PI Website http://www.raspberrypi.org, Accessed on 30.10.2014.
Tomasz Karla Gdańsk University of Technology e-mail: tomasz.karla@pg.gda.pl In 2013 received the degree of MSc. at the Gdańsk University of Technology, Faculty of Electrical and Control Engineering and then began doctoral studies in a multi-agent control applied to the primary circuit of a nuclear power plant reactor PWR. Participant in the study of Innovative Nuclear Power and Sustainable Engineering at the Warsaw University of Technology.
Jarosław Tarnawski Gdańsk University of Technology e-mail: jaroslaw.tarnawski@pg.gda.pl In 2000 he received the degree of MSc. at the Gdańsk University of Technology, Faculty of Electrical and Control Engineering, and then began doctoral studies in the subject of applications of adaptive control to quality of water in drinking water distribution networks. He received PhD in 2006. Research areas are implementation of advanced control methods, decentralization of control, multi-agent systems.
Kazimierz Duzinkiewicz Gdańsk University of Technology e-mail: kazimierz.duzinkiewicz@pg.gda.pl He received MSc degree in Electrical Engineering and PhD in Control Engineering from Faculty of Electrical and Control Engineering at the Gdańsk University of Technology, in 1973 and 1982, respectively. In 2009 he received the Dr hab. Eng. degree in Control Engineering from Faculty of Electrical Engineering, Control Engineering, Informatics and Electronic Engineering at the AGH University of Science and Technology. He has been employed as a university teacher starting his work in 1973 from the post of Assistant to the current position of Associate Professor in the Department of Control Engineering. Now he is the Head of the Department of Control Systems Engineering. During his research work he has published over 100 reviewed scientific papers and 50 scientific and technical reports, mainly dealing with the following problems: a) production scheduling and operational control of technological systems with switchable processes, b) computer control of electric power station in emergency conditions, c) safety and reliability analysis of hazardous systems, d) mathematical modelling of complex systems, e) multihorizon and multilevel optimisation and control structures and algorithms.
112
T. Karla et al. | Acta Energetica 2/27 (2016) | translation 107–112
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 107–112. When referring to the article please refer to the original text. PL
Realizacje sprzętowo-programowe symulatorów podstawowych zasad przebiegu procesów reaktora jądrowego Autorzy
Tomasz Karla Jarosław Tarnawski Kazimierz Duzinkiewicz
Słowa kluczowe
symulatory, reaktor jądrowy, kształcenie, praca w czasie rzeczywistym
Streszczenie
W artykule przedstawiono możliwości i proces budowy symulatorów podstawowych zasad działania procesów reaktora jądrowego. Proces budowy i badania oparte są na modelach punktowych: kinetyki neutronów, procesów generacji i wymiany ciepła oraz procesów zatruwania i wypalania paliwa. Badano możliwości realizacji symulatorów, wykorzystując różne środowiska programowe i platformy sprzętowe. Referencyjny symulator został opracowany w środowisku MATLAB/Simulink bez uwzględnienia wymagań pracy w czasie rzeczywistym. Na jego podstawie zbudowano w środowisku xPC drugi symulator procesów reaktora, pracujący w czasie rzeczywistym przy spełnieniu twardych wymagań czasowych. Następnie dokonano dekompozycji funkcjonalnej reaktora jądrowego i wydzielono procesy o różnych skalach czasowych, a ich symulacje zostały wraz z mechanizmem synchronizacji zaimplementowane w kilku jednostkach Raspberry PI, uzyskując rozproszoną wersję symulatora. Przeprowadzono weryfikację poprawności działania symulatorów oraz opracowano interfejsy użytkownika i instrukcje obsługi. W artykule jest również rozpatrywany sieciowy symulator obsługiwany z poziomu przeglądarki internetowej. Dokonano porównania funkcjonalności, ograniczeń i potencjalnych zastosowań poszczególnych symulatorów.
1. Wprowadzenie Rozumienie podstawowych zasad przebiegu procesów reaktora jądrowego może być istotne z wielu powodów i dla wielu potencjalnych odbiorców. Oprócz wiedzy teoretycznej wartościowym środkiem dydaktycznym mogą być symulatory umożliwiające zapoznanie się z dynamiką procesów i ich współzależnościami. Można wskazać rozmaite aspekty symulacji, np.: pracę w czasie rzeczywistym, czyli odwzorowanie zależności czasowych w celu wyrobienia poczucia dynamiki obiektu, umożliwienie testowania różnych scenariuszy z analizą wpływu poszczególnych parametrów, możliwość obserwacji i rejestracji symulowanych wielkości czy możliwość podłączenia układów sterowania do symulowanego obiektu. Dla użytkowników symulatorów istotne będą: metoda obsługi, rodzaj sprzętu i oprogramowania czyli interfejs użytkownika, który umożliwia wpływ na symulowany obiekt i obserwację wyników jego działania. Z powyższego opisu wynika, że różne cele dydaktyczne i popularyzatorskie można osiągnąć z różnymi wersjami symulatorów. Tematykę symulatorów podejmowano już w literaturze, m.in. [2, 3, 8, 9]. W artykule są rozpatrywane różne implementacje sprzętowo-programowe symulatorów podstawowych zasad przebiegu procesów reaktora jądrowego. Na podstawie modeli punktowych procesów rozpatrywane są symulatory realizowane z wykorzystaniem pakietu Matlab/Simulink, systemu czasu rzeczywistego xPC, komputerów Raspberry PI oraz symulator sieciowy obsługiwany za pomocą przeglądarki internetowej. Na potrzeby uzyskania pracy w czasie rzeczywistym rozpatrywane są wersje rozproszone symulatorów. W artykule badane są: możliwość uzyskania kroku symulacji odpowiadającego rzeczywistej prędkości procesu kinetyki neutronów, zgodność symulatorów z wersją referencyjną. Oceniana jest przydatność symulatorów do różnych zadań, biorąc
pod uwagę najważniejsze użytkowe kryteria, w tym koszty. 2. Charakterystyka dynamiki obiektu Reaktor jądrowy (RJ) w uproszczonych schematach elektrowni jest przedstawiany jako źródło ciepła o regulowanej wartości mocy [10]. Na pracę reaktora jądrowego składa się wiele procesów. Do ich zamodelowania można użyć modeli o różnej złożoności. Ich dokładny opis można znaleźć w literaturze [5, 6]. Najprostszym z nich, jednak dobrze oddającym charakter procesów w RJ, jest model punktowy, w którym zmiennymi są wielkości uśrednione po objętości rdzenia. Wszystkie rozpatrywane w artykule symulatory zostały zatem oparte na modelach punktowych [1]. Uwzględnione w symulatorach procesy i oddziaływania sterowania reaktorem zostały przedstawione na rys. 1. Do pierwszej grupy zaliczają się reakcje jądrowe (kinetyka neutronów, zatruwanie i wypalanie paliwa) i procesy wymiany ciepła. Kinetyka neutronów uwzględnia
zmiany koncentracji neutronów ( ) w objętości rdzenia, w zależności od reaktywności rdzenia ( ). Procesy zatruwania i wypalania paliwa przedstawiają zmiany reaktywności ( ) reaktora, związane z powstawaniem ksenonu (Xe-135), jodu (J-135), samaru (Sm-149) i prometu (Pm-149) w paliwie, oraz zmiany reaktywności ( ) powiązane ze zmianą składu samego paliwa w czasie jego zużywania. Procesy generacji i wymiany ciepła determinują warunki cieplne w reaktorze w zależności od koncentracji neutronów i ich wpływ na zmiany reaktywności ( ). Do wymuszeń sterowniczych należą operacje związane ze sterowaniem reaktywnością reaktora poprzez wpływanie na pozycję prętów sterujących ( ) w rdzeniu oraz na stężenie kwasu borowego w moderatorze ( ). Wszystkie te procesy różnią się skalami czasowymi, w jakich zachodzą. Tabela 1 przedstawia zestawienie poszczególnych procesów i czasów trwania ich procesów przejściowych.
Rys. 1. Główne procesy zachodzące w reaktorze jądrowym, wpływające na jego stan
113
T. Karla et al. | Acta Energetica 2/27 (2016) | translation 107–112
Różnice między najwolniejszymi i najszybszymi procesami sięgają kilku lub kilkunastu rzędów wielkości. Dlatego też dzieli się je dodatkowo na procesy szybkie i wolne (rys. 1). 3. Realizacje sprzętowo-programowe symulatorów Istnieje wiele różnych możliwości implementacji symulatorów zarówno pod względem sprzętowym, jak i programowym. Typowym, bazowym podejściem akademickim jest wykorzystanie popularnego oprogramowania MATLAB/Simulink (M/S), uruchamianego na komputerach klasy PC. Przyjęty plan prac nad symulatorami zakładał przygotowanie początkowo symulatora w tym właśnie środowisku, a następnie w oparciu o ten referencyjny symulator próby implementacji jego odmian w innych środowiskach i na innych platformach sprzętowych. Zaliczono do nich: symulator pracujący w czasie rzeczywistym (Real-Time RT), o twardych wymaganiach czasowych, z małym krokiem symulacji na platformie komputerów klasy PC, symulator pracujący w czasie rzeczywistym o miękkich, wymaganiach czasowych, na platformie sprzętowej opartej na niskobudżetowych urządzeniach Raspberry PI (RPI) [11] oraz wariant symulatora sieciowego, który pozwala na obsługę z poziomu przeglądarki internetowej. Uwzględniono rozproszenie symulacji między wiele urządzeń, aby zmniejszyć nakład obliczeń na pojedynczych urządzeniach i tym samym uzyskać mniejszy krok symulacji wg idei wieloagentowości [7]. 3.1. Referencyjny symulator MATLAB/Simulink Na podstawie równań modelu matematycznego opracowano model symulacyjny w środowisku Simulink. Do rozwiązywania obliczeń wykorzystano solver ode3 oparty na algorytmie Bogackiego-Shampine’a. Obliczenia były wykonywane w trybie freerun (bez stawiania wymagań czasowych dla obliczeń). Symulator udostępnia podgląd wszystkich wielkości procesowych w postaci dedykowanych bloczków wyświetlaczy i/lub w postaci wykresów przebiegów, istnieje też możliwość archiwizacji wyników symulacji. Autorzy przyjęli tę wersję symulatora jako referencyjną, ponieważ nie posiada ona żadnych uproszczeń, symulacja jest wykonywana w sposób scentralizowany i wykonywana niezależnie od wymagań czasu rzeczywistego, co umożliwia otrzymanie symulacji z dowolnym krokiem.
Rys. 2. Podział na bloki funkcyjne i obliczeniowe
114
Czasy procesów przejściowych
Proces Kinetyka neutronowa
10–5–10–3 s
Procesy wymiany ciepła między paliwem a chłodziwem/moderatorem, zmiana reaktywności związana ze zmianami temperatury
3–6 min
Zmiana reaktywności za pomocą regulacji poziomu zanurzenia prętów sterujących
do 125 s
Zmiana reaktywności za pomocą regulacji stężenia kwasu borowego
kilka godzin
Zatrucie ksenonem w czasie zmiany mocy reaktora
do 60 godz.
Zatrucie samarem
15–20 dni
Wypalanie paliwa
dziesiątki dni/miesiące
Tab. 1. Przedziały czasowe poszczególnych procesów zachodzących w reaktorze
3.2. Symulatory RT Symulacje wykonywane w referencyjnym symulatorze w środowisku Simulink nie były przeznaczone do pracy i prezentacji wyników w czasie rzeczywistym. W zależności od przyjętego kroku symulacji (przyjętego z zakresu 1E-3s do 1E-5s odpowiadającego średniemu czasowi życia neutronów), obliczenia dla danych chwil czasowych były wykonywane od ok. 10 razy wolniej do 100 razy szybciej w stosunku do czasu rzeczywistego. Praca z symulatorem odzwierciedlającym dynamikę obiektu w czasie rzeczywistym posiada duże walory edukacyjne, pozwala nabrać doświadczeń związanych z dynamiką obiektu konieczną przy jego obsłudze. Środowisko MATLAB/Simulink posiada przyborniki pozwalające na wykonywanie symulacji z zachowaniem pracy w czasie rzeczywistym. Autorzy rozpatrywali przyborniki Real-Time Windows Target (RTWT) i xPC, pozwalające na symulację na komputerach klasy PC oraz przybornik zawierający pakiet modułów do współpracy i kompilowania aplikacji na platformę RPI. 3.2.1. Symulator RT o twardych ograniczeniach czasowych i małym kroku symulacji Zbudowanie symulatora RT, który mógł pracować z przyjętym przez autorów najbardziej wymagającym krokiem obliczeń rzędu 1E-5s, wymagało zastosowania rozwiązania mającego duże moce obliczeniowe. M/S za pomocą przybornika RTWT pozwala na przeprowadzanie symulacji w trybie RT w środowisku Windows. Jednak wydajność tego narzędzia na komputerach testowych była niewystarczająca przy kroku 1E-5. Alternatywą był przybornik xPC,
zorientowany na symulację w trybie RT, oferujący znacznie wyższą wydajność, gdyż realizuje obliczenia na specjalnie przygotowanych wersjach systemu operacyjnego z mikrojądrem, zawierającym tylko niezbędne komponenty potrzebne do przeprowadzania symulacji. Dodatkowo opracowano inny wariant symulatora z wykorzystaniem xPC, w którym dokonano rozproszenia symulacji pomiędzy trzy komputery klasy PC. Dekompozycja czasowa procesów reaktora jądrowego przedstawiona w tab. 1 pozwoliła na pogrupowanie poszczególnych procesów w bloki, które mogły być wykonywane z większymi krokami obliczeń (rys. 2). Rozwiązanie takie wymagało jednak zapewnienia komunikacji między poszczególnymi urządzeniami oraz synchronizacji każdego z bloków symulacji z pozostałymi. Opracowano metodę synchronizacji momentów rozpoczynania, wstrzymywania i kończenia obliczeń na poszczególnych urządzeniach. Ze względu na ograniczone możliwości wizualizacyjne narzędzia, opracowano dodatkową aplikację za pomocą narzędzia RTWT, uruchamianą na czwartym komputerze, która służyła do zarządzania symulacją, prezentacji wyników w czasie rzeczywistym i ich archiwizacji. Wszystkie jednostki były połączone ze sobą za pomocą gigabitowego przełącznika Ethernet, przy wykorzystaniu bezpołączeniowego protokołu UDP (rys. 3). 3.2.2. Symulator RT o miękkich ograniczeniach czasowych w RPI Alternatywna implementacja zakłada wykorzystanie niskobudżetowych urządzeń RPI do budowy symulatora pracującego
T. Karla et al. | Acta Energetica 2/27 (2016) | translation 107–112
komputer klasy PC, zorientowany na rolę serwera symulatora. Rolę klientów zaś będą pełniły urządzenia z przeglądarkami internetowymi, które będą miały dostęp do serwera i mogą mieć różny charakter: klasycznego peceta, laptopa, tabletu czy nawet telefonu komórkowego. Idea tego rozwiązania jest zaprezentowania na rys. 4. Strona prezentacyjna tej wersji symulatora może być opracowana z wykorzystaniem technik sieciowych, takich jak: AJAX, JavaScript i HTML, natomiast do archiwizacji może posłużyć mechanizm oparty na PHP.
Rys. 3. Fizyczne połączenia w symulatorze
Rys. 4. Wielodostępowy koordynowany symulator quasi-czasu rzeczywistego
Utrata pakietów
Zła kolejność pakietów
Średnie opóźnienia
Średni błąd
xPC
0,00003%
0%
0,8 ms
0,3%
RPI
0,00016%
0%
7 ms
0,65%
Tab. 2. Zestawienie wyników procesu weryfikacji symulatorów
w czasie rzeczywistym z miękkimi ograniczeniami czasowymi. Za pomocą przybornika Simulink Support Package for Raspberry PI wygenerowano aplikację symulatora RT typu stand-alone, uruchamianą bez użycia M/S. Jako docelowy krok obliczeń przyjęto 1E-3s (górny próg ze średniego czasu życia neutronów). Przybornik pozwalał na generację kodu aplikacji tylko w wypadku używania bloków dyskretnych i użycia wbudowanego solvera o nazwie discrete. Po kompilacji aplikacji i uruchomieniu na docelowej platformie nie udało się uzyskać wymaganego kroku obliczeń, wykorzystując jedno urządzenie. Dokonano więc, wzorem wersji rozproszonej xPC, podziału procesów i poszczególne bloki zaimplementowano łącznie na 3 RPI. Analogicznie jak w wypadku rozproszonej symulacji przy użyciu przybornika xPC, tak i w tym wypadku użyto opracowanych mechanizmów synchronizacji symulacji na poszczególnych urządzeniach. Opracowano także w języku C niezależną od M/S aplikację wizualizacyjną, która mogła być uruchamiania na czwartym RPI. Podobnie jak w wypadku
rozwiązania opartego na narzędziu xPC, tak i w tym wypadku do komunikacji między wszystkimi urządzeniami użyto połączenia przez interfejs Ethernet, z wykorzystaniem gigabitowego przełącznika i protokołu UDP. Dalsze prace przewidują uniezależnienie kodu aplikacji symulatora od środowiska M/S i jego implementację w języku C, co ma także na celu dalsze poprawienie wydajności symulatora (osiągnięcie jak najmniejszego kroku obliczeniowego). 3.2.3. Wielodostępowy symulator sieciowy (Web-based) Autorzy rozpatrują zbudowanie sieciowego symulatora zrealizowanego na serwerze i obsługiwanego z przeglądarki internetowej. Wobec braku prostej możliwości otrzymania symulacji z gwarancją czasu rzeczywistego przewiduje się symulator RT o miękkich wymaganiach czasowych. Ze względu na zastosowaną infrastrukturę i jej możliwości przewiduje się wielodostęp do symulatora, zatem realizacja na serwerze musi uwzględniać pracę wielu instancji. Docelową platformą sprzętową zostanie wydajny
3.3. Badania oceny zgodności symulatorów Po implementacji symulatorów RT dokonano weryfikacji poprawności ich wyników. Weryfikacja była dwuetapowa. Pierwszy etap polegał na sprawdzeniu poprawności komunikacji między urządzeniami. Rozproszone odmiany symulatorów RT dokonywały symulacji w różnych urządzeniach, co potencjalnie może prowadzić do błędnych wyników symulacji. Wzięto pod uwagę trzy aspekty komunikacji, które mogą wpływać na błędy w wynikach symulacji: utrata pakietów, docieranie pakietów w nieprawidłowej kolejności oraz opóźnienia w transmisji. Wszystkie trzy aspekty zostały przebadane za pomocą opracowanego mechanizmu, wykorzystującego dodatkową numerację kolejnych pakietów. Utrata pakietów oraz docieranie w złej kolejności było obserwowane, gdy numeracja była nieciągła lub zamieniona. Opóźnienia obserwowano, zliczając czas transmisji pakietu o danym numerze do jednostki, która zaraz po jego otrzymaniu zawracała jego numer do jednostki, z której go otrzymała. Po uzyskaniu odpowiedzi, w jednostce wysyłającej porównane zostają czasy wysłania i ponownego odebrania danego numeru pakietu. Na podstawie tej różnicy były obliczane opóźnienia w transmisji. Drugi etap weryfikacji polegał na porównaniu wyników symulatora referencyjnego oraz RT na podstawie tych samych, wcześniej przygotowanych scenariuszy przebiegów zmiennych sterujących i zakłóceń uwzględnionych w użytym modelu procesów reaktora jądrowego. Porównując wyniki poszczególnych symulatorów w określonych chwilach czasowych określano wg wzoru (1) średni błąd symulacji dla każdego z symulatorów RT. Wyniki procesu weryfikacji przedstawia tab. 2. (1) gdzie:
– wartość referencyjna z symulatora niepracującego w RT, – pomiar z symulatora RT, N – liczba pomiarów. 4. Zestawienie cech opracowanych symulatorów Przedstawione symulatory posiadają różne cechy, które umożliwiają ocenę ich przydatności do potencjalnych zastosowań. Przyjęto kilka kryteriów jakościowych, według których oceniano poszczególne symulatory. Jednym z nich jest „Zgodność”, określana na podstawie zgodności wyników symulacji opisanej w rozdziale 3.3. Kolejnym kryterium jest możliwość pracy w trybie RT,
115
Zgodność
Real-Time
Opcje operatorskie
Archiwizacja
Scenariusze
HMI
HIL
Rozpowszechnienie
Koszt
T. Karla et al. | Acta Energetica 2/27 (2016) | translation 107–112
MATLAB/ Simulink
Wzór
Brak
Oparte na kontrolkach dostępnych w M/S
Wysoki
Wysoki
Średni
Brak
Średni
Średni
xPC
Wysoka
Twardy
Proste, ograniczone, utrudnione
Średni
Średni
Średni
Średni
Niski
Wysoki
RPi
Średnia
Twardy/ Miękki
Uproszczone – autorska aplikacja dla RPI
Średni
Średni
Wysoki
Wysoki
Bardzo wysoki
Średni/ Niski
Sieciowy
Średnia
Miękki
Elastyczne, wygodne, oparte na kontrolkach przeglądarki
Wysoki
Średni
Wysoki
Brak
Wysoki
Niski
Tab. 3. Zestawienie cech przedstawionych symulatorów
co znacznie podwyższa poczucie pracy z rzeczywistym obiektem, oddając jego rzeczywistą dynamikę. Kryterium określające rozbudowanie możliwości wpływania na parametry i zmienne obiektu określono jako „Opcje operatorskie”. Ważną cechą jest też możliwość „Archiwizacji” przebiegów symulacji do późniejszych analiz. Kryterium „Scenariusze” określa możliwość programowania określonych przebiegów zmiennych w symulacji. Oceniano też możliwości prezentacyjne symulatorów, tj. ogólnie pojęty interfejs użytkownika. Symulatory RT obiektów mogą być wykorzystywane w pętlach sprzężenia zwrotnego (ang. Hardware in the Loop – HIL) opisanych w [4], co także wzięto pod uwagę. Dostępność rozwiązań, urządzeń i oprogramowania oraz popularność narzędzi zawarto pod kryterium „Rozpowszechnienie”. Ostatnim wziętym pod uwagę kryterium jest „Koszt” implementacji symulatora. Zestawienia cech symulatorów uwzględniające wszystkie wymienione kryteria dokonano w tab. 3. Wszystkie implementacje zapewniają zadowalającą jakość wyników symulacji, wystarczającą do celów szkoleniowych i edukacyjnych. Praca w trybie RT jest możliwa w wersjach xPC oraz RPI oraz w wariancie sieciowym, przy czym ze względu na zróżnicowanie pod względem dostępnych mocy obliczeniowych praca z twardymi ograniczeniami czasu rzeczywistego, przy mniejszych krokach symulacji, możliwa jest tylko na xPC. Występuje także zróżnicowanie pod względem możliwości archiwizacji. Symulator referencyjny M/S oraz sieciowy mogą zapisywać wyniki wszystkich zmiennych procesowych symulacji, bezpośrednio mając do nich dostęp. Archiwizacja w wypadku xPC oraz RPI odbywa się poprzez aplikacje wizualizacji, więc możliwy jest zapis przebiegu tylko obserwowanych wartości. Największe możliwości kształtowania scenariuszy pracy posiada symulator referencyjny M/S, gdyż można dowolnie modyfikować wszystkie zmienne i struktury bezpośrednio w modelu. Możliwości pozostałych symulatorów w tym aspekcie są powiązane bezpośrednio z zaimplementowanymi w aplikacjach wizualizacji mechanizmami. Symulator referencyjny używa
116
dostępnych w M/S bloków prezentacji wykresów i wartości. Aplikacje wizualizacyjne mają czytelne oprawy graficzne i są ergonomiczne, uzależnione od platformy sprzętowej. Biorąc pod uwagę koszty realizacji symulatorów, wersje xPC oraz M/S znajdą potencjalne zastosowanie w jednostkach akademickich, natomiast do działań popularyzatorskich bardziej odpowiednie będą realizacje niskobudżetowe RPI oraz symulator sieciowy. 5. Podsumowanie W artykule przedstawiono i porównano różne implementacje programowo-sprzętowe symulatorów podstawowych zasad przebiegów procesów reaktora jądrowego. Na podstawie punktowych modeli matematycznych procesów reaktora zbudowano referencyjny symulator w środowisku MATLAB/Simulink, który może być zastosowany w szerokim zakresie badań i analiz. Następnie, bazując na nim, utworzono dwa symulatory pracujące w czasie rzeczywistym, z odpowiednio twardymi i miękkimi wymaganiami czasowymi. Wyniki badań testowych wykazały tylko niewielkie odstępstwa wyników symulacji tych symulatorów względem symulatora referencyjnego. Sprawia to, że dobrze nadają się do badań wymagających pracy w czasie rzeczywistym, np. w pętlach sprzętowych. Dodatkowo pozwalają na lepsze wyczucie dynamiki rzeczywistego obiektu niż w wypadku wersji referencyjnej symulatora, co również ma wysokie walory edukacyjne. Zaprezentowano także koncepcję symulatora sieciowego, który jest tematem dalszych prac autorów. Analizy funkcjonalno-sprzętowe wszystkich przedstawionych symulatorów względem kilku różnorodnych kryteriów, m.in. możliwości operatorskich, dostępności czy ceny, pozwoliły na rozdział ich zastosowań na typowo akademickie oraz popularyzatorskie. Podziękowania Praca powstała przy wsparciu z projektu Unii Europejskiej „INSPE – INNOVATIVE NUCLEAR AND SUSTAINABLE POWER ENGINEERING”. Autorzy pragną wyrazić swoje podziękowania za wsparcie.
Bibliografia 1. Baum G. i in., Modele symulacyjne procesów zachodzących w podstawowych urządzeniach obiegu pierwotnego w warunkach normalnej eksploatacji i niedużych zakłóceń (SYMREP), Instytut Elektroenergetyki i Automatyki Politechniki Gdańskiej, 1989. 2. Karla T., Tarnawski J. Duzinkiewicz K., Symulator czasu rzeczywistego procesów reaktora jądrowego [w:] Aktualne problemy automatyki i robotyki, red. Malinowski K., Józefczyk J., Świątka J., Akademicka Oficyna Wydawnicza EXIT, 2014, s. 558–569. 3. Duzinkiewicz K., Cimiński A., Michalczyk Ł., Symulator szybkich procesów dynamiki reaktora jądrowego wodnego ciśnieniowego, Pomiary ∙ Automatyka ∙ Robotyka PAR 2013, nr 9, s. 97–101. 4. Puchalski B. i in., Programowo-sprzętowa platforma symulacyjna – Hardware In the Loop – zaawansowanego układu sterowania poziomem wody w pionowej wytwornicy pary elektrowni jądrowej, [w:] Aktualne problemy automatyki i robotyki, red. Malinowski K., Józefczyk J., Świątka J., Akademicka Oficyna Wydawnicza EXIT, 2014, s. 570–580. 5. Oka Y., Suzuki K., Nuclear Reactor Kinetics and Plant Control, Springer 2013. 6. Hetrick D.L., Dynamics of Nuclear Reactors, The University of Chicago Press, Chicago and London, 1971. 7. Sterling L., Taveter K., The Art of AgentOriented Modeling, The MIT Press, 2009. 8. Seok H. i in., Development of software for the microsimulator for the KO-RI nuclear power plant unit 2, Nuclear Technology 1994, nr 106 (3), s. 384–396. 9. Kluge A. i in., Designing training for process control simulators: a review of empirical findings and current practices, Theoretical Issues in Ergonomics Science 2009, nr 10 (6), s. 489–509. 10. Thermal power plant simulation and control, Flynn D. (red.), Power and Energy Series 2003, No. 43. 11. Raspberry PI Website [online], h t t p : / / w w w. r a s p b e r r y p i . o r g [dostęp: 30.10.2014].
T. Karla et al. | Acta Energetica 2/27 (2016) | translation 107–112
Tomasz Karla
mgr inż. Politechnika Gdańska | Politechnika Warszawska e-mail: tomasz.karla@pg.gda.pl Doktorant Politechniki Gdańskiej na Wydziale Elektrotechniki i Automatyki oraz Politechniki Warszawskiej na Wydziale Mechanicznym Energetyki i Lotnictwa w ramach projektu INSPE. Prowadzi badania z dziedziny sterowania wieloagentowego w zastosowaniu do obiegu pierwotnego elektrowni jądrowej z reaktorem typu PWR.
Jarosław Tarnawski
dr inż. Politechnika Gdańska e-mail: jaroslaw.tarnawski@pg.gda.pl Absolwent Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej (2000), po studiach rozpoczął studia doktoranckie z dziedziny zastosowań sterowania adaptacyjnego do sterowania jakością w sieciach dystrybucji wody pitnej. Tytuł doktora otrzymał z wyróżnieniem (2006). Prowadzi prace badawcze w kierunkach implementacji zaawansowanych metod sterowania, decentralizacji sterowania, systemów wieloagentowych.
Kazimierz Duzinkiewicz
dr hab. inż. Politechnika Gdańska e-mail: kazimierz.duzinkiewicz@pg.gda.pl Absolwent Wydziału Elektrycznego Politechniki Gdańskiej, specjalność automatyka i metrologia elektryczna. W 1983 roku obronił doktorat na macierzystej uczelni, a w 2009 roku uzyskał stopień doktora habilitowanego na Wydziale Elektrotechniki, Automatyki, Informatyki i Elektroniki Akademii GórniczoHutniczej w Krakowie. Obszar zainteresowań to: modelowanie i estymacja w warunkach niepewności, struktury i algorytmy sterowania, sterowanie optymalizujące wielkimi systemami. Autor monografii i skryptu dydaktycznego. Napisał ponad sto artykułów w recenzowanych czasopismach zagranicznych, krajowych, recenzowanych materiałach konferencji. Kierował jednym międzynarodowym projektem naukowo-badawczym, sześcioma krajowymi. Był głównym wykonawcą i wykonawcą w 18 projektach naukowo-badawczych lub badawczo-rozwojowych.
117
J. Klucznik | Acta Energetica 2/27 (2016) | 118–122
Problems of Connecting Wind Farms to the Power System with HV Cables
Author Jacek Klucznik
Keywords cable lines, wind farms, reactive power
Abstract This paper presents problems caused by connecting wind farms to a power system with high voltage cables. The author highlights possible problems with reactive power compensation, depending on the arrangement of the shunt reactor connection and settings of control systems for reactive power and voltage of the wind farm. The paper also discusses issues of increasing active power losses caused by a shunt reactor installation.
DOI: 10.12736/issn.2300-3022.2016210
1. Introduction Because of problems in the acquisition of land for the construction of overhead lines, and therefore, the long time needed to acquire building permits for such lines, more and more often HV cable lines are built. A tendency has been observed in recent years to use cable lines for wind farms connection into power systems. It might seem a good solution - such a line is not visible, and as such does not spoil the landscape, and is more reliable because it is not exposed to weather conditions such as strong winds or lightning strikes. But there is a serious technical problem with HV cable lines. It is, a cable’s large capacitance and related problems with the reactive power generated thereby. Current interconnection agreements, concluded by and between a wind farm owner and a power company to the grid of which the farm is connected, contain precise provisions concerning the requirements that must be met as regards the reactive power output to the grid. The agreement defines the acceptable input and output limits of reactive power at the connection point. In turn, the distribution grid operator tariff determines the exact amount of the fees that are charged for exceeding the agreed reactive power exchanged with the grid. This means that at the early stage of a wind farm design it must be planned how the cable line’s reactive power shall be compensated in order to reduce the fees for reactive power. There are three main solutions to the problem (Fig. 1): Compensation by means of shunt reactor SRHV connected to the high-voltage grid (an HV shunt reactor is then applied) Compensation by means of shunt reactor SRMV connected to the medium-voltage grid (a MV shunt reactor is then applied) Compensation by means of wind power farms (no additional reactor is then needed, and the cable line’s excessive reactive power is compensated by the farms’ power electronic controls). This paper presents only the issues related to the shunt reactor 118
based solutions, ignoring the potential possibilities of using wind power farms to control reactive power. This is due to the fact that the vast majority of currently installed wind power farms have no, or very little, possibilities to control reactive power when the plant does not generate active power (when the wind conditions are not sufficient to activate the plant). True, some manufacturers provide their turbines with additional STATCOM-type systems, thus extending the possibility of reactive power control, but this induces higher capital expenditures. Two basic ways of compensation with reactors are shown in Fig. 1.
2. Compensation with HV shunt reactors Where a high voltage shunt reactor (SRHV ) is used, its power should be adjusted to compensate the reactive power generated by the HV cable line (Fig. 1). This can be formulated as follows:
(1)
where: Ql – reactive power of HV cable line (charging power) QR – reactive power of shunt reactor BL – susceptance of cable line XR – reactance of shunt reactor UHV – voltage at shunt reactor’s connection. The above formula is based on simplifying the assumption that the voltages at the beginning of the line (PCC point – Fig. 1) and at its end (where the shunt reactor is installed) are equal. In reality, these voltages will not be the same, but because of relatively low resistance and reactance of cable, the difference will not be large. Therefore, the adopted simplification does not lead to large errors, and facilitates the shunt reactor’s selection.
J. Klucznik | Acta Energetica 2/27 (2016) | 118–122
Fig. 1. Possible locations of reactive power compensation reactor’s connection
Formula (1) can be converted for calculation of the reactor’s rated reactive power
(2)
where: Un – rated voltage of shunt reactor BL– susceptance per unit length of cable line l – length of line. Using the formula, the shunt reactor was selected for the example wind farm. It was assumed that the farm with rated power 50 MW is connected to a power system with a cable with rated voltage 110 kV, length 32 km, and susceptance per unit length 50.9 μS/ km. Thus, according to formula (2), the required shunt reactor power is 19.7 MVAr. In this simplified consideration the wind farm’s internal grid is neglected, which in fact also affects the reactive power balance.
3. Compensation with MV reactors Where a shunt reactor is connected to MV bus (SRMV in Fig.1), its rated power, as in the previous case, should be selected to compensate the reactive power generated by the high voltage cable line. This can be formulated as follows (neglecting the power losses in the wind farm’s transformer): (3) where: UMW – voltage at reactor’s connection UHV – voltage of HV cable line. This means that the reactor should be selected similarly as before (2) to power:
As regards a shunt reactor connected to HV bus, analysis of formula (1) shows that the effectiveness of compensation does not depend on the voltage, because with fixed line (BL) and shunt reactor (XR) parameters the powers generated by the cable line and absorbed by the reactor change as much, in proportion to the squared supply voltage. Thus, a compensation system chosen for the rated voltages performs correctly at voltages higher and lower than the rated voltage. Then, to verify the selection of a reactor connected to the transformer’s MV side, equation (3) should be modified to (5), introducing the transformer’s voltage ratio ϑ, which ties up the voltages on both sides of the transformer. (5) A cursory assessment of the formula so obtained seems to indicate that the compensation will be accomplished regardless of the voltage, as in the case of a reactor installed on the HV side. However such a design of the compensation system can lead to large inaccuracy of the compensation because of voltage changes in the connection point. The reason for this is that wind farm transformers are provided with tap changers and voltage controllers. The purpose of this system is to maintain a constant voltage in the wind farm’s internal grid in order to ensure proper operation of connected wind turbines. Wind farm transformers’ voltage controllers often operate with a narrow deadband and short delay time. Such controller settings result from the designers’ fear of the possibility of wind turbines switching off by undervoltage or overvoltage protections.
Substation/ Grid
220 kV
110 kV
Normal grid condition
(4)
In this case the voltage in formula (4) is the rated voltage not of the reactor, but of the HV line. It is obvious that the shunt reactor power required for the compensation calculated for the data from the earlier presented example is the same (19.7 Mvar). The shunt reactor selection method, however, implies a risk associated with fluctuations in the voltage at the connection point. The grid voltage fluctuates, and in accordance with transmission grid code [3] may assume the values shown in Tab. 1. Therefore, what voltage should be used in selecting the shunt reactor?
400 kV
EHV and 110 kV substations, to which generating units are directly connected
400–420
220–245
110–123
Other HV substations
380–420
210–245
105–123
Emergency grid condition EHV and 110 kV substations, to which generating units are directly connected
380–420
210–245
105–123
Other HV substations
360–420
200–245
99–123
Tab. 1. Permissible voltage variations in the Polish Power System [3] 119
J. Klucznik | Acta Energetica 2/27 (2016) | 118–122
Because of this the MV bus voltage is maintained substantially constant, irrespective of the HV cable line voltage. As a result, the reactive power consumed by the shunt reactor remains almost constant, despite the cable line voltage changes. Therefore the selected (according to formula 4) shunt reactor can provide full compensation only for one particular HV cable line supply voltage. In simple terms, without taking into account the power losses in the cable line and transformer, the compensation error can be described as the difference between the reactive power generated by the cable line QL and the power absorbed by the reactor QR. Compensation offset is expressed as (6) With the MV bus constant voltage (resulting from the assumed method of the transformer’s voltage control), the compensation error will always depend on the HV cable line’s supply voltage, and full compensation cannot be obtained for the system’s different operating conditions at a constant value of the reactor’s inductance.
4. Comparison of reactive power compensation with MV and HV reactors In order to compare both compensation methods, comparative tests were performed in PowerFactory program for the two described solutions. The tests were performed using a simple grid model containing a HV cable line and a farm grid transformer (Fig. 1). This corresponds to a situation whereby the wind farm is not operating and its MV grid is not energized. This model was adopted in order to simplify the phenomena that occur in the system, so as to focus only on the aspects of the cable line’s reactive power compensation. It is worth noting that the situation is very similar to the condition, whereby the wind farm does not generate active power (because the wind speed is too low), but its internal grid is live, which may be the case for as long as 10% of a year. Based on the previously calculated required shunt reactor power 19.7 Mvar, a 20 MVAr shunt reactor was selected, in a version with rated voltage 20 kV or 110 kV. Basic details of the shunt reactors are listed in Tab. 2. Fig. 2–5 illustrate the performance of the system with a HV reactor at voltage changes in the point of the wind farm connection to the grid (PCC). For the lowest voltage of 105 kV it can be observed (Fig. 2) that the reactive power at the connection point is –0.5 MVAr. This means that the shunt reactor selected in a very simplified way properly compensates the cable line’s reactive power. With an increase in the voltage the reactive power at the connection point decreases, at the maximum voltage reaching ca. –0.7 MVAr. These power changes result from increased voltage in the system. Increase in the voltage causes increases in the shunt reactor current and transformer magnetizing current, resulting in increased current in the cable, which in turn causes additional (disregarded in the simplified formulas) reactive power losses in the HV cable. This means that the compensation is not perfect and the reactive 120
Rated voltage
20 kV
110 kV
Rated power
20 MVAr
20 MVAr
Reactor reactance
20 Ω
605 Ω
Rated current
578 A
105 A
Rated losses
182 kW
235 kW
Tab. 2. Selected details of Trench air core shunt reactors [4]
power at the connection point depends slightly on the voltage. It is worth noting that despite the reactive power change at the point of connection, the power factor at the connection (Fig. 4) is practically independent of the voltage. These considerations indicate that the system with a HV shunt reactor provides reactive power compensation in the HV cable line fairly well. The system’s main disadvantage is quite large active power losses in the reactor, growing with increasing voltage (Fig. 5). Fig. 6–10 illustrate the performance of the system with an MV shunt reactor at voltage changes in the point of the wind farm connection to the grid. It is noticeable that the system with a shunt reactor connected to MV bus behaves as expected. At low voltages, when the cable line charging power is low, the system is overcompensated and draws substantial reactive power from the grid (Fig. 6). With the increase in voltage power the HV cable charging increases, while the reactor power remains virtually constant, because the MV bus voltage (Fig. 8), controlled by the transformer regulator, changes within very narrow limits. The result is an increase in reactive power at the connection point. In the analysed example the compensation is full (reactive power close to zero) at 115 kV, and further increase in the voltage increases the reactive power output to the grid. At the highest allowable voltage in the connection point the reactive power output exceeds 3 MVAr. With a shunt reactor connected to the MV bus the range of reactive power change at the connection point is ca. 6 MVAr, which corresponds to the power factor change of over a wide range (Fig. 9). An advantage of the system is active power losses in the shunt reactor below those with an HV reactor, especially at higher voltages. It can be noticed that the system with a reactor installed on the MV bus does not allow a satisfactory compensation level, and its practical implementation, despite lower capital expenditures, may – due to substantial charges for reactive power input from the grid or output to the grid – significantly reduces the investor profit in the long run. With a shunt reactor connected to the MV bus the compensation accuracy may be increased, and thus the reactive power charges reduced, by providing the variable shunt reactor. A good solution can be the use of two reactors: • basic reactor, permanently connected, with power matching the lowest voltage at the supply point • additional reactor, controllable, providing the reactive power variability required in the range from the lowest to the highest voltage.
J. Klucznik | Acta Energetica 2/27 (2016) | 118–122
Fig. 2. Reactive power at the connection point as a function of voltage at the connection point in the system with an HV reactor
Fig. 6. Reactive power at the connection point as a function of voltage at the connection point in the system with an MV reactor
Fig. 3. Active power at the connection point as a function of voltage at the connection point in the system with an HV reactor
Fig. 7. Active power at the connection point as a function of voltage at the connection point in the system with an MV reactor
Fig. 4. Power factor tg φ at the connection point as a function of voltage at the connection point in the system with an HV reactor
Fig. 8. MV bus voltage as a function of voltage at the connection point in the system with an MV reactor
Fig. 5. Active power losses in HV reactor as a function of voltage at the connection point
Fig. 9. Power factor tg φ at the connection point as a function of voltage at the connection point in the system with an MV reactor
For the discussed example this solution may include: • installation of a 16 MVAr basic reactor • installation of an 8 MVAr controllable reactor (4 steps of 2 MVAr each). Fig. 11 shows the reactive power at the connection point with the proposed reactors. It was assumed that the reactor’s control system activates its subsequent steps depending on the reactive power at the connection point. The control deadband was assumed at ± 1 Mvar. As expected, the proposed system provides the cable’s reactive power compensation with an expected accuracy. The power factors for the proposed solution are shown in Fig. 12.
5. Summary The two solutions to the problem of a cable line’s reactive power compensation with shunt reactors presented here reveal significant differences in the impacts of the HV and MV reactors on the compensation effects. An HV shunt reactor operation is less problematic. Such a reactor requires no adjustment, and yet in a wide voltage range of voltages is able to provide reduction of the reactive power input from/output to the grid. Because of this a system with an HV reactor is less costly (no need to install expensive controllable reactors, no control systems, no inspection and maintenance of the switching systems). 121
J. Klucznik | Acta Energetica 2/27 (2016) | 118–122
Fig. 10. Active power losses in MV reactor as a function of voltage at the connection point
Fig. 11. Reactive power at the connection point as a function of voltage at the connection point in the system with a controllable MV reactor
The number of switching operations is reduced to a minimum because the reactor remains connected virtually at all times. The disadvantage of the solution is that often the active power losses in HV reactors are slightly higher than in MV reactors. Another disadvantage is the need to extend the HV switchgear by an additional reactor bay. With an MV reactor with no reactive power control the cable line’s reactive power compensation is provided in the vicinity of one particular voltage. Above this voltage the farm will output its excessive reactive power to the grid, below the voltage it draws reactive power from the grid. Such a solution is therefore suitable only when the voltage at the point of the farm’s interconnection with the grid has a very low volatility. Otherwise, variable shunt reactors should be used, or significant charges should be expected for defaulting the power factors stipulated in the interconnection agreement. Finally, it is worth noting that the use of cable lines for connecting wind farms to the power system and the need for shunt reactors to compensate reactive power significantly increase the active power losses in such a system. The cable line and shunt reactor, as continuously operated devices, should therefore be designed with a view to reducing active power losses, and designers should pay attention to the reactor specifications as declared by the manufacturers, and look for devices with the lowest possible active power losses. REFERENCES
Fig. 12. Power factor tg φ at the connection point as a function of voltage at the connection point in the system with a controllable MV reactor
1. Z. Lubośny, “Farmy wiatrowe w systemie elektroenergetycznym” [Wind farms in the power system], WNT, Warsaw 2009. 2. Energa-Operator SA tariff, approved by the President of URE No. DRE-4211-79 (8) / 2013 / VII / WDR / KGO dated 17.12.2013. 3. “Instrukcja ruchu i eksploatacji sieci przesyłowej PSE-Operator” [Transmission grid code], version of 01 August 2014. 4. Dry-Type, Air-Core Shunt Reactors, Trench Austria GmbH.
Jacek Klucznik Gdańsk University of Technology e-mail: jacek.klucznik@pg.gda.pl Graduated as Master of Engineering from the Faculty of Electrical and Control Engineering at Gdańsk University of Technology (1999). Five years later he obtained his Ph.D. An assistant professor at the Power Engineering Department of his alma mater. His areas of interest include control systems for generators and turbines, wind power generation, transmission lines and power system automatic protections.
122
J. Klucznik | Acta Energetica 2/27 (2016) | translation 118–122
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 118–122. When referring to the article please refer to the original text. PL
Problemy przyłączania farm wiatrowych do systemu elektroenergetycznego z wykorzystaniem kabli WN Autor
Jacek Klucznik
Słowa kluczowe
linie kablowe, farmy wiatrowe, moc bierna
Streszczenie
Artykuł prezentuje problemy, jakie rodzi przyłączanie farm wiatrowych do systemu elektroenergetycznego za pomocą kabli wysokiego napięcia. Autor wskazuje możliwe problemy z kompensacją mocy biernej, w zależności od sposobu przyłączenia dławika kompensacyjnego i nastawień układów regulacji mocy biernej oraz napięcia farmy wiatrowej. Artykuł porusza też zagadnienia zwiększenia strat mocy czynnej powodowanych instalacją dławików kompensacyjnych.
1. Wstęp Problemy z pozyskaniem gruntów pod budowę linii napowietrznych wysokiego napięcia, a co za tym idzie – długi czas uzyskiwania pozwolenia na budowę takich linii powoduje, że coraz częściej budowane są linie kablowe wysokiego napięcia. W ostatnich latach obserwuje się tendencję do wykorzystywania linii kablowych do przyłączania farm wiatrowych do systemu elektroenergetycznego. Wydawać by się mogło, że jest to rozwiązanie dobre – linia jest niewidoczna, przez co nie psuje krajobrazu, linia ma większą niezawodność, bo nie jest narażona na warunki atmosferyczne, takie jak silne wiatry czy wyładowania atmosferyczne. Jednak przy stosowaniu linii kablowych WN występuje jeden poważny problemem techniczny. Jest nim duża pojemność elektryczna kabla i związane z tym problemy z generowaną przez kabel mocą bierną. Obecna konstrukcja umów przyłączeniowych pomiędzy właścicielem farmy wiatrowej a spółką dystrybucyjną, do której sieci wprowadzana jest moc generowana przez farmę wiatrową, zawiera precyzyjne zapisy o wymaganiach, jakie muszą być spełnione w zakresie dostarczanej do sieci mocy biernej. W umowie określa się dopuszczalny zakres mocy biernej, jaka może być pobierana i oddawana do sieci. Z kolei taryfa operatora sieci dystrybucyjnej określa dokładnie wartości opłat, jakie są naliczane za przekroczenie ustalonych wartości mocy biernej wymienianej z siecią. Powyższe powoduje, że na etapie wykonywania projektu farmy wiatrowej konieczne jest zaplanowanie, w jaki sposób będzie dokonywana kompensacja mocy biernej linii kablowej, tak aby ograniczyć koszt opłat za moc bierną. Możliwe są tu trzy główne rozwiązania problemu (rys. 1): • Kompensacja za pomocą dławika DWN przyłączonego do sieci wysokiego napięcia (stosuje się wówczas dławik wysokiego napięcia) • Kompensacja za pomocą dławika DSN przyłączonego do sieci średniego napięcia (stosuje się wówczas dławik średniego napięcia) • Kompensacja z wykorzystaniem elektrowni wiatrowych (można nie stosować wówczas dodatkowego dławika,
Rys. 1. Możliwe miejsca przyłączenia dławików do kompensacji mocy biernej
a nadmiar mocy biernej linii kablowej jest kompensowany przez układy energoelektroniczne elektrowni wiatrowych). Niniejszy referat przedstawia jedynie zagadnienia związane z rozwiązaniami wykorzystującymi dławiki, pomijając potencjalne możliwości wykorzystania elektrowni wiatrowych do regulacji mocy biernej. Wynika to z faktu, że znakomita większość obecnie instalowanych elektrowni wiatrowych ma zerowe lub bardzo niewielkie możliwości regulacji mocy biernej w sytuacji, gdy elektrownia nie generuje mocy czynnej (w sytuacji gdy warunki wiatrowe są niewystarczające do uruchomienia elektrowni). Co prawda, część producentów wyposaża swoje elektrownie w dodatkowe układy typu STATCOM, rozszerzające możliwości regulacji mocy biernej, lecz wiąże się to z większymi kosztami inwestycyjnymi. Dwa podstawowe sposoby kompensacji z wykorzystaniem dławików przedstawiono na rys. 1. 2. Kompensacja z wykorzystaniem dławików WN W przypadku wykorzystania dławika wysokiego napięcia (DWN) jego moc powinna być dobrana do skompensowania mocy biernej wytwarzanej przez linę kablową WN (rys. 1). Można to zapisać w sposób następujący: (1) gdzie: – moc bierna linii kablowej WN (moc ładowania) – moc bierna dławika – susceptancja linii kablowej – reaktancja dławika – napięcie w miejscu przyłączenia dławika.
Podany wzór bazuje na uproszczeniu zakładającym, że napięcie na początku linii (punkt PCC – rys. 1) i na jej końcu (gdzie zainstalowany jest dławik) są sobie równe. W rzeczywistości napięcia te nie będą takie same, ale z racji dość małych rezystancji i reaktancji linii kablowych ich różnica nie będzie duża. Dzięki temu przyjęte uproszczenie nie prowadzi do dużych błędów, a w łatwy sposób pozwala na dobór dławika. Wzór (1) można przekształcić, aby uzyskać zależność na znamionową moc bierną dławika (2) gdzie: – napięcie znamionowe dławika – susceptancja jednostkowa kabla – długość linii. Korzystając z przedstawionej zależności, dokonano doboru dławika kompensacyjnego dla przykładowej farmy wiatrowej. Założono, że farma o mocy znamionowej 50 MW jest przyłączona do systemu elektroenergetycznego kablem o napięciu znamionowym 110 kV, o długości 32 km, którego jednostkowa susceptancja wynosi 50,9 μS/km. Zatem, zgodnie ze wzorem (2), wymagana moc dławika kompensacyjnego będzie wynosić 19,7 Mvar. W tych uproszczonych rozważaniach pomijana jest sieć wewnętrzna farmy wiatrowej, która w rzeczywistości również wpływa na bilans mocy biernej. 3. Kompensacja z wykorzystaniem dławików SN W przypadku wykorzystania dławika przyłączonego do szyn SN jego moc, tak jak w poprzednim przypadku, powinna być dobrana do skompensowania mocy biernej wytwarzanej przez linię kablową WN.
123
J. Klucznik | Acta Energetica 2/27 (2016) | translation 118–122
Można to zapisać w sposób następujący (pomijając straty mocy w transformatorze farmy wiatrowej): (3) gdzie: – napięcie w miejscu przyłączenia dławika – napięcie linii kablowej WN. Oznacza to, że dławik powinien być dobrany analogicznie jak poprzednio (2) na moc:
(4)
Napięcie we wzorze (4) nie jest w tym przypadku napięciem znamionowym dławika, a napięciem znamionowym linii WN. Oczywiste jest, że obliczona moc dławika wymaganego do kompensacji, dla danych z prezentowanego wcześniej przykładu, będzie taka sama (19,7 Mvar). W zaprezentowanym sposobie doboru dławika tkwi jednak zagrożenie związane ze zmiennością napięcia w punkcie przyłączenia. Napięcie w sieci podlega wahaniom i zgodnie z IRiESP może przyjmować wartości przedstawione w tab. 1. Jaki zatem poziom napięcia powinien być wykorzystany w doborze dławika? W przypadku dławika przyłączonego do szyn WN, analizując zależność (1), można zauważyć, że warunek kompensacji nie zależy od napięcia, gdyż przy niezmieniających się parametrach linii (BL) i dławika (XD) wartości mocy generowanej przez linię kablową i pobieranej przez dławik zmieniają się tak samo, proporcjonalnie do kwadratu napięcia zasilania. Zatem układ kompensacji dobrany na napięcie znamionowe zachowa się poprawnie dla napięć wyższych i niższych od napięcia znamionowego. Z kolei w celu analizy poprawności doboru dławika przyłączonego po stronie SN transformatora zależność (3) należy zmodyfikować do postaci (5), wprowadzając do wzoru przekładnię transformatora , wiążącą napięcie strony górnej i dolnej transformatora.
Rodzaj rozdzielni/Sieć
400 kV
124
110 kV
Normalny stan pracy sieci Rozdzielnie NN i 110 kV, do których przyłączone są bezpośrednio jednostki wytwórcze
400–420
220–245
110–123
Pozostałe rozdzielnie NN
380–420
210–245
105–123
Zakłóceniowy stan pracy sieci Rozdzielnie NN i 110 kV, do których przyłączone są bezpośrednio jednostki wytwórcze
380–420
210–245
105–123
Pozostałe rozdzielnie NN
360–420
200–245
99–123
Tab. 1 Dopuszczalna zmienność napięć w KSE [3]
przez zabezpieczenia podnapięciowe lub nadnapięciowe. Wszystko to powoduje, że napięcie na szynach SN jest utrzymywane na w zasadzie stałym poziomie, niezależnie od wartości napięcia linii kablowej WN. W efekcie tego moc bierna pobierana przez dławik pozostaje praktycznie stała, mimo zmian napięcia w linii kablowej. Powyższe powoduje, że dobrana (wg zależności 4) wartość mocy dławika kompensacyjnego może zapewnić pełną kompensację jedynie dla jednego, określonego napięcia zasilającego linię kablową WN. W uproszczeniu, przy pominięciu strat mocy w linii kablowej i w transformatorze, uchyb kompensacji można opisać jako różnicę mocy biernej generowanej przez linię kablową QL i mocy pobieranej przez dławik QD. Uchyb kompensacji wyrażony będzie jako (6)
Przy stałej wartości napięcia na szynach SN (wynikającym z przyjętego sposobu sterowania przekładnią transformatora) uchyb kompensacji zawsze będzie zależał od wartości napięcia zasilającego linię kablową WN i niemożliwe jest uzyskanie pełnej kompensacji dla różnych warunków (5) pracy układu przy stałej wartości indukcyjności dławika.
Pobieżna ocena uzyskanej zależności wydaje się wskazywać, że warunek kompensacji będzie spełniony niezależnie od napięcia, podobnie jak w przypadku dławika instalowanego po stronie WN. Jednak zaprojektowanie układu kompensacji w ten sposób może skutkować poważną niedokładnością kompensacji przy zmianach napięcia w punkcie przyłączenia. Powodem tego jest fakt, że transformatory farm wiatrowych są wyposażone w przełącznik zaczepów i regulator napięcia. Zadaniem tego układu jest utrzymanie stałego poziomu napięcia w sieci wewnętrznej farmy wiatrowej, tak aby zapewnić prawidłową pracę przyłączonych elektrowni wiatrowych. Regulatory napięcia stosowane dla transformatorów farm wiatrowych dość często pracują z wąską strefą nieczułości i krótkim czasem zwłoki. Takie nastawianie regulatora wynika z obawy projektantów przed możliwością wyłączenia elektrowni wiatrowych
220 kV
4. Porównanie kompensacji mocy biernej z wykorzystaniem dławików SN i dławików WN W celu porównania obu metod kompensacji wykonano w programie PowerFactory badania porównawcze dla obu opisywanych rozwiązań. Badania przeprowadzono, wykorzystując prosty model sieci zawierający linię kablową WN i transformator sieciowy farmy (rys. 1). Odpowiada to sytuacji, gdy farma wiatrowa nie pracuje i jej sieć SN nie jest pod napięciem. Układ taki przyjęto ze względu na chęć uproszczenia zjawisk, jakie występują w układzie, tak aby skupić się jedynie na aspektach związanych z kompensacją mocy biernej linii kablowej. Warto zauważyć, że sytuacja ta jest bardzo podobna do stanu, kiedy farma wiatrowa nie generuje mocy czynnej (bo występują zbyt małe prędkości wiatru), ale sieć wewnętrzna jest pod napięciem, co może występować nawet przez 10% roku.
Napięcie znamionowe
20 kV
110 kV
Moc znamionowa
20 Mvar
20 Mvar
Reaktancja dławika
20 Ω
605 Ω
Prąd znamionowy
578 A
105 A
Straty znamionowe
182 kW
235 kW
Tab. 2. Wybrane dane dławików powietrznych firmy Trench [4]
Bazując na obliczonej uprzednio wymaganej mocy dławika 19,7 Mvar, przyjęto dławik o mocy 20 Mvar, w wersji na napięcie znamionowe 20 kV lub 110 kV. Podstawowe dane wykorzystanych dławików zestawiono w tab. 2. Rysunki 2–5 ilustrują zachowanie układu z dławikiem WN podczas zmian napięcia w punkcie przyłączenia farmy wiatrowej do sieci (PCC). Dla najniższego poziomu napięcia 105 kV można zauważyć (rys. 2), że wartość mocy biernej w punkcie przyłączenia wynosi –0,5 Mvar. Widać, że dobrany w sposób bardzo uproszczony dławik poprawnie kompensuje moc bierną linii kablowej. Wraz ze wzrostem napięcia moc bierna w punkcie przyłączenia obniża się, osiągając przy maksymalnym napięciu wartość około –0,7 Mvar. Te zmiany mocy są efektem wzrostu napięcia w układzie. Wzrost napięcia powoduje wzrost prądu dławika, wzrost prądu magnesowania transformatora, w efekcie czego zwiększa się wartość prądu płynącego kablem, co z kolei powoduje powstawanie dodatkowych (nieuwzględnianych w uproszczonych wzorach) strat mocy biernej w kablu WN. Powyższe powoduje, że kompensacja nie jest idealna i wartość mocy biernej w punkcie przyłączenia jest w niewielkim stopniu zależna od poziomu napięcia. Warto zauważyć, że mimo zmian mocy biernej w punkcie przyłączenia wartość współczynnika mocy w punkcie przyłączenia (rys. 4) jest praktycznie niezależna od wartości napięcia. Powyższe rozważania wskazują, że układ z dławikiem WN dość dobrze zapewnia kompensację mocy biernej linii kablowej WN. Zasadniczą wadą układu są dość duże straty mocy czynnej w dławiku, rosnące wraz ze wzrostem napięcia (rys. 5).
J. Klucznik | Acta Energetica 2/27 (2016) | translation 118–122
Rys. 2. Moc bierna w punkcie przyłączenia w funkcji napięcia w punkcie przyłączenia, dla układu z dławikiem WN
Rys. 7. Moc czynna w punkcie przyłączenia w funkcji napięcia w punkcie przyłączenia, dla układu z dławikiem SN
Rys. 3. Moc czynna w punkcie przyłączenia w funkcji napięcia w punkcie przyłączenia, dla układu z dławikiem WN
Rys. 8. Napięcie szyn SN w funkcji napięcia w punkcie przyłączenia, dla układu z dławikiem SN
Rys. 4. Współczynnik mocy tg φ w punkcie przyłączenia w funkcji napięcia w punkcie przyłączenia, dla układu z dławikiem WN
Rys. 9. Współczynnik mocy tg φ w punkcie przyłączenia w funkcji napięcia w punkcie przyłączenia, dla układu z dławikiem SN
Rys. 5. Straty mocy czynnej w dławiku WN w funkcji napięcia w punkcie przyłączenia
Rys. 10. Straty mocy czynnej w dławiku SN w funkcji napięcia w punkcie przyłączenia
Rys. 6. Moc bierna w punkcie przyłączenia w funkcji napięcia w punkcie przyłączenia, dla układu z dławikiem SN
Rys. 11. Moc bierna w punkcie przyłączenia w funkcji napięcia w punkcie przyłączenia, dla układu z regulowanym dławikiem SN
125
J. Klucznik | Acta Energetica 2/27 (2016) | translation 118–122
Rys. 12. Współczynnik mocy tg φ w punkcie przyłączenia w funkcji napięcia w punkcie przyłączenia, dla układu z regulowanym dławikiem SN
Z kolei rys. 6–10 ilustrują zachowanie układu z dławikiem SN podczas zmian napięcia w punkcie przyłączenia farmy wiatrowej do sieci. Można zauważyć, że układ z dławikiem przyłączonym do szyn napięcia średniego zachowuje się zgodnie z oczekiwaniami. Przy niskich napięciach, gdy moc ładowania linii kablowej jest niska, układ jest przekompensowany i z sieci pobierana jest znaczna wartość mocy biernej (rys. 6). Wraz ze wzrostem napięcia moc ładowania kabla WN rośnie, zaś moc dławika pozostaje praktycznie na stałym poziomie, gdyż napięcie szyn SN (rys. 8), kontrolowane przez regulator transformatora, zmienia się w bardzo wąskich granicach. Skutkiem tego jest wzrost mocy biernej w punkcie przyłączenia. W analizowanym przykładzie przy napięciu 115 kV występuje pełna kompensacja, zaś dalszy wzrost napięcia powoduje wzrost mocy biernej oddawanej do sieci. Przy najwyższym dopuszczalnym napięciu w punkcie przyłączenia wartość oddawanej do sieci mocy biernej przekracza 3 Mvar. Zakres zmian mocy biernej w punkcie przyłączenia, w przypadku dławika przyłączonego do szyn SN, wynosi około 6 Mvar, czemu odpowiada zmiana współczynnika mocy w bardzo szerokim zakresie (rys. 9). Pewną zaletą układu jest ograniczenie strat mocy czynnej dławika względem układu z dławikiem WN, zwłaszcza w zakresie wyższych napięć. Można zauważyć, że rozpatrywany układ z dławikiem zainstalowanym na szynach SN nie pozwala na uzyskanie zadowalającego stopnia kompensacji, a realizacja praktyczna takiego rozwiązania, mimo niższych kosztów inwestycyjnych, może – z racji znacznych opłat za moc bierną oddawaną/ pobieraną z sieci – spowodować w długofalowym horyzoncie czasowym znaczne obniżenie zysku inwestora. Zwiększenie dokładności kompensacji i tym samym zmniejszenie opłat za moc bierną przy stosowaniu dławika przyłączonego Jacek Klucznik
do szyn SN może być uzyskane przez zastosowanie dławika z regulacją mocy biernej. Dobrym rozwiązaniem może być wykorzystanie dwóch dławików: • dławika podstawowego, załączonego na stałe, o mocy dopasowanej do najniższego poziomu napięcia w punkcie zasilania • dławika dodatkowego, regulowanego, zapewniającego zmienność mocy biernej wymaganej w zakresie od napięcia najniższego do napięcia najwyższego. Dla rozpatrywanego przykładu rozwiązanie takie mogłoby mieć następującą postać: • instalacja dławika podstawowego o mocy 16 Mvar • instalacja dławika regulowanego o mocy 8 Mvar (4 stopnie po 2 Mvar). Rysunek 11 przedstawia wartość mocy biernej w punkcie przyłączenia w przypadku zastosowania proponowanych dławików. Założono, że układ regulacji dławików załącza kolejne stopnie dławika w zależności od wartości mocy biernej w punkcie przyłączenia. Przyjęto strefę nieczułości regulatora jako ±1 Mvar. Zgodnie z oczekiwaniami zaproponowany układ zapewnia kompensację mocy biernej kabla z oczekiwaną dokładnością. Wartości współczynnika mocy dla proponowanego rozwiązania przestawia rys. 12. 5. Podsumowanie Przedstawione w referacie dwa sposoby rozwiązania problemu kompensacji mocy biernej linii kablowej za pomocą dławików wskazują na istotne różnice wpływu dławików zainstalowanych na poziomie napięcia wysokiego i napięcia średniego na efekty kompensacji. Wykorzystanie dławików WN niesie ze sobą mniej problemów eksploatacyjnych. Dławik nie wymaga regulacji, a mimo to w szerokim zakresie napięć jest w stanie zapewnić ograniczenie mocy biernej pobieranej/oddawanej
z sieci. Brak konieczności regulacji mocy dławika pociąga zmniejszenie kosztów (brak konieczności instalacji droższych dławików regulowanych, brak układów regulacji, brak przeglądów czy konserwacji układów przełączających). Ograniczona do minimum zostaje liczba operacji łączeniowych, gdyż dławik praktycznie przez cały czas pracy pozostaje załączony. Wadą rozwiązania jest fakt, że dławiki wysokich napięć charakteryzują się często nieco wyższymi stratami mocy czynnej w porównaniu z dławikami na napięcia średnie. Dodatkową wadą jest konieczność rozbudowy rozdzielni WN o dodatkowe pole dławika. Wykorzystanie dławików SN bez możliwości regulacji ich mocy biernej powoduje, że kompensacja mocy biernej kabla będzie zapewniona w otoczeniu jednego, określonego poziomu napięcia. Powyżej tego napięcia farma będzie oddawała nadmiar mocy biernej do sieci, poniżej tego napięcia farma będzie pobierała moc bierną z sieci. Takie rozwiązanie jest zatem korzystne jedynie wtedy, gdy napięcie w punkcie przyłączenia farmy do sieci charakteryzuje się bardzo małą zmiennością. W innym przypadku należy stosować dławiki umożliwiające regulację mocy biernej bądź liczyć się z wysokimi opłatami z tytułu niedotrzymania współczynników mocy zawartych w umowie przyłączeniowej. Na koniec warto zauważyć, że wykorzystanie linii kablowych w celu przyłączania farm wiatrowych do systemu elektroenergetycznego oraz konieczność stosowania dławików do kompensacji mocy biernej w istotny sposób zwiększa straty mocy czynnej takiej instalacji. Układ linii kablowej i dławika, jako urządzenia pracujące ciągle, powinien być zatem projektowany pod kątem ograniczenia strat mocy czynnej, a projektanci powinni zwracać uwagę na deklarowane przez producentów dławików parametry konstrukcyjne i poszukiwać urządzeń o możliwie najniższych stratach mocy czynnej. Bibliografia 1. Lubośny Z., Farmy wiatrowe w systemie elektroenergetycznym, WNT 2009. 2. Taryfa Energa-Operator SA, zatwierdzona Decyzją Prezesa URE nr DRE-421179(8)/2013/VII/WDR/KGo z dnia 17.12.2013. 3. Instrukcja Ruchu i Eksploatacji Sieci Przesyłowej PSE-Operator z 1 sierpnia 2014. 4. Dry-Type, Air-Core Shunt Reactors, Trench Austria GmbH.
dr inż. Politechnika Gdańska e-mail: j.klucznik@eia.pg.gda.pl Studia magisterskie ukończył na Wydziale Elektrotechniki i Automatyki Politechniki Gdańskiej (1999). Pięć lat później uzyskał tytuł doktorski. Pracuje jako adiunkt w Katedrze Elektroenergetyki swojej macierzystej uczelni. Zajmuje się układami regulacji generatorów i turbin, energetyką wiatrową oraz elektroenergetyczną automatyką zabezpieczeniową.
126
M. Kłos et al. | Acta Energetica 2/27 (2016) | 127–132
HVDC Converter Stations to Enable Offshore Wind Farm Integration with Power System
Authors Mariusz Kłos Łukasz Rosłaniec Józef Paska Karol Pawlak
Keywords HVDC converter stations, HVDC technology standardisation, offshore wind farms
Abstract The main problem of the development of offshore wind farms is their integration with the existing power infrastructure. Electricity can be transmitted over HVAC and HVDC cable lines. Because of its many advantages, HVDC technology seems the target solution for offshore wind farms. The paper presents the high-power electronic converter technologies currently applied in HVDC substations to enable offshore wind farm integration with the power system. Technical aspects of the converter station technologies are presented, as well the accomplished standardisation stages. Also presented is each HVDC converter station technology’s potential (advantages and disadvantages) in the area of potential ancillary services that the national power system (NPS) can provide.
DOI: 10.12736/issn.2300-3022.2016211
1. Introduction Wind power generation development is taking new directions. Opportunities to build large onshore wind farms are slowly running out. Increasingly, large wind farms are built offshore. In Europe, a real investment boom can be seen in the areas of the North Sea. Already today the construction of offshore transmission grids is widely talked about to enable the development of the energy potential in this area [8]. The basic problem is the integration of offshore wind generation with the existing power infrastructure. Electricity can be transmitted over High Voltage Alternating Current (HVAC) and High Voltage Direct Current (HVDC) cable lines. Because of its many advantages, HVDC is considered as the target technology for offshore wind farms [1–3, 10]. Research and development of HVDC transmission systems conducted in recent years has contributed to the rapid development of this technology, and enhancement of the role it has to play in the processes of the power sector’s world-wide development. Currently, HVDC transmission systems are recognised as a mature technology, from both a technical and economic point of view. Its important advantage is the minimal impact on the environment - this is a pro-environmental technology. The main reason for the rapid development of HVDC technology was the need to improve the efficiency of electricity transmission over long distances, and the possibility of building transmission
infrastructure for offshore processing facilities [10]. Today we recognise HVDC as a technology characterised by lower transmission losses compared to HVAC technology. The need to increase the share of renewable energy sources in the global energy balance, issues of improving the integration process of new generation technologies, streamlining the electricity transmission processes, and improving the overall functionality of power system operations mean HVDC technology can be seen as a priority [1–3, 10].
2. Comparison of HVAC and HVDC cable technologies At present, the electricity from an offshore wind farm can be transmitted to the power system through either an HVAC or HVDC cable. The technology is selected here on the basis of technical and economic considerations. Technical issues at the technology selection stage must be considered taking into account a number of system requirements concerning these facilities’ capabilities of secure interoperation with the national power system. In most cases the system requirements for a newly connected power facility directly affect economic issues. Shown in Tab. 1 are the comparative characteristics of both HVAC and HVDC cable technologies for interoperation with offshore wind farms [3–4, 7]. As regards offshore wind farms located at a distance of over 127
M. Kłos et al. | Acta Energetica 2/27 (2016) | 127–132
Functional requirements
HVAC
HVDC
Short-circuit power at the point of common coupling (PCC)
Short-circuit power is increased (the share in short-circuit currents depends on the type of the turbine set)
Short-circuit power is increased minimally
Synchronous operation with the power system at voltage dips in the interconnection point
Available
Available
Reactive power intake
Yes (AC line charging current)
Depending on the technology: LCC HVDC – yes (required for proper operation of the power electronics inverter) VSC HVDC – not
Frequency control
Conditionally available (depending on the type of the turbine set)
Available
Operation at the line's low load (in synchronous operation with the NPS)
Yes
Depending on the technology: LCC HVDC – unstable VSC HVDC – yes
Reactive power control at the interconnection point (voltage regulation)
In most cases additional devices are required for reactive power compensation
Depending on the technology: LCC HVDC – limited, additional devices are required for reactive power compensation VSC HVDC – Available with no additional devices required for reactive power compensation
Impact on electricity quality parameters at the interconnection point
Meets system requirements
Meets system requirements
Black start ("island" operation)
Conditionally available (depending on the type of the turbine set)
Available (only with VSC topology based converters, operation as an independent voltage source)
Tab. 1. Comparison of HVAC and HVDC cable technologies for interoperation with offshore wind farms
80 km from the mainland, HVDC transmission cable lines are the only viable solution.
3. HVDC cables that enable an offshore wind farm’s interconnection with the power system A typical HVDC link is defined as a system of its following interoperable and integral elements: two, onshore and offshore, HVDC converter stations and an HV DC power cable as the HVDC transmission line. The offshore segment of a HVDC link interoperable with a wind farm is made up of the following components [1–3, 6]: • offshore platform with AC power infrastructure for the wind farm’s power output, consisting of n wind turbines. The number of AC platforms depends on the number of turbine sets and the topology of the farm’s internal power infrastructure. The AC platform power infrastructure’s main components (usually it is a multi-level structure) include: multiple MV cable connector and HV cable connector (usually on the first level), main step-up transformer, grounding installation, reactors and capacitors of higher harmonics filters, capacitor banks for reactive power compensation, MV (36 kV) switchgear, HV (GIS up to 800 kV) switchgear, auxiliary transformer, auxiliary LV AC and DC switchgear. The HVAC platform power infrastructure’s main components (usually it is a multi-level structure) include: power transformer that feeds a power electronics converter with an on load tap changer for voltage regulation (design 128
depends on the power electronics converter technology), a CSC or VSC power electronic converter with a cooling system (air, oil, gas, or water), higher harmonics filters on AC side, DC smoothing reactors, an auxiliary system. • HVDC cable line with the number of cables and topology depending on the chosen power converter technology, connecting the offshore converter station with the onshore converter station located where the HVDC infrastructure is connected to the power system. The link’s onshore part is made up of a segment of the cable line, and a substation with the HVDC and HVAC element, located at the connection to the power system. The onshore station’s topology, design, and operation are strongly dependent on the power converter technology selected for interoperation with the power system. Shown in Tab. 2 are the schematic diagrams of various HVDC link topologies for offshore wind farm integration with power system [3, 5].
4. HVDC converter technology Power converters of two technologies are used in HVDC links. In the first technology converters operate as Current Sourced Converters (CCS), also known as “LCC HVDC” or “classical HVDC”. In the other technology, converters operate as Voltage Sourced Converters (VSC), also known as “VSC HVDC” systems [3, 6, 8–9]. Shown in Tab. 3 are comparative characteristics of CSC and VSC converter stations.
M. Kłos et al. | Acta Energetica 2/27 (2016) | 127–132
HVDC link topology
Schematic diagram
Unipolar HVDC system topology with neutral conductor
Unipolar HVDC system topology with earthing instead of neutral conductor
Bipolar HVDC system topology with neutral conductor
Bipolar HVDC system topology with earthing as neutral conductor
Bipolar HVDC system topology with no use of "zero potential"
Tab. 2. Schematic diagrams of various HVDC link topologies for offshore wind farm integration with power system [3, 5]
CSC HVDC systems with thyristor switches are the optimum technology for the transmission of very high power over long distances. Characteristic here is the reactive power intake regardless of the direction of active power flow through the line. CSC HVDC technology has limitations with regard to reactive power monitoring and control. These limitations hinder the implementation of this technology (considered as the leading technology for very large offshore wind farms, which in the future will be located in seas and oceans far away from power systems) in offshore wind farm structures. VSC HVDC systems based on transistor technology have no such limitations, and allow for independent control of active power and reactive power transmission.
5. HVDC technology standardisation HVDC grid standardisation is now in progress with the participation of international standard organisations, academic institutions, TSOs, EU member states, and multinational corporations in the power sector. General technical standards for HVDC links are drafted by International Electrotechnical Commission
(IEC) in technical committee TC115 High Voltage Direct Current (HVDC) transmission for DC voltages above 100 kV, in cooperation with CIGRE. Tab. 4 shows a list of the existing and now developed technical standards for LCC HVDC and HVDC VSC links, applicable to their design, construction and operation. There is no complete set of technical standards for HVDC links, including offshore HVDC connections, allowing one to conduct uniform design-construction-operating in this area. It is the outcome of EU energy policy promoting very dynamic growth of the share of RWE (especially of the technologies based on movement of air masses as an energy carrier) in the European power sector. The need for offshore wind farms’ integration with national power systems, while meeting the stringent technical and environmental requirements falling within the existing formal and legal conditions, has necessitated innovative technical solutions in the field of electricity transmission and conversion. 129
M. Kłos et al. | Acta Energetica 2/27 (2016) | 127–132
Design aspects and functional requirements
LCC HVDC
VSC HVDC
Cable link voltages
≤ ± 600 kV for cables insulated with oil and paper
≤ ± 600 kV for cables insulated with oil and paper, ≤ ± 320 kV XLPE cables
Semiconductor switch technology
Thyristor (SCR, GTO, IGCT, GCT)
Transistor (IGBT)
Semiconductor switch control type
Current control
Voltage control
Typical topology of power electronic converter
12-pulse
Multilevel
Converter transformer
12-pulse transformer required
Not required
Semiconductor switch controllability
Limited (depending on the topology)
Full
Available operating modes
Rectifier, inverter (current source)
Rectifier, inverter (voltage source)
Erroneous activation in the inverter mode at faulty condition resulting in a severe failure of the converter
Likely
Unlikely
Losses in converter stations
0.8% of the rated power (for each station)
1.6–1.8% of the rated power (for each station)
Frequency control
Unavailable
Available
Black start ("island" operation)
Unavailable without an additional device to provide a standard voltage, for example. STATCOM
Available (operation as an independent voltage source)
THDi on AC side
Large
Small
THDi on DC side
The need for filters
Small distortion factor – no higher harmonics filters required
Ability to interoperate with "soft" power grid
No
Yes
Minimum short-circuit power at the interconnection point in relation to the converter station's rated power
2–3
Not required
Higher harmonics filters on AC side
Required
Recommended
Higher harmonics filters on DC side
Required
Recommended
Short-circuit power increase at the interconnection point
Short-circuit power at the interconnection point is increased minimally
Short-circuit power at the interconnection point is increased minimally
Active power control at the interconnection point
Available
Available and independent of reactive power
Reactive power control at the interconnection point
Unavailable without additional devices for reactive power compensation at the interconnection point
Available without additional devices for reactive power compensation at the interconnection point
Power limit currently applied to links with offshore wind farms
No applications using this technology
Up to 1.2 GW
Required area for converter station for the same power of HVDC link
1
0.6
Tab. 3. Comparative characteristics of CSC and VSC converter stations
Standard
Standard title Existing
IEC 60146-1-3
Semiconductor convertors – General requirements and line commutated convertors – Part 1–3: Transformers and reactors
IEC 60146-2
Semiconductor converters – Part 2: Self-commutated semiconductor converters including direct d.c. converters
IEC 60060-1
High-voltage test techniques – Part 1: General definitions and test requirements
IEC 60060-2
High-voltage test techniques – Part 2: Measuring systems
IEC 60060-3
High-voltage test techniques – Part 3: Definitions and requirements for on-site testing
IEC 61083-1
Instruments and software used for measurement in high-voltage impulse tests – Part 1: Requirements for instruments
IEC 61083-2
Instruments and software used for measurement in high-voltage impulse tests – Part 2: Evaluation of software used for the determination of the parameters of impulse waveforms
130
M. Kłos et al. | Acta Energetica 2/27 (2016) | 127–132
IEC 60071-1, 2, 3
Insulation co-ordination
IEC 60815
Guide for the selection of insulators in respect of polluted conditions
IEC 61973
High-voltage direct current (HVDC) substation audible noise
IEC/TR 62543 (E)
High-voltage direct current (HVDC) power transmission using voltage sourced converters (VSC)
IEC PAS 62344 (pre-standard)
General Guidelines for the Design of Ground Electrodes for HVDC Links (2007)
IEC/TS 62344
Design of earth electrode stations for high-voltage direct current (HVDC) links – General guidelines
IEC 60099-4
Surge arresters – Part 4: metal-oxide surge arresters without gaps for a.c. systems
IEC 60099-9
Surge arresters – Part 9: Metal-oxide surge arresters without gaps for HVDC converter stations
IEC 60633
Terminology for high-voltage direct current (HVDC) transmission
IEC 60146-1-1
Semiconductor converters – General requirements and line commutated converters – Part 1–1: Specifications of basic requirements
IEC 62501
Voltage sourced converter (VSC) valves for high-voltage direct current (HVDC) power transmission – Electrical testing
IEC/TR 60146-1-2
Semiconductor converters – General requirements and line commutated convertors – Part 1–2: Application guide
IEC/TR 62001
High-voltage direct current (HVDC) systems – Guidebook to the specification and design evaluation of A.C. filters
IEC/TR 60919-1
Performance of high-voltage direct current (HVDC) systems with line-commutated converters – Part 1: Steady-state conditions
P-IEC/TS 60919-3
Performance of high-voltage direct current (HVDC) systems – Part 3: Dynamic conditions
IEC/TS 60071-5
Insulation co-ordination – Part 5: Procedures for high-voltage direct current (HVDC) converter stations
IEC 61803
Determination of power losses in high-voltage direct current (HVDC) converter stations with line-commutated converters
IEC 61975
High-voltage direct current (HVDC) installations – System tests
ISO/IEC 17025
General requirements for the competence of testing and calibration laboratories Under development
IEC/TS 61973 Edition 1.0
High voltage direct current (HVDC) substation audible noise
PWI/TR 115-3
DC side harmonics & filtering in LCC HVDC transmission systems
IEC/TR 62681 Ed.1
Electromagnetic Environment Criterion for High-voltage Direct Current (HVDC) Overhead Transmission Lines
PWI/TR 115-2
Guideline for HVDC System Operation Procedure
PWI/TR 115-5
Planning of HVDC Systems
IEC/TS 62344 Edition 1.0
Design of earth electrode stations for high-voltage direct current (HVDC) links – General guidelines
IEC/TS 62672-1 Ed.1
Reliability and availability evaluation of HVDC systems Part 1: HVDC Systems with Line Commutated Converters
Tab. 4. List of the existing and now developed technical standards for LCC HVDC and HVDC VSC links
As a consequence, this is a situation where technology standardisation lags behind the needs and mandatory orders under the current political conditions.
6. Summary From the technical point of view, both converter station technologies discussed here – LCC HVDC and HVDC VSC – seem to be sufficient for the integration of offshore wind farms with power systems. These systems allow achieving satisfactory electricity quality parameters at the interconnection point, which translates into stable interoperation with the power system. However, due to the nature of their operation, as manifested by better
performance and greater flexibility, VSC systems (with voltage inverters) should be preferred in the future. The use of VSC HVDC technology in offshore wind farm structures allows to improve the performance of wind farm’s internal infrastructure (very good electricity quality parameters on the side of offshore MV infrastructure) and to connect to the „weak” system in terms of electricity quality parameters power system (where short-circuit powers at interconnection point are theoretically insufficient for power a system’s interoperation with a wind farm). Full standardisation requires bringing together experience from many years’ operation of the currently working VSC HVDC station, as was the case with HVAC systems.
131
M. Kłos et al. | Acta Energetica 2/27 (2016) | 127–132
REFERENCES
1. ABB (2013) Technical description of HVDC Light® technology. 2. ABB (2013), “Building resilient and reliable AC ofshore wind farm grid connections”. 3. J. Arrillaga, Y.H. Liu, N.R. Watson, “Flexible Power Transmission. The HVDC Options”, John Wiley & Sons, Ltd 2007. 4. J. Arrillaga et al., “Non-Linear Control of VSC and CSC Systems. In SelfCommutating Converters for High Power Applications”, John Wiley & Sons, Ltd 2009. 5. G. Asplund, “Sustainable energy systems with HVDC Transmission”, ABB Power Technologies, Power Systems, HVDC.
6. K. Chan-Ki et al., “HVDC transmission: power conversion applications in power systems”, John Wiley and Sons, 2009. 7. S.U. Kala Meah, “Comparative Evaluation of HVDC and HVAC Transmission Systems”, IEEE, 2008. 8. Z. Malhem et al., “Electricity transmission, distribution and storage systems”, Woodhead Publishing Limited, 2013. 9. R. Rudervall, “High voltage direct current (HVDC) transmission systems technology review paper”, Washington, USA: Energy Week 2000. 10. M. Ragheb, “High Voltage Direct Current for Wind Power”, 2009.
Mariusz Kłos Warsaw University of Technology e-mail: Mariusz.Klos@ien.pw.edu.pl Graduated as M.Sc. from the Faculty of Electrical Engineering at Warsaw University of Technology (2002). PhD degree obtained in 2007. Since 2006 he has been working at Warsaw University of Technology, in the Institute of Electrical Power Engineering, Electric Power Plants and Economics of Electrical Power Engineering Division. In 2011, he completed a six-month internship at the Massachusetts Institute of Technology, Cambridge, USA. His research interests are focused on ways of integrating conventional and alternative generation and energy storage technologies with power system, using power electronics. Author of over 60 articles on distributed generation, including energy storage.
Łukasz Rosłaniec Warsaw University of Technology e-mail: Lukasz.Roslaniec@ien.pw.edu.pl Graduated with Master’s degree in engineering in 2008. That same year he enrolled on doctoral studies at the Institute of Electrical Power Engineering of Warsaw University of Technology. In 2009 he completed a four-month internship at RWTH Aachen in Germany, and in 2011 a six-month internship at the Massachusetts Institute of Technology, Cambridge, USA. In 2014 he obtained his PhD after defending his doctoral dissertation. Now an assistant professor at the Institute of Electrical Power Engineering of Warsaw University of Technology. His research focuses mainly on the issue of electricity transfer from distributed sources to the grid. In particular, his interests include issues related to electricity quality improvement, high performance electricity conversion, converters interoperable with distributed sources.
Józef Paska Warsaw University of Technology e-mail: Jozef.Paska@ien.pw.edu.pl A graduate of Warsaw University of Technology. Professor of technical sciences (since 2007), head of the Electric Power Plants and Economics of Electrical Power Engineering Division at Warsaw University of Technology, member of the Power Engineering Problems Committee and the Electrical Engineering Committee of the Polish Academy of Sciences, chairman of the of the Nuclear Energy Committee of the Association of Polish Electrical Engineers (SEP). His scientific interests are focused on power generation, including distributed generation and RES use, electrical power management and economics, power system reliability and power supply security. Author of over 300 articles and papers, and 11 monographs and academic textbooks.
Karol Pawlak Warsaw University of Technology, Institute of Electrical Power e-mail: Karol.Pawlak@ien.pw.edu.pl Doctor of technical sciences at the Faculty of Electrical Engineering of Warsaw University of Technology. In his career he pursued as a project team leader the investment processes related to the construction of power infrastructure throughout Polish. Assistant professor in the Electric Power Plants and Economics of Electrical Power Engineering Division at the Faculty of Electrical Engineering of Warsaw University of Technology. Expert and author of numerous publications in the field of risk management in power system. Reviewer and expert in the field of electric power engineering evaluating applications to the Programme of Innovative Economy.
132
M. Kłos et al. | Acta Energetica 2/27 (2016) | translation 127–132
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 127–132. When referring to the article please refer to the original text. PL
Stacje przekształtnikowe HVDC umożliwiające integrację morskich farm wiatrowych z systemem elektroenergetycznym Autorzy
Mariusz Kłos Łukasz Rosłaniec Józef Paska Karol Pawlak
Słowa kluczowe
stacje przekształtnikowe HVDC, standaryzacja technologii HVDC, morskie farmy wiatrowe
Streszczenie
Podstawowym problemem dla rozwoju morskich farm wiatrowych jest ich integracja z istniejącą infrastrukturą elektroenergetyczną. Przesył energii elektrycznej może być tu realizowany z użyciem kablowych łączy HVAC i HVDC. Dla morskich farm wiatrowych, ze względu na wiele zalet, docelowa wydaje się technologia HVDC. W artykule zaprezentowano obecnie wykorzystywane technologie przekształtników energoelektronicznych dużych mocy, stosowane w stacjach elektroenergetycznych HVDC, umożliwiających integrację morskich farm wiatrowych z systemem elektroenergetycznym. Przedstawiono aspekty techniczne technologii stacji przekształtnikowych oraz osiągnięte etapy standaryzacji. Zaprezentowano również potencjał poszczególnych technologii stacji przekształtnikowych HVDC (wady i zalety) w obszarze potencjalnych usług systemowych, które mogą pełnić w KSE.
1. Wstęp Energetyka wiatrowa obiera nowe kierunki rozwoju. Możliwości budowy dużych elektrowni wiatrowych na lądzie powoli się wyczerpują. Coraz częściej duże farmy wiatrowe są budowane na obszarach morskich. W Europie prawdziwy boom inwestycyjny możemy zaobserwować na obszarach Morza Północnego. Już dzisiaj mówi się szeroko o budowie morskich sieci przesyłowych, które umożliwią zagospodarowanie potencjału energetycznego w tym obszarze [8]. Podstawowym problemem jest integracja morskiej generacji wiatrowej z istniejącą infrastrukturą elektroenergetyczną. Przesył energii elektrycznej może być tu realizowany z użyciem kablowych łączy HVAC (ang. High Voltage Alternating Current) i HVDC (ang. High Voltage Direct Current). Dla morskich farm wiatrowych ze względu na wiele zalet rozpatruje się jako docelową technologię HVDC [1–3, 10]. Prace badawczo-rozwojowe systemów przesyłowych HVDC, prowadzone w ostatnich latach, przyczyniły się do szybkiego rozwoju tej technologii i zwiększenia roli, jaką ma odegrać w procesach rozwojowych sektora elektroenergetycznego w ujęciu globalnym. Obecnie systemy przesyłowe HVDC są rozpoznawane jako technologia dojrzała zarówno z technicznego, jak i ekonomicznego punktu widzenia. Inną istotną zaletą jest jej znikomy wpływ na środowisko – jest to technologia prośrodowiskowa. Główną przyczyną szybkiego rozwoju technologii HVDC była potrzeba poprawy efektywności przesyłu energii elektrycznej na znaczne odległości oraz możliwość budowy infrastruktury przesyłowej dla morskich instalacji technologicznych [10]. Dzisiaj rozpoznajemy HVDC jako technologię charakteryzującą się mniejszymi stratami przesyłowymi w porównaniu z technologią HVAC. Potrzeba zwiększenia w globalnym bilansie energetycznym udziału odnawialnych
źródeł energii, kwestie dotyczące usprawnienia procesów integracji nowych technologii wytwórczych, usprawnienie procesów przesyłu energii elektrycznej oraz poprawa ogólnej funkcjonalności pracy systemów elektroenergetycznych powodują, że technologia HVDC jest postrzegana jako technologia priorytetowa [1–3, 10]. 2. Porównanie technologii łączy kablowych HVAC i HVDC Obecnie przesyłanie energii elektrycznej z morskich farm wiatrowych do systemu elektroenergetycznego może być realizowane z użyciem łącza kablowego HVAC lub HVDC. Wybór technologii będzie tu dokonywany na podstawie uwarunkowań technicznych i ekonomicznych. Kwestie techniczne na etapie wyboru technologii muszą być rozpatrywane z uwzględnieniem wielu wymagań systemowych dotyczących możliwości bezpiecznej współpracy tych obiektów z KSE. W większości przypadków wymagania systemowe dla nowo przyłączanego obiektu elektroenergetycznego bezpośrednio wpływają na kwestie ekonomiczne. W tab. 1 przedstawiono charakterystykę porównawczą obu technologii łączy kablowych, HVAC i HVDC, dedykowanych do współpracy z morskimi farmami wiatrowymi [3–4, 7]. W przypadku morskich farm wiatrowych zlokalizowanych w odległości powyżej 80 km od lądu technologia HVDC, wykorzystująca do przesyłu energii elektrycznej linie kablowe, jest jedyną racjonalną technologią do zastosowania. 3. Łącza kablowe HVDC umożliwiające przyłączanie morskich farm wiatrowych do systemu elektroenergetycznego Typowe łącze HVDC jest rozumiane jako układ współpracujących ze sobą następujących elementów integralnych tego łącza: dwóch stacji przekształtnikowych HVDC,
lądowej i morskiej, oraz kabla energetycznego wysokiego napięcia DC, tworzącego linię przesyłową HVDC. Do elementów składowych morskiej części łącza HVDC współpracującego z farmą wiatrową należą [1–3, 6]: • platforma morska z infrastrukturą elektroenergetyczną AC, umożliwiającą wyprowadzenie mocy z morskiej farmy wiatrowej składającej się z n turbozespołów wiatrowych. Liczba platform AC zależy od liczby turbozespołów i topologii wewnętrznej infrastruktury elektroenergetycznej farmy wiatrowej. Głównymi elementami infrastruktury elektroenergetycznej platformy AC (przeważnie jest to konstrukcja wielopoziomowa) są: zbiorcze przyłącze kabli SN i przyłącze kabla WN (przeważnie na pierwszym poziomie), transformator główny podwyższający napięcie, instalacja uziemiająca, dławiki i kondensatory filtrów wyższych harmonicznych, baterie kondensatorów do kompensacji mocy biernej, rozdzielnia SN (do 36 kV), rozdzielnia WN (GIS, do 800 kV), transformator potrzeb własnych, rozdzielnia potrzeb własnych AC i DC nn. W skład infrastruktury elektroenergetycznej platformy HVDC (przeważnie jest to konstrukcja wielopoziomowa) wchodzą: transformator mocy zasilający przetwornicę energoelektroniczną z przełącznikiem zaczepów do regulacji napięcia pod obciążeniem (konstrukcja zależna od technologii przetwornicy energoelektronicznej), przetwornica energoelektroniczna w technologii CSC lub VSC z układem chłodzenia (powietrznym, olejowym, gazowym lub wodnym), filtry do kompensacji wyższych harmonicznych po stronie AC, dławiki wygładzające DC, instalacja potrzeb własnych. • Połączenie kablowe HVDC o liczbie kabli i topologii zależnej od wybranej
133
M. Kłos et al. | Acta Energetica 2/27 (2016) | translation 127–132
Wymagania funkcjonalne
HVAC
HVDC
Moc zwarciowa w punkcie przyłączenia
Moc zwarciowa ulega zwiększeniu (udział w prądach zwarciowych zależny od rodzaju zastosowanego turbozespołu)
Moc zwarciowa ulega zwiększeniu w minimalnym stopniu
Praca synchroniczna z systemem elektroenergetycznym w trakcie zapadów napięcia w punkcie przyłączenia
Możliwa
Możliwa
Pobór mocy biernej
Tak (prąd ładowania linii AC)
W zależności od technologii: LCC HVDC – tak (wymagany do prawidłowej pracy przetwornicy energoelektronicznej) VSC HVDC – nie
Regulacja częstotliwości
Warunkowo możliwa (zależnie od rodzaju zastosowanego turbozespołu)
Możliwa
Praca z niskim obciążeniem łącza (w stanie pracy synchronicznej z KSE)
Tak
W zależności od technologii: LCC HVDC – niestabilna VSC HVDC – tak
Regulacja mocy biernej w punkcie przyłączenia (regulacja napięcia)
W większości przypadków potrzeba stosowania dodatkowych urządzeń do kompensacji mocy biernej
W zależności od technologii: LCC HVDC – ograniczona, potrzeba stosowania dodatkowych urządzeń do kompensacji mocy biernej VSC HVDC – możliwa bez dodatkowych urządzeń do kompensacji mocy biernej
Wpływ na parametry jakościowe energii elektrycznej w punkcie przyłączenia
Spełnia wymagania systemowe
Spełnia wymagania systemowe
Black start (praca „wyspowa”)
Warunkowo możliwy (zależnie od rodzaju zastosowanego turbozespołu)
Możliwy (tylko w przypadku przekształtników o topologii VSC, praca jako niezależne źródło napięcia)
Tab. 1. Porównanie technologii łączy kablowych HVAC i HVDC, dedykowanych do współpracy z morskimi farmami wiatrowymi
Nazwa topologii łącza HVDC
Schemat ideowy
Topologia unipolarna układu HVDC wykorzystująca przewód zerowy
Topologia unipolarna układu HVDC wykorzystująca uziemienia zamiast przewodu zerowego
Topologia bipolarna układu HVDC wykorzystująca przewód zerowy
Topologia bipolarna układu HVDC wykorzystująca uziemienia jako przewód zerowy
Topologia bipolarna układu HVDC pracująca bez wykorzystania „potencjału zerowego”
Tab. 2. Schematy ideowe różnych topologii łączy HVDC wykorzystywanych do integracji morskich farm wiatrowych z systemem elektroenergetycznym
134
M. Kłos et al. | Acta Energetica 2/27 (2016) | translation 127–132
technologii przetwornic energoelektronicznych, łączące morską stację przekształtnikową ze stacją przekształtnikową zlokalizowaną na lądzie w miejscu przyłączenia infrastruktury HVDC do systemu elektroenergetycznego. Część lądową łącza stanowi fragment połączenia kablowego oraz stacja elektroenergetyczna z częścią HVDC i HVAC, zlokalizowana w miejscu przyłączenia do systemu elektro energetycznego. Top ologia, konstrukcja i eksploatacja stacji lądowej jest silnie zależna od wybranej technologii
przetwornic energoelektronicznych, które będą współpracowały z systemem elektroenergetycznym. W tab. 2 przedstawiono schematy ideowe różnych topologii łączy HVDC wykorzystywanych do integracji morskich farm wiatrowych z systemem elektroenergetycznym [3, 5]. 4. Technologie stacji przekształtnikowych HVDC Łącza HVDC wykorzystują dwie technologie przekształtników energoelektronicznych. Pierwszą technologią są układy
Aspekty konstrukcyjne i wymagania funkcjonalne
z przekształtnikami pracującymi jako źródła prądowe CSC (ang. Current Source Converter), często nazywane systemami „LCC HVDC” lub „classical HVDC”. Drugą technologią są układy z przekształtnikami pracującymi jako źródła napięciowe VSC (ang. Voltage Source Converter), często nazywane systemami „VSC HVDC” [3, 6, 8–9]. W tab. 3 przedstawiono charakterystykę porównawczą stacji przekształtnikowych wykonanych w technologii CSC i VSC. Systemy CSC HVDC wykorzystujące łączniki tyrystorowe są optymalną technologią
LCC HVDC
VSC HVDC
Obecnie stosowane poziomy napięcia dla połączeń kablowych
≤ ±600 kV dla kabli w izolacji olejowej i papierowej
≤ ±600 kV dla kabli w izolacji olejowej i papierowej, ≤ ±320 kV kable XLPE
Technologia łączników półprzewodnikowych
Tyrystorowa (SCR, GTO, IGCT, GCT)
Tranzystorowa (IGBT)
Rodzaj sterowania łącznikami półprzewodnikowymi
Sterowanie prądowe
Sterowanie napięciowe
Typowa topologia przekształtnika energoelektronicznego
12-pulsowa
Wielopoziomowa
Transformator przekształtnikowy
Wymagany transformator 12-pulsowy
Niewymagany
Sterowalność łącznikami półprzewodnikowymi
Ograniczona (zależna od technologii)
Pełna
Możliwe tryby pracy
Prostownik, falownik (źródło prądowe)
Prostownik, falownik (źródło napięciowe)
Błędne wysterowanie w trybie pracy falownikowej w trakcie stanów awaryjnych skutkujące ciężką awarią przekształtnika
Prawdopodobne
Mało prawdopodobne
Straty w stacjach przekształtnikowych
0,8% w stosunku do mocy znamionowej (dla każdej stacji)
1,6–1,8% w stosunku do mocy znamionowej (dla każdej stacji)
Regulacja częstotliwości
Niemożliwa
Możliwa
Black start (praca „wyspowa”)
Niemożliwy bez dodatkowych urządzeń zapewniających wzorzec napięcia
Możliwy (praca jako niezależne źródło napięcia)
THDi po stronie AC
Duży
Mały
THDu po stronie DC
Potrzeba stosowania filtrów
Mały współczynnik odkształcenia – nie jest wymagane stosowanie filtrów wyższych harmonicznych
Możliwość pracy z „miękką” siecią elektroenergetyczną
Nie
Tak
Minimalna moc zwarciowa w punkcie przyłączenia w stosunku do mocy znamionowej stacji przekształtnikowej
2–3
Niewymagana
Filtry wyższych harmonicznych po stronie AC
Wymagane
Zalecane
Filtry wyższych harmonicznych po stronie DC
Wymagane
Zalecane
Wzrost mocy zwarciowej w punkcie przyłączenia
Moc zwarciowa w punkcie przyłączenia ulega zwiększeniu w minimalnym stopniu
Moc zwarciowa w punkcie przyłączenia ulega zwiększeniu w minimalnym stopniu
Regulacja mocy czynnej w punkcie przyłączenia
Możliwa
Możliwa i niezależna od mocy biernej
Regulacja mocy biernej w punkcie przyłączenia
Bez dodatkowych urządzeń do kompensacji mocy biernej w punkcie przyłączenia niemożliwa
Możliwa bez dodatkowych urządzeń do kompensacji mocy biernej w punkcie przyłączenia
Moc graniczna obecnie stosowanych łączy dla morskich farm wiatrowych
Brak aplikacji z użyciem tej technologii
Do 1,2 GW
Wymagana powierzchnia dla stacji przekształtnikowej dla tej samej mocy łącza HVDC
1
0,6
Tab. 3. Charakterystyka porównawcza stacji przekształtnikowych wykonanych w technologii CSC i VSC
135
M. Kłos et al. | Acta Energetica 2/27 (2016) | translation 127–132
Norma
Tytuł normy Istniejące
IEC 60146-1-3
Semiconductor convertors – General requirements and line commutated convertors – Part 1-3: Transformers and reactors
IEC 60146-2
Semiconductor converters – Part 2: Self-commutated semiconductor converters including direct d.c. converters
IEC 60060-1
High-voltage test techniques – Part 1: General definitions and test requirements
IEC 60060-2
High-voltage test techniques – Part 2: Measuring systems
IEC 60060-3
High-voltage test techniques – Part 3: Definitions and requirements for on-site testing
IEC 61083-1
Instruments and software used for measurement in high-voltage impulse tests – Part 1: Requirements for instruments
IEC 61083-2
Instruments and software used for measurement in high-voltage impulse tests – Part 2: Evaluation of software used for the determination of the parameters of impulse waveforms
IEC 60071-1, 2, 3
Insulation co-ordination
IEC 60815
Guide for the selection of insulators in respect of polluted conditions
IEC 61973
High-voltage direct current (HVDC) substation audible noise
IEC/TR 62543 (E)
High-voltage direct current (HVDC) power transmission using voltage sourced converters (VSC)
IEC PAS 62344 (pre-standard)
General Guidelines for the Design of Ground Electrodes for HVDC Links (2007)
IEC/TS 62344
Design of earth electrode stations for high-voltage direct current (HVDC) links – General guidelines
IEC 60099-4
Surge arresters – Part 4: metal-oxide surge arresters without gaps for a.c. systems
IEC 60099-9
Surge arresters – Part 9: Metal-oxide surge arresters without gaps for HVDC converter stations
IEC 60633
Terminology for high-voltage direct current (HVDC) transmission
IEC 60146-1-1
Semiconductor converters – General requirements and line commutated converters – Part 1–1: Specifications of basic requirements
IEC 62501
Voltage sourced converter (VSC) valves for high-voltage direct current (HVDC) power transmission – Electrical testing
IEC/TR 60146-1-2
Semiconductor convertors – General requirements and line commutated convertors – Part 1–2: Application guide
IEC/TR 62001
High-voltage direct current (HVDC) systems – Guidebook to the specification and design evaluation of A.C. filters
IEC/TR 60919-1
Performance of high-voltage direct current (HVDC) systems with line-commutated converters – Part 1: Steady-state conditions
P-IEC/TS 60919-3
Performance of high-voltage direct current (HVDC) systems – Part 3: Dynamic conditions
IEC/TS 60071-5
Insulation co-ordination – Part 5: Procedures for high-voltage direct current (HVDC) converter stations
IEC 61803
Determination of power losses in high-voltage direct current (HVDC) converter stations with line-commutated converters
IEC 61975
High-voltage direct current (HVDC) installations – System tests
ISO/IEC 17025
General requirements for the competence of testing and calibration laboratories W opracowaniu
IEC/TS 61973 Edition 1.0
High voltage direct current (HVDC) substation audible noise
PWI/TR 115-3
DC side harmonics & filtering in LCC HVDC transmission systems
IEC/TR 62681 Ed.1
Electromagnetic Environment Criterion for High-voltage Direct Current (HVDC) Overhead Transmission Lines
PWI/TR 115-2
Guideline for HVDC System Operation Procedure
PWI/TR 115-5
Planning of HVDC Systems
IEC/TS 62344 Edition 1.0
Design of earth electrode stations for high-voltage direct current (HVDC) links – General guidelines
IEC/TS 62672-1 Ed.1
Reliability and availability evaluation of HVDC systems Part 1: HVDC Systems with Line Commutated Converters
Tab. 4. Wykaz istniejących oraz będących w opracowaniu standardów technicznych dla łączy LCC HVDC i VSC HVDC
136
M. Kłos et al. | Acta Energetica 2/27 (2016) | translation 127–132
do przesyłu bardzo dużych mocy na duże odległości. Charakterystyczny jest tu pobór mocy biernej bez względu na kierunek przepływu mocy czynnej przez linię. Technologia CSC HVDC posiada ograniczenia co do kontroli i sterowania mocą bierną. Te ograniczenia utrudniają funkcjonowanie tej technologii w strukturach morskich farm wiatrowych (rozpatrywana jako wiodąca technologia dla bardzo dużych morskich farm wiatrowych, które w przyszłości będą zlokalizowane na obszarach mórz i oceanów, bardzo daleko od systemu elektroenergetycznego). Systemy VSC HVDC bazujące na technologii tranzystorowej nie mają takich ograniczeń, umożliwiają niezależną kontrolę nad przesyłem mocy czynnej i mocy biernej. 5. Standaryzacja technologii HVDC Standaryzacja dla sieci HVDC jest obecnie w opracowaniu przy udziale międzynarodowych organizacji standaryzujących, instytucji naukowych, operatorów systemów przesyłowych krajów członkowskich UE oraz firm międzynarodowego sektora elektroenergetycznego. Prace związane z określeniem ogólnych standardów technicznych dla łączy HVDC są obecnie prowadzone przez IEC (ang. International Electrotechnical Commission) w ramach komitetu technicznego TC115 High Voltage Direct Current (HVDC) transmission for DC voltages above 100 kV, przy współpracy z CIGRE. W tab. 4 przedstawiono wykaz istniejących oraz będących w opracowaniu standardów technicznych dla łączy LCC HVDC i VSC HVDC, mających zastosowanie na etapie projektowania, budowy i eksploatacji tych łączy. Nie istnieje komplet standardów technicznych w zakresie łączy HVDC, w tym morskich połączeń HVDC, umożliwiający prowadzenie ujednoliconych prac projektowo-budowlano-eksploatacyjnych w tym obszarze. Jest to wynik prowadzonej przez
Unię Europejską polityki energetycznej promującej bardzo dynamiczny wzrost udziału OZE (szczególnie technologii wykorzystujących ruch mas powietrza jako nośnika energii) w europejskim sektorze elektroenergetycznym. Potrzeba integracji morskich farm wiatrowych z krajowymi systemami elektroenergetycznymi, przy jednoczesnym spełnieniu rygorystycznych wymagań technicznych i środowiskowych mieszczących się w ramach obowiązujących uwarunkowań formalnoprawnych, wymusiła potrzebę stosowania nowatorskich rozwiązań technicznych w obszarze przesyłu i konwersji energii elektrycznej. W konsekwencji mamy tu do czynienia z sytuacją, kiedy standaryzacja technologii spóźnia się w stosunku do potrzeb i obligatoryjnych nakazów wynikających z obecnych uwarunkowań politycznych. 6. Podsumowanie Z technicznego punktu widzenia obydwie omówione w artykule technologie stacji przekształtnikowych – LCC HVDC, jak i VSC HVDC – wydają się wystarczające do integracji morskich farm wiatrowych z systemem elektroenergetycznym. Układy te pozwalają na osiągnięcie zadowalających parametrów jakościowych energii w punkcie przyłączenia, co przekłada się na stabilną współpracę z systemem elektroenergetycznym. Jednakże ze względu na specyfikę pracy, objawiającą się lepszymi parametrami i większą elastycznością, układy VSC (wykorzystujące falowniki napięcia) powinny być w przyszłości preferowane. Wykorzystanie technologii VSC HVDC w strukturach morskich farm wiatrowych umożliwia jednocześnie usprawnienie funkcjonowania zarówno wewnętrznej infrastruktury elektroenergetycznej farmy wiatrowej (bardzo dobre parametry jakościowe energii elektrycznej po stronie morskiej infrastruktury średniego napięcia), jak i przyłączenie całej instalacji do „słabego-miękkiego” pod kątem parametrów jakościowych energii
systemu elektroenergetycznego (gdzie moce zwarciowe w miejscu przyłączenia są teoretycznie niewystarczające do współpracy systemu elektroenergetycznego z farmą wiatrową). Pełna standaryzacja jest możliwa po zebraniu wieloletniego doświadczenia w eksploatacji obecnie pracujących stacji VSC HVDC, jak to miało miejsce w przypadku układów HVAC. Bibliografia 1. ABB (2013) Technical description of HVDC Light® technology. 2. ABB (2013). Building resilient and reliable AC offshore wind farm grid connections. 3. Arrillaga J., Liu Y.H., Watson N.R., Fl e x ibl e Powe r Transmission. The HVDC Options. John Wiley & Sons, Ltd 2007. 4. Arrillaga J. i in., Non-Linear Control of VSC and CSC Systems. In SelfCommutating Converters for High Power Applications, John Wiley & Sons, Ltd. 2009. 5. Asplund G., Sustainable energy systems with HVDC Transmission. ABB Power Technologies, Power Systems, HVDC. 6. Chan-Ki K. i in., HVDC transmission: power conversion applications in power systems. John Wiley and Sons, 2009. 7. Kala Meah S.U., Comparative Evaluation of HVDC and HVAC Transmission Systems. IEEE, 2008. 8. Malhem Z. i in., Electricity transmission, distribution and storage systems. Woodhead Publishing Limited, 2013. 9. Rudervall R., High voltage direct current (HVDC) transmission systems technology review paper. Washington, USA: Energy Week 2000. 10. Ragheb M., High Voltage Direct Current for Wind Power, 2009.
Mariusz Kłos
dr inż. Politechnika Warszawska e-mail: Mariusz.Klos@ien.pw.edu.pl Ukończył studia magisterskie na Wydziale Elektrycznym Politechniki Warszawskiej (2002). Stopień naukowy doktora uzyskał w 2007 roku. Od 2006 roku pracuje na Politechnice Warszawskiej w Instytucie Elektroenergetyki, w Zakładzie Elektrowni i Gospodarki Elektroenergetycznej. W 2011 roku odbył sześciomiesięczny staż na Massachusetts Institute of Technology, Cambridge, USA. Jego zainteresowania naukowe koncentrują się wokół sposobów integracji konwencjonalnych i alternatywnych technologii wytwórczych oraz zasobników energii z systemem elektroenergetycznym, przy wykorzystaniu układów energoelektronicznych. Jest autorem ponad 60 artykułów z obszaru generacji rozproszonej, w tym zasobników energii.
Łukasz Rosłaniec
dr inż. Politechnika Warszawska e-mail: Lukasz.Roslaniec@ien.pw.edu.pl Tytuł zawodowy magistra inżyniera otrzymał w 2008 roku i został doktorantem w Instytucie Elektroenergetyki Politechniki Warszawskiej. W 2009 roku odbył czteromiesięczny staż na RWTH Aachen w Niemczech, a w 2011 roku sześciomiesięczny staż na Massachusetts Institute of Technology, Cambridge, USA. W 2014 roku obronił rozprawę doktorską, która została wyróżniona. Obecnie pracuje na stanowisku adiunkta w Instytucie Elektroenergetyki Politechniki Warszawskiej. W swoich badaniach koncentruje się głównie na zagadnieniu przekazywania energii z rozproszonych źródeł energii do sieci elektroenergetycznej. W obszarze jego zainteresowań znajdują się szczególnie problemy związane z poprawą jakości energii elektrycznej, wysokosprawną konwersją energii elektrycznej, przekształtnikami współpracującymi z rozproszonymi źródłami energii.
137
M. Kłos et al. | Acta Energetica 2/27 (2016) | translation 127–132
Józef Paska
prof. dr hab. inż. Politechnika Warszawska e-mail: Jozef.Paska@ien.pw.edu.pl Absolwent Politechniki Warszawskiej. Jest profesorem nauk technicznych (od 2007), profesorem zwyczajnym, kierownikiem Zakładu Elektrowni i Gospodarki Elektroenergetycznej PW, członkiem Komitetu Problemów Energetyki przy Prezydium PAN oraz Komitetu Elektrotechniki PAN, przewodniczącym Komitetu Energetyki Jądrowej SEP. Jego zainteresowania naukowe dotyczą technologii wytwarzania energii elektrycznej, w tym wytwarzania rozproszonego i wykorzystania odnawialnych zasobów energii, gospodarki elektroenergetycznej i ekonomiki elektroenergetyki, niezawodności systemu elektroenergetycznego i bezpieczeństwa zasilania w energię elektryczną. Autor ponad 300 artykułów i referatów oraz 11 monografii i podręczników akademickich.
Karol Pawlak
dr inż. Politechnika Warszawska, Instytut Elektroenergetyki e-mail: Karol.Pawlak@ien.pw.edu.pl Doktor nauk technicznych Wydziału Elektrycznego Politechniki Warszawskiej. W swojej karierze zawodowej realizował jako lider zespołów projektowych procesy inwestycyjne związane z budową infrastruktury elektroenergetycznej na terenie całej Polski. Adiunkt w Zakładzie Elektrowni i Gospodarki Energetycznej na Wydziale Elektrycznym Politechniki Warszawskiej. Ekspert i autor licznych publikacji z zakresu zarządzania ryzykiem w systemie elektroenergetycznym. Recenzent i ekspert w zakresie elektroenergetyki oceniający wnioski w ramach Programu Innowacyjna Gospodarka.
138
Z. Lubośny et al. | Acta Energetica 2/27 (2016) | 139–143
Problems of Selecting Protection for Shunt Reactors Working in Extra-High Voltage Grids
Authors Zbigniew Lubośny Jacek Klucznik Krzysztof Dobrzyński
Keywords shunt reactors, power system protection, reactive power compensation
Abstract This paper presents difficulties encountered when designing protection devices for shunt reactors connected directly to extra-high voltage grids. Using the example of the 400 kV Ełk Bis substation, it has been demonstrated that protection of a shunt reactor based on equipment using measurements of electrical signals from voltage and current transformers has its limitations and, in some cases, may be insufficient.
DOI: 10.12736/issn.2300-3022.2016212
1. Introduction HV shunt reactors have been installed to compensate reactive power since the 1970s, originally in long HV lines. Currently, shunt reactors are used quite widely, both in overhead lines, and cable lines. In Poland, connecting shunt reactors directly to an HV grid is a novelty1, and the installation of three 400 kV reactors in Ełk Bis substation has no precedence in the National Power System. In last year a double-circuit 400 kV power transmission line has been built, which is meant as an energy bridge connecting the European system ENTSO-E (the Polish National Power System belongs to it) and the systems of Baltic States (Lithuania, Latvia and Estonia). This link employs a back-to-back converter system deployed in Alytus substation in Lithuania. Analysis of the line’s performance has shown that it is necessary to use four line shunt reactors (DL-1 DL-4) installed on its two ends (Fig. 1), with rated power 50 MVAr on the side of station Ełk Bis and 72 MVAr on Alytus substation side. Besides the shunt reactors directly connected to the line, an additional 50 MVAr bus reactor (Dsz) is installed at Ełk Bis substation. This transmission system is designed to carry active power flow of ± 500 MW in the first stage of the project, and ± 1000 MW in the future. The use of shunt reactors requires their proper protections with properly selected settings. Selection of the protections largely depends on the hazards to the shunt reactor’s operation, which include: • damage to insulators and short-circuit inside to the reactors’s tank • internal winding short-circuit interturn insulation fault
• process disturbances, e.g. low oil level, disruptions in cooling system, temperature increase. Different types of devices are used for protection against the effects of these phenomena, comprising both electrical protections (based on measurement of currents and/or voltages) and non-electrical protections (e.g. temperature or pressure measurement). In selecting the protection system for a shunt reactor the disturbances inside the reactor should be considered, but also external disturbances (outside the reactor) and system interferences, which may affect it.
2. Shunt reactor protection solutions in the world The authors [2] have taken note of differences in the protection of shunt reactors connected directly to substation buses (hereinafter referred to as bus shunt reactors) and those connected to lines (hereinafter referred to as line reactors). According to a survey conducted by the reporting team, the most commonly used bus shunt reactor protections are: • differential protection (phase) (87R) • restricted earth fault protection (differential) covering shunt reactor’s neutral point (87N) • instantaneous overcurrent protection (50) • time delayed overcurrent protection (51) • time delayed earth fault overcurrent protection (51N) • distance protection (21) • earth fault protection (between tank and earth) • breaker failure protection (51BF)
1 So far, shunt reactors were connected to the national system’s transmission grid through transformers’ third winding and operated at rated voltage 30 kV.
139
Z. Lubośny et al. | Acta Energetica 2/27 (2016) | 139–143
Fig. 1. General diagram of the Ełk Bis - Alytus double circuit 400 kV power line
• interturn insulation fault protection (different solutions) • off phase circuit breaker opening protection • Buchholz protection, from sudden pressure increase (63). No typical solutions for line shunt reactors are presented in the referenced document [2, 3]. It may be assumed that the proposed solutions are the same as for bus shunt reactors. The only differences may be due to a shunt reactor’s connection to the line type, and circuit breaker control way. The main differences in approach to line shunt reactor protection in comparison with bus reactors may be due to the following reasons: • Teleprotections (communication with circuit breakers on the second end of the line) are often required, depending on the shunt reactor connection • Protection performance may be affected by oscillations arising after switching off the line (oscillations in LC system between shunt reactor inductance and line capacitance) • Often, in order to reduce the secondary arc current and recovery voltage, an additional arc-suppression coil is used, which requires dedicated protections. The method of shunt reactor to line connection determines how the reactor’s protections interoperate with breakers (including line circuit breakers). The following cases may be distinguished (Fig. 2):
Shunt reactors with breakers (the solution adopted in the station Elk Bis). Under normal operating conditions of the system the shunt reactor protections only open the reactor breaker. The line after the shunt reactor protection’s tripping may remain switched on. Line protections do not normally interact with shunt reactor breakers. Pick up of a breaker failure protection (51BF) must cause local opening of the line circuit breaker and send a signal to remotely trigger the circuit breaker opening at the other end of the line. Shunt reactors with disconnectors. In this case the protection operating logic depends on the disconnector’s breaking capacity. Some disturbances (at relatively small current in the disconnector) can be disconnected with the shunt reactor disconnector, while high-current disturbances must be disconnected by switching the line off on both ends. In this case, it is necessary to provide a communication channel, often double for reliability reasons. With this solution the line may be provided with automatic reclosing and the failured shunt reactor may be disconnected by the disconnector during the dead time. Shunt reactors permanently connected to line. In this case, each pick-up of shunt reactor protection must result in switching off the line at both ends. Such a system requires a double communication channel. Shunt reactors with an arc-suppression coil connected in the neutral point, and with breakers. The logic of linking protections with breakers is the same as in case A. An arc-suppression coil that reduces the secondary arc current is quite difficult to protect, because in normal operation the current in it is negligible small (due to the system and voltage asymmetry). The document prepared by IEEE [3] provides much more general recommendations and information on shunt reactor protection. The IEEE and CIGRE recommendations are compared in Tab. 1.
3. Shunt Reactor protection at Ełk Bis substation Fig. 2. Typical line shunt reactor connection ways: a) through breaker, b) through disconnector, c) permanent, d) through breaker with additional arc-suppression coil [2] 140
At Elk Bis substation the line shunt reactors and bus reactor are protected by the same devices: a) main protection: • first differential protection, type: Siemens 7UT63, functionality:
Z. Lubośny et al. | Acta Energetica 2/27 (2016) | 139–143
differential (87R), differential and earth fault (87N) and negative sequence overcurrent (46) (interturn insulation fault protection) • earth fault directional protection, type: Siemens 7SJ64, functionality: earth fault overcurrent directional (67N) b) backup protections: • second differential protection, type: Schneider Electric P633, functionality: differential (87) • overcurrent protection, type: Siemens 7SJ64, functionality: instantaneous overcurrent (50) and time delayed overcurrent (51) c) additional protections: • overcurrent protection at neutral, type: Siemens 7SJ64, functionality: time delayed overcurrent (51N), negative sequence directional overcurrent (67Q). In addition, each shunt reactor is provided with non-electrical protections, which include: • Buchholtz protection (two-stage) • two relief valves • cut-off flap valve • oil level sensor • oil temperature sensor • winding temperature sensor (thermal model).
4. Interturn insulation fault detection The following are considerations for interturn insulation fault detection. We’ve chosen this topic because detection of these faults in shunt reactors is very difficult. Our analyses indicate that the location of the first defective turn does not affect the voltages and currents of shunt reactor, and thus has no effect on the sensitivity of the interturn insulation fault protections. The sensitivity will depend on the number of shorted turns only. The impact of the shorted turns number on some values is shown in Fig. 3–6. The analysis was limited to the characteristics obtained for the faulted turn numbers from 0 (normal operation, no short-circuit) to 30% of all turns, by increments of 1%. More than 30% was not analysed as an unlikely condition that hinders the protection sensitivity analysis for a small number of shorted turns. The drawings represent the condition whereby the first shorted turn is located at 20% of the shunt reactor winding length (from HV insulators, in phase A). The drawings show the values monitored in a failured shunt reactor, to enable conclusions on the signals that can be used for interturn insulation fault detection. Analysis of the above drawings leads to the following observations: • At interturn insulation fault the current in one phase increases. This increase is small relative to the rated current. The curve in Fig. 3 shows that at the short-circuit covering 10% of the turns the current increases by approx. 10 A, i.e. ca. 14% of the shunt reactor’s rated current. Potentially, this allows the interturn insulation fault’s detection, but if the turns are few, it may go unnoticed. It is estimated that the protection can detect a interturn insulation fault if at least 10% of turns are shorted. • There is a relatively strong correlation between the number of shorted turns and the symmetrical component currents.
Protection
Basic
Backup
Additional
Symbol
CIGRE IEEE recommendations recommendations
87R
yes
yes
87N
yes
yes
46
no
yes
67N
no*
yes
Techn.
yes
yes
50
yes
yes
51DT
yes
yes
87R
yes
yes
51N/67Q
no
yes
* CIGRE recommends non-directional protection 51N
Tab. 1. IEEE and CIGRE recommendations for HV reactor protection
The curves in Fig. 4 show that, for example, with 5% of turns shorted the zero sequence current increases to approx. 3 A (six times the normal value). With 2% shorted turns the current increases to double the normal value. Even if the zero sequence current criterion cannot detect single shorted turn, yet it enables detection of 2% and more turns shorted. The solution’s disadvantage is the difficulty in measuring small zero sequence currents with typical current transformers (where the current transformer’s rating is much higher than the shunt reactor’s). In addition, for such a solution it is necessary to introduce delay in order to detune from external faults outside the shunt reactor, at which the zero-sequence will rise high. • The interturn insulation fault’s clear impact is also seen in the zero sequence current’s direction flow (Fig. 5); nevertheless, the criterion of zero sequence overcurrent with directional lock applied here does not detect individual shorted turns either. Another issue (besides the aforementioned small currents’ measurement) is how to obtain a component voltage appropriate to polarise the protection’s directional element. The zero or negative sequence voltages at interturn insulation fault may be insufficient here (Fig. 6). The results verify the difficulty, referred to in the CIGRE and IEEE recommendations, in detecting the interturn insulation fault in shunt reactors by electric methods, i.e. based on voltage and current measurements. None of the indicated methods are able to detect faults on the single turn level. Potentially the best of the analysed methods – the directional overcurrent – detect faults at the level of 1% of the shunt reactor impedance, which for a typical reactor translates to more than 30 turns. Moreover, due to the current and voltage transformers’ ratios and the limits of the protection devices’ settings (e.g. due to A/D converter resolution and accuracy of calculation-decision algorithms), the actual number of unprotected turns will be much greater. The results and the negative assessment of the phase to phase fault protections’ performance are verified by publications and recommendations that indicate the difficulties in interturn insulation fault 141
Z. Lubośny et al. | Acta Energetica 2/27 (2016) | 139–143
Fig. 3. Phase currents in shunt reactor with interturn insulation fault in phase A
Fig. 5. Symmetrical component phase angles in shunt reactor with interturn insulation fault in phase A
Fig. 4. Symmetrical component currents in shunt reactor with interturn insulation fault in phase A
Fig. 6. Symmetrical component voltages in shunt reactor with interturn insulation fault in phase A
detection, which often can be accomplished by non-electrical protections only.
a) overcurrent protection measuring phase currents, or zero sequence phase currents, or negative sequence phase currents, or earth current (for shunt reactors with the neutral earthed directly or through an arc-suppression coil). To ensure selectivity, these protections may be implemented as directional. The solution choice must always be supported by model studies, because depending on the connection location (grid conditions) part of these criteria will be useless (due to low sensitivity) b) non-electrical protections: gas/flow (Buccholtz) relay, and protection from excessive tank pressure 3. For shunt reactor protection from the effects of external faults (on insulators, in shunt reactor’s power supply) the following measures are recommended: a) differential protection covering insulators b) two-stage overcurrent protection (time delayed and instantaneous). These protections also constitute a backup in the cases of short-circuits to tank closer to the winding beginning (as seen from HV insulators). In addition, it can be stated that: • settings may be selected for the differential protection and overcurrent protections based on the shunt reactor ratings (power, voltage, current) • selection of the type and settings of a protection from interturn insulation fault requires model studies
5. Recommended shunt reactor protection settings and functional parameters It may be observed on the basis of our performance analysis of the shunt reactor protections proposed for 50 MVAr units and installed in Ełk Bis substation [1] that the selection of such shunt reactor protection settings, which provide detection of all types of faults and omit external faults, is neither easy nor guided by any universal principles. Nevertheless, the following general recommendations may be formulated: 1. For shunt reactor protection from the effects of internal faults, i.e. short-circuits to the tank, the following measures are recommended: a) differential protection b) earth-fault differential protection c) earth fault directional protection (backup protection ensuring partial protection of some turns) d) non-electrical protections: gas/flow (Buccholtz) relay, and protection from excessive tank pressure 2. For shunt reactor protection from the effects of internal faults, i.e. interturn insulation faults, the following measures are recommended: 142
Z. Lubośny et al. | Acta Energetica 2/27 (2016) | 139–143
• due to the shunt reactor’s high reactance and relatively small resistance its time constant is quite large2, which means that the switching processes are characterized by a slow fading direct component. To avoid a protection’s unnecessary tripping (without extending its delay or increasing its current setting), the protections should be applied that are based on the fundamental (50 Hz) current component’s measurement.
6. Summary To summarize the above considerations, in general, it should be stated that the proposed concept of line and bus shunt reactors’ protection devices is correct and complete. At the same time this concept is in line with global trends and recommendations. Selectivity of a shunt reactor’s automatic protection depends on many factors, including: • parameters of the object (shunt reactor), and parameters and configuration of the grid adjacent • locations and rated ratios of the protection, current, and voltage transformers, • type of protection relays, in terms of the setpoint ranges • expected concept of, or requirements for, the elimination of disturbances in the adjacent network components, e.g. the requirements for elimination of short-circuits in power lines, and application of single-phase or three-phase automatic reclosing. It should be emphasized, and it also follows from the above considerations, that the complexity of phenomena and the number of factors affecting the effectiveness and reliability of shunt reactors’ protection devices leads to the conclusion that analysis of this type should be an analysis of the case and should therefore be carried out independently for each object of that type.
REFERENCES
1. Z. Lubośny, J. Klucznik, K. Dobrzyński, “Analiza techniczna pracy dławików kompensacyjnych projektowanej stacji 400/110 kV Ełk bis” [Technical analysis of the performance of compensation reactors in the proposed Ełk Bis 400/110 kV substation], report comissioned by Elfeko S.A., Gdańsk 2013. 2. CIGRE Working Group B5.37, Protection, Monitoring and Control of Shunt Reactors, 2013. 3. IEEE Power Engineering Society, IEEE Guide for the Protection of Shunt Reactors, 2007. 4. F.K. Basha, M. Thompson, “Practical EHV Reactor Protection”, 68th Conference for Protective Relay Engineers, Texas A&M University, USA 2013. 5. Z. Gajic, B. Hillström, F. Mekić, “HV Shunt Reactor Secrets for Protection Engineers”, 30th Western Protective Relaying Conference, Washington, USA 2003. 6. “Zasady doboru i nastawiania zabezpieczeń elementów systemu elektroenergetycznego wysokiego napięcia” [Rules for selection and setting of protections of power system’s HV components], edited by Jan Machowski, Biblioteka Operatora Systemu Przesyłowego, Warszawa 2010. 7. J. Klucznik et al., “Nonlinear secondary arc model use for evaluation of single pole auto-reclosing effectiveness”, COMPEL, Vol. 34, No. 3, 2015.
Zbigniew Lubośny Gdańsk University of Technology e-mail: z.lubosny@ely.pg.gda.pl Graduated from Gdańsk University of Technology. A professor of engineering since 2004. Currently a full professor at Gdańsk University of Technology. His areas of interest include mathematical modelling, power system stability, power system control, artificial intelligence application in power system control, and modelling and control of wind turbines.
Jacek Klucznik Gdańsk University of Technology e-mail: j.klucznik@eia.pg.gda.pl Graduated as Master of Engineering from the Faculty of Electrical and Control Engineering at Gdańsk University of Technology (1999). Five years later he obtained his Ph.D. An assistant professor at the Power Engineering Department of his alma mater. His areas of interest include control systems for generators and turbines, wind power generation, and power system automatic protections.
Krzysztof Dobrzyński Gdańsk University of Technology e-mail: k.dobrzynski@eia.pg.gda.pl Graduated from the Faculty of Electrical Engineering of Warsaw University of Technology in 1999. In 2012 he obtained PhD degree at the Faculty of Electrical and Control Engineering of Gdańsk University of Technology. An assistant professor at the Power Engineering Department of Gdańsk University of Technology. His areas of interest include cooperation of distributed generation sources with the power system, mathematical modelling, power system control, and intelligent systems in buildings. 2 The analysed shunt reactors’ time constant is approx. 1.1 sec.
143
Z. Lubośny et al. | Acta Energetica 2/27 (2016) | translation 139–143
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 139–143. When referring to the article please refer to the original text. PL
Problematyka doboru zabezpieczeń dławików kompensacyjnych pracujących w sieciach najwyższych napięć Autorzy
Zbigniew Lubośny Jacek Klucznik Krzysztof Dobrzyński
Słowa kluczowe
dławiki kompensacyjne, elektroenergetyczna automatyka zabezpieczeniowa, kompensacja mocy biernej
Streszczenie
W artykule przedstawiono trudności, jakie napotyka się podczas projektowania systemu zabezpieczeń dla dławików przyłączanych bezpośrednio do sieci najwyższych napięć (NN). Bazując na przykładzie budowanej aktualnie stacji 400 kV Ełk Bis, pokazano, że możliwości zabezpieczenia dławika, oparte na układach EAZ wykorzystujących pomiary sygnałów elektrycznych z przekładników prądowych i napięciowych, mają swoje ograniczenia i w pewnych przypadkach mogą być niewystarczające.
1. Wstęp Instalowanie dławików NN do kompensacji mocy biernej sięga lat 70. XX wieku, kiedy to dla dłuższych linii NN zauważono konieczność kompensacji mocy biernej. Obecnie na świecie dławiki stosowane są dość powszechnie, zarówno w liniach napowietrznych, jak i w liniach kablowych. W Polsce dławiki przyłączane bezpośrednio do sieci NN są nowością1, a instalacja trzech dławików o napięciu znamionowym 400 kV w stacji Ełk Bis jest dla krajowego systemu pionierska. Aktualnie budowana jest dwutorowa linia elektroenergetyczna wysokiego napięcia 400 kV, mająca stanowić most energetyczny łączący system europejski ENTSO-E (w którego ramach pracuje KSE) oraz systemy krajów bałtyckich (Litwy, Łotwy i Estonii). Połączenie to realizowane jest z wykorzystaniem układu przekształtnikowego back-to-back, znajdującego się w stacji Alytus na terenie Litwy. Analizy pracy tej linii wykazały, że konieczne jest zastosowanie czterech dławików liniowych (DL-1–DL-4) zainstalowanych na dwóch końcach linii (rys. 1) o mocach 50 Mvar po stronie stacji Ełk Bis i 72 Mvar po stronie stacji Alytus. Oprócz dławików przyłączonych bezpośrednio do linii, w stacji Ełk Bis zostanie zainstalowany dodatkowy dławik szynowy (DSz) o mocy 50 Mvar. Opisany układ przesyłowy ma zapewniać przepływ mocy czynnej na poziomie ±500 MW w pierwszym etapie pracy, a w przyszłości planowane jest przesyłanie mocy na poziomie ±1000 MW. Zastosowanie dławików kompensacyjnych wiąże się z koniecznością ich odpowiedniego zabezpieczenia oraz doboru nastawień tych zabezpieczeń. Dobór zestawu zabezpieczeń w głównej mierze wynika z zagrożeń w pracy dławika, do których należy zaliczyć: • uszkodzenia izolatorów i zwarcia wewnętrzne do kadzi • zwarcia wewnętrzne międzyzwojowe
• zakłócenia technologiczne, m.in. niski poziom oleju, zakłócenia w układzie chłodzenia, wzrost temperatury. Do ochrony od skutków powyższych zjawisk stosuje się różne typy zabezpieczeń, obejmujące zarówno zabezpieczenia elektryczne (bazujące na pomiarze prądów i/lub napięć), jak i nieelektryczne (np. pomiar ciśnienia czy temperatury). Dobierając system zabezpieczeń dla dławika, należy brać pod uwagę zakłócenia występujące w dławiku, ale także należy mieć na uwadze zakłócenia zewnętrzne (poza dławikiem) oraz zakłócenia systemowe, które mogą wpływać na pracę dławika. 2. Rozwiązania stosowane na świecie do zabezpieczania dławików bocznikowych Autorzy [2] zauważają różnice w sposobie zabezpieczania dławików przyłączonych bezpośrednio do szyn stacji (nazywanych dalej dławikami szynowymi) i dławików przyłączonych do linii (nazywanych dalej dławikami liniowymi). Zgodnie z ankietą przeprowadzoną przez zespół przygotowujący raport, najczęściej stosowanymi zabezpieczeniami dławików szynowych są: • zabezpieczenie różnicowe (fazowe) (87R) • zabezpieczenie różnicowe obejmujące punkt neutralny dławika (87N) • zabezpieczenie nadprądowe bezzwłoczne (50) • zabezpieczenie nadprądowe zwłoczne (51) • zabezpieczenie nadprądowe ziemnozwarciowe zwłoczne (51N) • zabezpieczenie odległościowe (21) • zabezpieczenie ziemnozwarciowe (pomiędzy kadzią a ziemią) • zabezpieczenie od uszkodzenia wyłącznika (51BF) • zabezpieczenie od zwarć międzyzwojowych (różne rozwiązania) • zabezpieczenie od niepełnofazowego otwarcia wyłącznika • zabezpieczenie Buchholza, zabezpieczenie od nagłego wzrostu ciśnienia (63).
W przytaczanym dokumencie nie podano typowych rozwiązań dla dławików liniowych. Można założyć, że proponowane rozwiązania są takie same jak dla dławików szynowych. Jedyne różnice mogą wynikać ze sposobu przyłączenia dławików do linii i sposobu sterowania wyłącznikami. Najważniejsze różnice w podejściu do zabezpieczenia dławików liniowych w porównaniu z dławikami szynowymi mogą wynikać z następujących przyczyn: • Często wymagane jest stosowanie telezabezpieczeń (komunikacja z wyłącznikami na drugim końcu linii), uzależnione od sposobu przyłączenia dławika • Na działanie zabezpieczeń mogą mieć wpływ oscylacje powstające po wyłączeniu linii (oscylacje występują w układzie LC pomiędzy indukcyjnością dławików a pojemnością linii) • Często, w celu ograniczenia prądu łuku wtórnego i napięcia powrotnego, stosuje się dodatkowy dławik gaszący, wymagający stosowania osobnych zabezpieczeń. Sposoby przyłączenia dławika do linii decydują o sposobie współpracy zabezpieczeń dławika z wyłącznikami (w tym również liniowymi). Można wyróżnić następujące przypadki (rys. 2): A. Dławiki z wyłącznikami (rozwiązanie przyjęte w stacji Ełk Bis). W normalnych stanach pracy układu zabezpieczenia dławika działają tylko na otwarcie wyłącznika dławika. Linia po zadziałaniu zabezpieczeń dławików może pozostać załączona. Zabezpieczenia linii normalnie nie oddziałują na wyłączniki dławików. Pobudzenie zabezpieczenia od uszkodzenia wyłącznika dławika (51BF) musi powodować lokalne otwarcie wyłącznika linii i wysłanie sygnału na zdalne otwarcie wyłącznika na drugim końcu linii. B. Dławiki z rozłącznikami. Logika działania zabezpieczeń zależy w tym przypadku od zdolności wyłączania prądów
1 Dotychczas dławiki przyłączane do sieci przesyłowej KSE dołączane były poprzez trzecie uzwojenie autotransformatorów i pracowały przy napięciu znamionowym 30 kV.
144
Z. Lubośny et al. | Acta Energetica 2/27 (2016) | translation 139–143
Rys. 1. Schemat ogólny dwutorowej linii elektroenergetycznej 400 kV Ełk Bis – Alytus
C. Dławiki przyłączone na stałe do linii. W takim przypadku każde pobudzanie zabezpieczeń dławika musi skutkować obustronnym wyłączeniem linii. Układ wymaga zapewnienia zdublowanego kanału komunikacyjnego. D. Dławiki z przyłączonym dławikiem gaszącym w punkcie neutralnym, wyposażone w wyłączniki. Logika powiązania zabezpieczeń z wyłącznikami jest taka jak w przypadku A. Dławik gaszący zapewniający ograniczenie prądu łuku wtórnego jest dość kłopotliwy do zabezpieczenia, ponieważ w normalnym stanie pracy prąd przez niego płynący jest znikomy (wynika z niesymetrii układu i niesymetrii napięć). Rys. 2. Typowe sposoby przyłączenia dławików liniowych: a) dławiki przyłączone przez wyłączniki, b) dławiki przyłączone przez rozłączniki, c) dławiki przyłączone na stałe, d) dławiki przyłączone przez wyłączniki, z dodatkowym dławikiem gaszącym [2]
Zestaw zab.
Podstawowe
Rezerwowe
Dodatkowe
Symbol
Zalecenia CIGRE
Zalecenia IEEE
87R
tak
tak
87N
tak
tak
46
nie
tak
67N
nie*
tak
Techn.
tak
tak
50
tak
tak
51DT
tak
tak
87R
tak
tak
51N/67Q
nie
tak
* CIGRE zaleca stosowanie zabezpieczenia bezkierunkowego 51N Tab. 1. Porównanie proponowanych zabezpieczeń z zaleceniami IEEE i CIGRE
przez rozłącznik. Część zakłóceń (przy względnie małym prądzie płynącym przez rozłącznik) może być wyłączana rozłącznikiem dławika, podczas gdy zakłócenia wielkoprądowe muszą być wyłączane poprzez obustronne wyłączenie linii. W takim przypadku
niezbędne jest zapewnienie kanału komunikacyjnego, często ze względów niezawodnościowych – podwójnego. Przy takim rozwiązaniu można w linii stosować automatykę SPZ i wyłączać uszkodzony dławik rozłącznikiem w czasie przerwy beznapięciowej.
Z kolei dokument przygotowany przez IEEE [3] daje dużo ogólniejsze zalecenia i informacje dotyczące zabezpieczania dławików. Porównanie zaleceń IEEE i CIGRE przedstawiono w tab. 1. 3. Przyjęta koncepcja dla zabezpieczenia dławików w stacji Ełk Bis W stacji Ełk Bis dla zabezpieczenia dławików liniowych i dławika szynowego przyjęto taki sam zestaw zabezpieczeń elektrycznych, w którego skład wchodzą: a) zabezpieczenia główne: • pierwsze zabezpieczenie różnicowe typu 7UT63 firmy Siemens realizujące funkcje: różnicową (87R), różnicową ziemnozwarciową (87N) oraz nadprądową składowej przeciwnej (46) (zabezpieczenie od zwarć międzyzwojowych) • zabezpieczenie ziemnozwarciowe kierunkowe typu 7SJ64 firmy Siemens, realizujące funkcję nadprądową ziemnozwarciową kierunkową (67N) b) zabezpieczenia rezerwowe: • drugie zabezpieczenie różnicowe typu P633 firmy Schneider Electric, realizujące funkcję różnicową (87) • zabezpieczenie nadprądowe typu 7SJ64 firmy Siemens, realizujące funkcje: nadprądową bezzwłoczną (50) oraz nadprądową zwłoczną (51DT) c) zabezpieczenia dodatkowe: • zabezpieczenie nadprądowe w punkcie zerowym typu 7SJ64 firmy Siemens, realizujące funkcje: nadprądową zwłoczną (51N), nadprądową kierunkową składowej przeciwnej (67Q).
145
Z. Lubośny et al. | Acta Energetica 2/27 (2016) | translation 139–143
Ponadto każdy z dławików jest wyposażony w zabezpieczenia technologiczne, do których należy zaliczyć: • przekaźnik Buchholtza (dwustopniowy) • dwa zawory ciśnieniowe • zawór odcinający klapowy • czujnik poziomu oleju • czujnik temperatury oleju • czujnik temperatury uzwojenia (model cieplny). 4. Problematyka detekcji zwarć międzyzwojowych Poniżej zamieszczono rozważania dotyczące detekcji zwarć międzyzwojowych. Autorzy wybrali to zagadnienie ze względu na dużą trudność w wykrywaniu tego typu zwarć w dławikach. Analizy przeprowadzone przez autorów wskazują, że lokalizacja pierwszego uszkodzonego zwoju nie ma wpływu na wartości napięć i prądów w układzie, a tym samym nie ma wpływu na czułość zabezpieczeń od zwarć międzyzwojowych. Czułość ta będzie zależała jedynie od liczby zwartych zwojów. Wpływ liczby zwojów zwartych na charakterystyczne wielkości przedstawiono na rys. 3–6. W analizie ograniczono się do przedstawienia charakterystyk uzyskanych dla zakresu zwojów zwartych od 0 (co odpowiada normalnemu stanowi pracy, tj. bez zwarcia) do 30% liczby wszystkich zwojów, ze skokiem równym 1%. Nie pokazano wyników obliczeń dla większej liczby zwojów zwartych, zakładając, że jest to mało prawdopodobne, a jednocześnie utrudniające analizę czułości zabezpieczeń dla małej liczby zwojów zwartych. Rysunki przedstawiają stan dla uszkodzenia, gdzie pierwszy zwarty zwój jest ulokowany w 20% długości uzwojenia dławika (licząc od strony izolatorów WN, w fazie A). Rysunki przedstawiają wielkości obserwowane dla dławika uszkodzonego, dając możliwość wnioskowania na temat sygnałów, jakie można wykorzystać podczas wykrywania zwarć międzyzwojowych. Analiza powyższych rysunków prowadzi do następujących obserwacji: • Podczas zwarcia międzyzwojowego obserwuje się wzrost prądu płynącego w jednej fazie. Wzrost ten jest niewielki w stosunku do prądu znamionowego. Przedstawiona na rys. 3 krzywa pokazuje, że zwarcie obejmujące 10% zwojów prowadzi do wzrostu prądu o ok. 10 A, tj. o ok. 14% prądu znamionowego dławika. Potencjalnie pozwala to na wykrycie zwarcia międzyzwojowego, ale w przypadku małej liczby zwojów zwartych zwarcie pozostanie niezauważone. Szacuje się, że zabezpieczenie ma możliwość wykrywania zwarć międzyzwojowych od powyżej 10% zwojów zwartych. • Występuje relatywnie silny związek pomiędzy liczbą zwojów zwartych a wartościami składowych symetrycznych prądu. Przedstawione na rys. 4 krzywe pokazują, że np. zwarcie obejmujące 5% zwojów prowadzi do wzrostu prądu składowej zerowej do ok. 3 A (wartość sześciokrotnie większa niż w stanie normalnej pracy). Dla zwarcia obejmującego 2% zwojów wzrost tego prądu jest dwukrotny w stosunku do wartości
146
Rys. 3. Wartości prądów fazowych w uszkodzonym dławiku dla zwarcia międzyzwojowego w fazie A
Rys. 4. Wartości prądów składowych symetrycznych w uszkodzonym dławiku dla zwarcia międzyzwojowego w fazie A
Rys. 5. Wartości kątów fazowych składowych symetrycznych uszkodzonego dławika dla zwarcia międzyzwojowego w fazie A
w normalnym stanie pracy. Kryterium oparte na pomiarze składowej zerowej prądu nie umożliwia, co prawda, wykrywania zwarć pojedynczych zwojów, ale daje możliwość wykrywania zwarć międzyzwojowych od 2% zwojów zwartych. Wadami tego rozwiązania jest trudność w pomiarze małych prądów składowej zerowej przy stosowaniu typowych przekładników prądowych (gdzie prądy znamionowe przekładnika są znacznie większe od znamionowych prądów dławika). Ponadto, przy wykorzystaniu takiego rozwiązania, konieczne
jest wprowadzanie zwłoki czasowej w celu odstrojenia się od zwarć zewnętrznych poza dławikiem, podczas których składowa zerowa będzie osiągać znaczne wartości. • Wyraźny wpływ zwarcia międzyzwojowego widoczny jest również w kierunku przepływu składowej zerowej prądu (rys. 5), niemniej zastosowanie w tym przypadku kryterium nadprądowego składowej zerowej prądu z blokadą kierunkową również nie pozwala na wykrywanie zwarć pojedynczych zwojów. Problemem jest również (poza
Z. Lubośny et al. | Acta Energetica 2/27 (2016) | translation 139–143
• dobór rodzaju i nastawień zabezpieczeń od zwarć międzyzwojowych wymaga badań modelowych • z powodu znacznej reaktancji dławika i stosunkowo niewielkiej rezystancji stała czasowa dławika jest dość duża2, co oznacza, że procesy łączeniowe charakteryzują się powolnym zanikaniem stałej składowej. Aby uniknąć zbędnych zadziałań zabezpieczeń (bez wydłużania zwłoki czasowej czy zwiększania nastawienia prądu rozruchowego zabezpieczenia), należy stosować zabezpieczenia bazujące na pomiarze podstawowej (50 Hz) składowej prądu. Rys. 6. Wartości napięć składowych symetrycznych na szynach stacji dla zwarcia międzyzwojowego w dławiku, w fazie A
wspomnianym wcześniej problemem pomiaru małych prądów) uzyskanie odpowiedniej wartości składowej napięcia do polaryzacji członu kierunkowego zabezpieczenia. Wartości napięć składowej zerowej czy składowej przeciwnej w trakcie zwarć międzyzwojowych mogą być tu niewystarczające (rys. 6). Uzyskane wyniki potwierdzają, prezentowany w rekomendacjach CIGRE i IEEE, fakt trudności wykrywania zwarć zwojowych w dławiku metodami elektrycznymi, tj. wykorzystującymi pomiary prądów i napięć. Żadna ze wskazywanych metod nie jest w stanie wykryć zwarć na poziomie pojedynczego zwoju. Potencjalnie najlepsza z analizowanych metod – wykorzystująca kryterium nadprądowe z blokadą kierunkową – pozwala na wykrycie zwarć na poziomie 1% impedancji dławika, co dla stosowanych dławików oznacza ponad 30 zwojów. Dodatkowo rodzaj zastosowanych w analizowanym układzie przekładników prądowych i napięciowych (tj. ich przekładnie) oraz ograniczenia nastawień urządzeń EAZ (wynikające np. z rozdzielczości przetworników i dokładności algorytmów obliczeniowo-decyzyjnych) powodują, że w rzeczywistości liczba zwojów niechronionych będzie znacznie większa. Uzyskane rezultaty i negatywna ocena działania zabezpieczeń od zwarć międzyfazowych znajdują potwierdzenie w światowych publikacjach i rekomendacjach wskazujących, że wykrywanie zwarć zwojowych jest trudne i często możliwe do realizacji jedynie zabezpieczeniami technologicznymi. 5. Zalecenia nastaw i parametryzacji funkcji zabezpieczeń dławików Na podstawie wykonanych przez autorów analiz pracy zabezpieczeń dławików, proponowanych dla jednostek o mocy 50 Mvar, a instalowanych w stacji Ełk Bis [1], można zauważyć, że dobór nastawień zabezpieczeń dławików, zapewniający wykrywanie wszystkich rodzajów zakłóceń przy jednoczesnej odporności zabezpieczeń na zakłócenia zewnętrzne, nie jest sprawą łatwą i nie da się podać uniwersalnych zasad wyboru rodzajów zabezpieczeń ich nastawiania. Niemniej jednak można sformułować następujące ogólne zalecenia:
1. Do ochrony dławika od skutków zwarć wewnętrznych – zwarć do kadzi zaleca się stosowanie: a. zabezpieczenia różnicowego b. z a b e z p i e c z e n i a r ó ż n i c o w e g o ziemnozwarciowego c. zabezpieczenia ziemnozwarciowego kierunkowego (rezerwowe zapewniające częściową ochronę uzwojeń) d. zabezpieczeń technologicznych – gazowo-przepływowego (Buchholtza) i od wzrostu ciśnienia w kadzi 2. Do ochrony dławika od skutków zwarć wewnętrznych – zwarć międzyzwojowych zaleca się stosowanie: a. zabezpieczeń nadprądowych mierzących prądy fazowe lub składową zerową prądów fazowych, lub składową przeciwną prądów fazowych, lub prąd doziemny (w przypadku dławików o punkcie naturalnym uziemionym bezpośrednio lub przez dodatkowy dławik). Wymienione zabezpieczenia mogą być realizowane jako kierunkowe, w celu zapewnienia selektywności działania. Wybór rozwiązania musi być każdorazowo poparty badaniami modelowymi, gdyż w zależności od miejsca przyłączenia (warunków sieciowych) część z wymienionych kryteriów będzie nieprzydatna (z powodu zbyt małej czułości) b. zabezpieczeń technologicznych – gazowo-przepływowego (Buchholtza) i od wzrostu ciśnienia w kadzi 3. Do ochrony dławika od skutków zwarć zewnętrznych (na izolatorach, w torze zasilania dławika) zaleca się stosowanie: a. zabezpieczenia różnicowego obejmującego izolatory b. zabezpieczenia nadprądowego dwustopniowego (stopień zwłoczny i bezzwłoczny). Zabezpieczenia te jednocześnie stanowią rezerwę dla przypadków części zwarć do kadzi ulokowanych bliżej początku uzwojenia (licząc od strony izolatorów WN). Ponadto można stwierdzić, że: • dobór nastawień zabezpieczenia różnicowego i zabezpieczeń nadprądowych jest możliwy na podstawie danych znamionowych dławika (moc znamionowa, napięcie znamionowe, prąd znamionowy)
6. Podsumowanie Podsumowując powyższe rozważania, w ogólności należy stwierdzić, że zaproponowana koncepcja automatyki zabezpieczeniowej dławików kompensacyjnych liniowych i szynowych jest właściwa i kompletna. Koncepcja ta równocześnie wpisuje się w trendy i zalecenia światowe. Selektywność działania automatyki zabezpieczeniowej dławików kompensacyjnych jest uzależniona od wielu czynników, a w tym od: • parametrów obiektów (dławików) oraz parametrów i konfiguracji sieci przylegającej do analizowanych obiektów • lokalizacji i przekładni znamionowej przekładników zabezpieczeniowych, prądowych i napięciowych • rodzaju stosowanych przekaźników zabezpieczeniowych, w sensie zakresów nastawczych wielkości kryterialnych • przewidywanej koncepcji lub wymagań dotyczących sposobu eliminacji zaburzeń w pracy w przylegających elementach sieci, np. wymagań co do sposobu eliminacji zwarć w liniach elektroenergetycznych i stosowania SPZ 1- lub 3-fazowego. Należy podkreślić, co równocześnie wynika z rozważań przedstawionych powyżej, że złożoność zjawisk oraz liczba czynników wpływających na efektywność i pewność działania automatyki zabezpieczeniowej dławików prowadzi do wniosku, iż analiza tego typu powinna mieć charakter analizy przypadku i tym samym powinna być prowadzona niezależnie dla każdego obiektu tego typu. Bibliografia 1. Lubośny Z., Klucznik J., Dobrzyński K., Analiza techniczna pracy dławików kompensacyjnych projektowanej stacji 400/110 kV Ełk Bis, raport dla Elfeko SA, Gdańsk 2013. 2. CIGRE Working Group B5.37, Protection, Monitoring and Control of Shunt Reactors, 2013. 3. IEEE Power Engineering Society, IEEE Guide for the Protection of Shunt Reactors, 2007. 4. Basha F.K., Thompson M., Practical EHV Reactor Protection, 68th Conference for Protective Relay Engineers, Texas A&M University, USA 2013. 5. Gajic Z., Hillström B., Mekić F., HV Shunt Reactor Secrets for Protection Engineers,
2 Dla analizowanych dławików stała czasowa jest równa ok. 1,1 s.
147
Z. Lubośny et al. | Acta Energetica 2/27 (2016) | translation 139–143
30 th Western Protective Relaying Conference, Washington, USA 2003. 6. Z asady doboru i nastawiania zabezpieczeń elementów systemu
elektroenergetycznego wysokiego napięcia, red. Jan Machowski, Biblioteka Operatora Systemu Przesyłowego, Warszawa 2010.
7. Klucznik J. i in., Nonlinear secondary arc model use for evaluation of single pole auto-reclosing effectiveness, COMPEL 2015, vol. 34, No. 3.
Zbigniew Lubośny
prof. dr hab. inż. Politechnika Gdańska e-mail: z.lubosny@ely.pg.gda.pl Wychowanek Politechniki Gdańskiej. Od 2004 roku jest profesorem nauk technicznych. Obecnie zatrudniony na swojej macierzystej uczelni na stanowisku profesora nadzwyczajnego. Obszar zainteresowań to: modelowanie matematyczne, stabilność systemu elektroenergetycznego, sterowanie systemem elektroenergetycznym, zastosowanie sztucznej inteligencji do sterowania systemem elektroenergetycznym, modelowanie i sterowanie elektrowniami wiatrowymi.
Jacek Klucznik
dr inż. Politechnika Gdańska e-mail: j.klucznik@eia.pg.gda.pl Studia magisterskie ukończył na Wydziale Elektrotechniki i Automatyki Politechniki Gdańskiej (1999). Pięć lat później uzyskał tytuł doktorski. Pracuje jako adiunkt w Katedrze Elektroenergetyki swojej macierzystej uczelni. Zajmuje się układami regulacji generatorów i turbin, energetyką wiatrową oraz elektroenergetyczną automatyką zabezpieczeniową.
Krzysztof Dobrzyński
dr inż. Politechnika Gdańska e-mail: k.dobrzynski@eia.pg.gda.pl Ukończył studia na Wydziale Elektrycznym Politechniki Warszawskiej w 1999 roku. W 2012 roku uzyskał tytuł doktorski na Wydziale Elektrotechniki i Automatyki Politechniki Gdańskiej. Pracuje jako adiunkt w Katedrze Elektroenergetyki Politechniki Gdańskiej. Obszar zainteresowań to współpraca źródeł generacji rozproszonej z systemem elektroenergetycznym, modelowanie matematyczne, sterowanie systemem elektroenergetycznym, instalacje inteligentne w budynkach.
148
L. Ładniak | Acta Energetica 2/27 (2016) | 149–152
Application of Matrix Notation for the Analysis of Power Changes in a 3‑phase Circuit
Author Lesław Ładniak
Keywords three-phase system, power theory, matrix calulus
Abstract Using the matrix notation for voltages and currents of a 3-phase system, a description of changing the instantaneous power on terminals of electric circuit has been offered as a third rank matrix. As a result of the power matrix’ decomposition into a symmetric matrix and an antisymmetric matrix and upon defining norms for these matrices the state of the 3-phase circuit can be clearly determined.
DOI: 10.12736/issn.2300-3022.2016213
Introduction The problems of describing changes of the energy in a multiphase electric system and the power at its terminals is one of the most intricate problems of electrical engineering, which is well illustrated by the works of F. Buchholtz [1], C. Budeanu [2] and S. Fryzego [3]. Describing the parameters of distorted signals, and changes in their power in particular, is a serious problem, both theoretical and practical. This is mainly due to the fact that in distribution and industrial grids large power non-linear loads are installed, and there are large numbers of systems powered through passive or controlled rectifier circuits. Problems of the theory of power in multiphase electrical circuits, where voltages and currents are deformed, are discussed in many works, crucial among which are [4, 5, 6, 7, 8]. In this paper the matrix notation is applied to describe instantaneous changes in the power at terminals of a 3-phase circuit. As a result of the power matrix’ decomposition into two component matrices: symmetric and antisymmetric, and upon defining norms for these two matrices, the 3-phase circuit condition can be clearly determined.
Fig. 1. Voltages and currents in 3-phase circuit node
In the matrix notation the power at 3-phase circuit terminals is represented by matrix p that is the dyadic product of voltage matrix u and transposed line current matrix i: (2)
Matrix notation of 3-phase circuit power Let us consider two 3-phase fragments of an electric circuit (Fig. 1) connected via terminals A, B, C and N. 3-phase voltages ua(t), ub(t), uc(t), 3-phase-to-phase voltages uab(t), ubc(t), uca(t) and three line currents ia(t), ib(t), ic(t) can be measured in a node of the 3-phase circuit. Given the cyclical nature of individual phase-to-phase voltages, the voltages in the 3-phase node circuit can be described as matrix u: (1)
Matrix p of 3-phase circuit power is a square matrix of the third rank (n = 3). On its main diagonal are products of voltages and currents in each phase, and off the main diagonal are their mixed products. Taking this into account, matrix p of 3-phase circuit power can be represented as the sum of two matrices pp and pm:
(3) 149
L. Ładniak | Acta Energetica 2/27 (2016) | 149–152
It can be easily demonstrated that power matrix pp is the product of phase voltage matrix uf and transposed current matrix I and power matrix pm is the product of phase-to-phase voltage matrix um and transposed current matrix i: (4)
(5)
It should be noted that matrix pp is symmetric (pp = ppT), and matrix pm is antisymmetric (pp = - ppT), which has a significant effect on their properties. A fundamental fact is that the eigenvalues of symmetric power matrix pp are real numbers, and the eigenvalues of antisymmetric matrix pm are imaginary numbers. Given the phenomena occurring in a 3-phase circuit, norms symmetric power matrix pp and antisymmetric matrix pm can be defined as the sum of their individual elements: (6) (7) With the power matrix norms thus defined the 3-phase circuit condition can be monitored based on the instantaneous voltages and currents measured at its terminals.
Power matrix use and application Analysing the interaction of an electromotive force source with an electricity receiver we aim at a full match of the receiver and the source, that is a condition whereby the electricity drawn from the source is at its maximum, and is wholly converted into heat or mechanical energy. This means that electricity is transferred in the particular direction and does not circulate between the receiver and the source. If we assume that the energy has to be transferred in the line current flow direction (Fig. 1), in a given moment of time the energy moves from circuit A to circuit B, when the 3-phase receiver power pf(t) described by equation (8) is positive: (8) Meeting this criterion means the maximum norm of power matrix pp and to the minimum norm of power matrix pm described by equations (4) and (5). It is worth noting that the norm of power matrix pp is equal to the 3-phase receiver’s total power as described by equation (8). Fig. 2, 3, 4 and 5 show the functions of the time of changes in the norms of power matrices pp and pm as described by equations (4) and (5) for four typical cases: a) change in the value and character of the load in a 3-phase symmetric circuit b) change in the value load in one phase of a 3-phase receiver c) occurrence of voltage asymmetry in the power source d) connection of a non-linear load.
Fig. 2. Change in the load value and its character in 3-phase symmetric circuit
Fig. 3. Change in the load of a phase of 3-phase receiver 150
L. Ładniak | Acta Energetica 2/27 (2016) | 149–152
Fig. 4. Occurrence of voltage asymmetry in the power source
Fig. 5. Connection of a non-linear load
Conclusions and notes As follows from equations (3) and (8), any instantaneous change in a 3-phase circuit’s energy, and the electricity transfer direction are clearly determined by the voltages at its terminals and the line currents (Fig. 1). With the use of the matrix notation, the 3-phase circuit condition at a given point in time is clearly identified by power matrix p of receiver, which is the dyadic product of matrix u of phase voltages and transposed matrix i of line currents. Decomposition of the power matrix p to an antisymmetric matrix pp and antisymmetric matrix pm and defining standards of the matrix equations (6) and (7) allows one to track and clearly define the status of the 3-phase, as illustrated in Fig. 2, 3, 4 and 5. In practice, the interoperation of a power system with a given electricity consumer boils down to fulfilment of agreed upon terms and conditions of supply at pre set electromotive force shapes and source parameters. That is, aiming at such a system condition that the electromotive force source’s individual phases are equally loaded, and the voltages and currents at the power supply have a pre-set shape and value.
REFERENCES
1. F. Buchholz , “Die Drehstrom-Scheinleistung ein ungleichmessiger
Belastung drei Zweige”, Licht und Kraft, No. 2, 1922, pp. 9–11. 2. C. Budeanu , “Puissances Reactives et Fictives, Institut Romain de l’Energie”, Editura IPE, Bucharest 1927. 3. S. Fryze , “Moc czynna, bierna i pozorna w obwodach o przebiegach odkształconych prądu i napięcia” [Active, reactive and apparent powers in circuits with distorted of current and voltage waveforms], Przegląd Elektrotechniczny, No. 7, 1931, pp. 193–203; No. 8, 1931, pp. 225–234. 4. W. Shepherd , P. Zakikhani , “Suggested Definition of Reactive Power for Nonsinusoidal Systems”, Proc. IEE, No. 9, 1972, pp. 1361–1362. 5. M. Depenbrock , “Wirk-und Blindleistung, ETG-Fachtagung Blindleistung”, Aachen 1979. 6. H. Akagi , Y. Nabae , “The p-q theory in three-phase systems under nonsinusoidal conditions”, Eur. Trans. Elect. Power, Vol. 3, No. 1, 1993, pp. 27–31. 7. A. Nabae , “New definition of instantaneous active-reactive current and power based on instantaneous space vectors on polar coordinates in three-phase circuits”, IEEE Trans. Power Delivery, Vol. 11, 1996, pp. 1238–1243. 8. L.S. Czarnecki, “Energy flow and power phenomena in electrical circuits: illusions and reality”, Archiv fur Elektrotechnik, No. 4, 1999, pp. 10–15.
151
L. Ładniak | Acta Energetica 2/27 (2016) | 149–152
Lesław Ładniak Wrocław University of Technology e-mail: l.ladniak@pwr.edu.pl Assistant professor at Wroclaw University of Technology (since 1990). His research interests include electromagnetic phenomena modelling, signal processing theory, digital methods of a system’s impedance and power determination, and power supply quality. In 2006 he completed postgraduate studies at the Faculty of Physics of the University of Warsaw. In 2011 he completed an R&D internship at SONEL SA where he dealt with issues related to the implementation of new algorithms for electricity quality measurement and assessment. Under a contract of Wroclaw University of Technology and Ingenieria IDOM International SA he managed the team that developed the concept of power supply systems for Wroclaw – Poznan – Warsaw high-speed rail traction (2011–2012).
152
L. Ładniak | Acta Energetica 2/27 (2016) | translation 149–152
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 149–152. When referring to the article please refer to the original text. PL
Wykorzystanie zapisu macierzowego do analizy zmian mocy w obwodzie 3-fazowym Autor
Lesław Ładniak
Słowa kluczowe
system 3-fazowy, teoria mocy, rachunek macierzowy
Streszczenie
Korzystając z zapisu macierzowego napięć i prądów występujących w węźle obwodu 3-fazowego, zaproponowano opis zmian wartości chwilowych mocy na zaciskach rozpatrywanego układu w postaci macierzy trzeciego stopnia. W wyniku dekompozycji macierzy mocy na macierz symetryczną i antysymetryczną oraz po zdefiniowaniu norm dla tych macierzy można w jednoznaczny sposób określić stan układu 3-fazowego.
Wstęp Problem opisu zmian energii układu wielofazowego i zmian mocy na zaciskach tego układu jest jednym z najbardziej zawiłych problemów elektrotechniki, co dobrze ilustrują prace F. Buchholtza, C. Budeanu i S. Fryzego [1, 2, 3]. Opis parametrów sygnałów odkształconych, a w szczególności opis zmian mocy tych sygnałów, stanowi poważny problem zarówno teoretyczny, jak i praktyczny. Wynika to głównie z faktu, że w sieciach rozdzielczych i przemysłowych instalowane są odbiorniki nieliniowe o dużych mocach oraz występują duże ilości układów zasilanych poprzez pasywne lub sterowane układy prostownikowe. Zagadnieniom teorii mocy w obwodach elektrycznych wielofazowych, gdy napięcia i prądy są odkształcone, poświęconych jest wiele prac, spośród których zasadnicze znaczenie mają: [4, 5, 6, 7, 8]. W niniejszym artykule zastosowano zapis macierzowy do opisania chwilowych zamian mocy na zaciskach układu 3-fazowego. W wyniku dekompozycji macierzy mocy na dwie składowe macierze: macierz symetryczną i macierz antysymetryczną oraz po zdefiniowaniu norm dla tych dwóch macierzy można w jednoznaczny sposób określić stan układu 3-fazowego. Moc układu 3-fazowego w zapisie macierzowym Rozpatrzmy dwa 3-fazowe fragmenty obwodu elektrycznego (rys. 1) połączone ze sobą poprzez zaciski A, B, C oraz N. Dla rozpatrywanego węzła obwodu 3-fazowego jesteśmy w stanie dokonać pomiaru trzech napięć fazowych ua(t), ub(t), uc(t), trzech napięć międzyfazowych uab(t), ubc(t), uca(t) oraz trzech prądów liniowych ia(t), ib(t), ic(t). Uwzględniając cykliczność występowania poszczególnych napięć międzyfazowych, napięcia występujące w rozpatrywanym węźle obwodu 3-fazowego można opisać macierzą u o postaci:
Macierz mocy p układu 3-fazowego jest macierzą kwadratową trzeciego stopnia (n = 3). Na przekątnej głównej tej macierzy są iloczyny napięć i prądów poszczególnych faz, a poza przekątną mieszane iloczyny tych wielkości. Biorąc ten fakt pod uwagę, macierz mocy układu 3-fazowego p można przedstawić jako sumę dwóch macierzy pp oraz pm:
(3)
Można łatwo wykazać, że macierz mocy pp jest iloczynem macierzy napięć fazowych uf oraz transponowanej macierzy prądu i, a macierz mocy pm jest iloczynem macierzy napięć międzyfazowych um oraz transponowanej macierzy prądu i:
(4)
(5)
(1)
Moc obwodu 3-fazowego na zaciskach tego obwodu jest w zapisie macierzowym reprezentowana przez macierz p, która jest iloczynem macierzy napięć u oraz transponowanej macierzy prądów liniowych i: (2)
Należy zauważyć, że macierz pp jest macierzą symetryczną (pp = ppT), a macierz pm jest macierzą antysymetryczną (pp = − ppT), co ma bardzo istotny wpływ na własności tych macierzy. Zasadniczym faktem jest to, że wartości własne macierzy symetrycznej mocy pp są liczbami rzeczywistymi, a wartości własne macierzy antysymetrycznej pm są liczbami urojonymi. Biorąc pod uwagę zjawiska występujące w obwodzie 3-fazowym, można zdefiniować normy dla symetrycznej macierzy mocy pp oraz antysymetrycznej macierzy mocy pm jako sumę poszczególnych elementów tych macierzy:
(6)
(7)
153
L. Ładniak | Acta Energetica 2/27 (2016) | translation 149–152
A’
A
uA Układ
A
B’
B
uB C’
C
uC N’
N
iA
A”
iB
B”
iC
C”
iN
Układ
B
N”
uN Rys. 1. Napięcia i prądy w węźle obwodu 3-fazowego
Rys. 2. Zmiana wartości i charakteru obciążenia w symetrycznym obwodzie 3-fazowym
Rys. 3. Zmiana obciążenia jednej z faz odbiornika
Rys. 4. Wystąpienie niesymetrii napięć w źródle zasilania
Rys. 5. Przyłączenie nieliniowego obciążenia
154
Tak zdefiniowane normy macierzy mocy umożliwiają obserwację stanu układu 3-fazowego na podstawie zmierzonych wartości chwilowych napięć i prądów na zaciskach układu. Wykorzystanie i zastosowanie macierzy mocy Rozpatrując współpracę źródła siły elektromotorycznej z danym odbiornikiem energii elektrycznej, dążymy do pełnego dopasowania odbiornika do źródła siły elektromotorycznej, czyli stanu, gdy energia elektryczna pobierana ze źródła siły elektromotorycznej ma wartość maksymalną i w całości ulega przemianie na ciepło lub energię mechaniczną. Oznacza to, że energia elektryczna jest przekazywana w określonym kierunku i nie krąży między odbiornikiem a źródłem. Jeżeli przyjmiemy, że kierunek przekazywania energii ma być zgodny z kierunkiem prądów liniowych (rys. 1), to w danej chwili czasu energia przemieszcza się z układu A do układu B, gdy moc odbiornika 3-fazowego pf(t) opisana równaniem (8) jest dodatnia:
(8)
Spełnienie tak określonego kryterium oznacza maksymalizację normy macierzy mocy pp oraz minimalizację normy macierzy pm opisanych równaniami (4) i (5). Warto zauważyć, że norma macierzy mocy pp jest równa mocy całkowitej mocy odbiornika 3-fazowego opisanej równaniem (8). Na rys. 2, 3, 4 i 5 przedstawiono funkcje czasu zmiany wartości norm macierzy mocy pp oraz pm opisanych równaniami (4) i (5) dla czterech typowych przypadków: a) zmiana wartości i charakteru obciążenia w symetrycznym obwodzie 3-fazowym b) zmiana obciążenia jednej z faz odbiornika 3-fazowego c) wystąpienie niesymetrii napięć w źródle zasilania d) przyłączenie nieliniowego obciążenia. Wnioski i uwagi Jak wynika z równania (3) i (8) wszelkie chwilowe zmiany stanu energetycznego układu 3-fazowego oraz kierunek przekazywania energii elektrycznej są jednoznacznie określone poprzez wartości napięć na zaciskach układu oraz prądy liniowe (rys. 1). Korzystając z zapisu macierzowego, stan układu 3-fazowego w danej chwili czasu jest jednoznacznie opisany przez macierz mocy p odbiornika, która jest iloczynem macierzy napięć fazowych u oraz transponowanej macierzy prądów liniowych i. Dekompozycja macierzy mocy p na symetryczną macierz pp i antysymetryczną macierz pm oraz zdefiniowanie norm tych macierzy równaniami (6) i (7) umożliwia śledzenie i jednoznaczne określenie stanu układu 3-fazowego, co zostało zilustrowane na rys. 2, 3, 4 i 5. W praktyce współpraca systemu energetycznego z danym odbiorcą energii elektrycznej sprowadza się do spełnienia uzgodnionych warunków zasilania przy zadanych
L. Ładniak | Acta Energetica 2/27 (2016) | translation 149–152
kształtach i parametrach źródła siły elektromotorycznej. Oznacza to, że dążymy do takiego stanu pracy układu, aby poszczególne fazy źródła siły elektromotorycznej były w jednakowym stopniu obciążone, a napięcia i prądy w miejscu zasilania miały zadany kształt i wartość. Bibliografia 1. Buchholz F., Die Drehstrom‐ Scheinleistung ein ungleichmessiger Belastung drei Zweige, Licht und Kraft 1922, No. 2, s. 9–11.
2. Budeanu C., Puissances Reactives et Fictives, Institut Romain de l’Energie, Editura IPE, Bucharest 1927. 3. Fryze S., Moc czynna, bierna i pozorna w obwodach o przebiegach odkształconych prądu i napięcia, Przegląd Elektrotechniczny 1931, nr 7, s. 193–203, nr 8, s. 225–234. 4. Shepherd W., Zakikhani P., Suggested Definition of Reactive Power for Nonsinusoidal Systems, Proc. IEE 1972, No. 9, s. 1361–1362. 5. Depenbrock M., Wirk-und Blindleistung, ETG-Fachtagung Blindleistung, Aachen 1979.
6. Akagi H., Nabae Y., The p-q theory in three-phase systems under nonsinusoidal conditions, Eur. Trans. Elect. Power 1993, Vol. 3, No. 1, s. 27–31. 7. Nabae A., New definition of instantaneous active-reactive current and power based on instantaneous space vectors on polar coordinates in three-phase circuits, IEEE Trans. Power Delivery 1996, Vol. 11, s. 1238–1243. 8. Czarnecki L.S., Energy flow and power phenomena in electrical circuits: illusions and reality, Archiv fur Elektrotechnik 1999, No. 4, s. 10–15.
Lesław Ładniak
dr inż. Politechnika Wrocławska e-mail: l.ladniak@pwr.edu.pl Adiunkt na Politechnice Wrocławskiej (od 1990). Zajmuje się modelowaniem zjawisk elektromagnetycznych, teorią przetwarzania sygnałów, cyfrowymi metodami wyznaczania impedancji i mocy układów, jakością zasilania oraz dydaktyką. W 2006 roku ukończył studia podyplomowe na Wydziale Fizyki Uniwersytetu Warszawskiego. W 2011 roku odbył staż naukowy w firmie SONEL SA, gdzie zajmował się zagadnieniami związanymi z wdrożeniem nowych algorytmów pomiaru i oceny jakości energii elektrycznej. W ramach kontraktu Politechniki Wrocławskiej z firmą Ingenieria IDOM International SA kierował pracami zespołu opracowującego koncepcję budowy układów zasilania trakcji kolei dużych prędkości Wrocław – Poznań – Warszawa (2011–2012).
155
S. Noske, D. Falkowski | Acta Energetica 2/27 (2016) | 156–161
GIS and AMI Systems as Sources of Data to Improve Grid Operation Efficiency, the Results of a Pilot Study
Authors Sławomir Noske Dominik Falkowski
Keywords intelligent network, Smart Grid, low voltage grid, losses reduction
Abstract New Smart Grid technologies allow increasing grid observability and using data for the implementation of new analytical tools. By integrating the available data, the grid management paradigm can be changed, and grid effectiveness increased. The paper presents the results of a 2014 research work into the potential for reducing technical losses in a low voltage grid through reconfiguration and optimisation of the grid operating system. By using data from LV grid monitoring systems and modern computational methods a significant reduction of the technical losses in LV grids can be achieved with no additional capital expenditures on grid development.
DOI: 10.12736/issn.2300-3022.2016214
Introduction The development of new technologies, changes in the market structure, the connection of micro-generation at the low voltage level and the necessity to fulfil the expectations of all entities that form the energy market cause electric utilities to face new challenges related to network management [1]. For distribution system operators (DSO), the possibility of meeting the expectations of customers, the ERO and major shareholders can be found in implementing smart grid technologies. One of the
Fig. 1. Area covered by the smart grid pilot implementation 156
requirements imposed on the DSOs, by national and European regulations alike (Directive 2012/27/EU [2] and “Polityka energetyczna Polski do 2030 roku” [The Polish Energy Policy until 2030] [3]), is the obligation to increase operating efficiency, to rationalise energy consumption and to reduce energy losses. The basis for taking steps for the above-mentioned is knowledge of grid operation. Implementation of smart grid technologies enables increased grid operation observability and monitoring of its parameters at any voltage level, including low voltage level.
S. Noske, D. Falkowski | Acta Energetica 2/27 (2016) | 156–161
AMI systems play an essential role in this area. Until now, DSOs had very limited knowledge of LV network operation. With the installation of measuring devices deep in the network (AMI meters at end customers and balance meters in MV/LV substations), it became possible to implement new tools and algorithms to control grid operation and to change the method of energy grid management. DSOs are collecting more and more data and information about the grid at all voltage levels, in particular: network assets and topology information from GIS systems, actual energy consumption at 15-minute time intervals from AMI systems and quasi-real time information from SCADA dispatch systems, which allows developing new and more accurate grid models.
The Hel Peninsula Pilot Project In 2011 ENERGA-OPERATOR SA started working on the first smart grid implementation pilot project in Poland. The purpose of the project was to investigate the impact of introducing smart grid elements into a traditional electrical power grid on grid operation. The scope of the project included the entire MV and LV network in the Hel Peninsula and one MV overhead line, Piaśnica, supplied from the Władysławowo HV/MV substation, along with the LV network supplied by this power line. The project covered more than 200 km of MV lines, 150 MV/LV substations and 150 km of LV lines. The grid in the pilot project area supplies almost 10,000 customers. The project included research on focused: improvement of grid operation reliability and efficiency, reduction of distribution system maintenance costs and optimisation of power and telecommunications infrastructure usage [4, 5]. One of the analyses was to check the
Calculation results cover the period from 1 June to 31 July 2013 The initial energy losses in the normal system
280,276 kWh
System optimisation requires 213 switchings Energy losses after system optimisations
254,616 kWh
Energy loss reduction
25,660 kWh
Calculated loss reduction in the MV and LV networks
9.2%
Tab. 1. Calculation results of stage I optimisation of the MV and LV network operation system for the entire Hel Peninsula
possibility of reducing network technical losses by optimising the grid operation configuration and system.
Testing loss reduction at the LV level The research was performed in the summer, at the time of peak demand in the studied area. The study included two stages: • model studies with MV and LV network optimisation calculations in the Hel Peninsula (with limited data from the AMI system) • detailed technical calculations for the selected LV network area based on measurements from the balancing meters in MV/LV substations and the AMI meters installed at customers. At the first stage of the research calculations were made based on the entire model of MV and LV networks in the Hel Peninsula.
Fig. 2. Network area studied at the LV level – Jastarnia (town) 157
S. Noske, D. Falkowski | Acta Energetica 2/27 (2016) | 156–161
Due to incomplete data from AMI meters (the AMI system was being still implemented), the research used measurements from the active AMI meters and from the billing system (meter reader readings). Based on the research performed, the possibility of reducing MV and LV network losses was calculated at 9% in the peak energy demand during the year. To obtain this result, it would be necessary to perform 213 switchings in the network [6]. After completion of the first stage of research, the second stage was started. It comprised an analysis of operation system optimisation, including only the LV network of a closed area in terms of grid topology (an island with no possibility of supplying the customers from any MV/LV substation outside the research area). The town of Jastarnia, with almost 1500 customers, was selected as the research area. The analyses were conducted from 1 July to 31 August 2014.
Mathematical model of the LV network Based on the model from the first stage, a very detailed mathematical model of the LV network for the town of Jastarnia was developed. It included: • grid and assets data for the area of the town of Jastarnia • grid topology information with information on division points • data on customer assignment to power delivery points (PDP) • actual data on the energy consumption • actual data on the energy flow through the MV/LV substation.
The basic source of information on the network was the data in the Distribution Information System (SID). The system contains all information on the network assets, i.e. line cross-sections, lengths and types, connection and line connector scheme, customer assignment to the network supply points, and information on division points. The system also includes a network model with geospatial rendering. Data on energy consumption by customers was acquired from the AMI application (G tariff ) and the CONVERGE system (C and B tariffs). Active energy consumption data in the AMI system is acquired at 15-minute intervals. The AMI system is also designed to provide information on the passive energy consumption. Due to the very limited relevance of such data, its readings are currently made once per day. The CONVERGE system provides data on the active and passive energy consumption with an hourly gradation. Due to the resort nature of the town of Jastarnia, in the summer seasonal customers appear that operate only in the season. Those customers are not equipped with remotereadable meters. For analytical purposes, load curves were estimated for those customers based on their monthly billing readings. Additionally, the model was completed with data from the balance meters in the MV/LV substations and SCADA system readings for the substations equipped with an outgoing feeder measurement system.
Fig. 3. Network model for the town of Jastarnia. Presentation of connections between the geographical network model and power delivery points (PDP) with actual data on energy consumptions at specific times 158
S. Noske, D. Falkowski | Acta Energetica 2/27 (2016) | 156â&#x20AC;&#x201C;161
July
August
20,375 kWh
18,487 kWh
Energy losses for an optimised system
17,075 kWh
14,798 kWh
Energy loss reduction
3,300 kWh
3,689 kWh
16.2%
19.95%
The initial energy losses in the normal system System optimisation requires 17 switchings
Loss reduction percentage in the LV network
Tab. 2. Calculation results of stage II optimisation of the LV network operation system for the town of Jastarnia
Research and results GLOBEMAâ&#x20AC;&#x2122;s ELGrid system was used to perform calculations. This program allows performing various grid operation analyses,
including analysing grid operation optimisation for the minimisation of grid losses [7]. The research utilised an implemented MV and LV network configuration optimisation method based on a genetic algorithm that used the simple payback period as criterion function. The algorithm includes basic technical constraints, i.e. maintaining an open network configuration, no prolonged overloads of network elements and maintaining the voltage level within an allowed range [6]. The optimum network configuration is calculated by manipulating the network connection system in line connectors, for which the cost and ease of switchings was determined. The possibility of network expansion to improve operation efficiency was not considered in the analysis (non-investment variant). The studies were performed at the time of peak energy demand in the summer. First, based on the measurements of July, the normal system loss level and the optimum network operation system were calculated. At the turn of July and August, network switchings were made in accordance with the calculated optimum system and the loss level was calculated
Fig. 4. Daily load variability in the selected 10-day period in July and August
Fig. 5. Impact of network operation system optimisation on supply strings. Left: normal system, July; right: system after optimisation, August 159
S. Noske, D. Falkowski | Acta Energetica 2/27 (2016) | 156–161
again, this time for August. Model studies indicated a potential reduction in LV network energy losses of 16%. It required 17 switchings in the LV network. To confirm the results of the analyses and the potential to reduce energy losses, an additional detailed analysis was performed. For the selected 10 days of July and August, energy balancing was performed. The reference period was selected based on the criteria of similar energy consumption in the two months and similar load curve shapes. The analysis was conducted for 24-hour periods, in which the highest energy losses occur and the energy consumption is the highest (from 9 AM to 3 PM). The results of balancing study confirmed the reduction of network losses. The analyses conducted with the ELGrid system also allowed examining the ampacity changes of network elements. The figure below shows the impact of optimisation on line ampacity. Lines loaded up to 50% were marked in green, 51–80% in yellow, 81–100% in red and above 100% in brown.
Conclusions The research showed that there is a high potential for increasing network operation efficiency using cost-free methods related to the analysis of network operation and the optimisation of the network operation system. The potential is especially high in low voltage networks, for which the operation systems were designed years ago using the expert method are not the optimum systems at present. With the development of network assets management methods, network enterprises collect network information in spatial information systems (GIS systems). They may become a very good source of data for the development of mathematical network models in calculation systems. New solutions and smart grid technologies, such as AMI or in-depth network monitoring and measurement systems, provide the data necessary to determine power flows in the network. The new solutions provide an unprecedented quality of calculation data and introduce a new quality into calculations. To use them efficiently requires high quality data and ongoing updates. The research confirms that: • at present there are already technical means of constructing calculation systems based on realistic network models and the power flows calculated using the actual daily load characteristics of every single customer • in urban areas, in which the LV network is highly developed and features a multitude of possible operation system switchings, there is a high potential for optimising network operation and reducing technical losses • modern calculation systems may be used much more extensively (not only to reduce technical losses). They are suitable for increasing the connection capacity, and reducing the investments related with network extension.
160
REFERENCES
1. “Wizja wdrożenia sieci inteligentnej w ENERGA-OPERATOR SA w perspektywie do 2020 roku” [The vision of smart grid implementation at ENERGA OPERATOR-SA until 2020], Gdańsk 2011. 2. Directive of the European Parliament and Council No. 2012/27/EU on energy efficiency. 3. Appendix to Resolution No. 202/2009 of the Council of Ministers of 10 November 2009, Polityka energetyczna Polski do 2030 roku [The Polish Energy Policy until 2030]. 4. S. Noske, M. Wawrzyniak, “Półwysep Helski – pilotażowy projekt sieci inteligentnych” [The Hel Peninsula Smart Grid Pilot Project], Acta Energetica, No. 4/21, 2014, pp. 91–96. 5. D. Falkowski, S. Noske, P. Helt, “Monitorowanie, pomiary w sieciach inteligentnych – projekt pilotażowy Smart Grid na Półwyspie Helskim”, materiały konferencyjne, VI Konferencja Naukowo-Techniczna “Straty energii elektrycznej w sieciach elektroenergetycznych” [Monitoring and measurements in smart grids – the Hel Peninsula Smart Grid Pilot Project, conference materials, 6th Science and Technology Conference “Energy losses in power systems”], Rawa Mazowiecka 2014. 6. S. Noske, P. Helt, “Możliwości redukcji strat sieciowych dzięki optymalizacji układu pracy sieci”, materiały konferencyjne, VI Konferencja Naukowo-Techniczna “Straty energii elektrycznej w sieciach elektr oenergetycznych” [The opportunities for reducing network losses through network operation system optimisation, conference materials, 6th Science and Technology Conference “Energy losses in power systems”], Rawa Mazowiecka 2014. 7. D. Falkowski et al., “Doświadczenia z wdrażania modułu obliczeń technicznych dla sieci SN i nN”, materiały konferencyjne, VI Konferencja Naukowo-Techniczna “Straty energii elektrycznej w sieciach elektroenergetycznych” [Experiences from implementing the technical calculation module for MV and LV networks, conference materials, 6th Science and Technology Conference “Energy losses in power systems”], Rawa Mazowiecka 2014.
S. Noske, D. Falkowski | Acta Energetica 2/27 (2016) | 156–161
Sławomir Noske ENERGA-OPERATOR SA email: slawomir.noske@energa.pl Graduated from the Faculty of Electrical Engineering of Poznań University of Technology (1990), where he received his PhD in technical sciences in 2013. He completed the MBA management program at the Gdańsk Foundation for Management Development. An employee of ENERGA-OPERATOR SA. At present he is involved in implementing innovative smart grid solutions in distribution systems. Member of Polski Komitet Wielkich Sieci Elektrycznych (PKWSE), representative of Poland in the CIGRE Study Committee B1 Insulated Cables, chairman of the lines team at PTPiREE. Author and co-author of multiple paper and lectures delivered at international (CIGRE and CIRED) and national conferences. The subjects of his papers include cable line testing and diagnostics, and smart grids.
Dominik Falkowski ENERGA-OPERATOR SA email: dominik.falkowski@energa.pl Graduated from the Faculty of Electrical and Control Engineering at Gdańsk University of Technology (2012), PhD student at his alma mater. During his studies, he won and was accorded a distinction in ENERGA SA’s contest for a research project analysing the impact of the connection of the Nuclear Power Plant in Żarnowiec and of the NPS development until 2025 on the ENERGA-OPERATOR SA distribution system operation. Since 2012, employee of the Innovation Department at ENERGA-OPEATOR SA. Professionally involved in implementing smart grid technologies in the distribution system. The subjects of his papers are mainly related with smart grids and their implementation.
161
S. Noske, D. Falkowski | Acta Energetica 2/27 (2016) | translation 156–161
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 156–161. When referring to the article please refer to the original text. PL
Systemy GIS i AMI jako źródła danych do poprawy efektywności pracy sieci, wyniki badań w obszarze pilotażowym Autorzy
Sławomir Noske Dominik Falkowski
Słowa kluczowe
sieci inteligentne, Smart Grid, sieć nN, redukcja strat
Streszczenie
Nowe technologie z obszaru Smart Grid umożliwiają zwiększenie obserwowalności sieci i wykorzystanie danych do wdrożenia nowych narzędzi analitycznych. Integrując dostępne dane, możliwa jest zmiana sposobu zarządzania pracą sieci i podniesienie jej efektywności. W artykule przedstawiono wyniki z przeprowadzonych w 2014 roku badań w zakresie możliwości ograniczenia strat technicznych w sieci nN poprzez rekonfigurację i optymalizację układu pracy sieci. Dzięki wykorzystaniu danych z systemów monitorujących pracę sieci nN oraz nowoczesnych metod obliczeniowych możliwe jest ograniczenie w znacznym stopniu strat technicznych w sieci nN w sposób bezinwestycyjny (bez dodatkowych nakładów w rozbudowę sieci).
Wprowadzenie Rozwój nowych technologii, zmiany w strukturze rynku, przyłączanie mikrogeneracji na poziomie niskiego napięcia oraz konieczność spełniania oczekiwań wszystkich podmiotów tworzących rynek energetyczny powoduje, że koncerny energetyczne stają przed nowymi wyzwaniami związanymi z zarządzaniem siecią [1]. Dla operatorów sieci dystrybucyjnej (OSD) możliwością sprostania oczekiwaniom stawianym przez klientów, URE oraz głównych udziałowców jest wdrażanie technologii z obszaru inteligentnych sieci energetycznych (ISE). Jednym z wymagań nakładanych na OSD, zarówno przez regulacje krajowe, jak i unijne (Dyrektywa 2012/27/UE [2] i „Polityka energetyczna Polski do 2030 roku” [3]), jest obowiązek podnoszenia efektywności działania, racjonalizacja wykorzystania energii elektrycznej oraz ograniczenie strat energii. Podstawą do podejmowania działań w wyżej wymienionym zakresie jest wiedza na temat sposobu pracy sieci. Wdrożenie technologii z obszaru sieci Smart Grid umożliwia zwiększenie obserwowalności pracy sieci oraz monitorowanie jej parametrów na dowolnym poziomie napięcia, w tym na poziomie niskich napięć. Szczególną rolę w tym zakresie odgrywają systemy AMI. Do tej pory OSD posiadały bardzo ograniczony zakres wiedzy o sposobie pracy sieci nN. Dzięki instalacji urządzeń pomiarowych w głębi sieci (liczników AMI u odbiorców końcowych oraz liczników bilansujących w stacjach SN/nN) możliwe jest wdrożenie nowych narzędzi i algorytmów do sterowania pracą sieci i zmiana w sposobie zarządzania siecią energetyczną. OSD zbierają coraz większe ilości informacji dotyczących sieci energetycznej na wszystkich poziomach napięć, w szczególności: dane o majątku sieciowym i topologii z systemów GIS, rzeczywiste dane o zużyciu energii elektrycznej w 15-minutowych interwałach czasu z systemów AMI oraz dane czasu quasi-rzeczywistego z systemów dyspozytorskich SCADA, które pozwalają na opracowywanie coraz dokładniejszych modeli sieci.
162
Rys. 1. Obszar objęty pilotażowym wdrożeniem ISE
Projekt pilotażowy na Helu W 2011 roku ENERGA-OPERATOR SA rozpoczęła pracę nad pierwszym projektem pilotażowym wdrożenia sieci Smart Grid w Polsce. Celem projektu było zbadanie, jaki wpływ na pracę sieci będzie miało wprowadzenie do tradycyjnej sieci elektroenergetycznej elementów Smart Grid. Projekt swoim obszarem objął całą sieć SN i nN na obszarze Półwyspu Helskiego oraz jedną linię napowietrzną SN Piaśnica, zasilaną z GPZ Władysławowo wraz z siecią nN zasilaną z tego ciągu. Projektem zostało objętych ponad 200 km linii SN, 150 stacji SN/nN oraz 150 km linii nN. Z sieci na obszarze pilotażu zasilanych jest blisko 10 tys. odbiorców. W projekcie prowadzone były badania w obszarze: poprawy niezawodności i efektywności pracy sieci, ograniczenia kosztów prowadzenia ruchu sieci dystrybucyjnej oraz optymalizacji wykorzystania istniejącej infrastruktury sieciowej i telekomunikacyjnej [4], [5]. Jedną z przeprowadzonych analiz było zbadanie możliwości
ograniczenia strat technicznych w sieci poprzez optymalizację konfiguracji i układu pracy sieci. Badania redukcji strat na poziomie nN Prace badawcze były realizowane latem, w czasie szczytu obciążenia w badanym obszarze. Badania prowadzone były w dwóch etapach: • badania modelowe wraz z obliczeniami optymalizacyjnymi dla sieci SN i nN w obszarze Półwyspu Helskiego (przy ograniczanych danych z systemu AMI) • szczegółowe obliczenia techniczne dla wybranego obszaru sieci nN na podstawie danych pomiarowych z układów bilansujących stacji transformatorowych SN/nN i liczników AMI zainstalowanych u odbiorców. W ramach pierwszego etapu badań zostały wykonane obliczenia na całym modelu sieci SN i nN na Półwyspie Helskim. W związku z niepełnymi danymi z liczników AMI (system AMI był w trakcie wdrażania)
S. Noske, D. Falkowski | Acta Energetica 2/27 (2016) | translation 156–161
w badaniach posłużono się danymi pomiarowymi z uruchomionych liczników AMI oraz z systemu bilingowego (odczyty inkasenckie). W wyniku przeprowadzonych badań obliczono możliwość redukcji strat w sieci SN i nN na poziomie 9% w okresie szczytowego zapotrzebowania na energię eklektyczną w ciągu roku. W celu osiągnięcia takiego efektu konieczne byłoby wykonanie 213 przełączeń w sieci [6]. Po zakończeniu badań w ramach pierwszego etapu przystąpiono do etapu drugiego, który zakładał przeprowadzenie analiz optymalizacji układu pracy w zakresie tylko sieci nN dla zamkniętego obszaru od strony topologii sieci (wyspa z brakiem możliwości zasilenia odbiorców ze stacji SN/nN spoza obszaru badań). Jako obszar badań wybrano miejscowość Jastarnia, na której terenie znajduje się blisko 1500 odbiorców. Analizy były prowadzone w okresie 1 lipca – 31 sierpnia 2014 roku. Rys. 2. Obszar sieci objęty badaniami na poziomie nN – miasto Jastarnia
Wyniki obliczeń obejmują okres 1 czerwca – 31 lipca 2013 Początkowe straty energii w układzie normalnym
280 276 kWh
Optymalizacja układu wymagająca 213 przełączeń Straty energii po zoptymalizowaniu układu
254 616 kWh
Zmniejszenie strat energii
25 660 kWh
Obliczona redukcja strat w sieci SN i nN
9,2%
Tab. 1. Wyniki obliczeń z I etapu optymalizacji układu pracy sieci SN i nN dla całego Półwyspu Helskiego
Rys. 3. Opracowany model sieci dla miasta Jastarnia. Prezentacja powiązań między geograficznym modelem sieci a punktami poboru energii (PPE) elektrycznej wraz z rzeczywistymi danymi o zużyciu energii w poszczególnych godzinach
Model matematyczny sieci nN Na bazie modelu z etapu pierwszego został opracowany bardzo szczegółowy model matematyczny sieci nN dla miejscowości Jastarnia. Zawierał on: • dane na temat sieci w obszarze miejscowości Jastarnia • informacje o topologii sieci wraz z informacją o punktach podziałowych • dane o przypisaniu odbiorcy do punktu poboru energii elektrycznej (PPE) • rzeczywiste dane o zużyciu energii • rzeczywiste dane o energii przepływającej przez stację SN/nN. Podstawowym źródłem informacji na temat sieci były dane zawarte w Systemie Informacji o Dystrybucji (SID). W systemie zawarte są wszelkie informacje na temat majątku sieciowego, tj. przekroje, długości i typy przewodów, schematy połączeń i złącz kablowych, przypisanie odbiorców do punktów zasilania w sieci, informacje o punktach podziałowych. System posiada również model sieci w odwzorowaniu geoprzestrzennym. Dane o zużyciu energii elektrycznej odbiorców pochodziły z aplikacji AMI (taryfa G) oraz z systemu CONVERGE (taryfy C i B). Dane o zużyciu energii czynnej w systemie AMI są pozyskiwane w interwałach 15-min. System AMI jest przygotowany również do dostarczania informacji o zużyciu energii biernej. W związku z bardzo ograniczonym zastosowaniem takich danych są one obecnie odczytywane raz na dobę. System CONVERGE dostarcza dane o zużyciu energii czynnej i biernej z gradacją godzinową. W związku z kurortowym charakterem Jastarni, w okresie letnim pojawiają się odbiorcy sezonowi prowadzący działalność jedynie przez okres sezonu. Odbiorcy ci nie są wyposażani w liczniki z możliwością zdalnego odczytu. Na potrzeby analiz dla tych odbiorców zostały estymowane krzywe obciążenia na podstawie miesięcznych odczytów bilingowych. Dodatkowo model został uzupełniony o dane z liczników bilansujących, znajdujących się w stacjach SN/nN, oraz odczytami z systemu SCADA dla stacji posiadających system opomiarowania odpływów.
163
S. Noske, D. Falkowski | Acta Energetica 2/27 (2016) | translation 156–161
Badania i wyniki Do wykonania obliczeń posłużono się systemem ELGrid firmy GLOBEMA. Program umożliwia wykonanie różnych analiz pracy sieci, między innymi analiz optymalizacji układu pracy sieci pod kątem minimalizacji strat sieciowych [7]. W badaniach wykorzystano zaimplementowaną metodę optymalizacji konfiguracji sieci SN oraz nN, opartą na algorytmie genetycznym wykorzystującym jako funkcję kryterialną prosty okres zwrotu poniesionych nakładów. Algorytm uwzględnia podstawowe ograniczenia techniczne, tj.: zachowanie otwartej konfiguracji sieci, brak przeciążeń długotrwałych elementów sieciowych oraz utrzymanie poziomu napięcia w dopuszczalnym zakresie [6]. Optymalna konfiguracja sieci jest obliczana poprzez manipulowanie układem połączeń sieci w złączach kablowych, dla których określono koszt i łatwość wykonywania przełączeń. W analizie nie brano pod uwagę możliwości rozbudowy sieci w celu poprawy efektywności pracy (wariant bezinwestycyjny). Badania zostały wykonane dla okresu szczytowego zapotrzebowania na energię elektryczną w sezonie letnim. W pierwszej kolejności na podstawie danych pomiarowych z lipca wyliczono poziom strat dla układu normalnego oraz optymalny układ pracy sieci. Na przełomie lipca i sierpnia zostały wykonane przełączenia w sieci zgodnie z wyliczonym układem optymalnym i ponownie wykonano obliczenia poziomu strat, tym razem dla sierpnia. Badania modelowe wykazywały potencjalną redukcję poziomu strat energii w sieci nN na poziomie 16%. Wymagało to wykonania 17 przełączeń w sieci nN. W celu potwierdzenia wyników analiz i potencjału redukcji strat energii przeprowadzono dodatkowo szczegółową analizę. Dla wybranych 10 dni z lipca i sierpnia wykonano bilansowanie energii. Podczas wyboru okresu referencyjnego kierowano się kryterium zbliżonego poziomu zużycia energii w obu miesiącach oraz zbliżonym kształtem krzywych obciążenia. Analiza została przeprowadzona dla okresów doby, w których występują największe straty energii oraz zużycie energii w sieci jest największe (godz. 9–15). Wyniki bilansowania potwierdziły obliczoną redukcję strat sieciowych w sieci. Przeprowadzona analiza przy użyciu systemu ELGrid pozwoliła również zbadać,
Lipiec
Sierpień
20 375 kWh
18 487 kWh
Straty energii dla zoptymalizowanego układu
17 075 kWh
14 798 kWh
Zmniejszenie strat energii
3 300 kWh
3 689 kWh
16,2%
19,95%
Początkowe straty energii w układzie normalnym Optymalizacja układu wymagająca 17 przełączeń
Procentowa redukcja strat w sieci nN
Tab. 2. Wyniki obliczeń z II etapu optymalizacji układu pracy sieci nN w miejscowości Jastarnia
Rys. 4. Dobowa zmienność obciążenia dla wybranego okresu 10 dni w lipcu i sierpniu
w jaki sposób zmienia się obciążalność elementów sieci. Na rysunku poniżej przedstawiono wpływ optymalizacji na obciążalność przewodów. Kolorem zielony oznaczono przewody obciążone do 50%, żółtym 51–80%, czerwonym 81–100%, brązowym powyżej 100%. Wnioski Przeprowadzone badania wykazały, że istnieje duży potencjał podniesienia efektywności pracy sieci, z wykorzystaniem bezkosztowych sposobów związanych z analizą sposobu pracy sieci i optymalizacją układu pracy sieci. Szczególnie duży potencjał istnieje w sieciach niskiego
napięcia, dla których opracowane przed latami metodą ekspercką układy normalne nie są obecnie układami optymalnymi. Wraz z rozwojem sposobów zarządzania majątkiem sieciowym przedsiębiorstwa sieciowe budują informacje o sieci w systemach informacji przestrzennej (systemy klasy GIS). Mogą one się stać bardzo dobrym źródłem danych do budowy modelu matematycznego sieci w systemach obliczeniowych. Nowe rozwiązania i technologie z obszaru Smart Grid, takie jak np. AMI czy systemy monitorowania i pomiarów w głębi sieci, dostarczają niezbędnych danych do określenia rozpływów mocy w sieci. Te nowe rozwiązania zapewniają niespotykaną jakość
Rys. 5. Wpływ optymalizacji układu pracy sieci na ciągi zasilające. Po lewej układ normalny – lipiec, po prawej układ po zoptymalizowaniu – sierpień
164
S. Noske, D. Falkowski | Acta Energetica 2/27 (2016) | translation 156–161
danych obliczeniowych i wprowadzają nową jakość do obliczeń. Aby skutecznie je wykorzystywać, niezbędne jest zapewnienie wysokiej jakości danych i bieżąca aktualizacja. Przeprowadzone badania potwierdzają, że: • już dzisiaj istnieją techniczne możliwości do budowy systemów obliczeniowych opartych na rzeczywistych modelach sieci i rozpływach mocy obliczonych, z wykorzystaniem rzeczywistych dobowych charakterystyk obciążeń każdego indywidualnego odbiorcy • w obszarach miejskich, w których sieć nN jest bardzo rozbudowana, z wieloma możliwościami przełączeń układu pracy, istnieje duży potencjał w zakresie optymalizacji pracy sieci i ograniczenia strat technicznych • nowoczesne systemy obliczeniowe mogą być wykorzystywane znacznie szerzej (nie tylko do ograniczana strat technicznych).
Mogą posłużyć do zwiększania mocy przyłączeniowej, ograniczenia inwestycji związanych z rozbudową sieci. Bibliografia 1. Wizja wdrożenia sieci inteligentnej w ENERGA-OPERATOR SA w perspektywie do 2020 roku, Gdańsk 2011. 2. Dyrektywa Parlamentu Europejskiego i Rady 2012/27/UE w sprawie efektywności energetycznej. 3. Załącznik do uchwały nr 202/2009 Rady Ministrów z dnia 10 listopada 2009 roku, Polityka energetyczna Polski do 2030 roku. 4. Noske S., Wawrzyniak M., Półwysep Helski – pilotażowy projekt sieci inteligentnych, Acta Energetica 2014, nr 4/21, s. 91–96.
5. Falkowski D., Noske S., Helt P., Monitorowanie, pomiary w sieciach inteligentnych – projekt pilotażowy Smart Grid na Półwyspie Helskim, materiały konferencyjne, VI Konferencja NaukowoTechniczna „Straty energii elektrycznej w sieciach elektroenergetycznych”, Rawa Mazowiecka 2014. 6. Noske S., Helt P., Możliwości redukcji strat sieciowych dzięki optymalizacji układu pracy sieci, materiały konferencyjne, VI Konferencja Naukowo-Techniczna „Straty energii elektrycznej w sieciach elektroenergetycznych”, Rawa Mazowiecka 2014. 7. Falkowski D. i in., Doświadczenia z wdrażania modułu obliczeń technicznych dla sieci SN i nN, materiały konferencyjne, VI Konferencja Naukowo-Techniczna „Straty energii elektrycznej w sieciach e l e k t r o e n e r g e t y c z ny c h”, R a w a Mazowiecka 2014.
Sławomir Noske
dr inż. ENERGA-OPERATOR SA e-mail: slawomir.noske@energa.pl Absolwent Wydziału Elektrycznego Politechniki Poznańskiej (1990), w 2013 roku na swoim macierzystym wydziale uzyskał tytuł doktora nauk technicznych. Ukończył studia menedżerskie MBA w Gdańskiej Fundacji Kształcenia Menedżerów. Pracownik ENERGA-OPERATOR SA. Obecnie zaangażowany w prace związane z wdrażaniem innowacyjnych rozwiązań Smart Grid w obszarze sieci dystrybucyjnej. Członek Polskiego Komitetu Wielkich Sieci Elektrycznych (PKWSE) reprezentujący Polskę w Komitecie Studiów CIGRE B1 Insulated Cables, przewodniczący zespołu ds. kabli przy PTPiREE. Autor i współautor wielu publikacji i referatów wygłaszanych na konferencjach międzynarodowych (CIGRE i CIRED) oraz krajowych. Tematyka publikacji jego autorstwa dotyczy badań i diagnostyk linii kablowych oraz obszaru sieci inteligentnych.
Dominik Falkowski
mgr inż. ENERGA-OPERATOR SA e-mail: dominik.falkowski@energa.pl Absolwent Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej (2012) oraz słuchacz studiów doktoranckich na macierzystej uczelni. W trakcie studiów został laureatem i zdobywcą wyróżnienia w konkursie ENERGA SA za projekt badawczy analizujący wpływ przyłączenia EJ w Żarnowcu oraz rozwój KSE do 2025 roku na pracę sieci dystrybucyjnej ENERGA-OPERATOR SA. Od 2012 roku pracownik Departamentu Innowacji w ENERGA-OPEATOR SA. Zawodowo związany z wdrażaniem technologii Smart Grid w zakresie sieci dystrybucyjnej. Tematyka publikacji autora jest związana głównie z sieciami inteligentnymi oraz ich wdrażaniem.
165
T. Okoń, K. Wilkosz | Acta Energetica 2/27 (2016) | 166–170
Detection of Differently Loaded Power Network Areas
Authors Tomasz Okoń Kazimierz Wilkosz
Keywords power network, network area, load flow, k-mean method, breadth-first search
Abstract A widely accepted method of simplifying power system problems, especially for large system, is solving them for areas into which a system is divided. The paper considers separation of the power system areas that contain branches with similar active or reactive power loads. For this purpose rates are proposed that show the dependence of the branch power flow (active and reactive power flow separately) on the loads at system nodes. On the basis of the considered rates, branches are partioned into groups. The rates for all branches in the same group are similar. They significantly differ between groups. For selected groups of branches, which are characterized by values of the aforementioned rate larger than a preset value, the consistent area of the power network is found. The paper shows utilization of the method for the IEEE 14-bus test system.
DOI: 10.12736/issn.2300-3022.2016215
Introduction One way to simplify power system analyses is to distinguish the areas in which the considered problem is observed [1–5]. This approach allows downsizing the task to solve. In the context of the power system operation, it is of interest to distinguish the system areas that contain branches with similar power flows. Knowledge of such areas allows localising branches with a specific capacity utilisation. It also allows indicating the location of the problem of excessive reactive power flows. It is also possible to distinguish power system areas for other purposes, for example to indicate system areas, in which too high or too low voltage modulus exist. The paper is focused on locating power system areas in the context of power flow values. In our analyses, we consider the fact the power flows in the particular branches of the power system are a consequence of the loads at the particular nodes of the system. A change of those loads causes a change in the power flows in the system. Thus, the following questions arise: 1. What is the impact of changing loads at nodes on power flows on the particular branches? 2. For which branches, power flow change is the largest one and for which branches, power flow change is the smallest one when the loads change at system nodes? 3. Is it possible to indicate consistent power system areas with branches characterized by similar levels of power-flow changes when the loads change at nodes? The paper aims to answer those questions. One should note that the more sensitive to load changes at the node the power flow on the given branch is, the more the power flow changes on the branch. 166
Further in the paper, we present the method for evaluating the dependence of the branch power flow in a branch on the loads at system nodes. Next, we discuss the idea of a process leading to the determination of groups of branches with similar properties in the context of the aforementioned dependence. Another issue, we discuss, is distinguishing the consistent power system areas that contain the branches of the earlier-determined groups.
Evaluation of the level of dependence of the power flow on a branch on the loads at system nodes For evaluation of the dependency of the branch power flow on the load at the given node, it is possible to use a derivative of the power flow on the considered branch in relation to the load at this node. The change of power flow on a branch caused by a load change at each node, where possible, may be estimated as follows: (1) where: I – the set of indices of nodes in the power system; n – the number of all nodes in the power system; X {P, Q}; P, Q – active and reactive power flow, respectively; Xij – a power flow on the branch between nodes i and j; Xw – a load at node w, ∆Xw – change of the load at node w. When the load change at any node is the same, i.e. when: then from the formula (1):
T. Okoń, K. Wilkosz | Acta Energetica 2/27 (2016) | 166–170
(2) and the mean change of power flow Xij caused by the unit change of load at a node of the considered system is equal to: (3) Hereinafter, the following mark is assumed (4) The rates κXij can be used for comparison of different branches of the system in the context of mean changes of branch power flow caused by the unit change of nodal loads in the system. The higher the value of κXij, the higher the load of branch i-j with the power flow Xij in response to the loads at system nodes. A positive value of rate κXij means an increased load of branch i-j, while a negative value of rate κXij means a reduced load of branch i-j in relation to the base value of power flow Xij. Rate κXij may be calculated for the beginning or for the end of branch i-j. In the analyses presented in this paper, we consider the value of rate κXij, that is higher for the modulus.
The idea of partitioning the power system into areas Using rates κXij , it is possible to partition the branches of the power system into groups, wherein a group contains branches with similar values of rates κXij . Each of those groups is characterised by the mean value of rates κXij determined for the particular branches belonging to the group. The groups obtained are set in descending order according to
the mentioned mean values of rates κXij. Next, it is assumed that the mentioned groups are called as K1, K2 etc. and the mean value of rates κXij of branches in group l is marked as . The value that characterises a group is . The lower the branch group number Kl, the higher the value . At the first stage of the procedure, the paper suggests to partition all power system branches into two groups: the first one with branches with positive and the second one with branches with non-positive values of rates κXij i, j I. Next, in each of the mentioned groups, new power-system-branch groups are again determined on the base of the rules of hierarchical clustering, this time using the k-mean method at each stage of clustering [6]. Knowing the partitioning of power system branches into groups K1, K2, …, KL, where L is the number of distinguished groups, one could determine consistent system areas (we suggest using the breadth-first search [7]) containing branches with rate κXij of which values are not less than a specific value. We suggested to start determining the consistent system areas by considering the branches of group K1. A subsequent considering groups K2, K3 etc. can be used to enlarge the previouslyindicated areas.
The principle of the method of distinguishing consistent areas in a power system The method of partitioning a power system into areas taking into account branch loading in the context of the power flow X (active or reactive separately) consists of the following stages: 1. Determining rate κXij for each branch i-j. 2. Partitioning branches into groups according to their rates κXij . 3. Setting the branch groups obtained at stage 2 in descending order according to value of l {1, 2, …, L}.
Fig. 1. The test system used in calculations 167
T. Okoń, K. Wilkosz | Acta Energetica 2/27 (2016) | 166–170
4. Distinguishing consistent power-system branch areas based on the subsequent groups K1, K2… The consideration of the subsequent branch groups stops, when there are no more branch groups with the values of l {1, 2, …, L} to be not less than a specific value.
Calculation example To illustrate the above-given method of distinguishing consistent power network areas, we present calculations for the IEEE 14-bus test system [8]. The test system is shown in Fig. 1. Rates κXij , where I is the set of the test-system-node numbers (from 1 to 14), , are included in Tab. 1. Both rates κPij and rates κQij have positive and negative values. The negative values of rates κPij i, j I i ≠ j or rates κqij i, j I i ≠ j mean that the considered test system contains branches, in which, on average, changes of active or reactive power flows occur in the opposite direction to the load changes at system nodes; in particular, active or reactive power flows are reduced with an increase of load at system nodes. Analysing the values of rates κPij i, j I i ≠ j and rates κqij i, j I i ≠ j, one may note significant differences of their values for different branches. The ratio of the maximum to the minimum modulus is 47.4 for rate κ Pij and 591.7 for rate κQij. To distinguish test-system-branch groups with similar values of rates κPij i, j I i ≠ j or rates κqij i, j I i ≠ j, we have used the procedure of hierarchical clustering. We assumed that:
k
i
j
κPij
κQij
1
1
2
0.749
0.302
2
1
5
0.358
0.062
3
2
3
0.170
0.161
4
2
4
0.233
–0.040
5
2
5
0.211
0.080
6
3
4
–0.071
0.147
7
4
5
0.086
0.023
8
4
7
0.191
0.112
9
4
9
0.110
0.026
10
5
6
0.415
0.036
11
6
11
0.067
0.074
12
6
12
0.078
0.001
13
6
13
0.126
0.095
14
7
8
0.000
–0.020
15
7
9
0.183
0.008
16
9
10
0.117
0.172
17
9
14
0.078
0.066
18
10
11
–0.026
0.158
19
12
13
–0.015
–0.086
20
13
14
0.016
0.002
Tab. 1. Rates κ Pij and κqij for the test-system branches. k is a number of a branch
(5) where: – the minimum and maximum values of rates κXij i, j I i ≠ j, respectively, for branches of the group Kl; p – a constant, in the calculation example we assumed that p = 0.2; κX max – the maximum value of rates κXij i, j I i ≠ j. The procedure of clustering is performed separately for each of the above-mentioned rates (i.e. for κPij i, j I i ≠ j and for κqij i, j I i ≠ j). In both cases of clustering, in the test system, three branch groups are distinguished: • group 1: κXij > 0.05 κXmax i, j I i ≠ j • group 2: 0 ≤ κXij ≤ 0.05 κXmax i, j I i ≠ j • group 3: κXij < 0 i, j I i ≠ j. Using the k-mean method, at the subsequent steps of the hierarchical clustering, sub-groups were distinguished in the first of the above-mentioned branch groups. The results of hierarchical clustering are given in Tab. 2 and 3. In Tab. 2 and 3, the branch groups, of which the contents no longer changes at the subsequent clustering steps, are marked in bold. As a result of branch clustering for rates κPij i, j I i ≠ j, as well as branch clustering for rates κQij i, j I i ≠ j, we received six branch groups. In both cases the smallest number of branches in one group is 1. The branch that alone constitutes a group is branch 1–2. For branch 1–2 the value of rate κP12 is significantly higher than the values of rates κPij determined for other branches. The same is observed for rate κQ12. 168
For four branch groups K1–K4 highlighted in Tab. 2 at step 4, rates κPij are larger than zero. The lower group number, the higher rates κPij. Group K5 consists of branches, for which rates κPij are positive, but close to zero. In turn, group K6 consists of branches, for which rates κPij are smaller than zero. The analysis shows that the branches of groups K1–K4 constitute a consistent area of the system. When the system-node loads increase, the most loaded branch is branch 1–2, and then branches 1–5 and 5–6 along the power flow path between nodes 1 and 6. Smaller level of load is observed for branches incident to node 2, namely 2–3, 2–4 and 2–5, and for branches 4–7 and 7–9 along the power-flow path between nodes 4 and 9. A relatively small load is observed on branches 4–5, 4–9, 6–13, 9–10, 9–14, 6–11, 6–12. A negligible load increase is found on branch 13–14. Load reduction, in the meaning of the average, is found on branches 3–4, 10–11, 12–13. The mean values of rates κPij for groups K1–K4 are in the following ratio: 1:0.52:0.26:0.13. Considering the branch groups given in Tab 3, one may note that, similarly to branch groups from Tab. 2, rates κQij are larger than zero for branches of groups K1–K4, while rates κQij are positive and close to zero for branches of group K5 and negative for group K6. Branches of the groups K1–K4 given in Tab. 3 constitute a consistent area of the system. A load increase at system nodes causes the largest load increase on branch 1–2 and then on branches: 2–3, 3–4, 9–10 and 10–11. A smaller power flow increase is for
T. Okoń, K. Wilkosz | Acta Energetica 2/27 (2016) | 166–170
e 1
Branch group
L 3
2
4
5
6
0.302
0.016
6–12, 7–9, 13–14
0.004
0.001
0.008
–0.071
–0.015
2–4, 7–8, 12–13
–0.049
–0.086
–0.020
0.358
0.749
1–2, 2–3, 3–4, 9–10, 10–11
0.188
0.147
0.302
0.064
0.023
0.112
0.749
7–8, 13–14
0.008
0
–0.037 0.507
2
4
2–3, 2–4, 2–5, 4–5, 4–7, 4–9, 6–11, 6–12, 6–13, 7–9, 9–10, 9–14
0.137
0.067
0.233
1–5, 2–5, 4–5, 4–7, 4–9, 5–6, 6–11, 6–13, 9–14
7–8, 13–14
0.008
0
0.016
6–12, 7–9, 13–14
0.004
0.001
0.008
–0.037
–0.071
–0.015
2–4, 7–8, 12–13
–0.049
–0.086
–0.020
1–2, 1–5, 5–6
0.507
0.358
0.749
1–2, 2–3, 3–4, 9–10, 10–11
0.188
0.147
0.302
2–3, 2–4, 2–5, 4–7, 7–9
0.198
0.170
0.233
1–5, 2–5, 4–7, 6–11, 6–13, 9–14
0.081
0.062
0.112
4–5, 4–9, 6–11, 6–12, 6–13, 9–10, 9–14
0.095
0.067
0.126
4–5, 4–9, 5–6
0.028
0.023
0.036
7–8, 13–14
0.008
0
0.016
6–12, 7–9, 13–14
0.004
0.001
0.008
–0.037
–0.071
–0.015
2–4, 7–8, 12–13
–0.049
–0.086
–0.020
1–2
0.749
0.749
0.749
1–2
0.302
0.302
0.302
1–5, 5–6
0.386
0.358
0.415
2–3, 3–4, 9–10, 10–11
0.159
0.147
0.172
2–3, 2–4, 2–5, 4–7, 7–9
0.198
0.170
0.233
1–5, 2–5, 4–7, 6–11, 6–13, 9–14
0.081
0.062
0.112
4–5, 4–9, 6–11, 6–12, 6–13, 9–10, 9–14
0.095
0.067
0.126
4–5, 4–9, 5–6
0.028
0.023
0.036
7–8, 13–14
0.008
0
0.016
6–12, 7–9, 13–14
0.004
0.001
0.008
–0.037
–0.071
–0.015
2–4, 7–8, 12–13
–0.049
–0.086
–0.020
3–4, 10–11, 12–13 4
3
0.023
0.067
3–4, 10–11, 12–13 3
1
Branch group 0.108
0.211
1–2, 1–5, 5–6
L
1–2, 1–5, 2–3, 2–5, 3–4, 4–5, 4–7, 4–9, 5–6, 6–11, 6–13, 9–10, 9–14, 10–11
1–2, 1–5, 2–3, 2–4, 2–5, 4–5, 4–7, 4–9, 5–6, 6–11, 6–12, 6–13, 7–9, 9–10, 9–14
3–4, 10–11, 12–13
e
3–4, 10–11, 12–13
3
4
5
6
Tab. 2. The branch groups and their parameters distinguished at the subsequent steps of the hierarchical clustering, when considering rate κPij e is a number of the step of the hierarchical clustering
Tab. 3. The branch groups and their parameters distinguished at the subsequent steps of the hierarchical clustering, when considering rate κQij
branches: 1–5, 2–5, 4–7, 6–11, 6–13 and 9–14, followed by branches: 4–5, 4–9, 5–6. The mean values of rates κQij for groups K1–K4 are in the following ratio: 1:0.53:0.27:0.09. Analysing the contents of Tab. 2 and Tab. 3, one may note that when considering reactive power, the situation differs from the one when active power is considered. Branch 1–2 belongs to group K1 when active power, as well as reactive power are considered. However, when active power is considered the contents of group K2 is different than in the case of consideration of reactive power. The contents of groups K3 and K4 partially overlap in both cases to be considered. In each case, group K3 contains branches: 2–5 and 4–7, while group K4 contains branches: 4–5 and 4–9. In the case of active power, the branches of groups K1 and K2 are in the consistent sub-area of the area containing the branches of groups K1–K4. In the case of reactive power, one branch from group K1 and twobranches from group K2 constitute a consistent area of the test system, while the remaining two branches from group K2, which are interconnected, are isolated from the abovementioned area by the branches of group K4, in which there are the branches with relatively small rates κQij. Thus, in the test system there are two areas that are weakly interconnected and in which larger reactive power flows occur. In one of them, sources of reactive power are both generators present in the system. In
the other, reactive power is supplied by a capacitor bank and a synchronous compensator.
Conclusions For the purposes of finding areas in a power system with different levels of loads, one may use the derivatives of the power flows in branches with respect to changes of nodal powers. The rate to be defined on the basis of those derivatives allows for a branch clustering, which leads to distinguishing groups of power system branches with similar properties in terms of power flow changes due to nodal power changes. The original method of determining such branch groups presented in the paper is relatively simple. This allows effectively finding consistent system areas with pre-determined properties. REFERENCES
1. K. Wilkosz, Metoda wykrywania charakterystycznych obszarów w sieci elektroenergetycznej [The method of detecting characteristic areas in the power network], Przegląd Elektrotechniczny, No. 9a, 2012, pp. 97–102.
169
T. Okoń, K. Wilkosz | Acta Energetica 2/27 (2016) | 166–170
2. G.A. Ezhilarasi, K.S. Swarup, Distributed Load Flow using Partitioning and Equivalencing of Power Networks, 16th National Power System Conference, Hyderabad, India 2010, pp. 335–340. 3. L. Zhongxu et al., Network Partition for Distributed Reactive Power Optimization in Power Systems, IEEE International Conference on Networking, Sensing and Control, Hainan, China, 6–8 April 2008, pp. 385–388. 4. Souza Zambroni de A.C., , V.H. Quintana, New technique of network partitioning for voltage collapse margin calculations. IEE proceedings -Generation, Transmission and Distribution, Vol. 141, No. 6, 1994, pp. 630–636. 5. R.J. Sanchez-Garcia et al., Hierarchical Spectral Clustering of Power Grids, IEEE Trans. on Power Systems, Vol. 29, No. 5, 2014, pp. 2229–2237.
6. J.A. Hartigan, M.A. Wong, Algorithm AS 136: A K-Means Clustering Algorithm, Journal of the Royal Statistical Society, Series C, Vol. 28, No. 1, 1979, pp. 100–108. 7. T.H. et al. Cormen, Wprowadzenie do algorytmów [Introduction to algorithms], PWN, Warszawa 2014. 8. http://www.ee.washington.edu/research/pstca/pf14.
Acknowledgements The results of the investigation were used in calculations for optimising the reactive power flows in a power system performed with the resources made available by the Wrocław Centre for Networking and Supercomputing (http://wcss.pl), calculation grant no. 318.
Tomasz Okoń Wrocław University of Technology email: Tomasz.Okon@pwr.edu.pl Graduated from the Faculty of Electrical Engineering at Wrocław University of Technology. Obtained his PhD in technical sciences at the Institute of Power Engineering of Wrocław University of Technology. He is a member of the IEEE (Institute of Electrical and Electronics Engineers). He is interested in the subjects of power system modelling and analysis.
Kazimierz Wilkosz Wrocław University of Technology email: Kazimierz.Wilkosz@pwr.edu.pl Connected with Wrocław University of Technology in his scientific activity. The Ph.D. degree (1979), the D.Sc. degree in Electrical Engineering from Wroclaw University of Technology (1991). At present, Professor. Member of the SEP, CIGRE, IEEE, scientific secretary of the Power System Section of the Electrical Engineering Committee of the Polish Academy of Sciences (PAN). Member of scientific committees of multiple national and international conferences. He serves as a reviewer of papers submitted to journals (IEEE Transactions on Power Delivery, The International Journal for Computation and Mathematics in Electrical and Electronic Engineering and many others) and to conferences (PSCC, ICHQP, EPQU and others). His research interests and didactic activity focus on power system modelling and analysis, as well as computer science applications in power engineering.
170
T. Okoń, K. Wilkosz | Acta Energetica 2/27 (2016) | translation 166–170
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 166–170. When referring to the article please refer to the original text. PL
Wykrywanie różnie obciążonych obszarów sieci elektroenergetycznej Autorzy
Tomasz Okoń Kazimierz Wilkosz
Słowa kluczowe
sieć elektroenergetyczna, obszar sieci, przepływ mocy, metoda k-średnich, przeszukiwanie wszerz
Streszczenie
Uznanym sposobem upraszczania problemów dotyczących systemu elektroenergetycznego, szczególnie o dużych rozmiarach, jest ich rozwiązywanie dla obszarów, na które system jest dzielony. W pracy rozważane jest wyodrębnianie obszarów systemu elektroenergetycznego, obejmujących gałęzie o podobnym obciążeniu przepływem mocy czynnej albo biernej. Na potrzeby przedstawianej metody zostały wprowadzone wskaźniki pokazujące zależność przepływu mocy (osobno mocy czynnej oraz mocy biernej) w gałęzi od obciążeń w węzłach systemu. Na podstawie branego pod uwagę wskaźnika dokonano podziału gałęzi na grupy. Dla gałęzi, należących do jednej grupy, wartości wskaźnika są do siebie zbliżone. Różnią się one istotnie od wartości rozpatrywanego wskaźnika dla innych grup. Dla wyróżnionych grup znajdowane są spójne obszary sieci elektroenergetycznej, które charakteryzują wartości wymienionego wcześniej wskaźnika większe od zadanej wartości. Wykorzystanie przedstawionej metody jest pokazane na przykładzie 14-węzłowego systemu testowego IEEE.
Wstęp Jednym ze sposobów uproszczenia analiz dla systemu elektroenergetycznego jest wyodrębnienie w nim obszarów, w których obserwowany jest problem wymagający rozpatrzenia [1–5]. Takie podejście pozwala zmniejszyć rozmiar rozwiązywanego zadania. Z punktu widzenia pracy systemu elektroenergetycznego interesujące jest wyodrębnienie obszarów systemu obejmujących gałęzie o podobnych przepływach mocy. Znajomość takich obszarów pozwala zlokalizować gałęzie o określonym stopniu wykorzystania ich przepustowości. Pozwala także wskazać, gdzie jest problem z nadmiernymi przepływami mocy biernej. Obszary systemu elektroenergetycznego mogą być także wyodrębniane w innych celach, przykładowo w celu wskazania tych miejsc w systemie, gdzie występują zbyt wysokie albo zbyt niskie wartości modułów napięć. Praca jest skoncentrowana na wskazywaniu obszarów systemu elektroenergetycznego z punktu widzenia wielkości występujących w nich przepływów. W przeprowadzanych rozważaniach wzięto pod uwagę to, że przepływy mocy w poszczególnych gałęziach systemu elektroenergetycznego są konsekwencją obciążeń poszczególnych węzłów systemu. Zmiana tych obciążeń pociąga za sobą zmianę przepływów mocy w systemie. W związku z tym powstają pytania: 1. Jak zmiana obciążenia w węzłach wpływa na przepływy mocy w poszczególnych gałęziach? 2. W których gałęziach najbardziej, a w których gałęziach najmniej zmienia się przepływ mocy przy zmianie obciążenia w węzłach systemu? 3. Czy jest możliwe wskazanie spójnych obszarów sieci elektroenergetycznej, w których są gałęzie z podobnym poziomem zmian przepływów mocy przy zmianie obciążenia w węzłach? W artykule zmierza się do odpowiedzi na te pytania.
Należy zauważyć, że im bardziej wrażliwy na zmiany obciążenia w węźle jest przepływ mocy w danej gałęzi, tym większe będą zmiany przepływu w gałęzi. W dalszej części pracy, w pierwszej kolejności przedstawiany jest sposób oceny zależności przepływu mocy w gałęzi od obciążenia w węzłach systemu. Następnie omawiana jest idea postępowania prowadzącego do ustalenia grup gałęzi o podobnych właściwościach z punktu widzenia wspomnianej zależności. Kolejnym omawianym zagadnieniem jest wyodrębnianie spójnych obszarów sieci elektroenergetycznej obejmujących gałęzie branych pod uwagę wcześniej ustalonych grup. Ocena stopnia zależności przepływu mocy w gałęzi od obciążenia w węzłach systemu Dla oceny zależności przepływu mocy w danej gałęzi od obciążenia w określonym węźle może być wykorzystana pochodna przepływu mocy w gałęzi względem obciążenia w tym węźle. Zmiana przepływu mocy w gałęzi spowodowana zmianą obciążenia w każdym węźle, gdzie jest to możliwe, może być oszacowana jako: ,
oraz
(1)
gdzie: I – zbiór indeksów węzłów systemu elektroenergetycznego; n – liczba wszystkich węzłów w systemie elektroenergetycznym; X {P, Q}; P, Q – przepływ mocy, odpowiednio, czynnej oraz biernej; Xij ‑ przepływ mocy w gałęzi pomiędzy węzłami i oraz j; Xw – moc węzłowa w węźle w, ∆Xw – zmiana mocy węzłowej w węźle w. Gdy zmiana obciążenia w dowolnym węźle jest taka sama, tj. gdy:
to ze wzoru (1) wynika, że:
,
oraz
(2)
oraz, że średnia zmiana przepływu mocy Xij spowodowana zmianą obciążenia w węźle rozpatrywanego systemu o wartości ∆X jest równa: ,
oraz
(3)
Dalej przyjmowane jest oznaczenie ,
oraz
(4)
Wskaźniki κXij mogą być wykorzystane do porównania różnych gałęzi systemu z punktu widzenia średnich zmian przepływów mocy Xij, wynikających ze zmian obciążenia w węźle systemu o wartości ∆X. Im większą wartość ma wskaźnik κXij, tym większe jest obciążenie gałęzi i-j przepływem mocy Xij w reakcji na obciążenia węzłów systemu. Dodatnia wartość wskaźnika κXij oznacza zwiększenie obciążenia gałęzi i-j, a ujemna wartość wskaźnika κXij obniżenie obciążenia gałęzi i-j w stosunku do wartości bazowej przepływu mocy Xij. Wskaźnik κXij może być obliczony dla początku albo końca gałęzi i-j. W przedstawianych w pracy rozważaniach brana jest pod uwagę ta wartość wskaźnika κXij, która jest większa co do modułu. Idea podziału sieci elektroenergetycznej na obszary Wykorzystując wskaźniki κXij można dokonać podziału gałęzi sieci elektroenergetycznej na grupy, przy czym jedna grupa obejmuje gałęzie o zbliżonych wartościach wskaźników κXij . Każda z wymienionych grup jest charakteryzowana przez wartość średnią wskaźników κ Xij wyznaczonych dla poszczególnych gałęzi należących do grupy. Otrzymane
171
T. Okoń, K. Wilkosz | Acta Energetica 2/27 (2016) | translation 166–170
grupy są porządkowane w kolejności zmniejszania wspomnianych wartości średnich wskaźników κXij. Dalej przyjmowane jest, że grupy te oznaczane są jako K1,
K2 itd., a wartość średnia wskaźników κXij gałęzi należących do l-tej grupy jest oznaczana jako . Wielkością charakteryzującą grupę jest wielkość . Im niższy jest
Rys. 1. Wykorzystywany w obliczeniach system testowy
k
i
j
κPij
κQij
1
1
2
0,749
0,302
2
1
5
0,358
0,062
3
2
3
0,170
0,161
4
2
4
0,233
–0,040
5
2
5
0,211
0,080
6
3
4
–0,071
0,147
7
4
5
0,086
0,023
8
4
7
0,191
0,112
9
4
9
0,110
0,026
10
5
6
0,415
0,036
11
6
11
0,067
0,074
12
6
12
0,078
0,001
13
6
13
0,126
0,095
14
7
8
0,000
–0,020
15
7
9
0,183
0,008
16
9
10
0,117
0,172
17
9
14
0,078
0,066
18
10
11
–0,026
0,158
19
12
13
–0,015
–0,086
20
13
14
0,016
0,002
Tab. 1. Wskaźniki κPij oraz κQij dla gałęzi systemu testowego
172
numer grupy gałęzi Kl, tym większa jest wartość . W pracy zaproponowano, by w pierwszej kolejności wszystkie gałęzie sieci elektroenergetycznej były podzielone na dwie grupy: jedną obejmującą gałęzie z dodatnimi oraz drugą obejmującą gałęzie z niedodatnimi wartościami wskaźników κXij . W dalszej kolejności, w oparciu o zasady klasteryzacji hierarchicznej, w obrębie każdej z wymienionych grup ustalane byłyby następne grupy gałęzi sieci elektroenergetycznej, tym razem, w każdym kroku klasteryzacji, z wykorzystywaniem metody k-średnich [6]. Znając podział gałęzi sieci elektroenergetycznej na grupy K1, K2, …, KL, gdzie L jest liczbą wyróżnionych grup, można wyodrębniać spójne obszary sieci (zaproponowano wykorzystanie grafowej metody przeszukiwania wszerz [7]) obejmujące gałęzie o wartościach wskaźników κ Xij nie niższych niż określony poziom. Zaproponowano, by wyodrębnianie obszarów w sieci zostało rozpoczęte od uwzględnienia gałęzi z grupy K1. Uwzględnienie w dalszej kolejności grup K2, K3 itd. może być wykorzystane do rozszerzenia wskazanych wcześniej obszarów. Zasada metody wyodrębniania w sieci elektroenergetycznej spójnych obszarów Metoda podziału sieci elektroenergetycznej na obszary, uwzględniająca wielkość obciążenia z punktu widzenia przepływu mocy X (mocy czynnej albo biernej), obejmuje etapy: 1. Wyznaczenie dla każdej gałęzi i-j wskaźnika κXij 2. Podział gałęzi na grupy według charakteryzujących ich wskaźników κXij 3. Uporządkowanie otrzymanych w etapie 2 grup gałęzi w kolejności zmniejszania wielkości l ∈ {1, 2, …, L} 4. Wyodrębnienie spójnych obszarów gałęzi w sieci elektroenergetycznej na podstawie branych kolejno grup K 1 , K 2 ,… Uwzględnienie kolejnych grup gałęzi jest przerywane, gdy nie ma już grup gałęzi o obciążeniu nie mniejszym od określonego poziomu. Przykład obliczeniowy W celu pokazania wykorzystania podanej wcześniej metody wyodrębniania w sieci elektroenergetycznej spójnych obszarów przedstawiono obliczenia dla 14-węzłowego systemu testowego IEEE [8]. System ten pokazano na rys. 1. Wskaźniki κXij i, j ∈ I i ≠ j, gdzie I jest zbiorem numerów węzłów systemu testowego (liczby od 1 do 14), X ∈ {P, Q}, zawiera tab. 1. Zarówno wskaźniki κPij i, j ∈ I i ≠ j, jak i wskaźniki κQij i, j ∈ I i ≠ j przyjmują wartości dodatnie oraz ujemne. Ujemne wartości wskaźników κPij i, j I i ≠ j albo wskaźników κQij i, j ∈ I i ≠ j oznaczają, że w rozpatrywanym systemie testowym są gałęzie, w których – przeciętnie biorąc – zmiany przepływów mocy czynnej albo biernej zachodzą w kierunku przeciwnym do zmian obciążenia w węzłach systemu, w szczególności następuje zmniejszenie przepływów mocy czynnej albo biernej wraz ze wzrostem obciążenia w węzłach
T. Okoń, K. Wilkosz | Acta Energetica 2/27 (2016) | translation 166–170
systemu. Analizując wartości wskaźników κPij i, j ∈ I i ≠ j oraz wskaźników κQij i, j ∈ I i ≠ j, można zauważyć znaczne ich różnice dla różnych gałęzi. Stosunek wartości maksymalnej do wartości minimalnej modułu dla wskaźnika κPij wynosi 47,4, a dla wskaźnika κQij – 591,7. W celu wyodrębnienia grup gałęzi systemu testowego o podobnych wartościach wskaźników κPij i, j ∈ I i ≠ j albo wskaźników κQij i, j ∈ I i ≠ j przeprowadzono procedurę klasteryzacji hierarchicznej. Przyjęto przy tym założenie, że: (5) gdzie:
, – odpowiednio, minimalna i maksymalna wartość wskaźnika κXij dla gałęzi grupy Kl; p – stała; w przykładzie obliczeniowym przyjęto p = 0,2; κX max – maksymalna wartość wskaźnika κXij i, j ∈ I i ≠ j. Procedura klasteryzacji jest realizowana osobno z punktu widzenia każdego ze wskazanych wcześniej wskaźników. W obu przypadkach klasteryzacji w pierwszym kroku wyodrębniane są trzy grupy gałęzi w systemie testowym: • gałęzie, dla których κXij > 0,05 κXmax i, j ∈ I i ≠ j, gdzie κXmax jest największą z wartości wskaźników κXij i, j ∈ I i ≠ j • gałęzie, dla których 0 ≤ κXij ≤ 0,05 κXmax i, j ∈ I i ≠ j • gałęzie, dla których κXij < 0 i, j ∈ I i ≠ j.
e
1
2
3
4
4
5
6
W wyniku klasteryzacji gałęzi z punktu widzenia wskaźników κPij i, j ∈ I i ≠ j, jak również klasteryzacji gałęzi z punktu widzenia wskaźników κQij i, j ∈ I i ≠ j, otrzymywano 6 grup gałęzi. W obu przypadkach najmniejsza liczba gałęzi w grupie to 1. Tą gałęzią, która samodzielnie stanowi grupę, jest gałąź 1–2. Dla gałęzi 1–2 wskaźnik κP12 ma wartość istotnie większą od wartości wskaźników κPij wyznaczonych dla innych gałęzi. Taka sama sytuacja jest w odniesieniu do wskaźnika κQ12. Dla wyróżnionych w tab. 2 dla kroku 4. grup gałęzi K 1–K 4 wskaźniki κPij są większe od zera. Im niższy numer grupy, tym wskaźniki κPij są większe. W grupie K5 są gałęzie, dla których wskaźniki κPij są dodatnie, lecz bliskie zeru. W grupie K6 są gałęzie, dla których wskaźniki κPij są z kolei mniejsze od zera. Analiza pokazuje, że gałęzie z grup K1–K4 stanowią spójny obszar sieci. W przypadku zwiększenia obciążenia w węzłach systemu najbardziej obciążana jest gałąź
Grupa gałęzi
L
3
Wykorzystując metodę k-średnich, w kolejnych krokach klasteryzacji hierarchicznej w pierwszej z wymienionych wcześniej grup gałęzi wyodrębniono podgrupy. Efekty klasteryzacji hierarchicznej podano w tab. 2 oraz 3. W tab. 2 i 3 pogrubioną czcionką oznaczone są gałęzie tych grup, których zawartość nie zmienia się już w kolejnych krokach klasteryzacji.
e
1–2, 1–5, 2–3, 2–4, 2–5, 4–5, 4–7, 4–9, 5–6, 6–11, 6–12, 6–13, 7–9, 9–10, 9–14
0,211
0,067
0,749
7–8, 13–14
0,008
0
0,016
3–4, 10–11, 12–13
–0,037
–0,071
1–2, 1–5, 5–6
0,507
2–3, 2–4, 2–5, 4–5, 4–7, 4–9, 6–11, 6–12, 6–13, 7–9, 9–10, 9–14
0,137
7–8, 13–14
0,008
0
0,016
3–4, 10–11, 12–13
–0,037
–0,071
–0,015
1–2, 1–5, 5–6
0,507
0,358
0,749
2–3, 2–4, 2–5, 4–7, 7–9
0,198
0,170
0,233
4–5, 4–9, 6–11, 6–12, 6–13, 9–10, 9–14
0,095
0,067
0,126
7–8, 13–14
0,008
0
3–4, 10–11, 12–13
–0,037
1–2
1–2, następnie gałęzie 1–5, 5–6 na drodze przepływu energii pomiędzy węzłem 1 oraz 6. W mniejszym stopniu obciążane są gałęzie wyprowadzające energię z węzła 2: 2–3, 2–4 i 2–5 oraz gałęzie 4–7, 7–9 na drodze przepływu energii pomiędzy węzłem 4 oraz 9. Stosunkowo niewielkie obciążenie jest obserwowane w gałęziach: 4–5, 4–9, 6–13, 9–10, 9–14, 6–11, 6–12. Pomijalne zwiększenie obciążenia jest w gałęzi 13–14. Zmniejszenie obciążenia – w sensie średniej – jest w gałęziach 3–4, 10–11, 12–13. Wartości średnie wskaźników κ Pij dla poszczególnych grup K1–K4 są w następującej proporcji: 1:0.52:0.26:0.13. Rozpatrując grupy gałęzi podane w tab. 3, można zauważyć, że podobnie jak to jest w przypadku grup gałęzi z tab. 2, gałęzie z grup K1–K4 mają wskaźniki κQij, które są większe od zera, wskaźniki κQij dla gałęzi z grupy K5 są dodatnie i bliskie zeru, a dla gałęzi z grupy K6 są ujemne. Gałęzie z grup K1–K4 podanych w tab. 3 stanowią spójny obszar sieci. Zwiększenie obciążenia w węzłach sieci pociąga za sobą największe obciążanie gałęzi 1–2, następnie gałęzi: 2–3, 3–4, 9–10 oraz 10–11. W mniejszym stopniu obciążane są gałęzie: 1–5, 2–5, 4–7, 6–11, 6–13 i 9–14 oraz w dalszej kolejności gałęzie: 4–5, 4–9, 5–6. Wartości średnie wskaźników κ Qij dla poszczególnych grup K1–K4 są w następującej proporcji: 1:0.53:0.27:0.09.
Grupa gałęzi
L
1–2, 1–5, 2–3, 2–5, 3–4, 4–5, 4–7, 4–9, 5–6, 6–11, 6–13, 9–10, 9–14, 10–11
0,108
0,023
0,302
6–12, 7–9, 13–14
0,004
0,001
0,008
–0,015
2–4, 7–8, 12–13
–0,049
–0,086
–0,020
0,358
0,749
1–2, 2–3, 3–4, 9–10, 10–11
0,188
0,147
0,302
0,067
0,233
1–5, 2–5, 4–5, 4–7, 4–9, 5–6, 6–11, 6–13, 9–14
0,064
0,023
0,112
6–12, 7–9, 13–14
0,004
0,001
0,008
2–4, 7–8, 12–13
–0,049
–0,086
–0,020
1–2, 2–3, 3–4, 9–10, 10–11
0,188
0,147
0,302
1–5, 2–5, 4–7, 6–11, 6–13, 9–14
0,081
0,062
0,112
4–5, 4–9, 5–6
0,028
0,023
0,036
0,016
6–12, 7–9, 13–14
0,004
0,001
0,008
–0,071
–0,015
2–4, 7–8, 12–13
–0,049
–0,086
–0,020
0,749
0,749
0,749
1–2
0,302
0,302
0,302
1–5, 5–6
0,386
0,358
0,415
2–3, 3–4, 9–10, 10–11
0,159
0,147
0,172
2–3, 2–4, 2–5, 4–7, 7–9
0,198
0,170
0,233
1–5, 2–5, 4–7, 6–11, 6–13, 9–14
0,081
0,062
0,112
4–5, 4–9, 5–6
0,028
0,023
0,036
1
2
3
4
3
4
5
6
4–5, 4–9, 6–11, 6–12, 6–13, 9–10, 9–14
0,095
0,067
0,126
7–8, 13–14
0,008
0
0,016
6–12, 7–9, 13–14
0,004
0,001
0,008
3–4, 10–11, 12–13
–0,037
–0,071
–0,015
2–4, 7–8, 12–13
–0,049
–0,086
–0,020
Tab. 2. Grupy gałęzi i ich parametry wyodrębniane w czasie kolejnych etapów klasteryzacji hierarchicznej, gdy rozpatrywany jest wskaźnik κPij
Tab. 3. Grupy gałęzi i ich parametry wyodrębniane w czasie kolejnych kroków klasteryzacji hierarchicznej, gdy rozpatrywany jest wskaźnik κQij
173
T. Okoń, K. Wilkosz | Acta Energetica 2/27 (2016) | translation 166–170
Analizując zawartość tab. 2 oraz tab. 3, można zauważyć, że w przypadku rozpatrywania mocy biernej sytuacja różni się od tej, która ma miejsce, gdy rozpatrywana jest moc czynna. Gałąź 1–2 należy do grupy K1 w przypadku rozpatrywania mocy czynnej, jak również rozpatrywania mocy biernej. Jednak zawartość grupy K2 jest inna w przypadku rozpatrywania mocy czynnej niż w przypadku rozpatrywania mocy biernej. Zawartości grup K3 oraz K4 częściowo pokrywają się w obu rozpatrywanych przypadkach. W każdym z tych przypadków do grupy K3 należą gałęzie: 2–5 oraz 4–7, a do grupy K4 gałęzie: 4–5 oraz 4–9. W przypadku mocy czynnej gałęzie grup K1 oraz K2 są w spójnym podobszarze obszaru obejmującym gałęzie grup K1–K4. W przypadku mocy biernej gałąź z grupy K1 oraz dwie gałęzie z grupy K2 tworzą spójny obszar systemu testowego, podczas gdy dwie pozostałe gałęzie z grupy K2, połączone ze sobą, są oddzielone od wcześniej wymienionego obszaru przez gałęzie należące do grupy K4, a więc przez gałęzie, których wskaźniki κQij są stosunkowo niewielkie. W systemie testowym są zatem dwa obszary, słabo ze sobą powiązane, w których są większe przepływy mocy biernej. W jednym z nich moc bierna jest pobierana z obu generatorów obecnych w systemie. W drugim moc bierna jest dostarczana przez baterię kondensatorów oraz kompensator synchroniczny.
Wnioski Na potrzeby znajdowania obszarów w systemie elektroenergetycznym o różnym stopniu obciążenia można wykorzystywać pochodne przepływu mocy w gałęzi po mocach węzłowych. Definiowany na podstawie tych pochodnych wskaźnik pozwala przeprowadzić klasteryzację gałęzi prowadzącą do wyodrębnienia grup gałęzi systemu o podobnych właściwościach z punktu widzenia ich obciążania w wyniku zmiany mocy węzłowych. Przedstawiona w pracy oryginalna metoda umożliwiająca wskazywanie takich grup gałęzi jest stosunkowo prosta. Umożliwia ona efektywne znajdowanie spójnych obszarów systemu o określonych wcześniej właściwościach. Bibliografia 1. Wilkosz K., Metoda wykrywania charakterystycznych obszarów w sieci elektroenergetycznej, Przegląd Elektrotechniczny 2012, nr 9a, s. 97–102. 2. Ezhilarasi G.A., Swarup K.S., Distributed Load Flow using Partitioning and Equivalencing of Power Networks, 16th National Power System Conference, Hyderabad, India 2010, s. 335–340. 3. Zhongxu L. i in., Network Partition for Distributed Reactive Power Optimization in Power Systems, IEEE International Conference on Networking, Sensing and
Control, Hainan, China, 6–8 April 2008, s. 385–388. 4. Zambroni de Souza A.C., Quintana V.H., New technique of network partitioning for voltage collapse margin calculations. IEE proceedings-Generation, Transmission and Distribution 1994, Vol. 141, No. 6, s. 630–636. 5. Sanchez-Garcia R.J. i in., Hierarchical Spectral Clustering of Power Grids, IEEE Trans. on Power Systems 2014, Vol. 29, nr 5, s. 2229–2237. 6. Hartigan J.A., Wong M.A., Algorithm AS 136: A K-Means Clustering Algorithm, Journal of the Royal Statistical Society 1979, Series C, Vol. 28, No. 1, s. 100–108. 7. Cormen T.H. i in., Wprowadzenie do algorytmów, PWN, Warszawa 2014. 8. http://www.ee.washington.edu/research/ pstca/pf14. Podziękowania Wyniki pracy wykorzystano w obliczeniach optymalizacji rozpływu mocy biernej w systemie elektroenergetycznym wykonanych przy użyciu zasobów udostępnionych przez Wrocławskie Centrum SieciowoSuperkomputerowe (http://wcss.pl), grant obliczeniowy nr 318.
Tomasz Okoń
dr inż. Politechnika Wrocławska e-mail: Tomasz.Okon@pwr.edu.pl Ukończył studia magisterskie na Wydziale Elektrycznym Politechniki Wrocławskiej. Stopień doktora nauk technicznych otrzymał w Instytucie Energoelektryki Politechniki Wrocławskiej. Jest członkiem IEEE (Institute of Electrical and Electronics Engineers). Interesuje się zagadnieniami modelowania i analiz systemu elektroenergetycznego.
Kazimierz Wilkosz
prof. dr hab. inż. Politechnika Wrocławska e-mail: Kazimierz.Wilkosz@pwr.edu.pl Naukowo związany z Politechniką Wrocławską. Członek SEP, CIGRE, IEEE, sekretarz naukowy Sekcji Systemów Elektroenergetycznych Komitetu Elektrotechniki PAN. Zasiada w komitetach naukowych wielu konferencji krajowych oraz zagranicznych. Pełni funkcje recenzenta prac zgłaszanych do czasopism (m.in. IEEE Transactions on Power Delivery, The International Journal for Computation and Mathematics in Electrical and Electronic Engineering) oraz na konferencje (m.in. PSCC, ICHQP, EPQU). Jego zainteresowania naukowe oraz działalność dydaktyczna koncentrują się w zakresie modelowania i analiz systemu elektroenergetycznego oraz zastosowań informatyki w elektroenergetyce.
174
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | 175–180
Balancing the Unbalanced Supply of Generation Sources – Additional Costs in a Competitive Energy Market
Authors Tomasz Rubanowicz Zbigniew Prondziński
Keywords trade balancing, balancing mechanism unit, electricity market
Abstract Trade balancing of balancing mechanism units entails additional costs of electricity purchases for consumers’ own needs. Trading companies constantly look for effective tools to reduce the costs of their operations in the electricity market through supply or demand management. Balancing the unbalanced supply of generation sources refers not only to the area of balancing market settlements, but also to changes in the demand for electricity from the wholesale market in a longer time horizon. The imbalance of supply or demand is defined as a deviation resulting from a change in the power output of various generation sources in the local market, and a change in power consumption by customers compared to its earlier forecast. Two areas (periods) must be distinguished as parts of a balancing mechanism unit’s balancing, i.e. balancing of changing long-term prediction of demand for electricity with generation sources output, and balancing of short-term (daily) prediction and the actual output of generation sources. In the balancing process a variety of generation and load units available on the local market is utilised. The paper discusses the costs of balancing arising for trading companies, and presents a conceptual possibility of a balancing mechanism unit’s balancing taking into account renewable energy sources selected from the local market.
DOI: 10.12736/issn.2300-3022.2016216
Electricity market For several years, renewable power, in particular wind power, has been very popular among investors throughout the world [1]. The global trends in the development of renewable energy sources are also visible in Poland. This result is influenced by several key factors, namely the financial support mechanism at the level of initial investment and during later plant operation in the form of green certificates and other legal regulations that favour investors [2, 3, 4]. The legislation implemented mechanisms to support the operation of renewable energy sources producers on the electricity market by defining an ex officio seller. This type of seller is obliged to purchase electricity from renewable energy sources at a price [12]. Until an ex officio seller is selected, the entity obliged to purchase electricity from the renewable energy sources, referred to in Article 9(6) of the Act [2], connected to the distribution or transmission network, is the entity acting as ex officio salesman. This approach applies to each area of the distribution system operator (DSO), in which sellers act as an ex officio seller (Tab. 1). The factors have led to an intense development of renewable energy sources in many countries, just like in Poland. At present
No.
Name of the distribution network operator
Name of the ex officio seller
1
PGE Dystrybucja SA
PGE Obrót SA
2
TAURON Dystrybucja SA
TAURON Sprzedaż sp. z o.o.
3
ENERGA-OPERATOR SA
ENERGA-OBRÓT SA
4
ENEA Operator sp. z o.o.
ENEA SA
Tab. 1. Ex officio sellers in Poland, as of 28 February 2015
neither the Energy Law Act nor any executive act (regulation) specifies in details the rules of co-operation between those entities (renewable energy sources producer and ex officio seller) or defines clearly which entity should cover the costs related with the participation of the given generation source in the market, in particular with regards to trade balancing [3, 4]. Trade balancing of balancing mechanism units entails additional costs for trading companies, related to the purchase of electricity for the purposes of end customers. Eventually, trading companies offload those balancing costs to the customers, but one should be aware that the companies operate on the competitive electricity market. 175
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | 175–180
The inclusion of the costs incurred by the ex officio seller, related with renewable energy sources balancing and caused by the deviations of wind generation from the contracting planned in the annual and daily forecasts, may cause the electricity prices in the products offered to the customer to become uncompetitive in comparison to other offers or significantly reduce the sales margin. Electricity from unstable generation sources in an annual plan does not have the same market value as the same volume from stable generation sources (e.g. biogas power plants, hydro power plants). Because ex officio sellers are charged with the costs of balancing wind and other renewable energy sources, they have limited capabilities to compete against other sellers. In consequence, such a situation could cause ex officio sellers to lose customers in the future. The best solution is to use market principles that would impose no additional obligations that other sellers do not have on any entity. The sellers should operate according to equal market principles. At present, the ex officio seller on the one hand operates on a competitive market and on the other hand has an imposed obligation that causes those sellers not to have an equal trading position in comparison to other entities competing on the market. The new Renewable Energy Sources Act [11] changes the role of ex officio seller by introducing the notion and function of obliged seller. The seller will no longer be obliged to purchase, under the auction system, electricity from renewable energy sources producers with the sources electrical capacity of more than 500 kW. This type of approach solves the problem of trade balancing only partially, because sources of less than 500 kW remain privileged on the market at the expense of other participants. In case of the sources of less than 500 kW, ex officio sellers remain obliged to purchase electricity without being able to charge that group of producers with trade balancing costs. The estimates show that nowadays the number of entities in that group of market participants is 400–500 nationally, with the total electrical capacity of approx. 400 MW. Considering the very favourable conditions of the support system for households, including the prosumers, under the Renewable Energy Sources Act [11], one should additionally expect a dynamic growth in the number of participants of this group after 1 January 2016. The incurred costs of electricity purchases will be compensated for by the renewable energy billing operator. The Renewable Energy Sources Act [11] still lacks precise and clear provisions related to the co-operation between the obliged seller and the renewable energy sources producer that decides to remain in the current support system with regards to the costs of balancing those sources.
party to buying and selling transactions in the balancing market, so in the billing process it overloads part of the costs incurred due to individual trade balancing entities (POB). The POBs participate in the balancing market and every renewable energy sources producer is obliged to indicate the POB of the generation unit. The balancing process also includes various forecast models and weather conditions that influence the generation source operation [9, 10]. Short-term forecasts include various extreme weather conditions, when the wind velocity increases rapidly due to an incoming atmospheric front or when it decreases and reaches the state of windlessness (silence). Extreme phenomena can assume various intense physical values in short time intervals. The wind velocity has a strong influence on the power generation capacity of wind power plants, of which the power is expressed as the cube of wind velocity [6]. In recent years wind power plants have the highest development dynamics of all renewable sources. This type of sources is characterised by a high variety of power generation capacity, so those sources are classified as hardly predictable and unstable [5]. For instance, wind power plants are prone to strong, casual wind blows, which could cause a power plant to shut-down or become damaged. In such situations the scale effect can cause critical situations. The increasing number of wind power plants in the power system (connected to the distribution and transmission grids) implies new engineering challenges, not only in terms of the technical balancing of the system, but also in terms of trade balancing. Two areas (periods) must be distinguished as parts of the balancing mechanism unit’s balancing, i.e. balancing of the changing longterm prediction of demand for electricity with the generation sources output, and balancing of the short-term (daily) prediction and the actual output of generation sources. A major challenge for trading companies is the inclusion in long-term forecast (e.g. of the annual electricity output in unstable sources, as a future change in those forecasts implies incurring additional balancing costs). It is obvious that long-term forecasts are highly inconfident (higher error) and they will always be less probable than shortterm forecasts. The long-term prediction of power demand, related with the power consumption of the customers of the
Type of the renewable energy source
Installed capacity [MW]
wind power plants
3834
biomass power plants
1008
Trade balancing – the daily-hourly market
hydro power plants
977
A transmission system operator (TSO) is responsible, under the Act [2], for the power safety of the country. Under the prepared procedures and operations of technical balancing, it ensures a continuous equilibrium between the total energy consumed from and contributed to the system. The structure of billing processes was described e.g. in studies [7, 8]. Besides the issue of real-time technical balancing, one should also consider the trading aspect, so first of all the daily-hourly market. The TSO is
biogas power plants
189
photovoltaic power plants
21
Total
6029
176
Tab. 2. The installed capacity of the renewable energy sources across the country (according to the Energy Regulatory Office) as of 10 March 2015
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | 175–180
given company, is subject to a significantly lower error than the output of renewable energy sources, wind-based sources in particular. A change in the conditions described above entails the necessity of changing trading positions on the wholesale market, which causes financial losses on the part of the ex officio seller. One should note that there is a negative correlation between the generation of electricity and its prices on the next
Fig. 1. Electricity generation by renewable energy sources in different quarters of the same year: a) wind power plant electricity generation (WIL), b) hydro power plant electricity generation (MEW), c) biogas power plant electricity generation (BGS)
day market (RDN). A high generation of electricity from windbased sources causes the electricity price in specific hours to have a lower market value than the last or next day prices under the given weather conditions. Balancing the unbalanced supply of generation sources refers not only to the area of balancing market settlements, but also to changes in the demand for electricity from the wholesale market in a longer time horizon. The imbalance of supply or demand is defined as a deviation resulting from a change in the power output of various generation sources in the local market, and a change in the power consumption by customers in relation to its earlier forecast. Tab. 2 shows the installed capacities of generation sources in Poland. Fig. 1a–c show the annual electricity generation of various renewable energy sources in different quarters, including: wind power plants (1a-WIL), biogas power plants (1b-BGS) and small hydro power plants (1c-MEW). Experienced market operators include the annual electricity generation characteristics in the long-term forecasts, according to renewable energy sources types. Fig. 2a–c show the monthly electricity generation of the particular renewable energy sources, which illustrates the generation variability scale during the year. Fig. 3a–d show the daily-hourly electricity generation of the renewably energy sources during one trading day (24 hours with a 1-hour increment), i.e. a) and b) wind power plant (WIL), c) hydro power plant (MEW) and d) biogas power plant (BGS) with a short-term forecast. As one may see, the daily-hourly electricity generation is significantly more variable than the annual or monthly one. With a daily-hourly actual electricity generation, one may see the distinctive features of each renewable energy source plant. By analysing the operation of the particular sources, one may see to what extent this type of generation sources is sensitive to variable weather condition throughout the year. It is common knowledge that weather conditions change every year, which results in an inevitable forecast error. Among the renewable energy sources, it is the most difficult to predict the generation of wind power plants, which is confirmed by the case in Fig. 3a. Such a high difference between the forecast and the generation is due to a weather forecast error and not to the properties of the forecasting model. An erroneous electricity generation forecast increased the trading company’s costs related to the billing market; it had to purchase electricity in peak hours (the most expensive). With a precise weather forecast it is possible to obtain the expected forecast quality level (Fig. 3b). Hydro power plants (Fig. 3c) and biogas power plants (Fig. 3d) offer a significantly more predictable generation, which results in better forecasts (higher event occurrence probability). Having real-time data (online) and access to professional weather data, mainly the forecasts of wind velocity and direction, clouding, temperature and precipitation, allow obtaining a more precise generation forecast and thus an optimum trading position on the billing market. The measurement data acquired from sites in real time could be used to improve the trading position, e.g. in the SPOT market, to reduce balancing costs. Within its own balancing mechanism 177
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | 175–180
Fig. 2. Monthly electricity generation of renewable energy sources, i.e.: a) wind power plant, b) hydro power plant and c) biogas power plant
unit, the seller balances the variable electricity demand of customers and the electricity generation in the local market, especially in the wholesale market and the billing market. In the balancing process, it is possible to use various products, e.g. the DSR (Demand-Side Response) reduction management mechanism or the reverse effect of supply management [14, 15]. In the balancing process a variety of generation and load units are utilised on the local market [1, 13], i.e.: 1. DSR – supply reduction; under the condition that it applies to one direction only (decreased power purchases on the next day market or the billing market) 2. Pumped storage power plants – the operation in pump and generation cycles allows the seller to change position on the wholesale market and the billing market in both directions, under the condition that it is related rather to the particular power without adjustment capacities (power step change magnitude); this type of units are called to work for system purposes to override system constraints 3. Energy storage – allows the seller to change position in the wholesale market and the billing market in both 178
directions – advantage: the capacity of changing deviation levels smoothly 4. Cogeneration power plants, gas power plants, steam-gas power plants – allow the trading company to change position on the wholesale market and the billing market in both directions under the condition of a correct inclusion of the generation plant operation in co-ordination monthly/daily plans (some limitation of power availability in both directions). The advantage is a smooth power adjustment while the disadvantage is limited availability due to the support system, red and yellow certificates 5. Flow-through, and reservoir and flow-through hydro power plants – limited adjustability due to water permits and the necessity of maximising generation due to the renewable energy source origin certificates 6. Other renewable energy sources (biomass, biogas, photovoltaics) – limited adjustability due to the maximisation of electricity generation and renewable energy sources support (green certificates).
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | 175–180
The imbalance of supply or demand is defined as a deviation resulting from a change in the power output of various generation sources in the local market (within the balancing mechanism unit), and a change in the power consumption by customers compared to its earlier forecast.
Conclusions Using various renewable energy sources to balance the unstable electricity supply it is possible to reduce the costs of a seller’s operation on the billing market for the competitive
electricity market. This effect can be obtained by aggregating generation and load sources within one balancing mechanism unit. An alternative way of reducing the balancing costs could be a co-operation between the POB and the business entity being both a consumer and a generator of electricity. In this case, a change in trading company’s level of electricity demand on the wholesale market can be corrected by changing the energy generation at that source. The competitive electricity market is continuously developing not only through a growing number of sellers, but also through an increasing awareness
Fig. 3. The daily-hourly electricity generation of the renewable energy sources in one trading day with a forecast: a) and b) wind power plant, c) hydro power plant and d) biogas power plant 179
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | 175–180
of their rights among the customers. One of the key factors considered by the customers opting to change their seller is the electricity price. Therefore, it is unreasonable to impose an obligation onto the group of trading companies that could have a negative impact on their trading position despite their market potential. The cost of balancing related to the variability of the electricity demand in customers and the electricity generation in sources on the local market, especially the renewable energy sources, will always be one of the key and inevitable factors of the electricity market. The legislation should clearly and precisely define the principles of charging market participants, especially producers, with balancing costs. In the long term, charging the obliged sellers with balancing costs could cause them to lose customers to other competing sellers. This effect will be influenced by an electricity sales offer including balancing costs. Such a customer attitude will demonstrate a mature awareness of one’s own involvement in the electricity market, which is both desirable and clear in a developed market. REFERENCES
1. F. Trieb, H. Müller-Steinhagen, “Sustainable Electricity and Water for Europe, Middle East and North Africa”, EU-MENA Cooperation for Sustainable Electricity and Water, Springer-Verlag, November 2007, pp. 205–219. 2. Act of 10 April 1997, the Energy Law, Journal of Laws of 1997, No. 54, item 348. 3. Regulation of the Minister of Economy of 4 May 2007 on the detailed conditions for the operation of the power system, Journal of Laws of 2007, No. 93, item 623, as amended. 4. Regulation of the Minister of Economy of 31 October 2007 amending the regulation on the detailed principles of forming and calculating tariffs and billings in the electricity trade, Journal of Laws of 2007, No. 207, item 1497 and 1498. 5. K. Horodko, W. Sztuba, “Analiza scenariuszy rozwoju polskiej energetyki odnawialnej, Raport TPA Horwath” [An analysis of the
development scenarios for the renewable energy in Poland, TPA Horwath Report], Polish Wind Energy Association, August 2013, Warszawa. 6. “Praca systemu elektroenergetycznego w przypadku ekstremalnych wahań generacji wiatrowej” [Operation of a power system under extreme fluctuations of wind-based generation], Enertrag AG, Polish Wind Energy Association, January 2008. 7. M. Rogulski, K. Smolira, “Korekta programów jednostek wytwórczych na przykładzie rynku z rozproszonym zapotrzebowaniem na energię elektryczną” [The correction of generation unit programs on the example of a dispersed electricity demand market], Systems Journal of Transdisciplinary Systems Science, Warsaw University of Technology 2004. 8. E. Toczyłowski, R. Karpuk, “Planistyczne i rozliczeniowe bilansowanie pozycji handlowych odbiorców rynku energii elektrycznej” [Planning- and billing-focused balacing of customers trade positions on the electricity market], Rynek Energii, No. 6 (115), 2014. 9. E. Bogalecka, T. Rubanowicz, “Neuronowy model mocy farmy wiatrowej [Neural model of wind farm power]”, Mechanik, 2010, pp. 579–586. 10. T. Rubanowicz, Z. Prondziński, “Zryczałtowana usługa operatora handlowo-technicznego na potrzeby rozwoju energetyki wiatrowej w Polsce” [The flat-rate service of commercial and technical operator for the development of wind power generation in Poland], Acta Energetica, No. 2/19, 2014, pp. 140–148. 11. Act of 20 February 2015 on renewable energy sources, Journal of Laws of 2015, item 478. 12. Energy Market Information Centre [online], (http://www.cire.pl). 13. B. Ernst, F. Reyer, J. Vanzetta, “Wind power and photovoltaic prediction tools for balancing and grid operation”, RWE Transportnetz Strom GmbH, Germany, CIGRE, July 2009, pp. 1–9. 14. M. Wrocławski, “Lokalne obszary bilansowania” [Local balancing areas], Energia Elektryczna, October 2012, Energa-Operator SA. 15. A. Midera, “Aktywny odbiorca energii elektrycznej na rynku bilansującym w Polsce” [An active electricity recipient on the balacing market in Poland], PSE SA, Elektroenergetyka, No. 4 (10), 2011.
Tomasz Rubanowicz ENERGA-OBRÓT SA email: tomasz.rubanowicz@energa.pl Graduated with the Master of Science Engineer degree (2006) in mechatronics from the WAT Military University of Technology in Warsaw, subsequently a PhD student at the Faculty of Electrical and Control Engineering at Gdańsk University Technology. Currently employed at ENERGA-OBRÓT SA. Interested in artificial intelligence applications for forecasting the generation capacity of renewable energy sources, the mechanics of the electricity and gas fuel market and marine wind energy technology.
Zbigniew Prondziński ENERGA-OBRÓT SA email: zbigniew.prondzinski@energa.pl Graduated in electric power engineering from the Faculty of Electrical and Control Engineering at Gdańsk University of Technology. Completed postgraduate course in enterprise finance management and obtained an MBA diploma. He holds a commodity exchange broker licence. Since 1996 involved in the power industry. His scope of interests includes primarily the mechanics of the electricity and gas fuel market.
180
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | translation 175–180
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 175–180. When referring to the article please refer to the original text. PL
Bilansowanie niezrównoważonej podaży źródeł wytwórczych – dodatkowe koszty na konkurencyjnym rynku energii Autorzy
Tomasz Rubanowicz Zbigniew Prondziński
Słowa kluczowe
bilansowanie handlowe, jednostka grafikowa, rynek energii elektrycznej
Streszczenie
Prowadzenie bilansowania handlowego jednostek grafikowych wiąże się z ponoszeniem dodatkowych kosztów związanych z zakupem energii elektrycznej na potrzeby własne klientów. Spółki obrotowe nieustannie poszukują skutecznych narzędzi umożliwiających zmniejszanie kosztów funkcjonowania na rynku energii elektrycznej, m.in. poprzez zarządzanie podażą lub popytem. Bilansowanie niezrównoważonej podaży źródeł wytwórczych nie dotyczy wyłącznie obszaru rozliczeń na rynku bilansującym, ale również zmian zapotrzebowania na energię elektryczną z rynku hurtowego w dłuższym horyzoncie czasowym. Niezrównoważenie podaży czy też popytu jest rozumiane jako odchylenia wynikające ze zmiany poziomu generacji mocy różnych źródeł wytwórczych na rynku lokalnym oraz zmiany wielkości zużycia energii elektrycznej przez klientów w odniesieniu do wcześniej wykonanych prognoz. W ramach bilansowania jednostki grafikowej należy wyodrębnić dwa obszary (okresy), tj. bilansowanie zmieniającej się długoterminowej predykcji zapotrzebowania na energię elektryczną wraz z generacją mocy źródeł wytwórczych oraz krótkoterminowej (dobowej) predykcji i rzeczywistej generacji mocy źródeł wytwórczych. W procesie bilansowania wykorzystuje się różne dostępne jednostki wytwórcze i odbiorcze na rynku lokalnym. W artykule omówiono koszty związane z szeroko rozumianym bilansowaniem powstające po stronie spółek obrotu oraz przedstawiono koncepcyjną możliwość bilansowania jednostki grafikowej z uwzględnieniem wybranych odnawialnych źródeł energii z rynku lokalnego.
Rynek energii elektrycznej Od kilku lat energetyka odnawialna, a w szczególności energetyka wiatrowa, cieszy się dużym zainteresowaniem wśród inwestorów na całym świecie [1]. Światowe trendy rozwoju odnawialnych źródeł energii (OZE) można zaobserwować również w Polsce. Wpływ na ten efekt ma kilka kluczowych czynników, tj. mechanizm wsparcia finansowego na poziomie początkowej inwestycji, jak i późniejszej eksploatacji obiektu, w postaci np. zielonych certyfikatów, oraz sprzyjające inwestorom inne regulacje prawne [2, 3, 4]. Ustawodawca wprowadził mechanizmy wspierające funkcjonowanie wytwórców OZE na rynku energii elektrycznej poprzez zdefiniowanie sprzedawcy z urzędu. Tego typu sprzedawca został zobligowany do zakupu energii elektrycznej z OZE w cenie [12]. Do dnia wyłonienia sprzedawcy z urzędu podmiotem obowiązanym do zakupu energii elektrycznej w OZE, o których mowa w art. 9 ust. 6 ustawy [2], przyłączonych do sieci dystrybucyjnej lub przesyłowej, jest podmiot wykonujący zadania sprzedawcy z urzędu. Takie podejście dotyczy każdego z obszarów operatora sieci dystrybucyjnej (OSD), na którym sprzedawcy pełnią funkcję sprzedawcy z urzędu (tab. 1). Czynniki te doprowadziły do intensywnego rozwoju odnawialnych źródeł energii (OZE) w wielu krajach, podobnie jak w Polsce. Obecnie ustawa Prawo energetyczne ani żaden akt wykonawczy (rozporządzenie) nie precyzuje w sposób szczegółowy zasad współpracy pomiędzy tymi podmiotami (wytwórcą OZE a sprzedawcą z urzędu), jak również nie określa jednoznacznie, który podmiot ma ponosić koszty związane z uczestnictwem danego źródła wytwórczego na rynku, w szczególności w zakresie bilansowania handlowego [3, 4].
Prowadzenie bilansowania handlowego jednostek grafikowych (JG) wiąże się z ponoszeniem przez spółki obrotu dodatkowych kosztów związanych z zakupem energii elektrycznej na potrzeby odbiorców końcowych. Ostatecznie niniejsze koszty bilansowania spółki obrotu przenoszą na klientów, ale należy mieć na uwadze, iż spółki funkcjonują na konkurencyjnym rynku energii elektrycznej. Uwzględnienie poniesionych kosztów przez sprzedawcę z urzędu, związanych z bilansowaniem OZE i wynikających z odchyleń generacji wiatrowej od planowanej kontraktacji w prognozie rocznej i dobowej, może sprawić, iż cena energii elektrycznej w oferowanych produktach klientowi nie będzie konkurencyjna względem innych ofert rynkowych lub znacząco zmniejszy marżę na sprzedaży. Energia elektryczna ze źródeł o niespokojnej generacji w planie rocznym nie ma takiej wartości na rynku jak ten sam wolumen ze źródeł o stabilnej generacji (np. biogazownie, elektrownie wodne). Poprzez to, że sprzedawcy z urzędu obciążani są kosztami bilansowania źródeł wiatrowych i innych OZE, mają ograniczone możliwości konkurowania z pozostałymi sprzedawcami. W konsekwencji taka sytuacja może skutkować w przyszłości utratą klientów przez sprzedawców z urzędu. Najlepszym rozwiązaniem jest zastosowanie zasad rynkowych, które nie nakładałyby na żaden podmiot dodatkowych obowiązków, których nie mają pozostali sprzedawcy. Sprzedawcy powinni działać na równych zasadach rynkowych. Dziś sprzedawca z urzędu z jednej strony działa na rynku konkurencyjnym, a z drugiej strony nałożone jest na niego obligo, nieprecyzyjnie sformułowane, które powoduje, że ci sprzedawcy nie mają równej pozycji handlowej względem innych podmiotów konkurujących na rynku.
Lp.
Nazwa operatora sieci dystrybucyjnej
Nazwa sprzedawcy z urzędu
1
PGE Dystrybucja SA
PGE Obrót SA
2
TAURON Dystrybucja SA
TAURON Sprzedaż sp. z o.o.
3
ENERGA-OPERATOR SA
ENERGA-OBRÓT SA
4
ENEA Operator sp. z o.o.
ENEA SA
Tab. 1. Sprzedawcy z urzędu w Polsce, stan na 28 lutego 2015 roku
Nowa ustawa o OZE [11] zmienia rolę sprzedawcy z urzędu poprzez wprowadzenie pojęcia i funkcji sprzedawcy zobowiązanego. Sprzedawca ten nie będzie miał już obowiązku zakupu energii elektrycznej w ramach systemu aukcyjnego od wytwórców OZE, którzy mają źródła o mocy zainstalowanej większej niż 500 kW. Tego typu podejście tylko częściowo rozwiązuje problem bilansowania handlowego, bo źródła o mniejszej mocy niż 500 kW nadal mają uprzywilejowaną pozycję na rynku kosztem innych uczestników. W przypadku źródeł poniżej 500 kW sprzedawcy z urzędu nadal będą zobligowani do odkupienia energii elektrycznej, bez możliwości obciążenia tej grupy wytwórców kosztami bilansowania handlowego. Szacunki wskazują, że na dziś liczba podmiotów z tej grupy uczestników rynku mieści 400–500 podmiotów w skali kraju, o sumarycznej mocy zainstalowanej ok. 400 MW. Mając na uwadze bardzo korzystne warunki systemu wsparcia dla gospodarstw domowych, w tym prosumentów w ramach ustawy o OZE [11], dodatkowo należy spodziewać się po 1 stycznia 2016 roku dynamicznego wzrostu liczby uczestników tej grupy. Poniesione koszty zakupu
181
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | translation 175–180
Rodzaj OZE
Moc zainstalowana [MW]
elektrownie wiatrowe
3834
elektrownie biomasowe
1008
elektrownie wodne
977
elektrownie biogazowe
189
elektrownie fotowoltaiczne
21
Razem
a)
6029
Tab. 2. Moc zainstalowana w OZE na terenie kraju (dane wg URE), stan na 10 marca 2015 roku
b) energii elektrycznej będą rekompensowane przez operatora rozliczeń energii odnawialnej (OREO). W ustawie o OZE [11] nadal brakuje precyzyjnych i klarownych zapisów dotyczących współpracy pomiędzy sprzedawcą zobowiązanym a wytwórcą OZE, który zdecyduje się na pozostanie w obecnym systemie wsparcia w zakresie kosztów bilansowania tych źródeł. Bilansowanie handlowe – rynek dobowo-godzinowy Operator sieci przesyłowej (OSP) jest odpowiedzialny, zgodnie z ustawą [2], za bezpieczeństwo energetyczne kraju. W ramach opracowanych procedur i czynności realizujących bilansowanie techniczne zapewnia ciągłą równowagę pomiędzy całkowitą energią odebraną i wprowadzoną do systemu. Strukturę procesów bilansowych opisano m.in. w pracach [7, 8]. Oprócz kwestii technicznego bilansowania w czasie rzeczywistym należy również mieć na uwadze aspekt handlowy, czyli przede wszystkim rynek dobowo-godzinowy. OSP jest stroną transakcji zakupowych i sprzedażowych na rynku bilansującym, stąd też w ramach rozliczeń przenosi część powstałych kosztów z tytułu bilansowania na poszczególne podmioty odpowiedzialne za bilansowanie handlowe (POB). POB są uczestnikami rynku bilansującego (URB), a każdy wytwórca OZE zobowiązany jest do wskazania POB swojej jednostki wytwórczej. W procesie bilansowania uwzględnia się różne modele prognostyczne oraz czynniki meteorologiczne, mające wpływ na pracę źródeł wytwórczych [9, 10]. W prognozach krótkoterminowych bierze się pod uwagę różne ekstremalne sytuacje meteorologiczne, kiedy prędkość wiatru gwałtownie rośnie wraz z nachodzącym frontem atmosferycznym lub też kiedy maleje i osiąga stan bezwietrzny (ciszy). Zjawiska ekstremalne potrafią przyjmować w krótkich odstępach czasowych różne gwałtowne wartości fizyczne. Prędkość wiatru ma silny wpływ na generację mocy wytwórczej elektrowni wiatrowych, których moc wyrażona jest w trzeciej potędze prędkości wiatru [6]. W ostatnich latach elektrownie wiatrowe mają największą dynamikę rozwoju spośród pozostałych źródeł odnawialnych. Tego typu źródła charakteryzują się dużą zmiennością generacyjną mocy wytwórczej, co sprawia, że są to źródła zaliczane do trudno przewidywalnych i niespokojnych [5]. Elektrownie wiatrowe podatne są chociażby na silne
182
c)
Rys. 1. Produkcja energii elektrycznej w OZE w różnych kwartałach jednego roku: a) produkcja energii elektrycznej elektrowni wiatrowej (WIL), b) produkcja energii elektrycznej elektrowni wodnej (MEW), c) produkcja energii elektrycznej elektrowni biogazowej (BGS)
chwilowe podmuchy wiatru, które mogą doprowadzić do wyłączenia siłowni lub jej uszkodzenia. Efekt skali w takich sytuacjach może doprowadzić do sytuacji krytycznych. Rosnąca liczba elektrowni wiatrowych w systemie elektroenergetycznym (przyłączonych do sieci dystrybucyjnych, jak i przesyłowej) niesie ze sobą nowe wyzwania inżynierskie, nie tylko w zakresie bilansowania technicznego systemu, ale także bilansowania handlowego. W ramach bilansowania JG należy wyodrębnić dwa obszary (okresy), tj. bilansowanie zmieniającej się długoterminowej predykcji zapotrzebowania na energię elektryczną wraz z generacją mocy źródeł wytwórczych oraz krótkoterminowej (dobowej) predykcji i rzeczywistej generacji mocy źródeł wytwórczych. Dużym wyzwaniem dla spółek obrotu jest uwzględnienie w prognozach długoterminowych (np. rocznej produkcji energii elektrycznej w źródłach niespokojnych, gdyż
zmiana w przyszłości tych prognoz wiąże się z ponoszeniem dodatkowych kosztów bilansowania). Oczywiste jest, że prognozy długoterminowe są wysoce niepewne (mają większy błąd) i zawsze będą mniej prawdopodobne niż prognozy krótkoterminowe. Predykcja zapotrzebowania na energię, związana z zużyciem energii przez klientów danej spółki, w ujęciu długoterminowym obarczona jest znacznie mniejszym błędem niż generacja OZE, w szczególności dla źródeł wiatrowych. Zmiana opisanych powyżej czynników niesie ze sobą konieczność zmiany pozycji handlowej na rynku hurtowym, co wiąże się z powstawaniem strat finansowych po stronie sprzedawcy z urzędu. Należy zauważyć, że pomiędzy generacją energii elektrycznej a jej cenami na rynku dnia następnego (RDN) występuje ujemna korelacja. Duża produkcja energii elektrycznej przez źródła wiatrowe powoduje, że cena energii elektrycznej
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | translation 175–180
a)
b)
c)
Rys. 2. Miesięczna produkcja energii elektrycznej w OZE, tj.: a) elektrowni wiatrowej, b) elektrowni wodnej oraz c) elektrowni biogazowej
w poszczególnych godzinach ma niższą wartość rynkową w stosunku do cen z dnia poprzedniego lub następnego w określonych warunkach meteorologicznych. Bilansowanie niezrównoważonej podaży źródeł wytwórczych nie dotyczy wyłącznie obszaru rozliczeń na rynku bilansującym, ale również zmian zapotrzebowania na energię elektryczną z rynku hurtowego w dłuższym horyzoncie czasowym. Niezrównoważenie podaży czy też popytu jest rozumiane jako odchylenia wynikające ze zmiany poziomu generacji mocy różnych źródeł wytwórczych na rynku lokalnym (RL), a także zmiany wielkości zużycia energii elektrycznej przez klientów w odniesieniu do wcześniej wykonanych prognoz. W tab. 2 zostały przedstawione moce zainstalowane źródeł wytwórczych w Polsce. Na rys. 1a–c przedstawiono roczną generację energii elektrycznej przez różne źródła odnawialne (OZE) w poszczególnych kwartałach, tj.: elektrownie wiatrowe (1a-WIL), elektrownie biogazowe (1b-BGS) oraz małe elektrownie wodne (1c-MEW). Doświadczeni operatorzy rynku uwzględniają w prognozach długoterminowych roczną charakterystykę produkcji energii elektrycznej w zależności od rodzaju OZE.
Na rys. 2a–c przedstawiono miesięczną generację energii elektrycznej w poszczególnych OZE, dzięki której można zaobserwować skalę zmienności produkcji w ciągu roku. Na rys. 3a–d przedstawiono dobowo-godzinową produkcję energii elektrycznej w OZE w ciągu jednej doby handlowej (24 godzin z krokiem jednogodzinnym), tj. a) i b) elektrowni wiatrowej (WIL), c) elektrowni wodnej (MEW) oraz d) elektrowni biogazowej (BGS) wraz z prognozą krótkoterminową. Jak widać, dobowo-godzinowa produkcja energii elektrycznej jest znacznie bardziej zmienna niż roczna czy miesięczna. Mając dobowo-godzinową rzeczywistą generację energii elektrycznej, można dostrzec cechy charakterystyczne każdego obiektu OZE. Analizując pracę poszczególnych źródeł, można zaobserwować, jak bardzo tego typu źródła wytwórcze są podatne na zmienne warunki meteorologiczne w skali roku. Jak wiadomo, warunki pogodowe co roku ulegają zmianie, stąd nieunikniony błąd w prognozach. Najtrudniej ze źródeł OZE jest przewidzieć generację elektrowni wiatrowych, co potwierdza przypadek na rys. 3a. Tak znaczna różnica między prognozą a produkcją wynika z błędnej prognozy warunków meteorologicznych,
a nie z właściwości modelu prognostycznego. Błędna prognoza generacji energii elektrycznej zwiększyła koszty spółki obrotu na rynku bilansującym (RB), bo energię elektryczną trzeba było zakupić w godzinach szczytowych (najdroższych). Dysponując dokładną prognozą meteorologiczną, można uzyskać oczekiwany poziom jakości prognozy (rys. 3b). Elektrownie wodne (rys. 3c) i biogazownie (rys. 3d) mają zdecydowanie bardziej przewidywalną generację, co skutkuje lepszymi prognozami (większym prawdopodobieństwem zajścia zdarzenia). Posiadanie danych w czasie rzeczywistym (online), jak również dostęp do profesjonalnych danych meteorologicznych – dotyczących głównie prognoz prędkości oraz kierunku wiatru, zachmurzenia, temperatury oraz opadów – pozwalają na uzyskanie dokładniejszej prognozy generacji, a w efekcie na optymalną pozycję handlową na RB. Dane pomiarowe pozyskane w czasie rzeczywistym z obiektów można wykorzystywać do poprawy pozycji handlowej, np. w ramach rynku SPOT, zmniejszając koszty bilansowania. Sprzedawca w ramach własnej JG bilansuje zmieniające się zapotrzebowanie na energię elektryczną klientów oraz produkcję energii elektrycznej w ramach RL, przede
183
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | translation 175–180
a)
b)
c)
d)
Rys. 3. Dobowo-godzinowa produkcja energii elektrycznej w OZE w ciągu jednej doby handlowej wraz z prognozą: a) i b) elektrowni wiatrowej, c) elektrowni wodnej oraz d) elektrowni biogazowej
wszystkim na rynku hurtowym (RH) oraz RB. W procesie bilansowania można wykorzystać różne produkty, m.in. mechanizm zarządzania redukcją popytu DSR (ang. Demand-Side Response), czy też odwrotny efekt poprzez zarządzanie podażą
184
[14, 15]. W procesie bilansowania wykorzystuje się różne dostępne jednostki wytwórcze i odbiorcze na RL [1, 13], tj.: 1. DSR – redukcja popytu; z zastrzeżeniem, że dotyczy wyłącznie jednego kierunku (zmniejszenia zakupu energii z RDN, RB)
2. Elektrownie szczytowo-pompowe – praca w cyklu pompowym i generacyjnym skutkująca możliwością zmiany pozycji sprzedawcy na RH oraz RB w obydwu kierunkach, z zastrzeżeniem, że związana jest raczej z określoną mocą bez możliwości
T. Rubanowicz, Z. Prondzyński | Acta Energetica 2/27 (2016) | translation 175–180
regulacyjnych (wielkość skokowej zmiany mocy), jednostki tego typu na potrzeby systemu są przywoływane do pracy w celu likwidacji ograniczeń systemowych 3. Magazyny energii – możliwość zmiany pozycji sprzedawcy na RH oraz RB w obydwu kierunkach – zaleta: możliwość płynnej zmiany poziomu odchyleń 4. Elektrociepłownie, elektrownie gazowe, gazowo-parowe – możliwość zmiany pozycji spółki obrotu na RH oraz RB w obydwu kierunkach pod warunkiem właściwego uwzględnienia pracy obiektu wytwórczego w planach koordynacyjnych miesięcznych/dobowych (pewne ograniczenie dostępności mocy w dwóch kierunkach). Zaletą jest płynna regulacja mocy, zaś wadą ograniczona dostępność ze względu na system wsparcia, czerwone, żółte certyfikaty 5. Elektrownie wodne przepływowe, zbiornikowo-przepływowe – ograniczona regulacyjność ze względu na pozwolenia wodnoprawne i konieczność maksymalizacji produkcji ze względu na uzyskiwane świadectwa pochodzenia OZE 6. Pozostałe OZE (biomasa, biogaz, fotowoltaika) – ograniczona regulacyjność ze względu na maksymalizację produkcji energii elektrycznej, wsparcie OZE (zielone certyfikaty). Niezrównoważenie podaży czy też popytu jest rozumiane jako odchylenia wynikające ze zmiany poziomu generacji mocy różnych źródeł wytwórczych na RL (w ramach JG) oraz zmiany wielkości zużycia energii elektrycznej przez klientów w odniesieniu do wcześniej wykonanych prognoz. Podsumowanie Dzięki wykorzystaniu różnych OZE do bilansowania niezrównoważonej podaży energii elektrycznej jest możliwość obniżenia kosztów funkcjonowania sprzedawców na RB, na konkurencyjnym rynku energii elektrycznej. Efekt ten można uzyskać poprzez agregowanie źródeł wytwórczych i odbiorczych w ramach jednej JG. Alternatywą na niższe koszty bilansowania może być również współpraca pomiędzy POB a podmiotem gospodarczym będącym jednocześnie odbiorcą i wytwórcą energii elektrycznej. Zmiana poziomu zapotrzebowania na energię elektryczną spółki obrotu na rynku hurtowym może w tym przypadku
być korygowana poprzez zmianę produkcji energii w tym źródle. Konkurencyjny rynek energii nieustannie się rozwija nie tylko poprzez rosnącą liczbę sprzedawców, ale również coraz większą świadomość klientów do przysługujących im praw. Jednym z kluczowych elementów, który jest brany pod uwagę przez klientów decydujących się na zmianę sprzedawcy, jest cena energii elektrycznej. W związku z tym nieuzasadnione jest nakładanie na grupę spółek obrotu obliga, które może niekorzystnie wpływać na pozycję handlową, pomimo posiadanego potencjału rynkowego. Koszt bilansowania, związany ze zmiennością poziomu zapotrzebowania na energię elektryczną klientów oraz produkcją energii elektrycznej w źródłach z RL, w szczególności w źródłach OZE, będzie zawsze występował jako jeden z kluczowych i nieuniknionych czynników rynku energii elektrycznej. Ustawodawca, tworząc prawo, powinien jasno i precyzyjnie określić zasady obciążania kosztem bilansowania poszczególnych uczestników rynku, w szczególności wytwórców. Obciążanie sprzedawców zobowiązanych kosztem bilansowania w dłuższej perspektywie może doprowadzić do utraty ich klientów na rzecz innych konkurujących sprzedawców. Wpływ na ten efekt będzie miała oferta sprzedaży energii elektrycznej uwzględniająca koszty bilansowania. Takie podejście klienta będzie świadczyło o dojrzałej świadomości własnego uczestnictwa na rynku energii elektrycznej, co jest pożądane i oczywiste na rozwiniętym rynku. Bibliografia 1. Trieb F., Müller-Steinhagen H., Sustainable Electricity and Water for Europe, Middle East and North Africa, EU-MENA Cooperation for Sustainable Electricity and Water, Springer-Verlag, październik 2007, s. 205–219. 2. Ustawa z 10 kwietnia 1997 roku, Prawo energetyczne, Dz. U. z 1997 roku, nr 54, poz. 348. 3. Rozporządzenie Ministra Gospodarki z 4 maja 2007 roku w sprawie szczegółowych warunków funkcjonowania systemu elektroenergetycznego, Dz. U. z 2007 roku, nr 93, poz. 623, z późniejszymi zmianami.
4. Rozporządzenie Ministra Gospodarki z 31 października 2007 roku zmieniające rozporządzenie w sprawie szczegółowych zasad kształtowania i kalkulacji taryf oraz rozliczeń w obrocie energią elektryczną, Dz. U. z 2007 roku, nr 207, poz. 1497 i 1498. 5. Horodko K., Sztuba W., Analiza scenariuszy rozwoju polskiej energetyki odnawialnej, Raport TPA Horwath, Polskie Stowarzyszenie Energetyki Wiatrowej, sierpień 2013, Warszawa. 6. Praca systemu elektroenergetycznego w przypadku ekstremalnych wahań generacji wiatrowej, Enertrag AG, Polskie Stowarzyszenie Energetyki Wiatrowej, styczeń 2008. 7. Rogulski M., Smolira K., Korekta programów jednostek wytwórczych na przykładzie rynku z rozproszonym zapotrzebowaniem na energię elektryczną, Systems Journal of Transdisciplinary Systems S cience, Politechnika Warszawska 2004. 8. Toczyłowski E., Karpuk R., Planistyczne i rozliczeniowe bilansowanie pozycji handlowych odbiorców rynku energii elektrycznej, Rynek Energii 2014, nr 6 (115). 9. Bogalecka E., Rubanowicz T., Neuronowy model mocy farmy wiatrowej, Mechanik 2010, s. 579–586. 10. Rubanowicz T., Prondziński Z., Zryczałtowana usługa operatora handlowo-technicznego na potrzeby rozwoju energetyki wiatrowej w Polsce, Acta Energetica 2014, nr 2/19, s. 140–148. 11. Ustawa z 20 lutego 2015 roku o odnawialnych źródłach energii, Dz. U. z 2015 roku, poz. 478. 12. Centrum Informacji o Rynku Energii [online], (http://www.cire.pl). 13. Ernst B., Reyer F., Vanzetta J., Wind power and photovoltaic prediction tools for balancing and grid operation, RWE Transportnetz Strom GmbH, Germany, CIGRE, lipiec 2009, s. 1–9. 14. Wrocławski M., Lokalne obszary bilansowania, Energia Elektryczna, październik 2012, Energa-Operator SA. 15. Midera A., Aktywny odbiorca energii elektrycznej na rynku bilansującym w Polsce, PSE SA, Elektroenergetyka 2011, nr 4 (10).
Tomasz Rubanowicz
mgr inż. ENERGA-OBRÓT SA e-mail: tomasz.rubanowicz@energa.pl Ukończył kierunek mechatronika na Wojskowej Akademii Technicznej w Warszawie, uzyskując dyplom magistra inżyniera (2006), a następnie podjął studia doktoranckie na Wydziale Elektrotechniki i Automatyki Politechniki Gdańskiej. Obecnie pracuje w ENERGA-OBRÓT SA. Interesuje się m.in.: zastosowaniem metod sztucznej inteligencji na potrzeby prognozowania generacji mocy wytwórczej odnawialnych źródeł energii, funkcjonowaniem rynku energii elektrycznej i paliwa gazowego, technologią morskiej energetyki wiatrowej.
Zbigniew Prondziński
mgr inż. ENERGA-OBRÓT SA e-mail: zbigniew.prondzinski@energa.pl Absolwent Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej, kierunek elektroenergetyka. Ukończył studia podyplomowe z zakresu zarządzania finansami przedsiębiorstw oraz uzyskał dyplom MBA. Posiada uprawnienia maklera giełd towarowych. Od 1996 roku jest związany z branżą energetyczną. Jego obszar zainteresowań to przede wszystkim funkcjonowanie rynku energii elektrycznej oraz paliwa gazowego.
185
M. Sarnicki et al. | Acta Energetica 2/27 (2016) | 186–190
Comparison of Transmission Capacities of Two Regulation Systems: Lateral and in-phase Control Transformers
Authors Marcin Sarnicki Ryszard Zajczyk Bartosz Tarakan Krzysztof Tarakan
Keywords phase shifters, booster transformers, active and reactive load control
Abstract This paper presents a comparison of regulation capabilities of lateral and in-phase control transformers in a selected node of a power system. Their regulation capabilities are presented, as well as cross-system exchange options.
DOI: 10.12736/issn.2300-3022.2016217
1. Introduction Unplanned compensatory flows (including carousel flows) are frequent in connected power systems. An increased power flow on a given line reduces its transmission capacities. Another frequently occurring situation is the impossibility of transmitting a part of energy in one system due to the energy from another system using a given line string excessively [1]. Thus, it is essential to control the power flows on the given line strings, especially those that connect large power systems. Controlling the power flow allows obtaining high technical and economic parameters of system operation, i.e. minimum transmission losses or stability reserve. The control should take place in extensive power systems and in the systems to which renewable energy sources are introduced, namely e.g. in wind power plants [5]. The adjustment of the power flow is obtained by means of FACTS power units, as well as UPFC, IPFC, SSC etc. Power adjustment is possible also by using lateral and in-phase control transformers, which is discussed in this article.
2. Network under examination The network under examination is shown in Fig. 1. The network consists of 5 power sub-systems and 7 system connection lines. The two subsystems connected to buses T4 and T5 are internally balanced. An additive transformer was fitted on line 1–3 and an actuation transformer was connected to bus T6. It was assumed that all lines have the same parameters and lengths, and that they are lines with the nominal voltage of 110 kV. The actuation transformer has 17 taps. During the research, we analysed additive transformers with triangle and star connection system variants on the MV side. 186
Fig. 1. Power network under examination
3. Calculation results With no adjustment device installed in the system, and thus no phase shift angle adjustment, the power flow shape is as in Fig. 2. The highest power of 17.3 MW flows along line 1–2, while line 1–3 carries the power of 14.4 MW from bus T1 to T3. The first system under examination is a phase shifter, a system of transformers with a lateral adjustment. The winding of the additive transformer was connected in a triangle to provide the maximum adjustment range of active power. The adjustment of power for cross-border flows is one of the applications of phase shifters. The flow shows that the power flows from bus T1 to the systems of buses T2 and T3 through all sub-system connection lines. When using a phase shifter on line 1–3, the flow is shaped as
M. Sarnicki et al. | Acta Energetica 2/27 (2016) | 186–190
Fig. 2. Results of the flow analysis for the network without a phase shifter
shown in Fig. 3. The additive transformer connection system was developed in a triangle on the MV side. The flow research was conducted for all tap switch numbers, but in the analysis of the results we presented only the limit values of tap numbers, which shows the highest power flow value change and the change of direction. The arrow direction is consistent with the active power flow direction, while the minus sign by the reactive power indicates the reverse direction of that power to active power. An appropriate adjustment of the phase shifter angle, through changing the actuation transformer ratio, allows changing the power flow on the line. Fig. 3a includes the active power flow on line 1–3 in the direction from bus T3 to bus T1. The direction of the reactive power flow is the opposite. In Fig. 3b, after switching the tap to tap 7, the powers flowing through line 1–3 dropped to zero. In Fig. 3c, for Δδ = 14.6° the direction of the active power flow changed on all lines. The adjustment of the reactive power flow is shown in Fig. 4. The additive transformer connection system was developed in a star on the MV side. The flow examination was conducted for all tap numbers. The arrow direction is consistent with the reactive power flow direction, while the minus sign by the active power indicates the reverse direction of that power to reactive power. An appropriate adjustment of the phase shifter additive voltage allows changing the flow on line 1–3. Fig. 4a includes the reactive power flow on line 1–3 in the direction from bus T1 to bus T3. The active power flow direction is consistent with the reactive power flow direction. In Fig. 4b, after switching the tap to tap 7, the powers flowing through line 1–3 dropped to zero. Fig. 4c shows the change of the reactive power flow to the opposite direction after shifting the tap to tap 17. Fig. 5 shows the voltage change range on bus T6 with two different additive transformer winding connections. The widest voltage change range on the bus occurs with a star-shaped additive MV transformer winding connection; with a triangleshaped connection this range is significantly smaller. During
Fig. 3. The results of flow examination for the triangle-shaped additive transformer connection system: a) tap 1, b) tap 7, c) tap 17
the examination the voltage on the bus exceeded the allowed voltage limits for a 110 kV network (with a star-shaped connection of the additive transformer winding on the MV side). 187
M. Sarnicki et al. | Acta Energetica 2/27 (2016) | 186–190
Fig. 5. The adjustment of voltage on bus T6 at the connection of starand triangle-shaped additive transformer winding
Fig. 6. The adjustment of the power angle Δδ between voltage vectors on bus T6 and T1 for star- and triangle-shaped additive transformer connection systems
Fig. 7. Adjustment of reactive power flows on line 1–3 with a star- or triangle-shaped actuation transformer winding connection Fig. 4. The results of flow examination for the star-shaped additive transformer connection system: a) tap 1, b) tap 7, c) tap 17
The changes of the voltage vector angle between buses T6 and T1 are shown in Fig. 6. A considerable angle adjustment range occures with a triangle-shaped additive transformer connection. Small angle changes occur with a star-shaped additive 188
transformer connection. Both diagrams intersect at the point, where the active and reactive values drop to zero (for tap 7 and angle difference Δδ = –1.6°). The adjustment of the reactive power flow is shown in Fig. 7. A wider reactive power adjustment range occurs with a starshaped additive transformer connection. One can notice a strong dependency between the reactive power and the voltage.
M. Sarnicki et al. | Acta Energetica 2/27 (2016) | 186–190
adjusting the active power is the application of an additive transformer with a triangle-shaped winding connection on the MV side. A good solution for adjusting passive power is an additive transformer with a star-shaped winding connection. As shown in Fig. 3 and Fig. 4, by changing the ratio it is possible to adjust power flows between sub-systems in all branches. However, control over the power flow is available only on one line: the one fitted with a power adjustment system. REFERENCES
Fig. 8. Adjustment of active power flows on line 1–3 with a triangle- or star-shaped actuation transformer winding connection
Fig. 8 shows the adjustment of the active power flow on line 1–3. The wide adjustment range of angle Δδ occurs with a triangleshaped winding connection. One can notice a strong dependency between the active power and this angle. The characteristics intersect at the point, where the power flows on line 1–3 are zero (line susceptance is omitted).
4. Conclusions When adjusting the actuation transformer with taps, there are strong dependencies of the active power on the angle difference between voltage vectors and strong dependencies of the passive power on the additive voltage. The most beneficial method of
1. J. Machowski, “Regulacja i stabilność systemu elektroenergetycznego” [Power system adjustment and stability], Publishing House of the Warsaw University of Technology, Warszawa 2007. 2. R. Korab, R. Owczarek, “Kształtowanie transgranicznych przepływów mocy z wykorzystaniem transformatorów z regulacją poprzeczną” [Shaping cross-border power flows using lateral controler transformers], Energetyka, No. 5, 2011, pp. 279–284. 3. J. Klucznik, K. Dobrzyński, Z. Lubośny, “Optymalizacja poziomów napięć i rozpływów mocy biernej w systemie elektroenergetycznym z wykorzystaniem logiki rozmytej” [Optimisation of voltage levels and reactive power flows in the power system using fuzzy logic], Acta Energetica, No. 1, 2013, pp. 56–67. 4. J. Szczepanik, T. Sieńko, Nowoczesne urządzenia do kontroli rozpływu mocy w systemie elektroenergetycznym oparte na wielofazowym przekształtniku macierzowym [New multiphase matrix converter based devices for power flow control], Acta Energetica, No. 4/17, 2013, pp. 158–165.
Marcin Sarnicki Gdańsk University of Technology email: m.sarnicki@ely.pg.gda.pl Graduated from the Faculty of Electrical and Control Engineering (2013). PhD student at the Power Engineering Department of Gdańsk University of Technology. In his research, he focuses on phase shifter subjects. Interests: power flow adjustment in the power system, power system stability, voltage adjustment in the power system, renewable energy, security automation, energy automation and storage.
Ryszard Zajczyk Gdańsk University of Technology email: rzajczyk@ely.pg.gda.pl Graduated from the Faculty of Electrical Engineering at Gdańsk University of Technology (1978). Obtained his PhD degree in 1988, his postdoctoral degree in 1997 and his professorial title in 2004. He serves as full professor at the Power Engineering Department of his alma mater, while being the head of the department. His scientific activity is related to electrical engineering and energy and his scientific specialty is power systems and power system automation.
Bartosz Tarakan Gdańsk University of Technology email: b.tarakan@ely.pg.gda.pl He graduated with a major in Electrical Engineering at the Faculty of Electrical Engineering and Automatics of Gdańsk University of Technology. PhD student at the Power Engineering Department of his alma mater. His main areas of interest include: renewable energy, adjustment systems, power quality, power system stability, power system automation and security.
189
M. Sarnicki et al. | Acta Energetica 2/27 (2016) | 186–190
Krzysztof Tarakan Gdańsk University of Technology email: tarakan@wp.pl He graduated with a major in Electrical Engineering at the Faculty of Electrical Engineering and Automatics of Gdańsk University of Technology. Since 2001 he has been working as a specialist at ENERGA-OPERATOR SA. Completed postgraduate course in power quality. His main areas of interest notably include: renewable energy sources, issues related to electricity transmission in highest voltage networks, issues related to reducing network losses and power quality.
190
M. Sarnicki et al. | Acta Energetica 2/27 (2016) | translation 186–190
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 186–190. When referring to the article please refer to the original text. PL
Porównanie możliwości przesyłowych dwóch układów regulacyjnych: transformatorów z regulacją poprzeczną oraz transformatorów z regulacją wzdłużną Autorzy
Marcin Sarnicki Ryszard Zajczyk Bartosz Tarakan Krzysztof Tarakan
Słowa kluczowe
przesuwniki fazowe, transformatory dodawcze, regulacja przepływu mocy czynnej i biernej
Streszczenie
W artykule przedstawiono porównanie możliwości regulacyjnych transformatorów z regulacją poprzeczną oraz wzdłużną w wybranym węźle systemu elektroenergetycznego. Zaprezentowano możliwości regulacyjne tych układów oraz możliwości kształtowania wymiany międzysystemowej.
1. Wstęp W połączonych systemach elektroenergetycznych częstym zjawiskiem są nieplanowane przepływy wyrównawcze (w tym przepływy karuzelowe). Wzrost przepływu mocy w określonych liniach powoduje obniżenie jej zdolności przesyłowych. Często również występuje taka sytuacja, w której nie można przesłać części energii w obrębie jednego systemu, ponieważ energia z innego systemu wykorzystuje dany ciąg liniowy nadmiernie [1]. Istotna jest zatem kontrola przepływającej mocy w określonych ciągach liniowych, zwłaszcza tych, które łączą duże systemy elektroenergetyczne. Kontrola przepływu mocy pozwala na uzyskanie wysokich parametrów techniczno-ekonomicznych pracy systemu, tj.: minimalizację strat przesyłowych, czy zapewnienie rezerwy stabilności. Kontrola taka powinna mieć miejsce w rozległych SEE oraz w systemach, w których wprowadza się odnawialne źródła energii, tj. np. w elektrowniach wiatrowych [5]. Do regulacji przepływu mocy służą układy energoelektroniczne FACTS, jak UPFC, IPFC, SSC itp. Regulację mocy można również uzyskać przez zastosowanie transformatorów z regulacją poprzeczną oraz wzdłużną, o czym mowa w poniższym artykule. 2. Badana sieć Badaną sieć przedstawiono na rys. 1. Sieć składa się z 5 podsystemów elektroenergetycznych i 7 linii łączących systemy. Dwa podsystemy przyłączone od szyn T4 i T5 są wewnętrznie zbilansowane. W linii 1–3 zamontowano transformator dodawczy, a do szyny T6 przyłączono transformator wzbudzający. Założono, że wszystkie linie mają takie same parametry oraz długości i są to linie o napięciu znamionowym 110 kV. Transformator wzbudzający ma 17 zaczepów. W trakcie prowadzonych badań analizie poddano transformatory dodawcze o układzie połączeń strony SN wariantowo w trójkąt oraz w gwiazdę.
Rys. 1. Badana sieć elektroenergetyczna
Rys. 2. Wyniki analizy rozpływowej dla sieci bez przesuwnika fazowego
191
M. Sarnicki et al. | Acta Energetica 2/27 (2016) | translation 186–190
3. Wyniki obliczeń W przypadku braku urządzenia regulacyjnego zainstalowanego w systemie, a tym samym braku regulacji kąta przesunięcia fazowego, rozpływ mocy kształtuje się jak na rys. 2. Największa moc 17,3 MW płynie linią 1–2, linią 1–3 płynie moc od szyny T1 do T3 równa 14,4 MW. Pierwszym badanym układem jest przesuwnik fazowy, czyli układ transformatorów
z regulacją poprzeczną. Uzwojenie transformatora dodawczego połączono w trójkąt, tak aby umożliwić maksymalnie duży zakres regulacji mocy czynnej. Regulacja mocy dla transgranicznych przepływów stanowi jedno z zastosowań przesuwników fazowych. Z przedstawionego rozpływu wynika, że przepływ mocy odbywa się z systemu od szyny T1 do systemów szyn T2 i T3
a)
a)
b)
b)
c)
c)
Rys. 3. Wyniki badań rozpływowych dla układu połączeń transformatora dodawczego w trójkąt: a) zaczep 1, b) zaczep 7, c) zaczep 17
192
poprzez wszystkie linie łączące podsystemy. W przypadku wykorzystania przesuwnika fazowego w linii 1–3 rozpływ kształtuje się zgodnie z rys. 3. Układ połączeń transformatora dodawczego został wykonany po stronie SN w trójkąt. Badania rozpływów zostały przeprowadzone dla wszystkich numerów przełącznika zaczepów, ale w analizie wyników przedstawiono tylko skrajne wartości numerów zaczepów, które
Rys. 4. Wyniki badań rozpływowych dla układu połączeń transformatora dodawczego w gwiazdę: a) zaczep 1, b) zaczep 7, c) zaczep 17
M. Sarnicki et al. | Acta Energetica 2/27 (2016) | translation 186–190
Rys. 5. Regulacja napięcia na szynie T6 przy połączeniu uzwojenia transformatora dodawczego w gwiazdę i trójkąt
Regulacja przepływu mocy biernej została pokazana na rys. 4. Układ połączeń transformatora dodawczego wykonano po stronie SN w gwiazdę. Badania rozpływów zostały przeprowadzone dla wszystkich numerów zaczepów. Kierunek strzałek jest zgodny z kierunkiem przepływu mocy biernej, a znak minus przy mocy czynnej wskazuje przeciwny kierunek przepływu tej mocy do mocy biernej. Odpowiednia regulacja napięcia dodawczego przesuwnika fazowego pozwala na zmianę przepływu w linii 1–3. Na rys. 4a występuje przepływ mocy biernej w linii 1–3 w kierunku od szyny T1 do szyny T3. Kierunek przepływu mocy czynnej jest zgodny z kierunkiem przepływu mocy biernej. Na rys. 4b po zmianie zaczepu na zaczep 7 moce przepływające przez linię 1–3 zmalały do zera. Na rys. 4c po zwiększeniu zaczepu na zaczep 17 następuje zmiana przepływu mocy biernej w przeciwną stronę. Na rys. 5 przedstawiono zakres zmian napięcia na szynie T6 przy dwóch różnych połączeniach uzwojenia transformatora dodawczego. Największy zakres zmian napięcia na szynie występuje podczas połączenia uzwojenia SN transformatora dodawczego w gwiazdę, przy połączeniu w trójkąt zakres ten jest znacznie mniejszy. Podczas badań napięcie na szynie przekroczyło granice napięć dopuszczalnych dla sieci 110 kV (przy połączeniu uzwojenia strony SN transformatora dodawczego w gwiazdę).
Rys. 6. Regulacja kąta mocy Δδ pomiędzy wektorami napięć na szynie T6 i T1 dla układów połączeń transformatora dodawczego w gwiazdę i trójkąt
Zmiany kąta wektorów napięć pomiędzy szynami T6 i T1 przedstawiono na rys. 6. Znaczny zakres regulacji kąta występuje przy połączeniu transformatora dodawczego w trójkąt. Niewielkie zmiany kąta występują dla połączenia transformatora dodawczego w gwiazdę. Oba wykresy przecinają się w punkcie, gdzie moc czynna i bierna osiąga wartość zero (dla 7 zaczepu i różnicy kąta ). Regulację przepływu mocy biernej przedstawiono na rys. 7. Większy zakres regulacji mocy biernej występuje przy połączeniu transformatora dodawczego w gwiazdę. Widoczna jest silna zależność mocy biernej od napięcia. Na rys. 8 przedstawiono regulację przepływu mocy czynnej w linii 1–3. Duży zakres regulacyjny kąta Δδ występuje przy połączeniu uzwojeń w trójkąt. Widoczna jest silna zależność mocy czynnej od tego kąta. Charakterystyki przecinają się w punkcie, w którym przepływy mocy w linii 1–3 są zerowe (pominięto susceptancję linii).
Rys. 7. Regulacja przepływów mocy biernej w linii 1–3 przy połączeniu uzwojeń transformatora wzbudzającego w gwiazdę lub trójkąt
obrazują największą zmianę wartości przepływów mocy oraz zmianę ich kierunku. Kierunek strzałek jest zgodny z kierunkiem przepływu mocy czynnej, natomiast znak minus przy mocy biernej wskazuje przeciwny kierunek przepływu tej mocy do mocy czynnej. Odpowiednia regulacja kąta przesuwnika fazowego, poprzez zmianę przekładni transformatora wzbudzającego,
pozwala na zmianę przepływu mocy w linii. Na rys. 3a występuje przepływ mocy czynnej w linii 1–3 w kierunku od szyny T3 do szyny T1. Kierunek przepływu mocy biernej jest przeciwny. Na rys. 3b po zmianie zaczepu na zaczep 7 moce przepływające przez linię 1–3 zmalały do zera. Na rys. 3c dla kierunek przepływu mocy czynnej uległ zmianie we wszystkich liniach.
4. Wnioski Podczas regulacji zaczepami transformatora wzbudzającego występują silne zależności mocy czynnej od różnicy kątów pomiędzy wektorami napięć oraz silne zależności mocy biernej od napięcia dodawczego. Najkorzystniejszym sposobem regulacji mocy czynnej jest zastosowanie transformatora dodawczego z uzwojeniem po stronie SN połączonym w trójkąt. Do regulacji mocy biernej dobrym rozwiązaniem jest transformator dodawczy z uzwojeniem połączonym w gwiazdę.
193
M. Sarnicki et al. | Acta Energetica 2/27 (2016) | translation 186–190
Bibliografia
Rys. 8. Regulacja przepływów mocy czynnej w linii 1–3 przy połączeniu uzwojeń transformatora wzbudzającego w trójkąt lub gwiazdę
Jak widać na rys. 3 i rys. 4 poprzez zmianę przekładni możemy regulować przepływy mocy pomiędzy podsystemami we wszystkich gałęziach. Jednakże kontrolę nad
przepływem mocy mamy tylko w jednej linii, w tej, w której zamontowano układ do regulacji mocy.
1. Machowski J., Regulacja i stabilność systemu elektroenergetycznego, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 2007. 2. Korab R., Owczarek R., Kształtowanie transgranicznych przepływów mocy z wykorzystaniem transformatorów z regulacją poprzeczną, Energetyka 2011, nr 5, s. 279–284. 3. Klucznik J., Dobrzyński K., Lubośny Z., Optymalizacja poziomów napięć i rozpływów mocy biernej w systemie elektroenergetycznym z wykorzystaniem logiki rozmytej, Acta Energetica 2013, nr 1, s. 56–67. 4. Szczepanik J., Sieńko T., Nowoczesne urządzenia do kontroli rozpływu mocy w systemie elektroenergetycznym oparte na wielofazowym przekształtniku macierzowym, Acta Energetica 2013, nr 4/17, s. 158–165.
Marcin Sarnicki
mgr inż Politechnika Gdańska e-mail: m.sarnicki@ely.pg.gda.pl Ukończył studia na Wydziale Elektrotechniki i Automatyki (2013). Doktorant w Katedrze Elektroenergetyki Politechniki Gdańskiej. W swoich badaniach zajmuje się tematyką przesuwników fazowych. Zainteresowania: regulacja przepływów mocy w systemie elektroenergetycznym, stabilność systemu elektroenergetycznego, regulacja napięcia w systemie elektroenergetycznym, energetyka odnawialna, automatyka zabezpieczeniowa, automatyka i zasobniki energii.
Ryszard Zajczyk
prof. dr hab. inż. Politechnika Gdańska e-mail: rzajczyk@ely.pg.gda.pl Ukończył studia magisterskie na Wydziale Elektrycznym Politechniki Gdańskiej (1978). Stopień naukowy doktora uzyskał w 1988 roku, doktora habilitowanego w 1997 roku, zaś tytuł profesora w 2004 roku. Pracuje w Katedrze Elektroenergetyki swojej macierzystej uczelni jako profesor zwyczajny, pełniąc jednocześnie funkcję kierownika katedry. Prowadzi działalność naukową w dziedzinie elektrotechniki i energetyki, a jego specjalnością naukową są systemy elektroenergetyczne i energetyczne oraz automatyka elektroenergetyczna.
Bartosz Tarakan
mgr inż. Politechnika Gdańska e-mail: b.tarakan@ely.pg.gda.pl Ukończył studia na Wydziale Elektrotechniki i Automatyki Politechniki Gdańskiej. Obecnie jest doktorantem w Katedrze Elektroenergetyki swojej macierzystej uczelni. Do głównych obszarów jego zainteresowań należą: energetyka odnawialna, układy regulacji, jakość energii elektrycznej, stabilność systemu elektroenergetycznego, automatyka i zabezpieczenia elektroenergetyczne.
Krzysztof Tarakan
mgr inż. Politechnika Gdańska e-mail: tarakan@wp.pl Ukończył studia na Wydziale Elektrotechniki i Automatyki Politechniki Gdańskiej. Od 2001 roku pracuje jako specjalista w ENREGA-OPERATOR SA. Ukończył studia podyplomowe z dziedziny jakości energii elektrycznej. Wśród jego głównych obszarów zainteresowań wymienić należy: odnawialne źródła energii elektrycznej, zagadnienia związane z przesyłaniem energii elektrycznej sieciami najwyższych napięć, zagadnienia dotyczące ograniczania strat sieciowych oraz jakości energii elektrycznej.
194
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | 195–202
Laboratory Power System Model Designed for Testing Dynamic Processes
Authors Jerzy Szczepanik Bartosz Rozegnał
Keywords power system, system dynamics, short-circuit, parameter identification
Abstract Identification tests of dynamic and transient processes which occur in a power system are usually based on simulation. Structures of systems used for simulation testing are built from simplified models of power system components. Practically, in order to verify results obtained by simulation, they would have to be compared to data obtained in actual facilities. Research carried out at Kraków University of Technology and contained in the proposed paper shows that simplifications and assumptions used when constructing simulation models often cause a discrepancy between the simulation results and actual variability of the system state. This research was carried out using a five-node laboratory model of a power system built earlier. A full parameter identification process was carried out for this model, thus enabling construction of its computerised equivalent using the Mat lab software suite. The laboratory model which was used as a foundation for the simulation equivalent is a five-node system with a closed structure; it consists of four generation-load nodes and one load only node. Parameters of the components of the laboratory model, like power lines or generator outputs, have been selected in a process of power scaling. Experiments currently performed on the model are aimed at investigating dynamic processes occurring during and after a short-circuit, and at testing procedures for estimating power distribution at a static condition as well as fault containment procedures which are currently under development.
DOI: 10.12736/issn.2300-3022.2016218
Introduction This article presents the process of the development and examination of the model of a multi-generator laboratory power system. The purpose of the development of the model was to increase credibility of the tests of system stability, the tests of the impact of FACTS devices on the static power flow and in dynamic conditions or the tests aimed at developing a shortcircuit location procedure for power systems. Until now, the simulations of dynamic phenomena occurring in power systems were performed on the computer models. The results of those simulations, even when advanced models of power system
elements were used, showed inconsistencies with the respect to the results obtained from real life power systems. Those inconsistencies may result not only from a failure to include all elements that influence current flows and voltage levels in the simulation, but also with numerical problems related to the procedures of solving non-linear systems of equations with complex coefficients [1–4]. The configuration of the system of the laboratory model is based on a standard 5-node IEEE system with a closed structure (circular) and it includes four generation nodes and five load nodes (Fig. 2). The load nodes were designed including both static and dynamic loads [1, 2].
Fig. 1. The transmission line shown as a series of Π-type quadripoles 195
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | 195–202
Model scaling When developing the model, we assumed that 400 V model line parameters should be consistent with 400 kV line parameters. This forced the voltage ratio of ηU = 1000÷1 (national transmission voltage: 400 [KV] = model: 400 [V]). However, it is impossible to complete the model, while including only the voltage ratio and constant power. Thus, we estimated the performance of the external power supply and proposed power-based scaling: ηS = 25000÷1 (real system: 500 [MVA] = model: 20 [KVA]). The conversion resulted in the following current ratio: ηI = ηS/ηU = 25000/1000 = 25. When designing the line system, we assumed that the maximum sustained continuous current of the line was 30 A, which reflects the current of 750 A in the real system and the line transmitted power of approx. 520 MVA [3].
Structure of line models
Fig. 2. Simplified structure of the laboratory system
Power line models were completed as a series of Π-type fourpole models (models with concentrated parameters), of which the parameters (longitudinal inductance and resistance, as well as lateral capacity and resistance) were converted by ratio from the real 400 kV line parameters (Fig. 1). The most difficult aspect of the line model completion was the design and completion of a line inductance model – air coils with the inductance of 0.67 mH and operating current of 35 A, and the inclusion of phase couplings of the wires of those lines (coil couplings). Each segment of the line model represents approx. 30 km of the line in the real system, while the variation of line lengths was obtained by connecting in series different numbers of segments – from three to eight [5].
system of buses to singular. Furthermore, the system does not include system and section couplings. The general diagram of the constructed system is shown below [3, 6, 7]. The structure of the particular nodes is as follows: NODE 1: generator field, static load field, line 1–4 field, line 4–1 field, 1–2 field NODE 2: dynamic load field, line 1–2 field, line 2–3 field NODE 3: generator field, static load field, line 2–3 field, line 3–4 field, 3-5 field NODE 4: generator field, static load field, line 1–4 field, line 4–1 field, line 3–4 field, line 4–5 field NODE 5: generator field, static load field, dynamic load field, line 3–5 field, line 4–5 field, “external grid” line field.
Model and switchgear structure
Generator field
The switchgears were built into five control panels. Due to the device dimensions and costs, the systems of the real multisystem switchgear were not completed. We decided against e.g. installing disconnectors, both line and bus type, and reduced the
The generator connection field was introduced in switchgear 1, 3, 4 and 5. The generator field consists of the drive machine control unit (DC motor) in the form of a Mentor converter, DC motor with power y, nominally higher than the generator
Fig. 3. Generator field activation unit and R-L static load connection diagram 196
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | 195–202
power, clutch (torque measurement system), generator and a unit transformer. The powers of the generators installed are 10 kVA ≈ 250 MVA, 16 kVA ≈ 400 MVA and 20 kVA ≈ 500 MVA, respectively. The generator field is connected to the switchgear using a circuit-breaker (its function is performed by a vacuum contractor with the breaking current of 1600 A).
connecting a specially designed 3-phase reactor of 9 kvar (equivalent to 225 Mvar in the real system) to the system, through a 3-phase auto-transformer. This system allows a smooth adjustment of load reactance, although it introduces a non-linear load characteristic (the reactance “seen” from the system changes with a squared ratio of the auto-transformer) [6].
The generator is activated manually or automatically, under the supervision of Kared’s SV-series synchroniser, also used in professional power plants [7]. The generator drive (DC motor) is controlled by a Mentor II thyristor drive system connected for 2-quadrant operation. The structure of the drive system software enabled working in a 2- or 4-quadrant system with the adjustment of speed and follow-up torque adjustment or torque adjustment and turbinegenerator maximum speed limit. Furthermore, each generator was equipped with an excitation control based on a programmable controller applying a PID control [8].
Dynamic load field
Static load field The static load field was completed as a parallel connection of the resistance and induction segments (Fig. 3). Each of the four resistance loads was completed based on four adjustment levels, 600 [W], 1200 [W], 2400 [W] and 4800 [W], respectively, which represents the following load powers in the real system: 15 [MW], 30 [MW], 60 [MW] and 120 [MW]. Each load is activated independently with circuit-breakers W1÷W4 after the activation of the main contractor SG (Fig. 3). Such load structure provides a 16-step load adjustment from 0 to 9 kW, in 600 W increments. The variability of the induction load (Fig. 3) was obtained by
The dynamic load was simulated by a 10 kW asynchronous motor, activated using a soft start assembly. The soft start assembly was used due to the relatively high power of the engine in comparison to the maximum power of system generators and possible stability problems caused by the starting current of the motor. The shaft shared with the engine features a DC machine used as a generator. The energy from the DC machine is returned to the power supply system through a Mentor II thyristor drive system operating in a 4-quadrant system.
Line field The designed power system model includes seven transmission lines. Their electrical lengths are (Fig. 2): line 1–2 and line 2–3 – 3 segments, equivalent to line length 90 [km], line 1–4 and line 4–1 – 4 segments, equivalent to line length 120 [km], line 3–4 – 8 segments, equivalent to line length 240 [km], line 3–5 – 5 segments, equivalent to line length 150 [km], line 4–5 – 6 segments, equivalent to line length 180 [km]. The lines were connected to the switchgear buses through circuit-breakers and equipped with a current measurement system using transformers for static measurements and LEM for dynamic measurements. We used no blocks to prevent
Fig. 4. Diagram of the simulation model of a 5-node power system model developed in Matlab-Simulink 197
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | 195–202
the connection of two switchgears when each switchgear is connected to a different source and their connection could cause short-circuit conditions. The blocks were omitted on purpose, to re-create certain dynamic conditions in the system [5].
Structure and description of the power system simulation model To develop a computer model the structure of the laboratory model was fully rendered in Matlab-Simulink, which means that each element of the laboratory system was rendered using a unit or a set of units available in the program. It is possible to change the structure of connections of both models according to the number of generators and loads, and the node connection method. Fig. 4 shows the system of connections of the units in the simulation model, rendering one of the examined configurations of the physical system, which uses three generation points and omits the internal connections of the circular system. The most complicated model is undoubtedly the model of the generator field that consists not only of the generator model with an excitation control, but also a turbo-generator drive system model with speed or torque control models. To reflect the operation of the generator, we used an existing generator model available in the Matlab-Simulink program: Synchronous Machine pu Standard, the parameters of which were acquired from the producer and from the identification procedure [9–11]. The greatest problem was to render the drive system. The most similar model, which allowed one to reflect the torque or speed control settings available in Matlab-Simulink, proved a ready-made model of a water turbine with a PID control: HTG – Hydraulic Turbine and Governor. This model was developed as a water turbine implementation with controls based on a PID control and servo-motor for limiting the generator torque change rate. The system working with the synchronous machine excitation voltage – Excitation System (excitation with a control) – is responsible for reflecting the dynamics of the drive of the real laboratory system [9–11]. A unit transformer is placed at the generator output. For simulation purposes, we used a traditional T-type linear characteristics transformer model [12]. Besides generation nodes, we also created load nodes, to which we connected 3-phase
Fig. 5. Generation node model 198
resistance-inductance loads (Three-Phase Series LR Load – element from the Simulink library), in which values were input according to the power consumption of the laboratory model loads for the currently examined system pairing. All system nodes were connected using 3-phase Π-type line models (ThreePhase PI Section Line) with parameters equivalent to the suitable segments of the physical model in the configuration shown in Fig. 4. Each line was equipped with a circuit-breaker (Breaker), which allowed configuring connections between the simulation system nodes according to the currently examined/compared configuration of the real system. The physical model was subjected to short-circuits using a short-circuit module rendered in the computer counterpart using a simple unit: Three-Phase Fault [13].
Identification of the laboratory power system parameters Both models, the real model and its computer counterpart, were compared and tested at various operation conditions. Comparing models in both stable and dynamic conditions requires identification of all parameters used in the applied sub-models of the Simpowersystem library, available in the Matlab software. The type of models used and the correctness of the measured or estimated parameter values determine not only the suitability of the obtained simulation model (static or dynamic conditions), but also the expected consistence of measurement and simulation results. The five-node power system laboratory model identification process was carried out using traditional methods described in references [14–16], the application of which was enabled by the technical capabilities and measurement equipment available in the laboratory. The references include [17–19] identification methods based on the examination of time constants that allow determining more precisely the parameters required in the case being considered, as well as determining the values that would have remained unavailable with a conventional approach. They were not used, however, due to the lack of technical capabilities and their use is planned at future stages of work on the system. The identification of the drive and generation system was started by determining the individual parameters, resistance and reactance of the DC drive motor windings. The measurements performed and values obtained allowed estimating the
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | 195–202
mechanical losses of the examined drive-generator system at the nominal speed, which in turn was required to determine the moment of inertia. The measurement of the moment of inertia J was made using the after-run method for the full drive-generator system. The measured moment of inertia was thus the sum of the moments from the DC motor, the synchronous motor and the clutch connecting both devices. The simulation model required the introduction of the constant of inertia H. The constant of inertia was defined as the ratio of the energy accumulated in the rotor, at synchronous speed, to the nominal machine power Sn [16]:
supplied from a 1-phase auto-transformer at machine stoppage. The tests showed inconsistencies with manufacturer data, so the decision was made to accept factory data for all generator models. The identification of line parameters was completed according to the technical method for each line section separately. The results obtained in many tests for different sections equivalent to the same line length were very close and average values were accepted as final. For transformer we performed a traditional identification of parameters for the T-type model, in addition we measured the resistance of windings according to the technical method and accounted for the relatively high magnetising current (small transformers).
(1)
Comparison of the laboratory system and its Reactance values Xd and Xq were determined according to the computer equivalent small slip method (as per PN-E-06704) [16]. Subtransient reactance values Xd’’, X q’’ were determined with two generator phases
To compare the physical system to the relevant computer rendering, we compared the same system configuration (the
Fig. 6. Registered power flow in stable operation: laboratory system – in bold, simulation model – in italics
Fig. 7. Diagrams illustrating the short-circuit process dynamics for the completed physical model of the power system 199
J. Szczepanik, B. RozegnaĹ&#x201A; | Acta Energetica 2/27 (2016) | 195â&#x20AC;&#x201C;202
same structure and loads) for both models. We compared both the stable condition of the system operation, as well as the more interesting unstable state, showing the system dynamics. a) Steady state tests (power flow tests) The comparison of the stable condition of system operation was
performed by setting the leading generators of both models to speed control (swing bus) with torque balancing, while torque and voltage were set for other generators (PV-type control). Another step for the laboratory model was the successive connection of loads, the synchronisation of generators and the
Fig. 8. Comparison of the dynamic response of laboratory system and its computer equivalent 200
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | 195–202
implementation of the system configuration shown in Fig. 4. After obtaining a constant frequency of system operation, we registered the system power and voltage distribution shown in Fig. 6 – the values in bold. The results of computer modelling, obtained using the abovedescribed simulation model were compared with the results obtained from real life model for the same configurations, the same load of system nodes and the same PV generator torque settings. The values obtained from the computer simulation were read after determining the system steady state operation point, and are shown in Fig. 6 – the values in italics. The comparison showed similar systems operation points; some differences could be noticed due to the reactive power flow and a minor inconsistency in the settings of the torque controllers of generators G2 and G3. b) Dynamic condition short-circuit tests Comparison of models (Laboratory one and Simulink one) during dynamic processes, shown in this paper, was made on the basis of system response to the a symmetrical 3-phase short-circuit with ground. The short-circuit was modelled on a four-section line 1–4A, at a distance of 90 km from generator G1 and 210 km from generator G3 (between sections 3 and 4 of line 1–4A). For both systems, the real one and the computer one, the same configuration shown in Fig. 4, and the same time range of the response was examined. The short-circuit time length programmed in simulink was the equivalent to the value set in the Fault Unit and equal to 0.3 s [20]. The upper diagrams show the method of comparison of the dynamics of the systems response to the fauilt. short-circuit phenomenon by the completed real model and then selected results obtained for several characteristic signals that reflect the response of the modelled power systems to disturbances – the dynamics of the system was compared to the simulated values. We also performed tests aimed at checking system sensitivity to changing the time constants of the control units (e.g.: generator excitation units, speed control units and torque controls) both for the laboratory system and for the simulation model. We aimed at obtaining the most similar system responses.
Conclusions The purpose of the research was to develop a laboratory model of the power system and its computer counterpart. The comparison of static operating conditions and dynamic response of both models allows evaluating the suitability of the computer models and the accuracy of rendering transient waveforms. In the research, which is still in progress, we concentrate on the problems related to system operation in dynamic conditions, especially in post-fault conditions. Our interest in this problem is due to the fact that at present system operation simulations rely on highly simplified models, which in our opinion may have an impact on rendering quality. The system model developed in the Matlab program includes only elements with linear characteristics (except for the generator) and the initial research on laboratory model has already demonstrated, for example, the nonlinear nature of the real transformer during short-circuit.
However, developing a power system model using the latest tools and programs for computer analysis and numerical calculations provides many benefits. It allows the evaluation of the system response to many different disturbances, including those ,which, if they occur during the operation of a real structure, could result in its damage. Nonetheless, the suitability of such computer modelling is strongly linked with the correct identification of all, even the most specific, parameters. The selection of the models and the assessment their usability should answer the question if these models reflect enough characteristic features for the given application. REFERENCES
1. E.G. Potamianakis, C.D.Vournas, “Modeling and Simulation of Small
Hybrid Power Systems”, IEEE PowerTech Conference, 2003. 2. G. Andersson, “Modelling and Analysis of Electric Power Systems”, ETH Zurich, 2009. 3. G.J. Cokkinides, S. Mohagheghi, “A laboratory setup of a power system scaled model for testing and validation of EMS applications”, PowerTech, IEEE Bucharest, 2009. 4. A. Gomez-Exposito, A.J. Conejo, C. Canizares, “Electric Energy Systems: Analysis and Operation”, CRC Press, 2009. 5. P. Miller, M. Wancerz, “Wpływ sposobu wyznaczania parametrów linii 110 kV na dokładność obliczeń sieciowych” [Impact of the method of determining 110 kV line parameters on the accuracy of network calculations], Przegląd Elektrotechniczny, No. 4 (90), 2014. 6. A. Handke, E. Mitkowski, J. Stiller, “Sieci elektroenergetyczne” [Power Grids], Wydawnictwo Politechniki Poznańskiej, Poznań 1978. 7. H. Yoshihide, Handbook of Power System Engineering, Wiley 2007. 8. Mentor II User guide, Hòa Trinh, No. 13, 2013. 9. “Dynamic Models for Steam and Hydro Turbines in Power System Studies”, IEEE Trans. Power Appar. Syst. 1904–1915, Nov./Dec. 1973. 10. W.G. Hefron, P.A. Phillips, “Efect of modern aplidyne voltage regulator on under-excited operation of large turbine generators”, Power Apparatus and Systems, Part III, Transactions of the American Institute of Electrical Engineers, 1952, pp. 692–697. 11. F.K. Mak, “Design of nonlinear generator exciters using differential geometric control theories”, Decision and Control, Proceedings of the 31st IEEE Conference on, 1992. 12. A. Plamitzer, “Maszyny elektryczne” [Electric Machines], Wydawnictwo Naukowo-Techniczne, Warszawa 1982. 13. Simulink Documentation, Simulation and Model-Based Design, MathWorks. 14. Standard PN-78 E-04252. 15. W. Latek, “Badanie maszyn elektrycznych w przemyśle” [Examination of electric machines in industry], Wydawnictwo NaukowoTechniczne, Warszawa 1979. 16. Standard PN-E-06704. 17. Shi D. i in., Transmission line parameter identification using PMU measurements, European Transactions on Electrical Power, Vol. 21, 2011, pp. 1574–1588. 18. J.J Sanchez-Gasca. et al., “Trajectory sensitivity based identifca-tion of synchronous generator and excitation system parameters”, IEEE Transactions on Power Systems, Vol. 3, 1988, pp. 1814–1822. 201
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | 195–202
19. A. Tumageanian, A. Keyhani, “Identifcation of synchronous machine linear parameters from standstill step voltage input data”, IEEE Transactions on Energy Conversion, Vol. 10, 1995, pp. 232–240.
20. P. Kacejko, J. Machowski, “Zwarcia w systemach elektroenergetycznych“ [Short-circuits in power systems], Warszawa, WNT 2009.
Bartosz Rozegnał Kraków University of Technology email: b.rozegnal@gmail.com Studied at the Faculty of Electrical and Computer Engineering of Kraków University of Technology. Currently working on his PhD dissertation. His research interests include: detection and identification of short-circuits in power systems using wavelet transforms, support systems for transistor switching in 3-phase voltage inverters – soft switching, power systems – power flow control methods.
Jerzy Szczepani Kraków University of Technology email: jerzy_szczepanik@hotmail.com Graduated from the Faculty of Electrical Engineering, Automation and Electronics of AGH University of Science and Technology in Kraków. Then obtained the title of Master of Science in Electrical Engineering by research at Monash University, Clayton Campus, Australia and the title of Doctor of Philosophy in Electrical Engineering in the Royal Melbourne Institute of Technology, Melbourne, Australia. His research interests include modelling of the dynamic conditions of power systems, developing concepts and ideas for controlling power flow in the power system, as well as examining power quality and developing procedures for measuring it. Many years of professional experience as expert and microprocessor control and measurement chip builder in industry.
202
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | translation 195–202
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 195–202. When referring to the article please refer to the original text. PL
Laboratoryjny model systemu elektroenergetycznego przeznaczony do badań procesów dynamicznych Autorzy
Jerzy Szczepanik Bartosz Rozegnał
Słowa kluczowe
system elektroenergetyczny, dynamika systemu, zwarcie, identyfikacja parametrów
Streszczenie
Badania identyfikacyjne procesów dynamicznych oraz przejściowych, zachodzących w systemie elektroenergetycznym, przeprowadzane są zazwyczaj na podstawie symulacji. Struktury systemów używanych do badań symulacyjnych są budowane z uproszczonych modeli elementów systemu elektroenergetycznego. W praktyce, aby uzyskać weryfikację wyników uzyskanych w symulacjach, należałoby porównać je z danymi uzyskanymi z rzeczywistych obiektów. Badania przeprowadzone na Politechnice Krakowskiej i zawarte w proponowanym artykule pokazują, że uproszczenia oraz założenia przyjmowane przy budowie modeli symulacyjnych powodują często niezgodność wyników symulacyjnych z rzeczywistymi przebiegami stanu systemu. Badań tych dokonywano przy użyciu skonstruowanego wcześniej rzeczywistego pięciowęzłowego modelu laboratoryjnego systemu elektroenergetycznego. Dla modelu tego przeprowadzono pełny proces identyfikacyjny parametrów, tak aby możliwa była budowa jego ekwiwalentu komputerowego przy użyciu oprogramowania Matlab. Model laboratoryjny, na którego podstawie zbudowano ekwiwalent symulacyjny, jest układem pięciowęzłowym o strukturze zamkniętej i składa się z czterech węzłów generacyjno-odbiorczych oraz jednego węzła odbiorczego. Parametry elementów tworzących model laboratoryjny, takich jak linie czy moce generatorów, zostały dobrane przy zastosowaniu skalowania mocowego. Doświadczenia przeprowadzane obecnie na modelu mają na celu badanie procesów dynamicznych zachodzących w trakcie i po zwarciu, jak również przetestowania obecnie opracowywanych procedur pozwalających oszacować rozpływ mocy w stanie statycznym oraz procedur lokalizacji zakłóceń.
Wstęp Artykuł przedstawia proces budowy oraz badań modelu wielogeneratorowego systemu laboratoryjnego. Celem budowy modelu było uwiarygodnienie badań stabilności systemu, badań wpływu urządzeń typu FACTS na statyczny rozpływ mocy oraz w stanach dynamicznych, czy badań zmierzających do budowy procedury lokalizującej zwarcia w systemach elektroenergetycznych. Badania te przeprowadzano dotychczas na podstawie symulacji, a symulacje zjawisk dynamicznych przeprowadzane na modelach komputerowych systemów elektroenergetycznych, budowanych nawet za pomocą zaawansowanych modeli elementów tych systemów, często wykazują rozbieżności z rzeczywistymi przebiegami. Rozbieżności te mogą wynikać nie tylko z nieuwzględnienia w symulacji wszystkich elementów, które mają wpływ na przebiegi prądów i napięć, ale także z problemami numerycznymi związanymi z procedurami rozwiązywania nieliniowych układów równań o zespolonych współczynnikach [1–4]. Układ modelu laboratoryjnego jest układem o konfiguracji opartej na wzorcowym 5-węzłowym układzie IEEE, o strukturze zamkniętej (okrężnej) i zawiera cztery węzły generatorowe oraz pięć węzłów odbiorczych (rys. 2). Węzły odbiorcze zostały zaprojektowane z uwzględnieniem zarówno obciążeń statycznych, jak i dynamicznych [1, 2]. Skalowanie modelu W trakcie konstrukcji modelu założono, że parametry linii modelu na napięcie 400 V powinny odpowiadać parametrom linii 400 kV. Wymusza to przekładnię napięciową ηU = 1000÷1 (krajowe napięcie przesyłowe 400 [KV] = 400 [V] model). Niemożliwe jest jednak wykonanie modelu
przy uwzględnieniu tylko przekładni napięciowej i przy stałej mocy. Oszacowano więc możliwości układu zasilania zewnętrznego i zaproponowano skalowanie mocowe: η S = 25000÷1 (system rzeczywisty 500 [MVA] = 20 [KVA] model). Po przeliczeniu otrzymano przekładnię prądową: ηI = ηS/ηU = 25000/1000 = 25. Przy projektowaniu systemu linii założono, że maksymalny prąd ciągły długotrwały linii to 30 A, co odpowiada prądowi w układzie rzeczywistym 750 A i mocy przesyłanej przez linię ok. 520 MVA [3]. Budowa modeli linii Modele linii energetycznych zostały wykonane jako szereg czwórników typu Π (modeli o parametrach skupionych), których parametry (indukcyjność i rezystancja wzdłużna oraz pojemność i rezystancja poprzeczna) zostały przeliczone poprzez przekładnie z parametrów rzeczywistej linii 400 kV (rys. 1). Najtrudniejszym elementem budowy modelu linii było zaprojektowanie i wykonanie modelu indukcyjności linii – cewek powietrznych o indukcyjności 0,67 mH i prądzie pracy do 35 A oraz uwzględnienie sprzężeń międzyfazowych przewodów tych linii (sprzężeń cewek). Każdy człon modelu linii odpowiada ok. 30 km linii w układzie rzeczywistym, a zróżnicowanie długości linii osiągnięto poprzez szeregowe połączenie poszczególnych członów w model łańcuchowy – od trzech do ośmiu [5]. Struktura modelu oraz konstrukcja rozdzielni R ozdzielnie zost ały zabudowane w pięciu pulpitach sterowniczych. Ze względu na gabaryty oraz koszty urządzeń nie zostały zrealizowane układy
rzeczywistych rozdzielni wielosystemowych. Zrezygnowano m.in. z montażu odłączników, zarówno liniowych, jak i szynowych, a układ szyn zbiorczych ograniczono do pojedynczego. W układzie nie występują także sprzęgła systemowe i sekcyjne. Poniżej przedstawiono schemat główny zbudowanego systemu [3, 6, 7]. Budowa poszczególnych węzłów przedstawia się następująco: WĘZEŁ 1: pole generatora, pole obciążenia statycznego, pole linii 1–4, pole linii 4–1, pole linii 1–2 WĘZEŁ 2: pole obciążenia dynamicznego, pole linii 1–2, pole linii 2–3 WĘZEŁ 3: pole generatora, pole obciążenia statycznego, pole linii 2–3, pole linii 3–4, pole linii 3–5 WĘZEŁ 4: pole generatora, pole obciążenia statycznego, pole linii 1–4, pole linii 4–1, pole linii 3–4, pole linii 4–5 WĘZEŁ 5: pole generatora, pole obciążenia statycznego, pole obciążenia dynamicznego, pole linii 3–5, pole linii 4–5, pole linii „sieć zewnętrzna”. Pole generatora Pole przyłączenia generatora wprowadzono w rozdzielniach 1, 3, 4 oraz 5. Pole generatora składa się z układu sterowania maszyną napędową (silnikiem prądu stałego) w postaci przekształtnika Mentor, silnika prądu stałego o mocy nominalnej większej od mocy generatora, sprzęgła (układu pomiaru momentu), generatora oraz transformatora blokowego. Moce zamontowanych generatorów wynoszą odpowiednio: 10 kVA ≈ 250 MVA, 16 kVA ≈ 400 MVA i 20 kVA ≈ 500 MVA. Pole generatora podłączane jest do rozdzielni za pomocą wyłącznika (jego funkcję spełnia stycznik próżniowy o prądzie wyłączalnym 1600 A). Załączenie generatora odbywa się
203
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | translation 195–202
systemu zmienia się z kwadratem przekładni autotransformatora) [6].
Rys. 1. Linia przesyłowa przedstawiona w postaci szeregu czwórników typu Π
Rys. 2. Uproszczona struktura układu laboratoryjnego
ręcznie bądź automatycznie, pod nadzorem synchronizatora serii SV firmy Kared, stosowanego również w elektrowniach zawodowych [7]. Do sterowania napędu generatora (silnik DC) wykorzystano tyrystorowy układ napędowy Mentor II w połączeniu do pracy 2-kwadrantowej. Struktura oprogramowania układu napędowego pozwala na pracę w układzie 2- lub 4-kwadrantowym, przy regulacji prędkości i nadążnym układzie regulacji momentu lub regulacji momentu z ograniczeniem prędkości maksymalnej turbozespołu. Każdy generator został ponadto zaopatrzony w regulator wzbudzenia oparty na sterowniku programowalnym realizującym regulator typu PID [8]. Pole obciążenia statycznego Pole obciążenia statycznego wykonano jako połączenie równoległe obciążenia
rezystancyjnego oraz indukcyjnego (rys. 3). Każde z czterech obciążeń rezystancyjnych zbudowane zostało w oparciu o cztery stopnie regulacji, odpowiednio: 600 [W], 1200 [W], 2400 [W] i 4800 [W], co odpowiada w rzeczywistym układzie odbiorom o mocach: 15 [MW], 30 [MW], 60 [MW] oraz 120 [MW]. Każde obciążenie jest załączane niezależnie wyłącznikami W1÷W4 po załączeniu stycznika głównego SG (rys. 3). Taka konstrukcja obciążenia pozwala na 16-stopniową regulację obciążenia od 0 do 9 kW co 600 W. Zmienność obciążenia indukcyjnego (rys. 3) uzyskano poprzez przyłączenie do systemu specjalnie zaprojektowanego 3-fazowego dławika o mocy 9 kvar (co odpowiada w rzeczywistym układzie 225 Mvar), przez 3-fazowy autotransformator. Układ ten pozwala na płynną zmianę reaktancji obciążenia, choć wprowadza nieliniową charakterystykę jego obciążenia (reaktancja „widziana” od strony
Rys. 3. Układ załączania pola generatora oraz schemat połączeń pola obciążenia statycznego R-L
204
Pole obciążenia dynamicznego Obciążenie dynamiczne zostało zasymulowane poprzez silnik asynchroniczny o mocy 10 kW, załączany za pomocą układu soft start. Soft start został użyty ze względu na stosunkowo dużą moc silnika w porównaniu z mocą maksymalną generatorów układu i możliwymi problemami ze stabilnością spowodowanych prądem rozruchowym silnika. Na wspólnym wale z silnikiem znajduje się maszyna prądu stałego wykorzystywana jako prądnica. Energia z maszyny prądu stałego poprzez tyrystorowy układ napędowy Mentor II, pracujący w układzie 4-kwadrantowym, jest zwracana do sieci zasilającej. Pole linii W zaprojektowanym modelu systemu energetycznego jest siedem linii przesyłowych. Ich długości elektryczne to odpowiednio (rys. 2): linia 1–2 i linia 2–3 – 3 segmenty, odpowiednik linii o długości 90 [km], linia 1–4 i linia 4–1 – 4 segmenty, odpowiednik linii o długości 120 [km], linia 3–4 – 8 segmentów, odpowiednik linii o długości 240 [km], linia 3–5 – 5 segmentów, odpowiednik linii o długości 150 [km], linia 4–5 – 6 segmentów, odpowiednik linii o długości 180 [km]. Linie podłączono do szyn rozdzielni poprzez wyłączniki oraz zaopatrzono w układ pomiarowy prądów używający przekładników do pomiarów statycznych i LEM do pomiarów dynamicznych. Nie zastosowano żadnych blokad uniemożliwiających połączenie dwóch rozdzielni w przypadku, gdy każda z tych rozdzielni jest podłączona do innego źródła i ich połączenie może wywołać warunki zwarciowe. Blokady zostały pominięte z premedytacją, aby móc odtworzyć pewne stany dynamiczne w systemie [5]. Budowa i opis symulacyjnego modelu systemu elektroenergetycznego W celu budowy modelu komputerowego struktura modelu laboratoryjnego została w pełni odwzorowana w programie Matlab-Simulink, co oznacza, że każdy element systemu laboratoryjnego został
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | translation 195–202
odwzorowany za pomocą dostępnego w programie bloku lub zespołu bloków. Struktury połączeń obu modeli można zmieniać w zależności od liczby zastosowanych generatorów, odbiorów oraz sposobu połączenia węzłów. Na rysunku (rys. 4) pokazano układ połączeń bloków modelu symulacyjnego, odwzorowującego jedną z badanych konfiguracji systemu fizycznego, w której zastosowano trzy punkty generacyjne oraz pominięto wewnętrzne połączenia układu okrężnego. Najbardziej skomplikowanym modelem jest niewątpliwie model pola generatora, w którego skład wchodzi nie tylko model generatora z regulatorem wzbudzenia, ale także model układu napędowego turbozespołu wraz z modelami zastosowanych regulatorów prędkości czy momentu obrotowego. Do odwzorowania pracy generatora wykorzystano istniejący już w programie Matlab-Simulink model generatora: Synchronous Machine pu Standard, którego parametry uzyskano od producenta oraz z przeprowadzonej procedury identyfikacyjnej [9–11]. Największym problemem było odwzorowanie układu napędowego. Najbardziej zbliżonym modelem, pozwalającym odtworzyć nastawy regulatora momentu czy prędkości dostępnym w Matlab-Simulink, okazał się gotowy model turbiny wodnej z regulatorem PID: HTG – Hydraulik Turbine and Governor. Model ten zbudowany jest jako implementacja turbiny wodnej, wraz z regulatorami bazującymi na regulatorze PID oraz serwomotorze ograniczającym szybkość zmian momentu napędowego generatora. Układ we współpracy z regulatorem napięcia wzbudzenia maszyny synchronicznej: Excitation System (wzbudzenie z regulatorem) jest odpowiedzialny
za oddanie dynamiki napędu rzeczywistego układu laboratoryjnego [9–11]. Na wyjściu generatora znajduje się transformator blokowy. Do symulacji użyto klasycznego modelu transformatora typu T o liniowej charakterystyce [12]. Poza węzłami generacyjnymi utworzono jeszcze węzły odbiorcze, do których podłączono 3-fazowe obciążenia rezystancyjno-indukcyjne (Three-Phase Series LR Load – element biblioteki Simulink), którym zadawano wartości zgodne z mocami pobieranymi przez odbiorniki w modelu laboratoryjnym dla aktualnie badanego skojarzenia systemu. Wszystkie węzły systemu zostały połączone za pomocą 3-fazowych modeli linii typu Π (Three-Phase PI section Line) o parametrach dopowiadających odpowiednim odcinkom modelu fizycznego, w konfiguracji takiej, jaka została zaprezentowana na rys. 4. Każda linia została wyposażona w wyłącznik (Breaker) dający możliwość skonfigurowania połączeń między węzłami systemu symulacyjnego zgodnego z aktualnie badaną/porównywaną konfiguracją systemu rzeczywistego. W modelu fizycznym dokonywano zwarć za pomocą modułu zwarciowego, który został odwzorowany w odpowiedniku komputerowym poprzez nieskomplikowany blok: ThreePhase Fault [13]. Identyfikacja parametrów laboratoryjnego systemu elektroenergetycznego Oba modele – model rzeczywisty oraz jego komputerowy odpowiednik – zostały ze sobą zestawione, skonfrontowane dla różnych stanów pracy. Porównanie modeli przeprowadzone zarówno dla stanów ustalonych, jak i dynamicznych wymaga identyfikacji wszystkich parametrów użytych
w zastosowanych submodelach biblioteki Simpowersystem, dostępnych w oprogramowaniu Matlab. Od typu użytych modeli oraz poprawności zmierzonych lub oszacowanych wielkości parametrów zależna jest nie tylko przydatność otrzymanego modelu symulacyjnego (stany statyczne lub dynamiczne), ale także oczekiwana zgodność wyników pomiarowych i symulacyjnych. Proces identyfikacyjny laboratoryjnego modelu pięciowęzłowego systemu elektroenergetycznego został przeprowadzony w oparciu o klasyczne metody, opisane w normach oraz literaturze [14–16], na których zastosowanie pozwalały możliwości techniczne oraz aparatura pomiarowa dostępna w laboratorium. W literaturze można znaleźć [17–19] metody identyfikacyjne oparte na badaniu stałych czasowych, pozwalające na bardziej precyzyjne określenie wymaganych w omawianym przypadku parametrów, jak również na oszacowanie tych wielkości, które przy konwencjonalnym podejściu nie były dostępne. Nie zastosowano ich jednak z powodu braku możliwości technicznych, a ich użycie jest przewidziane w dalszych pracach nad systemem. Identyfikację układu napędowo-generacyjnego rozpoczęto od wyznaczenia parametrów indywidualnych – rezystancji oraz reaktancji uzwojeń napędowego silnika prądu stałego. Przeprowadzone pomiary oraz uzyskane wartości pozwoliły na oszacowanie strat mechanicznych badanego układu napęd-generator dla prędkości znamionowej, co z kolei było konieczne do wyznaczenia momentu bezwładności. Pomiaru momentu bezwładności J dokonano z wykorzystaniem metody wybiegu dla pełnego układu napędowo-generacyjnego. Zmierzony moment bezwładności był więc sumą momentów pochodzących od silnika prądu stałego, silnika synchronicznego oraz sprzęgła łączącego oba urządzenia. W modelu symulacyjnym zaistniała potrzeba wprowadzenia stałej inercji H. Stałą inercji zdefiniowano jako stosunek energii zgromadzonej w wirniku, przy prędkości synchronicznej do znamionowej mocy maszyny Sn [16]:
(1)
Reaktancje Xd oraz Xq wyznaczono przy wykorzystaniu metody małego poślizgu (wg normy PN-E-06704) [16]. Wyznaczenie reaktancji podprzejściowych Xd’’, Xq’’ wykonano przy zasilaniu dwóch faz generatora z 1-fazowego autotransformatora dla zatrzymanej maszyny. Testy wykazały rozbieżności z danymi producenta, a w związku z tym postanowiono, że dla wszystkich modeli generatorów zostaną przyjęte dane fabryczne.
Rys. 4. Schemat symulacyjnego modelu pięciowęzłowego systemu elektroenergetycznego wykonanego w programie Matlab-Simulink
Identyfikację parametrów linii przeprowadzono metodą techniczną dla każdej sekcji linii z osobna. Uzyskane wyniki dla wielu prób, dla różnych sekcji odpowiadających tej samej długości linii były bardzo zbliżone i jako ostateczne wzięto wartości średnie. Dla transformatorów przeprowadzono klasyczną identyfikację parametrów dla modelu typu T, a dodatkowo zmierzono
205
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | translation 195–202
Na poniższych wykresach przedstawiono sposób oddawania dynamiki zjawiska zwarciowego przez zbudowany model rzeczywisty, a następnie wybrane wyniki otrzymane dla kilku charakterystycznych sygnałów odzwierciedlających sposób odpowiedzi zamodelowanych systemów elektroenergetycznych na zaburzenia – dynamikę systemu porównano z wartościami otrzymanymi z symulacji.
Rys. 5. Model węzła generacyjnego
rezystancję uzwojeń metodą techniczną i uwzględniono stosunkowo duży prąd magnesujący (małe transformatory). Porównanie systemu laboratoryjnego z jego komputerowym odpowiednikiem W celu porównania systemu fizycznego z odpowiadającym mu odwzorowaniem komputerowym dla obu modeli zestawiono tę samą konfigurację systemu (ta sama struktura, te same obciążenia). Porównywano zarówno stan ustalony pracy układu, jak również bardziej interesujący stan nieustalony, ukazujący na dynamikę systemu. a) Próba dla stanu ustalonego Porównanie dla stanu ustalonego pracy systemu wykonano, ustawiając w obu modelach generator wiodący na sterowanie prędkością (ang. swing bus) z bilansowaniem momentu, natomiast pozostałym generatorom zadawano moment oraz napięcie (sterowanie typu PV). Kolejnym krokiem dla modelu laboratoryjnego było sukcesywne dołączanie obciążeń oraz synchronizacja generatorów i doprowadzenie systemu do konfiguracji zaprezentowanej na rys. 4. Po uzyskaniu stałej częstotliwości pracy systemu zarejestrowano rozkład mocy i napięć w systemie, przedstawiony na rys. 6 – wartości oznaczone czcionką pogrubioną.
Wyniki komputerowego odwzorowania otrzymano, zestawiając wcześniej przedstawiony model symulacyjny w konfiguracji zgodnej z modelem fizycznym, przy jednakowym obciążeniu węzłów systemu i jednakowych zadanych momentach generatorów PV. Wartości otrzymane z komputerowego odwzorowania, odczytane po ustaleniu się punktu pracy systemu, przedstawiono na rys. 6 – wartości pisane kursywą. Porównanie pokazało zbliżone punkty pracy systemów, ewentualne różnice mogły wynikać z rozpływu mocy biernej oraz niewielkiej rozbieżności nastaw regulatorów momentu generatorów G2 oraz G3. b) Próby zwarciowe – stan nieustalony Porównanie modeli w stanie nieustalonym przeprowadzono na podstawie zwarcia symetrycznego – zwarcia 3-fazowego z ziemią. Zwarcie zamodelowano na czterosekcyjnej linii 1–4A w odległości 90 km od generatora G1 oraz 210 km od generatora G3 (między 3 a 4 sekcją linii 1–4A). Dla obu systemów – rzeczywistego oraz komputerowego – ponownie ustawiono te same konfiguracje, zgodne z rys. 4, oraz badano ten sam odcinek czasu. Czas trwania zwarcia zaprogramowany na module zwarciowym odpowiadał wartości ustawionej w bloku ThreePhase Fault i wynosił równo 0,3 s [20].
Przeprowadzono również badania, które miały na celu sprawdzenie czułości systemu na zmianę stałych czasowych układów regulacyjnych (m.in.: układów wzbudzenia generatorów, układów regulacji prędkości oraz regulatorów momentu) zarówno dla układu laboratoryjnego, jak i dla modelu symulacyjnego. Starano się otrzymać jak najbardziej zbliżone odpowiedzi systemów. Wnioski Celem przeprowadzonej pracy badawczej było zbudowanie laboratoryjnego modelu systemu elektroenergetycznego oraz jego komputerowego odpowiednika. Porównanie statycznych warunków pracy oraz dynamicznych odpowiedzi obydwóch modeli ma pozwolić oszacować przydatność modeli komputerowych i stopień dokładności odwzorowania przebiegów przejściowych. W badaniach, które jeszcze trwają, skoncentrowano się na problemach związanych z pracą systemu w stanach dynamicznych, a w szczególności w stanach pozanurzeniowych. Zainteresowanie tym problemem wynika z faktu, że dla symulacji zachowania systemów używa się obecnie znacznie uproszczonych modeli, co zdaniem autorów może wpływać na jakość odwzorowania. Zbudowany w programie Matlab model systemu zawiera tylko elementy o charakterystyce liniowej (z wyjątkiem generatora), a już wstępne badania wykazały na przykład nieliniowość rzeczywistych transformatorów w trakcie zwarcia bliskiego. Zbudowanie symulacyjnego modelu systemu elektroenergetycznego przy wykorzystaniu najnowszych dostępnych narzędzi i programów, przeznaczonych do analizy
Rys. 6. Zarejestrowany rozpływ mocy w stanie pracy ustalonej: system laboratoryjny – czcionka pogrubiona, model symulacyjny – czcionka pisana kursywą
206
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | translation 195–202
Rys. 7. Wykresy obrazujące dynamikę procesu zwarciowego dla zbudowanego fizycznego modelu systemu elektroenergetycznego
Rys. 8. Porównanie odpowiedzi dynamicznej układu laboratoryjnego z jego komputerowym odpowiednikiem
207
J. Szczepanik, B. Rozegnał | Acta Energetica 2/27 (2016) | translation 195–202
komputerowej i obliczeń numerycznych, niesie jednak za sobą wiele korzyści. Pozwala na sprawdzenie odpowiedzi systemu na wiele różnych zaburzeń, również takich, których pojawienie się podczas pracy w rzeczywistym obiekcie mogłoby doprowadzić do jego uszkodzenia. Jednak przydatność takiego komputerowego odwzorowania jest ściśle związana z poprawnością identyfikacji wszystkich, nawet najbardziej szczegółowych parametrów oraz wyborem modeli obiektów odwzorowujących wystarczająco dużo cech charakterystycznych dla danego zastosowania. Bibliografia 1. Potamianakis E.G., Vournas C.D., Modeling and Simulation of Small Hybrid Power Systems, IEEE PowerTech Conference, 2003. 2. Andersson G., Modelling and Analysis of Electric Power Systems, ETH Zurich, 2009. 3. Cokkinides G.J., Mohagheghi S., A laboratory setup of a power system scaled model for testing and validation of EMS applications, PowerTech, IEEE Bucharest, 2009.
4. Gomez-Exposito A., Conejo A.J., Canizares C., Electric Energy Systems: Analysis and Operation, CRC Press, 2009. 5. Miller P., Wancerz M., Wpływ sposobu wyznaczania parametrów linii 110 kV na dokładność obliczeń sieciowych, Przegląd Elektrotechniczny 2014, r. 90, nr 4. 6. Handke A., Mitkowski E., Stiller J., Sieci elektroenergetyczne, Wydawnictwo Politechniki Poznańskiej, Poznań 1978. 7. Yoshihide H., Handbook of Power System Engineering, Wiley 2007. 8. Mentor II User guide, Hòa Trinh, nr 13, 2013. 9. Dynamic Models for Steam and Hydro Turbines in Power System Studies, IEEE Trans. Power Appar. Syst. 1904–1915, Nov./Dec. 1973. 10. Heffron W.G., Phillips P.A., Effect of modern aplidyne voltage regulator on under-excited operation of large turbine generators, Power Apparatus and Systems, Part III, Transactions of the American Institute of Electrical Engineers, 1952, s. 692–697. 11. Mak F.K., Design of nonlinear generator exciters using differential geometric control theories, Decision and Control, Proceedings of the 31st IEEE Conference on, 1992.
12. Plamitzer A., Maszyny elektryczne, Wydawnictwo Naukowo-Techniczne, Warszawa 1982. 13. Simulink Documentation, Simulation and Model-Based Design, MathWorks. 14. Norma PN-78 E-04252. 15. Latek W., Badanie maszyn elektrycznych w przemyśle, Wydawnictwo NaukowoTechniczne, Warszawa 1979. 16. Norma PN-E-06704. 17. Shi D. i in., Transmission line parameter identification using PMU measurements, European Transactions on Electrical Power 2011, Vol. 21, s. 1574–1588. 18. Sanchez-Gasca J.J. i in., Trajectory sensitivity based identification of synchronous generator and excitation system parameters, IEEE Transactions on Power Systems 1988, Vol. 3, s. 1814–1822. 19. Tumageanian A., Keyhani A., Identification of synchronous machine linear parameters from standstill step voltage input data, IEEE Transactions on Energy Conversion 1995, Vol. 10, s. 232–240. 20. Kacejko P., Machowski J., Zwarcia w systemach elektroenergetycznych, Warszawa, WNT 2009.
Jerzy Szczepanik
dr inż. Politechnika Krakowska e-mail: jerzy_szczepanik@hotmail.com Studia magisterskie odbył na Wydziale Elektrotechniki, Automatyki i Elektroniki Akademii Górniczo-Hutniczej w Krakowie. Następnie uzyskał tytuł Master of Science in Electrical Engineering by Research na Monash Unversity, Clayton Campus, Australia oraz tytuł Doctor of Philosophy in Electrical Engineering (doktorat) na uniwersytecie Royal Melbourne Institute of Technology, Melbourne, Australia. Jego zainteresowania badawcze obejmują modelowanie stanów dynamicznych systemów elektroenergetycznych, opracowywanie koncepcji i urządzeń na potrzeby kontroli rozpływu mocy w systemie elektroenergetycznym czy badanie jakości energii elektrycznej i opracowywanie procedur jej pomiarów. Ma wieloletnie doświadczenie pracy w przemyśle w charakterze eksperta oraz konstruktora mikroprocesorowych układów kontrolno-pomiarowych.
Bartosz Rozegnał
mgr inż. Politechnika Krakowska e-mail: b.rozegnal@gmail.com Studia odbył na Wydziale Inżynierii Elektrycznej i Komputerowej na Politechnice Krakowskiej. Obecnie pracuje nad rozprawą doktorską. Jego zainteresowania badawcze to: detekcja oraz identyfikacja zwarć w systemach elektroenergetycznych przy wykorzystaniu transformat falkowych, układy wspomagające przełączanie tranzystorów w 3-fazowych falownikach napięcia – soft switching, systemy elektroenergetyczne – metody sterowania rozpływem mocy.
208
A. Wilczyński, P. Bućko | Acta Energetica 2/27 (2016) | 209–214
Proposed Amendments to Reactive Energy Billing
Authors Artur Wilczyński Paweł Bućko
Keywords electricity tariffs, reactive energy billing, reactive power, energy market
Abstract This paper describes possible amendments to the rules of reactive energy billing in the tariffs in Poland. Modifications in the tariffs to improve their motivational function for distribution system users are identified as the most expedient. New problems arising from distributed generator operations are also indicated. A billing method that can be effectively implemented at the occurrence of distorted voltage and current waveforms is discussed.
DOI: 10.12736/issn.2300-3022.2016219
Introduction. Stimulating consumer behaviour Monitoring of the reactive power consumption is performed in time zones in which the consumer is billed. The subject of the monitoring is the power coefficient for the consumer, which is determined as the ratio of the reactive energy to the active energy consumed in the given billing period. Thus, the temporary values of the power coefficient are not monitored. The billing only accounts for the calculation values that do not optimally reflect the properties of the physical phenomenon, which reactive power consumption is. This impedes a reasonable management of the reactive power by the consumer, but constitutes a simplification resulting from the constraints of traditional billing and measuring equipment. The consumer is subject to fines for returning reactive power to the mains – working at a capacitative coefficient. Those fines are often cumbersome to the consumer; however, they often have no economic justification. The consumer, by returning reactive power to the mains, usually improves voltage conditions near the connection location. Though cases with a risk of exceeding the permissible voltage values exist, they are rare. Under the current method, it is important for the consumer to eliminate such charges due to their amounts. Such problems may occur if the consumer has extensive cable networks with small loads (and it is reasonable to disconnect unloaded cable lines in low consumption zones or to use shunt reactors) or with a poorly designed reactive power compensation that causes temporary over-compensation (which requires an improvement of the capacitor bank adjustment efficiency). Excessive reactive power consumption (work at an induction coefficient) and minor excesses of the set power coefficient, the fines faced by the customer are not that cumbersome. Rarely does the amount of such fines justify the necessity of investing in
new compensation systems – it does not contribute to a reasonable management of the reactive power by the consumers. Among the methods of reactive power compensation, the most widespread is the use of capacitor banks. This method has multiple advantages: • easy adjustment of the bank power to the current demand • high flexibility regarding the place of installation • small losses of active power • easy assembly • low operation costs • relatively long life. The rule of billing for reactive power is obsolete and finds no economic justification. The development of the measurement methods allows expecting this state of affairs to be improved in the future.
Disadvantages of the current rule of billing for reactive power The system of billing for the reactive power should serve to stimulate the consumers to the negative impact that occurs in the system due to an excessive transmission of reactive power. While the active power in the power system is produced at generation sources and transmitted to consumers through a transmission and distribution system, causing losses along the entire transmission route, reactive power is generated not only by generation sources, but also within the transmission and distribution system. Elements of the transmission system are also prominent reactive power loads. The maintenance of proper reactive power balances is thus a strictly local problem, which applies to system areas or even single nodes. An important stimulus of a reasonable reactive power management on the part of the consumers should be a properly operating billing system with end-consumer tariffs. The negative 209
A. Wilczyński, P. Bućko | Acta Energetica 2/27 (2016) | 209–214
consequences of consuming reactive power beyond the contract or introducing it into the system are strictly related to the temporary situation. The billing system should stimulate the customer to maintain the temporary power coefficient at the right level. Most measurement systems (and in consequence the billing system in itself) do not monitor the temporary power coefficient value, but rely on the reactive energy consumption within a time zone. Under the tgφ tariff, it is defined as the ratio of the reactive energy consumed in the given time zone to the active energy consumed at the same time. Due to a different variability during the reactive and active power consumption, thus calculated coefficient often cannot show even significant temporary excesses of the power coefficient. The current reactive power billing system is based on reactive energy meter indications. This solution is due mainly to the ease of measurement of this value. In the past, when induction meters were used for active energy measurements, the same meters (properly connected using the voltage shift) were implemented to measure reactive energy. The advantages of those measurement systems were their relative simplicity and low costs. However, this solution has multiple disadvantages if the billing system is meant to reflect the costs caused by excessive reactive power consumption for the supplier’s system: • temporary values of the power coefficient are not monitored, although it is the highest temporary value of the power coefficient that determines the fixed costs of supplying the reactive power to the consumer and that is decisive for evaluating the impact of the consumer on the temporary voltage levels in the system (the costs related to the excess of the allowed voltage levels) • the costs of energy losses in the system depend (in simplification) on the integral of the squared apparent power consumed by the consumer and not on the reactive energy consumed by the consumer. Thus, the measured reactive energy cannot be considered a direct medium of the supply costs [4, 10]. The current system of billing consumers for reactive power consumption beyond the contract is a very simplified attempt at relating to the cost of active power losses caused by the reactive power consumption. The multitude of simplification premises adopted in its implementation is considerable. The function of the current billing system is thus an attempt at disciplining the consumers in terms of behaviours related to the reactive power consumption, however the monitoring of those behaviours is highly inefficient due to the conditions resulting from the measurement technology used in the past. The fines of consuming reactive power beyond the contract do not reflect the actual costs caused by its consumption. Due to their relatively low amounts in comparison to the costs of compensation equipment, they are also insufficient as a stimulus.
Proposed amendments The reactive power balance in the system depends to a large extent on the current load of system elements and it is subject to significantly higher daily fluctuations than the active power balance. There are periods of reactive power surplus (in the 210
off-peak load periods) and periods of deficit. This directly translates to the voltage conditions in the system. Reactive power balances can vary locally and at various voltage levels of the system. To ensure proper voltage conditions and reactive power balances for the correct operation of the system requires system operators to implement multiple technological means. Those means generate significant costs. The current state of affairs is that high costs are generated on the part of the system (producers and system operators), while the capabilities of improving the situation on the part of the consumers are not used. Future efforts to improve system security should be aimed at [4, 10]: 1. utilising the capabilities of the consumers (especially large and average) as potential suppliers of ancillary system services in terms of U and Q regulation 2. modifying the rules of billing the consumers for reactive power consumption beyond the contract by: • discontinuing reactive energy measurements and implementing measurement systems to monitor the temporary power coefficient values, at which the consumer operates • correlating the rules of billing consumers not only with their power coefficient, but also with the temporary system conditions. The current billing system is a poor attempt at disciplining consumers. The billings reflect the real costs on the part of the supplier to a little extent. Such systems most often remain inefficient or lead to sub-optimal solutions. If the billing rates are too low, consumers do not show proper care in the reactive power management (which is the situation under the current tariffs), while if the billing rates are too stringent, the costs incurred by consumers are excessive and have no economic justification. The modified billing system, apart from simple disciplining of consumers, should motivate the consumers to behaviours that bring the system costs of reactive power supply and voltage level regulation to reasonable levels. This can be achieved only if the billing system properly reflects the actual costs of the supplier. In the case of large consumers, billing based on the logging of temporary power coefficient values could serve that purpose. A modification of the measurement systems requires investment. In the case of minor consumers those costs are often unjustified, so the rule of not monitoring the reactive power consumption by numerous, minor consumers should be sustained. Proper reactive power management standards for those groups of consumers can be achieved by formulating and enforcing technical standards for general use electrical equipment. Unfortunately, recent changes in the regulation regarding the method of calculating tariffs [8, 9] sustain the existing system of billing for reactive power, which is based on the measurement of reactive energy. The policy of inefficient consumer discipline is continued instead of implementing the proposed changes, which consist in sending the right cost signals to consumers. The stimulation function of tariffs should be reinforced.
The proposed new method of billing for reactive power consumption The current method of billing consumers for power consumption relies on the premise of sinusoidal waveforms of voltages and
A. Wilczyński, P. Bućko | Acta Energetica 2/27 (2016) | 209–214
currents. Thus, an important problem is the approach to regulating charges for reactive power consumption under distorted voltage and current waveforms in the power system, which gains particular significance with the increasingly common use of loads with non-linear characteristics. Until now, this problem has not been the subject of analyses of practical inclusion in billing for electricity. On the one hand, the adverse effect of distorted voltage and current waveforms is aggravating, and on the other hand the number of devices and loads sensitive to high harmonics is increasing. One should note that the occurrence of the higher harmonics that exceed the allowed ranges, defined in the regulation [6, 7], in the system is the responsibility of the electricity supplier, who is not guilty of causing the situation. Higher harmonics cause multiple hazards to the operation of devices and electricity loads. They reduce the resultant power coefficient and very often have a negative impact on the operation of multiple electrical devices in the power system. Their occurrence, even temporary, can cause faulty operation or loss of operation and, in the worst case, damage the devices, i.e. computer equipment, electronic equipment, meters and control equipment. Higher harmonics can cause an additional heat effect, which causes accelerated insulation ageing and shortening the life of the device. The harmonics influence the increase of temporary, averaged and effective values under voltage and current waveforms. In the case of currents, this has a significant impact on the operation of security measures (undesirable relay or fuse triggering), increase of power losses on line and overheating of electrical machines. A particular hazard exists upon the occurrence of harmonic current resonance. Furthermore, the power supply of loads with non-linear characteristics from a 3-phase 4-wire system causes the current in the neutral wire to be significantly higher than the phase current values. This forces an even two-fold increase in the section of the neutral wire in comparison to the phase wire.
The operation in an environment in which higher harmonics occur creates a high danger to important power system elements, such as: capacitors, transformers, motors and generators. It seems, therefore, that the method of billing the users of non-linear loads for power consumption should include the negative impact that they cause in the power system. This is not possible under the current tariff system and at present there are no measurement instruments, meters, in the market that would allow one to acquire the data necessary for determining power parameters to characterise the occurrence of distorted voltage and current waveforms. The results of of attempting to solve this problem were presented in studies [1, 2, 3], while the impact of those studies was the proposition of a new rule of additional charge for exceeding the optimum reactive power consumption. In circuits with nonsinusoidal waveforms the value of the tgφ coefficient is not an adequate measure of reactive power consumption. The phase angle φ is different for different harmonics. If the traditional definition of reactive power is replaced with the definition of distortion power, then it seems justified to introduce the spread angle ψ, instead of the phase angle φ (Fig. 1). Considering the graphical representation of the tetrahedron of power, according to Budeanu’s theory [5], it is possible to derive the relationship that determines the tangent of the spread angle: (1) where: P – active power, D – distortion power. The problem consists in determining the distortion power D, which cannot be determined through measurement, but through calculations, having measured the values of power S and P. The complex power S already includes the distortions of the current and voltage consumed, as well as network losses. The proposed new method of billing for reactive power presented below assumes that the charge for reactive power is proportional to the charges for active power. Thus it is necessary to determine the ratio of the charges for reactive power consumption to the charges for active power consumption [3]. If the reactive power value is equal to zero, then the charge for power consumption is fully equivalent to the charge for active power and there are no additional charges. However, if the reactive power value is not equal to zero, then the charge is higher. The increase of this charge, marked with d, is defined by the following relationship: (2) where: k – unit charge. Considering that the additional charge for power consumption should be expressed as a percentage, in relation to WP, we can write:
Fig. 1. Tetrahedron of power of a single-phase system with distorted current and voltage waveforms
(3) 211
A. Wilczyński, P. Bućko | Acta Energetica 2/27 (2016) | 209–214
By continuing simple transformations and considering the optimum value of coefficient tgψ0 as the level at which the additional charge for power consumption is equal to zero, we obtain: (4) For values tgψ < tgψ0 the consumer receives a reduction (discount), while for values tgψ > tgψ0 the consumer is charged with an additional charge. Similar to sinusoidal waveforms, it is also possible to assume the optimum value of coefficient tgψ0 = 0.4 for non-sinusoidal waveforms. Thus, the tgφ0 coefficient could be replaced with the tgψ0 coefficient. However, the problem of determining the optimum value of this coefficient and the range of allowed deviation from tgψ0, without additional charge or discount, remains open. It requires extensive research and discussions among specialists. At the same time, it could be analysed, whether the dynamic measurement method should be used in that case. On the one hand, the introduction of such financial responsibility could stimulate consumers to reduce their potential of generating higher harmonics, while on the other hand, it could provide additional funds for the supplier, whose tasks include protection against the expansion of harmonics to large areas of the power system. Moreover, it is necessary to decide which groups of consumers should be subject to the proposed billing for reactive power. It seems that the proposition presented should initiate a discussion on the issues analysed. It would require extensive research and analyses of the feasibility of using such a method of billing for reactive power. Only making a decision to adopt the proposed method of billing could be a basis for defining the specific conditions of its application, i.e. specifying the eligible groups of electricity consumers, as well as whether and in which time zones to use this method etc.
Conclusions and recommendations The current tariffs hardly serve the purpose of motivating consumers. The present tariffs’ impact is reduced to some attempts at motivating consumers to advantageous shaping of the active power load curve, reducing peak power, and attempts at disciplining as regards reactive power consumption. None of these functions is effectively fulfilled by the present tariffs. Many traditional tariff-based solutions for Demand Side Management (DSM) assumed an overlapping effect of the charges for the transmission and charges for the energy (it was possible, when rates were defined in one tariff). After separating tariffs into transmission (billing for the service of transmission and distribution) and energy, it is difficult to implement efficient incentives in the tariffs of separate companies. Improvement of the situation requires co-ordination at the tariff structure design stage. In terms of billing for reactive power, phasing-out the process of billing the consumers based on the indications of reactive power meters is reasonable. It is reasonable to implement billing systems based on the measurements of temporary power coefficient values. The billing system aimed at simple disciplining 212
of consumers should be replaced with systems that reflect the impact of consumer behaviour on the costs of supplying reactive power more efficiently. Besides tariff billing, consumers’ capacity should be utilised with regard to active and reactive power balances by providing proper conditions for the consumers’ active participation in the provision of selected ancillary services. The above recommendation concerns ancillary services from the voltage and reactive power control group as well as consumers’ limited participation in active power control (especially in the event of power deficit in the system and a threat to the system operation’s security). Reactive power management in the entire power system, at the levels of the transmission network and the distribution network, is essential for the quality and efficiency of the electricity supply to its consumers. The stimulus of the desirable behaviour of power system users consists in the provisions of the requirements for connection to the network, as well as the rules of billing for reactive power defined in tariffs. Since at present increasing problems with the occurrence of higher harmonics in power systems are identified and aggravated by the common use of loads with non-linear characteristics, it is necessary to find effective means of reducing this adverse phenomenon. Here, one could mention the proposed solution of billing for reactive power, used in the case of distorted current and voltage waveforms. On the one hand, the introduction of such financial responsibility could stimulate the consumers to reduce their potential of generating higher harmonics, while on the other, it could provide additional funds for the supplier, whose tasks include protection against the expansion of harmonics to large areas of the power system. In addition, it is necessary to analyse which groups of consumers should be subject to the proposed billing for reactive power. It seems that the proposition presented should initiate a wider discussion on its feasibility and applicability. At present, for example due to the lack of measurement capabilities, it is impossible. In the opinion of the authors, one should consider re-spreading the method of billing for reactive power consumption, using progressive rates of additional charges depending on the level of excess of the set level of tgφ0. This method is clear and it transmits strong signals to electricity users, shaping their desirable behaviour in terms of electricity consumption. Modification of the rules of billing customers for reactive power consumption beyond the contract should move away from reactive power measurements in the billing periods and towards implementing measurement systems that monitor temporary values of the power coefficient at which the consumer operates. At the same time, the method of billing should be correlated not only with the power coefficient level, but also with the temporary situation in the power system. A justification can be found for varying the costs and rates (of additional charges) for reactive power according to the time of the day and the geographical area so as to obtain the highest price at the time, when the area experiences the necessity for the strongest voltage “support”. Such a billing system would better reflect the impact of consumer behaviour on the costs of the reactive power supply. It should be implemented in phases, first for the
A. Wilczyński, P. Bućko | Acta Energetica 2/27 (2016) | 209–214
largest consumers and next, as needed, for increasingly small consumers. The value of coefficient tgφ, constituting the basis for billing electricity users and for billing between the entities connected to the power system (e.g. distribution system operators, the distribution system operator and the transmission system operator), should be determined based on tests and calculations, assuming reasonable reactive power management in the power system. It can vary according to the time of day and the season, and it can also change with the passing of time, due to the changes occurring in the system, on both the demand side and supply side (the development of power networks and the generation base). It is necessary to include a direct measurement of tgφ0 excesses to detect consumers characterised by fast-changing active and reactive power consumption, who contribute to the deterioration of power quality. Next, it is necessary to promote applying a suitable method of billing to them, consisting in a dynamic measurement of the excesses of the set tgφ0. Such a method will definitely discipline electricity users to abide by the conditions defined in their connection contracts and as experience shows, it may contribute to increased financial revenues for the suppliers. The tariff system of billing for reactive power should be supported by appropriate legal regulations that would stimulate reasonable management of reactive power in the power system. For operators, those regulations could constitute an instrument of influencing other entities, especially the producers (e.g. wind power plants), that use the common power system and fail to abide by the conditions regarding the reactive power generation level. The revenue obtained through the charges for reactive power should be used for the necessary spending, i.e. investment in projects that improve the quality and delivery efficiency of power. REFERENCES
1. J. Borecki, A. Wilczyński, “Rozliczenia użytkowników za pobieraną energię bierną w warunkach występowania odkształconych przebiegów napięć i prądów” [Billing users for the consumed reactive power under distroted voltage and current waveforms], Elektroenergetyka, No. 2, 2005. 2. J. Borecki, A. Wilczyński, “Metoda rozliczania odbiorców za pobór energii biernej w warunkach występowania odkształconych
przebiegów napięć i prądów”, XI Konferencja Naukowo-Techniczna nt. “Rynek energii elektrycznej: Bezpieczeństwo energetyczne Polski w strukturze Unii Europejskiej” REE 2005 [Billing users for the consumed reactive power under distroted voltage and current waveforms, 9th Science and Technology Conference entitled “The electricity market: The energy security of Poland in the European Union” REE 2005], Lublin University of Technology. 3. J. Borecki, A. Wilczyński, “Badanie struktury taryfy za energię z uwzględnieniem mocy biernej pod kątem stymulowania zachowania użytkowników energii elektrycznej, Projekt Badawczy Zamawiany nr PBZ-MEiN-1/2/2006 „Bezpieczeństwo elektroenergetyczne kraju” [Examination of the electricity tariff, including reactive power in terms of stimulating electricity users’ behaviour, ordered research project no. PBZ-MEiN-1/2/2006 “National power security”], task 7, subject 7.1, sections: 7.1.3.D and E, Warsaw University of Technology, Institute of Power Engineering, Wrocław 2008. 4. P. Bućko, “Badanie struktury taryfy za energię z uwzględnieniem mocy biernej pod kątem stymulowania zachowania użytkowników energii elektrycznej”, Projekt Badawczy Zamawiany nr PBZMEiN-1/2/2006 „Bezpieczeństwo elektroenergetyczne kraju” [Examination of the electricity tariff, including reactive power in terms of stimulating electricity users’ behaviour, ordered research project no. PBZ-MEiN-1/2/2006 “National power security”], task 7, subject 7.1, section: 7.1.3.D, Gdańsk University of Technology, Department of Power Engineering, Gdańsk 2007. 5. C.J. Budeanu, “Puissances reactives et actives”, Publicationde I’Instytut National Roumain pour I’Etude de Amenagment et de I’Utilisation des Sources d’Energie, Bucarest 1927. 6. Regulation of the Minister of Economy and Labour of 20 December 2004 on the detailed conditions of connecting entities to power networks, operation and maintenance of those systems, Journal of Laws, No. 2 of 2005, item 6. 7. Regulation of the Minister of Economy of 4 May 2007 on the detailed conditions for the operation of the power system, Journal of Laws, No. 93 of 2007, item 623. 8. Regulation of the Minister of Economy of 18 August 2011 on the detailed principles of forming and calculating tariffs and billings in the electricity trade, Journal of Laws, No. 189 of 2011, item 1126. 9. Regulation of the Minister of Economy of 27 April 2012 amending the regulation on the detailed principles of forming and calculating tariffs and billings in the electricity trade, Journal of Laws, item 535. 10. Z. Szczerba, “Czy pomiar energii biernej ma sens?” [Does reactive power measurement make sense?], Zeszyty Naukowe Politechniki Gdańskiej, No. 86(583), 2000.
213
A. Wilczyński, P. Bućko | Acta Energetica 2/27 (2016) | 209–214
Artur Wilczyński Wrocław University of Technology email: Artur.Wilczynski@pwr.edu.pl Graduated from the Faculty of Electrical Engineering at Wrocław University of Technology (1971). Received his doctoral degree at the Institute of Power Engineering of Wrocław University of Technology (1977), and received a post-doctoral degree in economic sciences at the Faculty of Management and Computer Science of Wrocław University of Economics (1991). In 1998-1999 he worked on behalf of the head of the Network and Power System Department at the Institute of Power Engineering of Wrocław University of Technology, and became the head of this Department in 2005. At the same time, he was employed as full-time professor at the Institute of Power System Automation in Wrocław in 1993-2001, where he served as the head of the Department of Economics, Pricing and Forecasting in Power Engineering. In 2007 he became Professor of Engineering. Since 2011, he has had the full professor degree of Wrocław University of Technology. He has taken part in many research projects, including financed by KBN, usually as project manager. He is the author or co-author of over 150 publications and 80 reports from the research.
Paweł Bućko Gdansk University of Technology email: pawel.bucko@pg.gda.pl Prof. Bućko works at the Power Engineering Department of Gdańsk University of Technology. His scientific activity is associated with the power sector’s economics with special focus on the issues of power system development planning in market conditions. His professional activity is focused on capital expenditure analysis for renewable generation sources, and on analysis of market mechanisms and settlement of accounts principles in electricity supply. He is also an energy auditor and deals with issues of rational energy usage.
214
A. Wilczyński, P. Bućko | Acta Energetica 2/27 (2016) | translation 209–214
This is a supporting translation of the original text published in this issue of “Acta Energetica” on pages 209–214. When referring to the article please refer to the original text. PL
Propozycja zmian w rozliczeniach za energię bierną Autorzy
Artur Wilczyński Paweł Bućko
Słowa kluczowe
taryfy elektroenergetyczne, rozliczenia za energię bierną, moc bierna, rynek energii
Streszczenie
W artykule opisano możliwe do wprowadzenia zmiany w zasadach rozliczeń za energię bierną w taryfach stosowanych w Polsce. Jako najbardziej celowe wskazano modyfikacje taryf w celu poprawy ich funkcji motywacyjnej w odniesieniu do użytkowników systemów dystrybucyjnych. Zwrócono uwagę na nowe problemy wynikające z pracy rozproszonych wytwórców. Omówiono sposób rozliczeń możliwy do efektywnego wdrożenia w okolicznościach występowania odkształconych przebiegów napięć i prądów.
Wprowadzenie. Stymulowanie zachowań odbiorców Kontrola poboru energii biernej jest realizowana w strefach czasowych, w których jest rozliczany odbiorca. Kontroluje się współczynnik mocy dla odbiorcy, który wyznacza się jako stosunek energii biernej do energii czynnej pobranej w okresie obrachunkowym. Nie prowadzi się więc na kontroli chwilowej wartości współczynnika mocy. Rozliczeniu podlegają jedynie wartości obliczeniowe, nie najlepiej odzwierciedlające cechy zjawiska fizycznego, jakim jest pobór mocy biernej. Utrudnia to racjonalną gospodarkę mocą bierną przez odbiorcę, ale jest uproszczeniem wynikającym z ograniczeń tradycyjnych urządzeń rozliczeniowo-pomiarowych. Odbiorca podlega opłatom karnym, jeżeli oddaje energię bierną do sieci – pracuje przy współczynniku pojemnościowym. W takich przypadkach kary dla odbiorcy są uciążliwe, mimo że nie ma to często uzasadnienia ekonomicznego. Odbiorca, oddając energię bierną do sieci, najczęściej poprawia warunki napięciowe w pobliżu miejsca przyłączenia. Przypadki, gdy występują zagrożenia przekroczenia wartości dopuszczalnych napięć, są rzadkie. W obecnym sposobie rozliczeń z punktu widzenia odbiorcy istotne jest eliminowanie takich opłat ze względu na ich wysokość. Pojawienie się takich problemów jest możliwe w przypadku posiadania przez odbiorcę rozległych, mało obciążonych sieci kablowych (i celowe jest wtedy wyłączanie nieobciążonych linii kablowych w strefach małego obciążenia albo stosowanie dławików kompensacyjnych) lub w przypadku źle zaprojektowanej kompensacji mocy biernej powodującej okresowe przekompensowania (należy poprawić skuteczność regulacji baterii kondensatorów). W przypadku nadmiernego poboru mocy biernej (pracy przy współczynniku indukcyjnym) i niewielkich przekroczeń nakazanego współczynnika mocy kary dla odbiorcy nie są tak uciążliwe. Rzadko wysokość kar uzasadnia konieczność poniesienia nakładów na nowe układy kompensujące – nie wspomaga to racjonalnej gospodarki mocą bierną przez odbiorców. Z metod kompensowania mocy biernej najbardziej rozpowszechnione jest stosowanie baterii kondensatorów. Sposób ten ma wiele zalet:
• łatwość dostosowania mocy baterii do aktualnego zapotrzebowania • dużą elastyczność, jeżeli chodzi o miejsce instalowania • małe straty mocy czynnej • łatwość montażu • niskie koszty eksploatacyjne • stosunkowo duża trwałość. Stosowane zasady rozliczeń za moc bierną są przestarzałe i nie znajdują uzasadnienia ekonomicznego. Rozwój technik pomiarowych pozwala oczekiwać, że będzie możliwa poprawa tego stanu rzeczy w przyszłości. Wady aktualnego mechanizmu rozliczeń za moc bierną System rozliczeń za moc bierną powinien realizować zadanie stymulowania odbiorców do minimalizacji negatywnych efektów, jakie pojawiają się w systemie na skutek nadmiernych przesyłów mocy biernej. O ile moc czynna w systemie elektroenergetycznym generowana jest w źródłach wytwórczych i trafia do odbiorców za pośrednictwem systemu przesyłowego i dystrybucyjnego, powodując straty na całej drodze przesyłu, energia bierna generowana jest nie tylko przez źródła wytwórcze, ale także wewnątrz systemu przesyłowego i dystrybucyjnego. Elementy układu przesyłowego są także istotnymi odbiornikami mocy biernej. Utrzymanie właściwych bilansów mocy biernej jest więc w systemie problemem często o znaczeniu lokalnym – dotyczy obszarów systemu lub nawet pojedynczych węzłów. Ważnym narzędziem stymulującym racjonalną gospodarkę mocą bierną po stronie odbiorców powinien być właściwie funkcjonujący system rozliczeń w taryfach dla odbiorców końcowych. Negatywne skutki ponadumownego poboru mocy biernej lub jej wprowadzania do systemu są ściśle związane z sytuacją chwilową. System rozliczeń powinien stymulować odbiorcę do utrzymywania na odpowiednim poziomie chwilowego współczynnika mocy. W większości stosowane układy pomiarowe (i w konsekwencji system rozliczeń) nie kontrolują chwilowej wartości współczynnika mocy, tylko opierają się na pomiarze poboru energii biernej w strefie czasowej. Występujący w taryfie tgφ definiowany jest jako iloraz pobranej w strefie czasowej energii biernej do pobranej w tym samym
czasie energii czynnej. Ze względu na różną zmienność w czasie poboru mocy czynnej i biernej, tak policzony współczynnik często może nie wykazywać nawet istotnych chwilowych przekroczeń współczynnika mocy. Obecny system rozliczeń za moc bierną opiera się na wskazaniach liczników energii biernej. Takie rozwiązanie wynika głównie z łatwości pomiaru tej wielkości. W przeszłości, gdy do pomiaru energii czynnej stosowano liczniki indukcyjne, przyjęto stosowanie takich samych liczników (odpowiednio przyłączonych, z wykorzystaniem przesunięcia napięć) do pomiaru energii biernej. Zaletą takich układów pomiarowych była względna prostota układu pomiarowego i jego niewielkie koszty. Rozwiązanie posiada jednak liczne wady, jeżeli system rozliczeniowy ma odzwierciedlać koszty, jakie w sieci dostawcy powoduje ponadnormatywny pobór mocy biernej: • nie kontroluje się chwilowych wartości współczynnika mocy, a to największa chwilowa wartość współczynnika mocy decyduje o kosztach stałych dostawy mocy biernej do odbiorcy oraz jest decydująca w ocenie wpływu odbiorcy na chwilowe poziomy napięć w sieci (i koszty związane z przekroczeniem dopuszczalnych wartości napięć) • koszty strat energii czynnej w sieci zależą (w uproszczeniu) od całki z kwadratu prądu biernego pobieranego przez odbiorcę, a nie od energii biernej pobranej przez odbiorcę. Zmierzona energia bierna nie może więc być bezpośrednio traktowana jako nośnik kosztów jej dostawy [4, 10]. Stosowany system rozliczeń odbiorców za ponadumowny pobór energii biernej jest bardzo uproszczoną próbą powiązania kosztów strat energii czynnej wywołanych poborem „energii” biernej. Wielość założeń upraszczających, które przyjęto przy jego wyprowadzeniu, jest duża. Funkcją obecnego systemu rozliczeń jest więc próba dyscyplinowania odbiorców w zakresie właściwych zachowań w odniesieniu do poboru mocy biernej, ale przy dalece nieskutecznej kontroli tych zachowań, na skutek uwarunkowań wynikających ze stosowanej w przeszłości techniki pomiarowej. Kary za ponadumowny poziom energii biernej nie odzwierciedlają rzeczywistych kosztów powodowanych jej
215
A. Wilczyński, P. Bućko | Acta Energetica 2/27 (2016) | translation 209–214
poborem. Ze względu na ich stosunkowo niskie wielkości w porównaniu z kosztami urządzeń kompensujących nie działają też dostatecznie stymulująco. Propozycje zmian Bilans mocy biernej w systemie zależy w dużej mierze od aktualnego obciążenia elementów systemu i podlega znacznie większym dobowym wahaniom niż bilans mocy czynnej. Występują okresy z istotną nadwyżką mocy biernej (w dolinach obciążenia) oraz okresy deficytu. Wprost przekłada się to na sytuację napięciową w sieci. Bilanse mocy biernej mogą być zróżnicowane lokalnie oraz na różnych poziomach napięciowych sieci. Zapewnienie właściwych dla poprawnej pracy systemu warunków napięciowych i bilansów mocy biernej wymaga wdrożenia wielu środków technicznych przez operatorów sieci. Środki te generują istotne koszty. Aktualny stan jest taki, że te istotne koszty są generowane po stronie systemu (u wytwórców i operatorów systemów), natomiast możliwości odbiorców w zakresie poprawy sytuacji nie są wykorzystywane. Przyszłe działania dla poprawy bezpieczeństwa systemu powinny być nakierowane na [4, 10]: 1. wykorzystanie możliwości odbiorców (szczególnie dużych i średnich) jako potencjalnych dostawców usług systemowych w zakresie regulacji U i Q 2. modyfikację zasad rozliczeń odbiorców za ponadumowny pobór energii biernej, polegającą na: • odchodzeniu od pomiarów energii biernej i wdrożeniu układów pomiarowych kontrolujących chwilowe wartości współczynnika mocy, przy którym pracuje odbiorca • uzależnieniu sposobu rozliczeń z odbiorcami nie tylko od ich współczynnika mocy, ale także od chwilowej sytuacji systemowej. Aktualny system rozliczeń jest mało skuteczną próbą dysc yplinowania odbiorców. Rozliczenia w niewielkim stopniu oddają rzeczywiste koszty po stronie dostawcy. Takie systemy są najczęściej nieskuteczne lub prowadzą do rozwiązań nieoptymalnych. Jeżeli stawki w rozliczeniach są zbyt niskie, odbiorcy nie dbają właściwie o gospodarkę mocą bierną (z taką sytuacją mamy do czynienia w aktualnych taryfach), a w przypadku ustalenia nadmiernie restrykcyjnych stawek koszty ponoszone przez odbiorców są na nieuzasadnionym ekonomicznie zbyt wysokim poziomie. Zmodyfikowany system rozliczeń, poza prostym dyscyplinowaniem odbiorców, powinien mieć rolę motywującą odbiorców do zachowań sprowadzających systemowe koszty dostawy energii biernej oraz regulacji poziomów napięć do racjonalnych poziomów. Osiągnąć taki stan można jedynie w sytuacji, gdy system rozliczeń będzie odzwierciedlał rzeczywiste koszty dostawcy. W przypadku dużych odbiorców rozliczenia oparte na rejestracji chwilowych wartości współczynnika mocy mogą spełnić taką rolę. Modyfikacja układów pomiarowych wymaga kosztów. W przypadku drobnych odbiorców często poniesienie tych kosztów nie jest uzasadnione – dlatego powinno
216
się utrzymać zasadę niekontrolowania poborów mocy biernej przez licznych, drobnych odbiorców. Właściwe standardy gospodarki mocą bierną w odniesieniu do tych grup odbiorców można osiągnąć przez formułowanie i egzekwowanie standardów technicznych dotyczących urządzeń elektrycznych powszechnego użytku. Niestety, ostatnie zmiany rozporządzenia regulującego sposób kalkulacji taryf [8, 9] utrzymują dotychczasowy system rozliczeń za moc bierną, oparty na pomiarze energii biernej. Kontynuowana jest polityka mało skutecznego dyscyplinowania odbiorców, zamiast postulowanych zmian, czyli wysyłania do odbiorców właściwych impulsów kosztowych. Należy wzmocnić funkcje stymulacyjną taryf. Propozycja nowej metody rozliczeń za pobór energii biernej Aktualnie stosowany sposób rozliczania odbiorców za pobór energii odbywa się przy założeniu sinusoidalnych przebiegów napięć i prądów. Ważnym zatem problemem jest sposób podejścia do regulowania opłat za pobór energii biernej w okolicznościach występowania odkształconych przebiegów napięć i prądów w systemie elektroenergetycznym, co wobec coraz powszechniejszego użytkowania odbiorników o charakterystykach nieliniowych nabiera szczególnego znaczenia. Dotychczas ten problem nie był przedmiotem rozważań pod kątem praktycznego uwzględnienia w rozliczeniach za energię elektryczną. Niekorzystne zjawisko występowania odkształconych przebiegów napięć i prądów z jednej strony zaostrza się, zaś z drugiej strony przybywa urządzeń i odbiorników wrażliwych na wyższe harmoniczne. Należy zauważyć, że za występowanie w sieci elektroenergetycznej wyższych harmonicznych, niemieszczących się w dopuszczalnych przedziałach, określonych w rozporządzeniu [6, 7], odpowiada dostawca energii elektrycznej, nie będąc winnym zaistniałej sytuacji. Wyższe harmoniczne stwarzają wiele zagrożeń dla pracy urządzeń i odbiorników energii elektrycznej. Powodują zmniejszenie wypadkowego współczynnika mocy, wpływają bardzo często niekorzystnie na pracę wielu urządzeń elektrycznych, pracujących w systemie elektroenergetycznym. Pojawienie się ich, nawet chwilowe, może spowodować wadliwe działanie lub jego zanik, a w najgorszym przypadku uszkodzenie urządzeń, tj.: sprzętu komputerowego, sprzętu elektronicznego, mierników i urządzeń sterujących. Wyższe harmoniczne mogą być przyczyną dodatkowego efektu cieplnego, który powoduje np. przyśpieszony proces starzenia izolacji, skrócenia czasu działania urządzeń. Harmoniczne wpływają na wzrost wartości chwilowych, uśrednionych i skutecznych w czasie przebiegów napięcia i prądu. W przypadku prądów ma to istotny wpływ na działanie zabezpieczeń (niepożądane zadziałanie przekaźników, przepalenie bezpieczników), wzrost strat mocy w linii, przegrzanie maszyn elektrycznych. Szczególne zagrożenie istnieje przy pojawieniu się harmonicznego rezonansu prądu. Ponadto zasilanie z sieci 3-fazowej 4-przewodowej odbiorników o charakterystykach nieliniowych powoduje, że prąd w przewodzie neutralnym jest znacznie większy
niż wartości prądów fazowych. Zmusza to do zwiększenia przekroju przewodu neutralnego, nawet dwukrotnego, w porównaniu z przewodem fazowym. Na duże niebezpieczeństwo, w warunkach pracy w środowisku, w którym występują wyższe harmoniczne, są narażone takie ważne elementu systemu elektroenergetycznego, jak: kondensatory, transformatory, silniki i generatory. Wydaje się zatem, że użytkownicy odbiorników nieliniowych powinni być rozliczani za pobór energii elektrycznej w sposób uwzględniający wywoływane przez nich negatywne skutki w sieci elektroenergetycznej. Takich możliwości nie przewiduje obecny system taryfowy i nie ma aktualnie na rynku przyrządów pomiarowych – liczników, które pozwoliłyby na uzyskanie danych potrzebnych do wyznaczania parametrów energii charakteryzujących sytuację występowania odkształceń przebiegów napięć i prądów. Rezultaty podjętej próby rozwiązania tego problemu przedstawiono w pracach [1, 2, 3], zaś efektem badań było zaproponowanie nowej reguły dopłaty za przekroczenie optymalnego poboru energii biernej. W obwodach z przebiegami niesinusoidalnymi wartość współczynnika tgφ nie stanowi w sposób adekwatny o poborze energii biernej. Kąt fazowy φ jest różny dla różnych harmonicznych. Zastępując klasyczną definicję energii biernej definicją energii dystorsji, słuszne wydaje się wprowadzenie kąta rozchyłu ψ, zamiast kąta fazowego φ (rys. 1). Biorąc pod uwagę odwzorowanie graficzne czworościanu mocy, wg teorii Budeanu [5], można wyprowadzić zależność określającą wartość tangensa kąta rozchyłu: (1) gdzie: P – moc czynna, D – moc dystorsji. Problemem jest wyznaczenie mocy dystorsji D, której nie można wyznaczyć w efekcie pomiaru, lecz ustala się jej wartość w następstwie dokonanych obliczeń, mając pomierzone wartości mocy S i P. Moc S zawiera już odkształcenia pobieranego prądu i napięcia, jak też straty w sieci. Propozycja nowego sposobu rozliczeń za energię bierną, przedstawiona poniżej, zakłada, że opłata za energię bierną ma być proporcjonalna do opłat za energię czynną. Należy zatem określić stosunek dopłat za pobór energii biernej do opłat za energię czynną [3]. Gdy wartość energii biernej wynosi zero, wówczas opłata za zużytą energię odpowiada w całości opłacie za energię czynną, nie ma dodatkowych opłat. Natomiast gdy wartość energii biernej jest różna od zera, opłata jest wyższa. Zwyżkę tej opłaty, oznaczoną symbolem d, określa relacja:
(2)
gdzie: k – jest jednostkową opłatą. Biorąc pod uwagę, że dopłata za pobór energii powinna być wyrażona w procentach, relatywnie do WP, można zapisać:
A. Wilczyński, P. Bućko | Acta Energetica 2/27 (2016) | translation 209–214
(3) Dokonując dalej prostych przekształceń i uwzględniając optymalną wartość współczynnika tgψ0 jako poziom, przy którym dopłata za pobór energii jest równa zero, otrzymujemy: (4) Dla wartości tgψ < tgψ0 odbiorca otrzymuje bonifikatę (upusty), gdy zaś tgψ > tgψ0 odbiorca jest obciążony dopłatą. Podobnie jak dla przebiegów sinusoidalnych, tak i dla przebiegów niesinusoidalnych można przyjąć optymalną wartość współczynnika tgψ0 = 0,4. Współczynnik tgφ0 mógłby zostać zatem zastąpiony współczynnikiem tgψ0. Otwarty jest jednak problem ustalenia optymalnej wartości tego współczynnika oraz ewentualnego przedziału dopuszczalnych odstępstw od wartości tgψ0, niepociągającego za sobą opłat ani upustu. Wymaga to jednak przeprowadzenia szerokich badań i dyskusji na ten temat wśród specjalistów. Jednocześnie rozważyć można, czy zastosować w tym przypadku metodę dynamicznego pomiaru, czy też nie. Wprowadzenie takiej finansowej odpowiedzialności mogłoby stanowić nacisk na odbiorców, aby ograniczali możliwość generowania wyższych harmonicznych, zaś z drugiej strony mogłoby zasilić finansowo dostawcę, do którego zadań należy zabezpieczanie przed rozprzestrzenianiem się tych harmonicznych na znaczne obszary sieci elektroenergetycznej. Należy również podjąć decyzję, wobec których grup odbiorców powinno się zastosować proponowane rozliczenia za moc bierną. Wydaje się, że przedstawiona propozycja powinna zainicjować dyskusję nad analizowaną problematyką. Wymagałoby to przeprowadzenia szerokich badań i analiz dotyczących zasadności dokonywania takiego sposobu rozliczeń za moc bierną. Dopiero podjęcie decyzji o przyjęciu proponowanego sposobu rozliczeń mogłoby stanowić podstawę do określenia szczegółowych warunków jego stosowania, tj. sprecyzowania, wobec których grup odbiorców energii elektrycznej, a ponadto, czy i w jakich strefach czasowych, sposób ten należy stosować itp. Wnioski i zalecenia Aktualne taryfy słabo realizują funkcje motywujące odbiorców. Oddziaływanie obecnych taryf ogranicza się do prób motywowania odbiorców do korzystnego kształtowania krzywej obciążenia mocą czynną, ograniczania szczytowych poborów mocy oraz prób dyscyplinowania w zakresie poboru mocy biernej. Żadnej z tych funkcji obecne taryfy nie realizują skutecznie. Wiele tradycyjnych taryfowych rozwiązań oddziaływania na odbiorców (DSM) zakładało nałożenie się efektu w zakresie opłat za przesył i za energię (było to możliwe, gdy stawki ustalano w jednej taryfie). Po rozdzieleniu taryf na przesyłową (rozliczającą usługę przesyłu i dystrybucji) i za energię elektryczną wdrożenie w taryfach osobnych przedsiębiorstw skutecznych działań
Rys. 1. Czworościan mocy 1-fazowego układu o odkształconych przebiegach prądu i napięcia
motywacyjnych jest trudne. Poprawa tej sytuacji wymaga koordynacji na etapie projektowania struktury taryf. W zakresie rozliczeń za moc bierną celowe jest stopniowe odchodzenie od rozliczania odbiorców według wskazań liczników energii biernej. Celowe jest wdrażanie systemów rozliczeń opartych na pomiarach chwilowych wartości współczynnika mocy odbiorcy. System rozliczeń, którego zadaniem jest proste dyscyplinowanie odbiorców, należy zastępować systemami lepiej odzwierciedlającymi wpływ zachowań odbiorców na koszty dostawy mocy biernej. Poza rozliczeniami taryfowymi należy wykorzystać możliwości odbiorców w zakresie regulacji bilansów mocy czynnej i mocy biernej, poprzez stworzenie warunków do aktywnego uczestnictwa odbiorców w dostawie wybranych usług systemowych. Postulat dotyczy zarówno usług z grupy regulacji napięcia i mocy biernej, jak i ograniczonego uczestnictwa odbiorców w regulacji mocy czynnej (szczególnie w przypadkach pracy systemu z deficytem mocy oraz stanów zagrożenia bezpieczeństwa pracy systemu). Gospodarka energią bierną w całym systemie elektroenergetycznym, tak na poziomie sieci przesyłowej, jak i sieci dystrybucyjnej, ma duży wpływ na jakość i efektywność dostaw energii elektrycznej do jej użytkowników. Czynnik stymulujący pożądane zachowania użytkowników sieci elektroenergetycznych stanowią zapisy regulujące warunki przyłączenia do sieci, a także zasady rozliczeń za energię bierną, określone w taryfach. Ponieważ obecnie stwierdza się coraz większe problemy związane z występowaniem wyższych harmonicznych w sieciach elektroenergetycznych, pogłębionych przez powszechne stosowanie odbiorników o charakterystykach nieliniowych, należy poszukiwać skutecznych narzędzi do ograniczania tego niekorzystnego zjawiska. Można tutaj wymienić proponowane rozwiązanie rozliczeń za energię bierną, zastosowane w przypadku występowania odkształconych przebiegów prądów i napięć. Wprowadzenie takiej finansowej odpowiedzialności mogłoby stanowić instrument nacisku na odbiorców, aby ograniczali możliwość generowania wyższych harmonicznych, z drugiej zaś strony mogłoby to zasilić
finansowo zadania związane z zabezpieczaniem się dostawcy przed rozprzestrzenianiem się tych harmonicznych na znaczne obszary sieci elektroenergetycznej. Należy się również zastanowić, wobec których grup odbiorców powinno się zastosować proponowane rozliczenia za moc bierną. Wydaje się, że przedstawiona propozycja powinna zainicjować szerszą dyskusję nad celowością i możliwością jej zastosowania. Obecnie, choćby z powodu braku możliwości pomiarowych, nie jest to możliwe. Należy, zdaniem autorów, rozważyć ponowne upowszechnienie sposobu rozliczeń za pobór energii biernej, wykorzystującego progresywnie rosnące stawki dopłat, w zależności od stopnia przekroczenia zadanego poziomu tgφ0. Sposób ten jest czytelny i emituje silne sygnały adresowane do użytkownika energii elektrycznej, kształtując jego pożądane zachowania w zakresie poboru energii. Modyfikacja zasad rozliczeń odbiorców za ponadumowny pobór energii biernej powinna podążać w kierunku odchodzenia od pomiarów energii biernej w okresie obrachunkowym i wdrażania układów pomiarowych, kontrolujących chwilowe wartości współczynnika mocy, przy którym pracuje odbiorca. Sposób rozliczeń powinien być jednocześnie powiązany nie tylko z poziomem współczynnika mocy, ale także z chwilową sytuacją w systemie elektroenergetycznym. Uzasadnienie może znaleźć różnicowanie kosztów i stawek (dopłat) za moc bierną, w zależności od pory dnia i rejonu geograficznego, tak by cena była najwyższa w tych porach, w których w danym regionie pojawia się potrzeba najsilniejszego „wsparcia” napięcia. Taki system rozliczeń, lepiej odzwierciedlający wpływ zachowań odbiorców na koszty dostawy mocy biernej, powinien być wdrażany etapowo, w pierwszej kolejności u odbiorców największych, a w miarę potrzeby, u coraz mniejszych. Wartość współczynnika tgφ, stanowiąca podstawę do rozliczeń użytkowników energii elektrycznej i rozliczeń pomiędzy podmiotami przyłączonymi do sieci elektroenergetycznej (np. operatorami systemów dystrybucyjnych, operatorem systemu dystrybucyjnego i operatorem systemu przesyłowego), powinna być ustalana na podstawie badań i obliczeń, przy
217
A. Wilczyński, P. Bućko | Acta Energetica 2/27 (2016) | translation 209–214
założeniu racjonalnej gospodarki mocą bierną w systemie elektroenergetycznym. Może być ona różna w różnych okresach doby i sezonu, a ponadto może ona ulegać zmianom, wraz z upływem czasu, na co mogą mieć wpływ zmiany zachodzące w systemie, znajdujące się po stronie popytowej, jak również te, które są po stronie podażowej (rozwój sieci elektrycznych i bazy wytwórczej). Należy upowszechnić bezpośredni pomiar przekroczeń poziomu tgφ0, w celu wykrycia odbiorców cechujących się szybkozmiennym poborem energii czynnej i biernej, którzy przyczyniają się do pogorszenia jakości energii elektrycznej. W dalszej kolejności trzeba spopularyzować zastosowanie wobec nich odpowiedniego sposobu rozliczeń, polegającego na dynamicznym pomiarze przekroczeń wskazanego tgφ0. Taki sposób z pewnością zdyscyplinuje użytkowników energii elektrycznej do dotrzymywania warunków określonych w umowie o przyłączenie, a jak pokazują doświadczenia, może przyczynić się do zwiększenia wpływów finansowych dla dostawców. System taryfowy w zakresie rozliczeń za energię bierną powinien być wspierany przez odpowiednie regulacje prawne, stymulujące działania racjonalnego gospodarowania mocą bierną w systemie elektroenergetycznym. Regulacje te mogłyby stanowić narzędzie w rękach operatorów, używane do wpływania na inne podmioty – szczególnie wytwórców (np. elektrownie wiatrowe), korzystające ze wspólnej sieci elektroenergetycznej i nierespektujące uwarunkowań dotyczących poziomu generacji mocy biernej.
Przychody uzyskiwane z opłat za energię bierną powinny być kierowane na wydatki celowe, tj. na inwestycje poprawiające jakość energii elektrycznej i efektywność jej dostawy. Bibliografia 1. Borecki J., Wilczyński A., Rozliczenia użytkowników za pobieraną energię bierną w warunkach występowania odkształconych przebiegów napięć i prądów, Elektroenergetyka 2005, nr 2. 2. Borecki J., Wilczyński A., Metoda rozliczania odbiorców za pobór energii biernej w warunkach występowania odkształconych przebiegów napięć i prądów, XI Konferencja Naukowo-Techniczna nt. „Rynek energii elektrycznej: Bezpieczeństwo energetyczne Polski w strukturze Unii Europejskiej” REE 2005, Politechnika Lubelska. 3. Borecki J., Wilczyński A., Badanie struktury taryfy za energię z uwzględnieniem mocy biernej pod kątem stymulowania zachowania użytkowników energii elektrycznej, Projekt Badawczy Zamawiany nr PBZ-MEiN-1/2/2006 „Bezpieczeństwo elektroenergetyczne kraju”, zadanie 7, temat 7.1, punkty: 7.1.3.D i E, Politechnika Wrocławska, Instytut Energoelektryki, Wrocław 2008. 4. Bućko P., Badanie struktury taryfy za energię z uwzględnieniem mocy biernej pod kątem stymulowania zachowania użytkowników energii elektrycznej, Projekt Badawczy Zamawiany nr PBZ-MEiN-1/2/2006 „Bezpieczeństwo
elektroenergetyczne kraju”, zadanie 7, temat 7.1, punkt: 7.1.3.D, Politechnika Gdańska, Katedra Elektroenergetyki, Gdańsk 2007. 5. Budeanu C.J., Puissances reactives et fictives. Publicationde I’Instytut National Roumain pour I’Etude de Amenagment et de I’Utilisation des Sources d’Energie, Bucurest 1927. 6. Rozporządzenie Ministra Gospodarki i Pracy z 20 grudnia 2004 roku w sprawie szczegółowych warunków przyłączenia podmiotów do sieci elektroenergetycznych, ruchu i eksploatacji tych sieci, Dz. U. nr 2 z 2005 roku, poz. 6. 7. Rozporządzenie Ministra Gospodarki z 4 maja 2007 roku w sprawie szczegółowych warunków funkcjonowania systemu elektroenergetycznego, Dz. U. nr 93 z 2007 roku, poz. 623. 8. Rozporządzenie Ministra Gospodarki z 18 sierpnia 2011 r. w sprawie szczegółowych zasad kształtowania i kalkulacji taryf oraz rozliczeń w obrocie energią elektryczną, Dz. U. nr 189 z 2011 roku, poz. 1126. 9. Rozporządzenie Ministra Gospodarki z 27 kwietnia 2012 roku zmieniające rozporządzenie w sprawie szczegółowych zasad kształtowania i kalkulacji taryf oraz rozliczeń w obrocie energią elektryczną, Dz. U. z 2012 roku, poz. 535. 10. Szczerba Z., Czy pomiar energii biernej ma sens?, Zeszyty Naukowe Politechniki Gdańskiej 2000, nr 86(583).
Artur Wilczyński
prof. dr hab. inż. Politechnika Wrocławska e-mail: Artur.Wilczynski@pwr.edu.pl Ukończył studia na Wydziale Elektrycznym Politechniki Wrocławskiej (1971). Stopień doktora uzyskał w Instytucie Energoelektryki Politechniki Wrocławskiej (1977), zaś dr. hab. nauk ekonomicznych został na Wydziale Zarządzania i Informatyki Akademii Ekonomicznej we Wrocławiu (1991). W latach 1998–1999 pełnił funkcję p.o. kierownika Zakładu Sieci i Systemów Elektroenergetycznych Instytutu Energoelektryki PWr, a od 2005 roku funkcję kierownika tego zakładu. Jednocześnie w latach 1993–2001 był zatrudniony na etacie profesora w Instytucie Automatyki Systemów Energetycznych we Wrocławiu, gdzie pełnił funkcję kierownika Pracowni Ekonomiki, Taryfikacji oraz Prognoz w Elektroenergetyce. W 2007 roku uzyskał tytuł profesora nauk technicznych. Od roku 2011 jest profesorem zwyczajnym Politechniki Wrocławskiej. Był współwykonawcą wielu projektów badawczych, w tym finansowanych przez KBN, pełniąc w nich najczęściej rolę kierownika projektu. Jest autorem lub współautorem 150 publikacji i ponad 80 raportów z prac badawczych.
Paweł Bućko
dr hab. inż. Politechnika Gdańska e-mail: pawel.bucko@pg.gda.pl Pracuje w Katedrze Elektroenergetyki Politechniki Gdańskiej. Jego działalność naukowa związana jest z ekonomiką energetyki, ze szczególnym uwzględnieniem problematyki programowania rozwoju systemów energetycznych w uwarunkowaniach rynkowych. Aktywność zawodowa koncentruje się na analizie inwestycyjnej dla źródeł wytwórczych, analizie mechanizmów rynkowych i zasad rozliczeń w dostawie energii. Jest także audytorem energetycznym i zajmuje się problematyką racjonalnego użytkowania energii.
218
NOTES
219
NOTES
220
221
222
Power Engineering Quarterly