ISSN: 1898-7710
NR 02/2014 (28) 19 zł (w tym 5% VAT)
EyeC Proofiler
TM
Błędy nie podchodzą Błędy w druku są jak drapieżniki. Czają się zdradziecko i atakują w najmniej spodziewanej chwili. EyeC ProofilerTM jest czujny jak surykatka. Bezbłędnie rozpoznaje błędy i ostrzega, zanim będzie za późno. Skutecznie dba o Twoje bezpieczeństwo..
System EyeC ProofilerTM bada zgodność projektu z opakowaniem (użytki i arkusze). Porównuje wszystkie elementy graficzne kartonika, ulotki, etykiety i folii: teksty, kolory, kody kreskowe, kody 2D, QR oraz zapis i wysokość punktu alfabetu Braille’a.
System EyeC Proofiler 400-1600 (format skanowania od A4 do A0)
Więcej informacji znajdziesz na stronie: www.eyecpolska.pl
EyeC ProofilerTM spełnia wytyczne GMP, GAMP5 i CFR 21 część 11
EyeC Polska Marcin Weksler Business Development Pharma t. +48 512 354 354 e-mail: marcin.weksler@eyecpolska.pl
spis treści
72
Kwadratowe Koła
czyli eliminacja marnotrawstwa w magazynie wysokiego składowania
33
Jak rozmawiać z drukarnią o bezpiecznym druku?
Bezbłędnie!
46
Pielęgnacja pacjentów z cukrzycą
Filtracja membranowa kluczowa dla sztucznego osocza Jakość musi kosztować Bezolejowe sprężone powietrze w przemyśle farmaceutycznym Przegląd Spektroskopii Ramanowskiej Metody oznaczania witamin i minerałów w suplementach diety Łatwy sposób zmniejszenia kosztów produkcji leków Liposomy jako nośniki substancji aktywnych Jak rozmawiać z drukarnią o bezpiecznym druku? Bezbłędnie! 36 Od etapu projektowania leku do kontroli produkcji gotowego preparatu, zastosowania spektroskopii NMR w chemii farmaceutycznej 39 Testo AG prezentuje nową serię rejestratorów testo 184 Monitorowanie temperatury, wilgotności i wstrząsów oraz ich dokumentacja w transporcie żywności i produktów farmaceutycznych 40 Chromatografia gazowa i cieczowa – opis metody oraz zastosowanie 8 10 14 16 18 24 28 33
44 Prawdziwy lek – bezpieczny pacjent 46 Pielęgnacja pacjentów z cukrzycą Nowe technologie w walce z globalną pandemią 50 Ostrożności nigdy za wiele Jakość i bezpieczeństwo opakowań farmaceutycznych 54 Tendencje w opakowaniach leków
58 61 64 66
Firma innowacyjna Protokół z Nagoi a polski przemysł farmaceutyczny Biologiczne pole doświadczalne Kiedy korzystanie z cudzego wynalazku nie powoduje naruszenia prawa
2/2014
e-w ydanie do pobrania na:
www.farmacom.com.pl
90
Systemy informatyczne w przedsiębiorstwach produkcji farmaceutycznej w praktyce
61
Protokół z Nagoi
Technologie przyszłości w obsłudze klienta branży farmaceutycznej
96
a polski przemysł farmaceutyczny
70 Koncepcja VMI Nowoczesne zarządzanie przepływem towarów pomiędzy producentem preparatów farmaceutycznych i jego dystrybutorami 72 Kwadratowe Koła czyli eliminacja marnotrawstwa w magazynie wysokiego składowania 76 Monitoring procesów logistycznych w dystrybucji farmaceutycznej 80 Dystrybucja kontrolowana
82 Automatyka w służbie farmacji 86 Mamy system ERP. Czy potrzebujemy EAM? 90 Systemy informatyczne w przedsiębiorstwach produkcji farmaceutycznej w praktyce
e-w ydanie do pobrania na :
w w w.farmacom.com.pl
92 Pomiar małych ilości metodą grawimetryczną
96 Technologie przyszłości w obsłudze klienta branży farmaceutycznej
98 Targi EuroLab 2014 za nami
2/2014
VADEMECUM TABLETKOWANIA Szanowny Technologu, projektancie formulacji do tabletkowania!
P
rzekonaj się o zaletach płynących z posiadania inżynierskiej wiedzy n/t mechanicznych właściwości tabletkowanych produktów, nie pozwól by wyprzedzili Cię inni, których nie trzeba było do tego zachęcać.
Nowa wiedza przybywa systematycznie od 2012 roku dzięki Vademecum Tabletkowania, które jest pierwszym,
w pełni inżynierskim poradnikiem materiałoznawstwa dla technologów tabletek. Korzystaj z nieznanych dotąd informacji, pozwalających jeszcze lepiej dopasować Twoje formulacje do realiów nowo-
czesnego przemysłu. Współdziałaj w atmosferze poufności i poszanowania własności intelektualnej. Ciesz się osiągnięciami, w postaci minimalizacji kosztów produkcji i poprawy jakości tabletek.
REKOMENDACJA KATEDRY I ZAKŁADU FARMACJI STOSOWANEJ GDAŃSKIEGO UNIWERSYTETU MEDYCZNEGO.
25 lat badań FARMASERWIS Jerzy Lasota Laboratorium mechaniki materiałów sypkich i formulacji d.c. Grodzisk Mazowiecki, tel. 604 474 152 reklama
Rada Programowa: Grzegorz Cessak – Prezes Urzędu Rejestracji Produktów Leczniczych, Wyrobów Medycznych i Produktów Biobójczych Andrzej Szarmański – Członek Zarządu ISPE Polska, Dyrektor Jakości w Zakładach Farmaceutycznych Polpharma S.A. Irena Rej – Prezes Izby Gospodarczej „Farmacja Polska” Daniel Gralak dr Jarosław Jan Hołyński – Doktor nauk farmaceutycznych Polskie Towarzystwo Farmaceutyczne dr n. farm. Leszek Borkowski – Ekspert UE do spraw leków, były prezes Urzędu Rejestracji Produktów Leczniczych prof. dr hab. Zbigniew E. Fijałek – Dyrektor Narodowego Instytutu Leków Marcin Kołakowski – Wiceprezes ds. Produktów Leczniczych Urzędu Rejestracji Produktów Leczniczych, Wyrobów Medycznych i Produktów Biobójczych Marek Gnyś – Dyrektor Produkcji Polfa Tarchomin Andrzej Wróblewski – Dyrektor w firmie konsultingowo–szkoleniowej LeanSigma in Practice.
Kwartalnik Wydawnictwa FARMACOM Wodzisław Śląski 44-300 ul. 26 Marca 31/11 farmacom@farmacom.com.pl www.farmacom.com.pl
Prenumerata i kolportaż Wydawnictwo FARMACOM Wodzisław Śląski 44-300 ul. 26 Marca 31/11 tel./fax 032 455 31 61
Redakcja Teresa Kubsz-Miller, Joanna Korzonek, Karol Krzystała tel./fax 32 456 60 79, redakcja@farmacom.com.pl
Redaktor Naczelny Robert Miller tel./fax 032 455 31 61 tel. kom. 502 084 101 robert.miller@farmacom.com.pl
prenumerata@farmacom.com.pl Cena egzemplarza „ŚPF” – 19 zł Cena rocznej prenumeraty – 80 zł Nr konta: ING Bank Śląski O/Wodzisław Śląski 56 1050 1403 1000 0023 2091 8119
Studio graficzne: Prografika, www.prografika.com.pl Druk: Drukarnia Nowiny
Nakład: 3 500 egz. Partner:
Magazyn kierowany jest do specjalistów ds. utrzymania ruchu, technologów, automatyków, szefów działów produkcji, kontroli i zapewnienia jakości, szefów działów logistyki i zaopatrzenia oraz działów rozwoju produktów w zakładach farmaceutycznych. Odbiorcami czasopisma są również organizatorzy targów, konferencji i szkoleń bran żowych, urzędy, ministerstwa, instytuty, uczelnie wyższe z kierunkami farmaceutycznymi i biura projektowe. Redakcja zastrzega sobie prawo do skracania i redagowania tekstów. Redakcja nie odpowiada za treść reklam. Wykorzystywanie materiałów i publikowanie reklam opracowanych przez Wydawcę wyłącznie za zgodą redakcji. Wszelkie prawa zastrzeżone. Przedruk materiałów lub ich części tylko za pisemna zgodą redakcji. Za treść ogłoszeń reklamowych i artykułów autorskich redakcja nie odpowiada. Artykuły te nie muszą odzwierciedlać poglądów wydawnictwa.
2/2014
www.ispe.org.pl
e-w ydanie do pobrania na:
www.farmacom.com.pl
DK
Systemy odwróconej osmozy sanityzowane gorącą wodą INT., BE, NL, SK, CZ
Firmy farmaceutyczne wymagają czystej wody zapewniającej wysoką AT, CH, DE
jakość i niezawodność swoich produktów. Nasze systemy odwróconej
REINE WASSERAUFBEREITUNG
osmozy składają się z systemu obudów wykonanych z kwasoodpornej stali nierdzewnej, a wszystkie ich komponenty i elementy pomiarowe są projektowane indywidualnie dla każdego przypadku. Uzdatniamy F
wodę od 1936 roku. EUROWATER posiada wiedzę i doświadczenie oraz TRAITEMENT DES EAUX dysponuje technologiami pozwalającymi projektować optymalne stacje uzdatniania wody. BE, NL
EUROWATER Spółka z o.o. Ul. Izabelińska 113, Lipków PL 05-080 Izabelin (Warszawa) Tel.: +48/22/722-80-25 info@eurowater.pl www.eurowater.pl
EUROWATER Spółka z o.o. ul. Mydlana 1 PL 51-502 Wrocław Tel.: +48/71/345-01-15
UDGÅET!!!
EUROWATER Spółka z o.o. ul. Radarowa 14A PL 80-298 Gdańsk Tel.: +48/58/333-13-80
ZUIVER WATERBEHANDELING
PL
UZDATNIANIE WODY
8 |
Ekspander objętości osocza w Serumwerk Bernburg
Filtracja membranowa kluczowa dla sztucznego osocza Przetwarzanie sztucznego osocza w Serumwerk Bernburg
Alfa Laval
Sztuczna krew
Wybrana technologia
Znaczenie metody przepływowej
Skrobia hydroksyetylowa (HES) jest istotnym ekspanderem objętości osocza. Używa się jej do ustabilizowania pacjentów w krytycznych stanach chorobowych poprzez utrzymanie objętości krwi w przypadkach, w których nie jest możliwe dostarczenie odpowiedniego typu lub odpowiedniej ilości pełnej krwi. Do sytuacji takich należą urazy, znaczna utrata krwi w okresie okołooperacyjnym, oparzenia, posocznica i wstrząs stwierdzony klinicznie. Skrobia hydroksyetylowa jest coraz bardziej powszechnie stosowana jako ekspander objętości osocza pierwszego wyboru. Jest ona w gruncie rzeczy sztuczną krwią bez krwinek.
– Rozpoczęliśmy wytwarzanie skrobii hydroksyetylowej z zastosowaniem technologii wymiany jonów i adsorbentów służących do oczyszczenia i frakcjonowania HES – mówi Werner Zimmermann, kierownik ds. technologii w niemieckiej firmie Serumwerk Bernburg. – Metoda ta była jednak bardzo trudna i niewydajna. Dlatego postanowiliśmy zbadać możliwości, jakie daje filtracja membranowa, którą można stosować w zintegrowanych procesach tego typu. Filtracja membranowa to technologia wybrana przez firmę Serumwerk Bernburg jako część ambitnego programu inwestycji mającego na celu unowocześnienie wyposażenia i asortymentu.
Okazało się, że przepływowa filtracja membranowa jest kluczowa w produkcji czystej skrobii hydroksyetylowej. Do usunięcia produktów ubocznych i zapewnienia odpowiedniego rozmiaru cząsteczek w produkcie konieczne są zaawansowane technologicznie membrany do ultrafiltracji o określonej wartości odcięcia masy cząsteczkowej (MWCO). Proces wytwarzania HES łączy koncentrację i diafiltrację. W procesie diafiltracji z płynu skrobiowego wypłukiwane są zanieczyszczenia, a jednocześnie zawartość substancji o niskiej masie cząsteczkowej jest znacznie zmniejszana. W rezultacie proces ten zwiększa stężenie substancji o dużej masie cząsteczkowej.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
9
Werner Zimmermann, kierownik ds. technologii, stojący przez panelem kontrolnym stacji ultrafiltracji
Pierwsze dwa zainstalowane płytowo-ramowe moduły do filtracji membranowej firma Serumwerk Bernburg kupiła w 1996 roku od firmy Alfa Laval. Każdy z modułów składał się z membrany o powierzchni 42 m2 (452 ft2). W jednym module była to membrana o gęstości 25.000 Daltonów (MWCO) do wytwarzania HES 70, w drugim membrana o gęstości 20.000 Daltonów do wytwarzania HES 200. Moduły te umożliwiają firmie Serumwerk Bernburg optymalizację przepływu przez membrany, zapewniając precyzyjnie określone prędkości przepływu przez całą powierzchnię membran. Jednocześnie moduł płytowo-ramowy jest odporny na wartości pH od 1 do 13, dzięki czemu można zastosować optymalne procedury czyszczenia.
Higiena jest nadrzędna Skrobia hydroksyetylowa to produkt do zastosowań medycznych, więc firma Serumwerk Bernburg musiała się również upewnić, że przetwarzane produkty są sterylne. Używana w Serumwerk Bernburg skrobia ziemniaczana, która jest bazą do wytwarzania HES jest idealnym źródłem pożywienia dla bakterii. Dlatego higiena jest priorytetem, a czyszczenie urządzeń produkcyjnych musi być prowadzone ‘agresywnie’, jak to ujmuje Zimmermann. – Dzięki ultrafiltracji w wysokich temperaturach możemy uniknąć rozwoju drobnoustrojów. Jest to dla nas bardzo istotne kryterium przy wyborze membran – mówi Zimmermann. Konstrukcja stacji i wybrane komponenty mają wysoką jakość sanitarną, dzię-
e-wydanie do pobrania na:
www.farmacom.com.pl
Płytowo-ramowa stacja ultrafiltracji do wytwarzania HES 70 i HES 200
ki czemu spełnione są wymogi amerykańskiej Agencji Żywności i Leków (FDA) dla urządzeń farmaceutycznych. Konstrukcja umożliwia zastosowanie do czyszczenia ograniczonej ilości wody, wydajne czyszczenie wszystkich powierzchni oraz sterylizację całej stacji.
Podwojona wydajność – dwa razy więcej Do roku 2002 popyt na skrobię hydroksyetylową był tak duży, że firma Serumwerk Bernburg zwróciła się do Alfa Laval o więcej membran, by podwoić wydajność produkcji HES 200. Dzięki konstrukcji modułowej można było stosunkowo łatwo zainstalować nowy płytowo-ramowy moduł równolegle do już pracującego i zmniejszyć czas obsługi jednej partii o około 50 procent. Zużycie wody demineralizowanej do mycia w systemie CIP (clean-in-place) zwiększyło się natomiast o około 20 procent. Firma Serumwerk Bernburg używa obecnie trzech płytowo-ramowych modułów Alfa Laval, które działają w temperaturach do 75ºC (167ºF) i przy bardzo wysokich wartościach pH, dzięki czemu nie ulegają uszkodzeniu podczas czyszczenia. Każdy z modułów zawiera 560 membran, wykonanych z polisulfonu, o łącznej powierzchni 42 m2 (452 ft2). Konstrukcja modułowa jest kluczowym elementem systemu filtracji Alfa Laval, idealnym do seryjnej metody wytwarzania stosowanej przez Serumwerk Bernburg. Umożliwia ona szybkie reagowanie na nowe zamówienia na różne typy HES lub inne produkty.
2/2014
Główne zalety filtracji membranowej Filtracja membranowa to wydajna technologia zapewniająca wysoce specyficzną separację. Konstrukcja modułowa umożliwia łatwe zwiększenie wydajności na potrzeby zwiększonych wymagań produkcyjnych. Membrany do ultrafiltracji można używać do zwiększania stężenia, ponieważ mają określoną wartość odcięcia masy cząsteczkowej, dzięki czemu zachowane są jedynie pożądane cząsteczki. Membrany są odporne na działanie pH od 1 do 13 i temperatur do 75°C (167ºF). Umożliwia to skuteczne czyszczenie i gwarantuje, że system spełni wymogi FDA dla urządzeń farmaceutycznych. Zastosowanie diafiltracji umożliwia osiągnięcie nawet większej czystości, bo zanieczyszczenia są wypłukiwane, a zawartość substancji o małej masie cząsteczkowej jest znacznie zmniejszona.
10 |
Jakość
Sylwia Andrzejczak
Szymon Bernaciak
Kierownik Zapewnienia Jakości, Curtis Health Caps
Specjalista ds. Zapewnienia Jakości, Curtis Health Caps
Wytwarzanie produktów, spełniających ściśle określone kryteria jakościowe, wiąże się z ponoszeniem mniejszych lub większych kosztów. Kontrola kosztów wytwarzania produktu to niezwykle ważny aspekt w działalności przedsiębiorstwa. Wady powstałe w wytwarzanym produkcie, który nie spełnia wymagań jakościowych i oczekiwań klientów, generują nadmierne koszty produkcji. Bardzo ważne staje się wówczas ustalenie przyczyn wystąpienia problemu. Na podstawie analizy kosztów produkcji można wskazać, iż zła jakość wyrobu, błędy na etapie projektowania lub w procesie produkcyjnym są źródłami dodatkowych, nieprzewidzianych strat finansowych w przedsiębiorstwie.
„Jakość musi kosztować” to stwierdzenie powszechnie znane, choć często opacznie rozumiane. W dosłownej interpretacji zakłada, iż sukces rynkowy zapewnić może inwestycja w przedsięwzięcia podnoszące jakość wyrobu. Takie działania pociągają jednak za sobą wzrost kosztów wytwarzania wyrobu, co nie sprzyja konkurencyjności przedsiębiorstwa w dobie powszechnej redukcji kosztów. Ta ostatnia musi być także wyważona z powodu ryzyka utraty rynku, na skutek nadmiernego spadku jakości wyrobu. Koszty przedsiębiorstwa, powstałe w wyniku braku dostatecznego poziomu jakości, mogą sięgać nawet 30% wysokości obrotów, co stanowi poważne obciążenie
fot. Curtis Health Caps
musi kosztować
w jeg o f unkcjonowaniu , z w ł a szc z a w dłuższej perspektywie czasowej. Dlatego bardzo istotnym elementem ogólnych kosztów wytwarzania są właśnie koszty jakości, stanowiące sumę wszystkich kosztów operacyjnych, związanych z osiągnięciem Jakości. Czym są koszty jakości? To nakłady poniesione na uzyskanie pewności, że produkty końcowe, które trafiają do ostatecznego odbiorcy, wykonane są zgodnie z ustalonymi wymaganiami oraz przyjętą specyfikacją. Sposób, w jaki przedsiębiorstwo potrafi zaspokoić potrzeby swoich klientów, decyduje o jego sukcesie na rynku. Jakość wymaga także, by zaspokojenie potrzeb odbywało się
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
11 we właściwym momencie i po optymalnym koszcie. Koszty jakości to nie tylko koszty będące następstwem popełnionych błędów, ale również koszty działań, które mają zapobiegać powstawaniu tych błędów. W przedsiębiorstwach, dla których poprawa jakości ich wyrobów jest procesem ciągłym, koszty działań zapobiegawczych stanowią większość ogółu kosztów jakości. Większa dbałość o jakość produktu, już na etapie jego projektowania oraz udoskonalanie metod produkcji, prowadzi w rezultacie do redukcji kosztów, związanych z oceną i wadliwością wyrobów. W większości przedsiębiorstw produkcyjnych wykorzystuje się elementy zarządzania jakością, do analizy i oceny procesu produkcyjnego. Obecnie, jako standard w procesie zarządzania przedsiębiorstwem, zaczyna być uznawana koncepcja TQM (Total Quality Management), co oznacza „Kompleksowe zarządzanie jakością”. Zadaniem systemu TQM jest ciągłe usprawnianie funkcjonowania organizacji firmy i uzyskanie zadowolenia klientów wewnętrznych, jak i zewnętrznych. TQM odchodzi od tradycyjnego pojmowania jakości kojarzonej z produktem, jego niezawodnością, wytrzymałością, estetyką, sprawnością, ergonomicznością itp., ocenianymi wyłącznie przez producenta. Koncentracja na kliencie oznacza, że jakość samego produktu lub usługi jest tylko elementem wzajemnych relacji klient-dostawca, które powinny opierać się na zasadach partnerstwa. W takim układzie obowiązkiem dostawcy jest nie tylko zaspokojenie wszelkich oczekiwań klienta, ale również wyprzedzanie ich, oferując nowe, innowacyjne rozwiązania oraz terminowość, pewność i niezawodność. TQM - to bardziej kierunek niż określony stan, to proces ciągłego ulepszania. Wdrażanie TQM jest czymś w rodzaju porządkowania organizacji, w sposób harmonijny i przemyślany. Kompleksowa jakość zarządzania zapewnia wysoką jakość organizacji działań, a ta z kolei -wysoką jakość efektu finalnego. W strategicznym ujęciu, celem zarządzania przez jakość jest wzrost konkurencyjności i rentowności firmy, poprzez zaangażowanie wszystkich członków organizacji w proces poprawy jakości wyrobów czy usług, zaspokajających najpełniej potrzeby i oczekiwania klientów. W systemie TQM możemy wyróżnić trzy grupy operacyjne kosztów jakości: • koszty zgodności – koszty zapobiegania błędom i wytworzeniu produktów o obniżonej jakości, które powstają przed wystąpieniem błędów i oceny zgodności, np. koszty prewencji (szko-
e-w ydanie do pobrania na :
w w w.farmacom.com.pl
lenia pracowników, koszty wdrożenia i opracowania procedur), koszty kontroli, koszty badań i inspekcji. • koszty braku zgodności – koszty korekty błędów oraz likwidacji skutków niskiej jakości produktów, powstałych po wystąpieniu błędów. • koszty utraconych możliwości – koszty zabezpieczenia się na przyszłość, powstałe w wyniku zaabsorbowania problemami przeszłości i niedostrzegania związku bieżącej jakości z przyszłymi zyskami. To np.: koszty utraconych rynków zbytu, koszty utraconych zamówień i utargów oraz koszty niższych cen. Z n a j o m o ś ć ko s z t ó w z w ią z a n y c h z jakością stanowi istotną pomoc w procesie zarządzania jakością, a szczególnie w procesie podejmowania decyzji przez kierownictwo przedsiębiorstwa. Koszty te wyodrębniają nakłady, które powstają w sferze zapobiegania wadom, sterowania
Rys. 1. Rozkład kosztów jakości
2/2014
jakością i ustalania wad, co pozwala na optymalizację produkcji. Wskazują także, jakie wyroby lub ich grupy, bądź też komórki przedsiębiorstwa powodują straty, z uwagi na złą jakość. Wyjaśniają, które działania korygujące są najbardziej efektywne ekonomicznie i prowadzą do poprawy produktywności oraz struktury kosztów wyrobu. Aby zrozumieć dokładnie pojęcie kosztów jakości, warto przytoczyć definicję ISO: Koszty ponoszone w związku z zagwarantowaniem i zapewnieniem zadowalającej jakości, a także straty ponoszone z powodu nie osiągnięcia ustalonego poziomu jakości. W myśl powyższej definicji, aby obniżyć koszty uzyskania jakości wyrobu, warto zredukować ilość strat generowanych w procesie. Redukcja straty wpływa na obniżenie kosztów uzyskania wyrobu, bez rezygnowania z jakości gwarantowanej klientowi. Analizując procesy produkcyjne,
12 |
• straty wewnętrzne – defekty, przerób, odpad, nadwyżki netto, przeterminowany surowiec, odrzuty z CCP.
fot. Curtis Health Caps
Straty zewnętrzne zwykle są dla nas bardziej istotne, ponieważ odnoszą się do produktu znajdującego się na rynku, jednak, jak łatwo zauważyć, są to efekty niedoskonałości wewnętrznych, z którymi zmagamy się na co dzień. Eliminacja problemów produkcyjnych przyczyni się do zmniejszenia kosztów uzyskania jakości.
jesteśmy w stanie walczyć ze stratą, a więc ograniczyć lub nawet wyeliminować istotny element powyższego wyliczenia, czyli „koszty braku zgodności”. Koszty braku zgodności najprościej podzielić na przychodzące z zewnątrz i istniejące już w trakcie procesu: • straty zewnętrzne – reklamacje, zwroty, wycofania z rynku
Rodzaje produkcji bywają różne, jednak zwykle zmagają się z podobnymi problemami: • Incydenty produkcyjne – awarie maszyn lub urządzeń, niezaplanowane prace konserwacyjne, czyli przestoje oraz błędy ludzkie. • Wydarzenia produkcyjne – ustawienia maszyn, przezbrojenia, rozruch linii produkcyjnej. • Niespełnione warunki w procesie wytwarzania – zanieczyszczona linia produkcyjna, braki w sprzęcie, braki w wyszkoleniu personelu. • Odchylenia produkcyjne – niska wydajność procesu, nadwyżki, nieprawidłowy montaż oprzyrządowania. Wszystkie powyższe przypadki generują problemy, a wraz z nimi powstaje odpad, który zawyża koszty jakości wyrobu.
Rys. 2. Rodzaje odpadów w procesie produkcyjnym
2/2014
Jak widać na rys. 2., straty zewnętrzne stanowią tak naprawdę wierzchołek, pod którym znajduje się cała góra strat, wpływających bezpośrednio na koszty jakości wyrobu. Celem Zapewnienia Jakości, a tym samym obniżenia kosztów jakości, jest więc nie tyle reagowanie na problemy zewnętrzne, lecz zrozumienie natury aspektów produkcji i dążenie do zmniejszenia strat produkcyjnych, co w efekcie zapewnia konkurencyjny cenowo produkt o wysokiej jakości. Koszty jakości powstają w całym cyklu życia produktu, czyli od momentu podjęcia decyzji o zakupie surowca, poprzez cały proces wytwarzania i użytkowania produktu, aż po likwidację produktu. Tak zwane społeczne koszty jakości ponoszą wszyscy producenci, pośrednicy i sprzedawcy oraz użytkownicy i konsumenci. Dlaczego liczymy koszty? Znajomość kosztów jakości pozwala na identyfikację problemów jakościowych i organizacyjnych, a także na wybór priorytetów w działaniach korygujących i optymalizację tych działań. Odpowiednie podkreślenie wysokości ponoszonych kosztów ma silne działanie motywacyjne i uwrażliwia pracowników na błędy. Aby zoptymalizować koszty jakości, należy odnosić się do konkretnych działań, analizować trendy, wzmacniać działania efektywne i eliminować działania, które nie przynoszą efektów. Zapobiegać kosztom można natomiast poprzez planowanie jakości (wdrażanie systemów zapewnienia jakości), poprawę jakości (programy naprawcze), przeglądy jakości projektów, ocenę podwykonawców, przeprowadzanie audytów wewnętrznych, szkolenia jakościowe oraz ocenę satysfakcji klienta. Zrozumienie i identyfikacja przyczyn powstania kosztów jakości pozwalają przewidzieć i przygotować ekonomiczne i techniczne środki zaradcze, które doprowadzą do wzrostu jakości produktów. Rachunek kosztów jakości oraz zestawienie korzyści z kosztami, pozwalają na ocenę skuteczności i korektę stosowanego w przedsiębiorstwie systemu, przyczyniając się tym samym do wzrostu produktywności pracy, utargów, zysku, dochodów zatrudnionych, czyli do wzrostu jakości funkcjonowania firmy i jej klientów. Przygotowanie produkcji jest zatem niezw ykle ważnym etapem w cał ym procesie produkcji, a decyzje podejmowane w sferze konstrukcyjnej, technologicznej czy też organizacyjnej, rzutują na ostateczny koszt i jakość produktu.
e - w y d a ni e d o p o b r a n i a n a :
w w w.farmacom.com.pl
14 |
Bezolejowe sprężone powietrze w przemyśle farmaceutycznym
Niektóre branże przemysłu, czy pojedyncze procesy technologiczne wymagają sprężonego powietrza o bardzo wysokich parametrach czystości. Jakość sprężonego powietrza określana jest w klasach podanych w normie ISO 8573-1, w której zdefiniowane są klasy czystości w zależności od trzech głównych zanieczyszczeń: cząstki stałe, woda i olej. Oczywiście w wielu procesach farmaceutycznych istotna jest również sterylność mikrobiologiczna, ale to regulują inne normy.
Szymon Sadowski BEKO TECHNOLOGIES
N
ajwyższą zdefiniowaną klasą (najwyższa czystość) według ISO 8573-1 jest klasa 1. W niektórych jednak procesach technologicznych (w tym w przemyśle farmaceutycznym) wymagane są lepsze parametry powietrza niż określone w klasie 1. Wówczas taka
klasa czystości określana jest jako klasa „0” (chociaż jako taka nie jest ujęta w normie), a jej parametry definiuje użytkownik. Jednym z takich krytycznych parametrów jest zawartość oleju (węglowodorów) w sprężonym powietrzu. Jak istotne jest to w produkcji leków nie trzeba chyba nikogo przekonywać. Z tego względu bardzo często w przemyśle farmaceutycznym stosowane są sprężarki tzw. bezolejowe. Warto jednak zadać sobie pytanie, czy powietrze wytwarzane przez takie sprężarki i później stosowane do produkcji np. tabletek, czy opakowań do nich faktycznie jest bezolejowe. Chociaż w sprężarkach bezolejowych w istocie nie stosuje się oleju w procesie sprężania, to jednak powietrze zasysane z otoczenia oczywiście nie jest całkowicie bezolejowe. Z pomiarów przeprowadzonych w rejonach miejskich i mocno uprzemysłowionych wynika, że średnia zawartość węglowodorów w powietrzu atmosferycznym dochodzi do 0,1 mg/Nm3, co oznacza, że tyle par oleju dostaje się do układu sprężonego powietrza z każdym metrem sześciennym zasysanym przez sprężarkę bezolejową. Mogłoby się wydawać, że to jest niewiele, ale biorąc pod uwagę wielkość przepływu sprężonego powietrza w średniej wielkości zakładzie w granicach 2 000 m³/h ilość par oleju w powietrzu w skali roku (w systemie dwu-zmianowym) może wynieść już ponad 3 000 mg → dla sprężarki bezolejowej!
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
15
O ile filtry zainstalowane w sieci mogą zatrzymać olej w postaci drobnych kropli czy aerozoli, to nie są w stanie usunąć z powietrza oleju w postaci parowej. Wprawdzie stosowanie np. kolumn z węglem aktywowanym pozwala na znaczne zredukowanie zawartości par oleju, to jednak pozostaje problem z ustaleniem stopnia nasycenia olejem złoża węglowego i określeniem czasu jego wymiany. Należy też pamiętać, że sprężarki bezolejowe są znacznie droższe od sprężarek olejowych, zarówno po stronie kosztów zakupu jak i kosztów eksploatacji.
morze reakcyjnej nie oznacza równie wysokiej temperatury sprężonego powietrza na wyjściu z urządzenia. Dzięki specjalnemu wymiennikowi ciepła zabudowanemu wewnątrz katalizatora temperatura powietrza na wyjściu jest wyższa zaledwie o 15oC względem temperatury wejściowej. Dodatkowym plusem tak wysokiej temperatury procesu jest efekt „sterylizacji” powietrza, tzn. powietrze na wyjściu z układu jest bezbakteryjne. Maksymalna zawartość resztkowa par oleju w powietrzu za katalizatorem jest na granicy mierzalności i wynosi ok. 0,003 mg/m3.
Usuwanie par oleju ze sprężonego powietrza
Pomiar i kontrola zawartości par oleju w sprężonym powietrzu
Doskonałym rozwiązaniem powyższych problemów jest stosowanie konwerterów katalitycznych oraz specjalistycznego miernika resztkowej zawartości par oleju w sprężonym powietrzu. Konwerter pozwala na uzyskanie powietrza całkowicie bezolejowego – i to niezależnie od tego, czy stosuje się sprężarki bezolejowe, czy smarowane olejem. Ponadto przy pomocy specjalnego systemu zaworów bezpieczeństwa zainstalowanych w konwerterze chroniona jest cała sieć sprężonego powietrza przed ewentualnym przedostaniem się oleju do instalacji, np. w przypadku awarii separatora w sprężarce olejowej (tzw. „przebicie oleju”).
Drugim elementem systemu zapewniającym zachowanie bezolejowości powietrza jest miernik resztkowej zawartości par oleju. Miernik ten dokonuje pomiaru w oparciu o sensor fotojonizacyjny, a dzięki ciągłości procesu pomiarowego pozwala na stałe monitorowanie jakości powietrza. Miernik nie tylko na bieżąco pokazuje resztkową zawartość par oleju, ale także pozwala na zaprogramowanie poziomu alarmowego, którego przekroczenie będzie wykorzystywane w sposób automatyczny lub inny (zależnie od preferencji użytkownika) do zabezpieczenia dalszej instalacji, czy produkcji przed skażeniem olejem. Ponadto miernik posiada wbudowaną pamięć, w której zapisywane są wszystkie zmierzone odczyty, co z kolei pozwala na sprawdzenie historii zdarzeń i jakości powietrza dla każdego odczytu. Dokładność pomiarów miernika wynosi 0,003 mg/m3.
Jak działa konwerter katalityczny? Oleje (tłuszcze) są to węglowodory, czyli dłuższe lub krótsze łańcuchy CnH(2*n)+2 . Łańcuchy węglowodorowe w kontakcie ze złożem katalitycznym (w odpowiedniej temperaturze) ulegają rozpadowi na coraz krótsze sekwencje. Końcowymi produktami takiego procesu katalizy – przy wykorzystaniu tlenu zawartego w powietrzu – są dwutlenek węgla (CO2) i woda (H2O) w postaci parowej.
Oba te związki (CO2 i H2O) są neutralne, nie maja negatywnego wpływu na proces technologiczny, w którym wykorzystywane jest sprężone powietrze. Woda usuwana jest przez osuszacze (i tak najczęściej już zainstalowane w sieci sprężonego powietrza) w dalszym procesie uzdatniania sprężonego powietrza. Powstająca w czasie procesu katalizy woda, ze względu na temperaturę w katalizatorze (ok. 150oC), pozostaje w postaci parowej. Należy również zaznaczyć, że tak wysoka temperatura w ko-
e-wydanie do pobrania na:
Ekran miernika par oleju
Oczywiście powyżej przedstawione urządzenia, tzn. konwerter katalityczny i system pomiaru resztkowej zawartości par oleju, posiadają odpowiednie certyfikaty niezależnej organizacji certyfikacyjnej (TUV). Reasumując, zastosowanie obydwu wyżej przedstawionych urządzeń pozwala na uzyskanie i zapewnienie powietrza bezolejowego (niezależnie od rodzaju stosowanej sprężarki), a tym samym zabezpieczenie końcowych produktów farmaceutycznych jak i całych procesów technologicznych przed ewentualnym skażeniem olejem. Konwerter katalityczny
www.farmacom.com.pl
2/2014
16 |
Przegląd Spektroskopii Ramanowskiej Endress + Hauser
Spektroskopia Ramanowska jest formą spektroskopii oscylacyjnej, podobnej do spektroskopii podczerwieni (IR). W spektroskopii podczerwieni pasma widma powstają na skutek zmiany momentu dipolowego a w spektrografii Ramanowskiej zmiany polaryzacji. W większości przypadków techniki te są komplementarne ponieważ Ramanowskie zmiany poziomów energetycznych nie zachodzą dla podczerwieni i odwrotnie. Poniższy artykuł opisuje Efekt Ramana, zalety spektroskopii Ramanowskiej i podstawy techniki pomiarowej. Jak wcześniej wspomniano, spektroskopia Ramanowska jest formą spektroskopii oscylacyjnej w której zmiany pasma wynikają z przemiany energii drgań cząsteczkowych. Drgania te zależą od budowy cząsteczkowej substancji, widmo Ramanowskie niesie więc informację o budowie cząsteczkowej i na jego podstawie można zidentyfikować cząsteczki.
Effekt Ramana Gdy wiązka światła pada na próbkę, fotony są absorbowane przez materiał i rozpraszane. Zdecydowana większość z tych rozproszonych fotonów ma dokładnie tę samą długość fali co fotony padające, jest to rozpraszanie Rayleigha. Znikoma ilość fotonów rozproszonych (około 1 na 107) ma inną długość fali.
Widmo Ramanowskie
Fotony o zmienionej długości fali określane są rozproszeniem Ramana. Większość z nich ma większą długość fali (widma stokesowskie), a mała część krótszą długość fali (widma antystokesowskie). Rysunek 1 przedstawia przejścia pomiędzy poziomami energetycznymi podczas rozpraszania Rayleigha, Ramana-Stokesa i Ramana Anty-Stokesa. We wszystkich przypadkach padający foton wzbudza elektron i przenosi go na wyższy wirtualny poziom (stan) energetyczny, przy powrocie elektronu do stanu o niższej energii, emitowany jest foton. W przejściu Rayleigha elektron powraca do stanu pierwotnego (foton padający i wyemitowany mają taką samą energię a więc i długość fali). W przejściach Ramana elektron powraca do innego stanu energetycznego. Przejście Raman-Stokes występuje gdy elektron wraca do poziomu o energii wyższej od początkowej a przejście Raman-anty Stokes do poziomu o energii niższej. Rozpraszanie Stokesa występuje dużo częściej niż rozpraszanie anty-Stokesa, dzieje się tak dlatego, że w typowym zakresie temperatur, zgodnie z rozkładem Boltzmanna elektrony z większym prawdopodobieństwem zajmują najniższe stany energetyczne.
Widmo Ramanowskie to wykres natężenia promieniowania rozproszonego w funkcji różnicy częstotliwości od częstotliwości wiązki padającej (liczba falowa typowo w cm–1). Różnica ta jest nazywana przesunięciem Ramana, istotne jest to, że przesunięcie nie zależy od częstotliwości wiązki padającej. Do pomiarów najczęściej wykorzystuje się widmo stokesowskie (widmo antystokesowskie jest symetryczne ale ma dużo mniejszą intensywność). Na rysunku 2 pokazane są widma Ramanowskie dwóch chlorosilanów metylowych naniesione na te same osie. Należy zauważyć, że każdy z nich ma charakterystyczny zestaw pików, który pozwala na ich odróżnienie.
Zalety spektroskopii Ramana Spektroskopia Ramana jest stosowana do analizy chemicznej z kilku powodów: wykazuje wysoką selektywność, umożliwia pomiar roztworów wodnych, próbka nie wymaga specjalnego przygotowania a sam pomiar trwa krótko. Selektywność: Ponieważ spektroskopia Ramana wykrywa podstawowe oscylacje, to linie widma mają dobry stosunek sygnału do szumu i nie nachodzą na siebie. Metoda ma szeroki zakres stosowania od wykrywania obecności substancji do śledzenia przebiegu reakcji chemicznych. Analiza roztworów wodnych: Widmo spektroskopowe wody w podczerwieni (IR) jest silne i złożone, uniemożliwia to analizę roztworów wodnych. Natomiast widmo Ramana wody jest słabe i nie zakłóca pomiaru, możliwa jest analiza spektroskopowa roztworów wodnych. Próbka nie wymaga przygotowania: W przeciwieństwie do większości innych technik analizy chemicznej, spektrografia Ramana nie wymaga specjalnego przygotowania próbki. Pomiar jest bezkontaktowy i nieniszczący, próbka zostaje oświetlona laserem a rejestrowane są fotony rozproszone.
Rys. 1. Przejścia pomiędzy poziomami energetycznymi, rozpraszanie Rayleigha, Ramana-Stokesa i Ramana Antystokesa
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
17
Rys. 2. Widmo dwóch chlorosilanów metylowych ilustrujące w jaki sposób można odróżnić dwa związki chemiczne za pomocą spektroskopii Ramana. Charakterystyczne pasma Ramana każdego związku są oznaczone gwiazdką (*)
Krótki czas pomiaru: Widmo Ramana można uzyskać w czasie kilku sekund, metodę można wykorzystać do monitorowania reakcji chemicznych w „czasie rzeczywistym”.
Budowa spektrometru Ramana Typowy spektrometr Ramana składa się z trzech podstawowych części: lasera, sondy i spektrografu. Laser: Laser służy do wzbudzenia widma ramanowskiego, jest źródłem spójnej wiązki światła monochromatycznego. Wiązka musi być wystarczająca do wytworzenia użytecznej ilości fotonów rozproszonych Ramana i wolna od emisji zakłócających. Lasery wykorzystywane do spektroskopii Ramana muszą mieć dobrą stabilność długości fali i niską emisję tła.
Rys. 3. Budowa spektrometru RamanRxn1TM produkcji Kaiser Optical Systems, Inc.
Sonda: Sonda zbiera rozproszone fotony, odfiltrowuje rozproszenia Rayleigha i każdy sygnał tła z kabli światłowodowych a następnie wysyła rozpraszania Ramana do spektrografu. Wiele sond może również skupić i dostarczyć wiązkę lasera. Spektrograf: Fotony Ramana trafiające do spektrografu, są filtrowane w monochromatorze w zależności od długości fali. Detektor rejestruje intensywność sygnału przy każdej długości fali. Uzyskane dane są wykreślone jako widmo Ramana.
Literatura 1. Analytical Applications of Raman Spectroscopy; Pelletier, M.J., Ed.; Blackwell: Oxford, 1999. 2. Handbook of Raman Spectroscopy: From the Research Laboratory to the Process Line; Lewis, I.R., Edwards, H.G.M., Eds.; Marcel Dekker: New York, 2001.
reklama
Tandemowy spektrometr mas Q Exactive™ z technologią Orbitrap™ zapewnia niezrównaną pewność analiz jakościowych i ilościowych Wysoka rozdzielczość (nawet do 420 000 FWHM dla modelu Orbitrap Fusion), połączona z dokładnością pomiaru masy < 1 ppm oraz możliwością fragmentacji MS/MS sprawia, że tandemowy spektrometr mas Q-Exactive jest doskonałym narzędziem do: badań metabolomicznych, m.in. screening i profilowanie metabolitów leków wykrywania substancji o stężeniach rzędu attomoli badań proteomicznych, m.in. ustalanie sekwencji białek, oznaczania ilościowe peptydów
Spektrometr mas TSQ Quantum Access MAX™ Potrójny kwadrupol dostępny dla każdego laboratorium
ANCHEM Aparatura analityczna. Wyposażenie laboratoriów.
KONTAKT
info@anchem.pl Tel. +48 22 646 26 60 DOWIEDZ SIĘ WIĘCEJ
www.anchem.pl
Atrakcyjny cenowo spektrometr mas. Dzięki zaawansowanym rozwiązaniom konstrukcji i oprogramowania umożliwia prowadzenie oznaczeń ilościowych z jednoczesnym potwierdzeniem struktury analitu oraz tworzenie bibliotek dla całej rodziny spektrometrów TSQ. TSQ Quantum Access MAX™ doskonale sprawdza się w celowanej analizie ilościowej w badaniach: nad nowymi lekami farmakokinetycznych klinicznych
18 |
Metody oznaczania witamin i minerałów w suplementach diety W ostatnich latach można zaobserwować wzrastające zainteresowanie społeczeństwa zdrowym stylem życia. Dbamy nie tylko o utrzymanie odpowiedniej aktywności fizycznej, ale również pogłębiamy naszą wiedzę nt. właściwości odżywczych składników żywności w naszej codziennej diecie. Dostarczamy naszemu organizmowi coraz częściej produkty zawierające m.in. wielonienasycone kwasy tłuszczowe, witaminy, minerały czy inne substancje ważne dla prawidłowego funkcjonowania organizmu, unikamy natomiast żywności wysoko przetworzonej, która w trakcie obróbki została pozbawiona wartościowych składników odżywczych. Rosnąca świadomość w zakresie właściwego odżywiania powoduje, że chętnie sięgamy też po suplementy diety, zdefiniowane w Ustawie o bezpieczeństwie żywności i żywienia z dnia 25 sierpnia 2006 r. jako środki spożywcze, będące skoncentrowanym źródłem witamin lub składników mineralnych lub innych substancji wykazujących efekt odżywczy lub fizjologiczny, których celem jest uzupełnienie normalnej diety. Hanna Wachowska Dyrektor ds. wdrożeń i rozwoju
W
dokumencie roboczym Komisji UE dotyczącym cech charakterystycznych i perspektyw rozwoju rynku suplementów żywnościowych, opublikowanym w 2008 roku, podano, że połowę rynku suplementów diety w Unii Europejskiej stanowią preparaty zawierające witaminy i składniki mineralne. Pozostałe najbardziej rozpowszechnione substancje wcho-
dzące w skład suplementów diety to aminokwasy, enzymy, prebiotyki i probiotyki, niezbędne nienasycone kwasy tłuszczowe, składniki roślinne oraz inne substancje (np. likopen, tauryna, koenzym Q10). Szczegółowe przepisy dotyczące witamin i składników mineralnych w suplementach diety w Polsce określa Rozporządzenie Ministra Zdrowia z dnia 9 października 2007 r.
Witaminy
Składniki mineralne
Witamina A
800 µg
Potas
2000 mg
Witamina D
5 µg
Chlorek
800 mg
Witamina E
12 mg
Wapń
800 mg
Witamina K
75 µg
Fosfor
700 mg
Witamina C
80 mg
Magnez
375 mg
Tiamina
1,1 mg
Żelazo
14 mg
Ryboflawina
1,4 mg
Cynk
10 mg
Niacyna
16 mg
Miedź
1 mg
Witamina B6
1,4 mg
Mangan
2 mg
Kwas foliowy
200 µg
Fluorek
3,5 mg
Witamina B12
2,5 µg
Selen
55 µg
Biotyna
50 µg
Chrom
40 µg
Kwas pantotenowy
6 mg
Molibden
50 µg
Jod
150 µg
Tab. 1. Wartości odniesienia do znakowania suplementów diety
2/2014
w sprawie składu oraz oznakowania suplementów diety (z późniejszymi zmianami), które wprowadza postanowienia Dyrektywy 2002/46/WE Parlamentu Europejskiego i Rady z dnia 10 czerwca 2002 r. w sprawie zbliżenia ustawodawstwa Państw Członkowskich odnoszących się do suplementów żywnościowych (z późniejszymi zmianami). Określono m.in. wykaz witamin i składników mineralnych oraz ich formy chemiczne, które mogą być stosowane w produkcji suplementów diety oraz wartości odniesienia do znakowania suplementów diety, które przedstawiono w tabeli 1. W niektórych przypadkach, nadmierne spożycie witamin i minerałów może być szkodliwe i wywoływać niepożądane efekty uboczne. Dlatego ustanowienie najwyższych dopuszczalnych poziomów jest niezbędne do zapewnienia ich bezpiecznego stosowania w suplementach żywnościowych. Przepisy dotyczące ustalania maksymalnych ilości witamin i składników mineralnych zawarte są w Dyrektywie 2002/46/ WE, jednakże nadal trwają prace nad ich wyznaczeniem w suplementach diety. W opublikowanym przez Dyrekcję Generalną ds. Zdrowia i Ochrony Konsumentów Dokumencie do dyskusji w sprawie ustanowienia maksymalnych i minimalnych ilości witamin i minerałów w środkach spożywczych
e-wydanie do pobrania na:
www.farmacom.com.pl
19 wezwano wszystkie zainteresowane strony do przedstawienia swojej opinii w zakresie zagadnień związanych z ustaleniem maksymalnych ilości witamin i składników mineralnych, np. jak uwzględnić zróżnicowanie diety w różnych krajach członkowskich. Producent suplementu diety określając maksymalny poziom witamin i składników mineralnych w dziennej zalecanej dawce powinien wziąć pod uwagę górne bezpieczne poziomy witamin i składników mineralnych ustalone na podstawie naukowej oceny ryzyka, spożycie witamin i składników mineralnych wynikające z innych źródeł diety, a także zalecane spożycie witamin i składników mineralnych dla populacji. Rzeczywista ilość składników odżywczych, w tym witamin i minerałów w suplementach diety, zgodnie z wytycznymi Komisji UE, może być odmienna od wartości podanej na etykiecie, co może być spowodowane zróżnicowaniem pod względem surowców, warunkami przetwarzania i przechowywania, stabilnością składnika odżywczego, a także dokładnością analizy, bądź też uwzględnieniem do obliczenia zawartości tylko dostępnych danych literaturowych zamiast przeprowadzenia analizy. Różnica jednak nie może znacząco odbiegać od zadeklarowanej, ponieważ mogłaby być przyczyną wprowadzenia konsumenta w błąd. Dlatego Komisja UE ustanowiła limity tolerancji dla witamin i minerałów, które przedstawione są w tabeli 2. W przypadku, gdy górna wartość zakresu tolerancji dla wartości podanej na opakowaniu przekroczy maksymalną ilość witamin lub składników mineralnych, zharmonizowaną na szczeblu UE zgodnie z przepisami dyrektywy 2002/46/WE w sprawie suplementów żywnościowych, wówczas górny limit tolerancji dla wartości podanej
witamina A, kwas foliowy, chlorek, wapń, fosfor, magnez, jod, potas
3 cyfry znaczące
wszystkie inne witaminy i składniki mineralne
2 cyfry znaczące
Tab. 3. Zasady zaokrąglania w odniesieniu do witamin i składników mineralnych
jest równy przyjętej maksymalnej ilości. Na określenie limitów tolerancji oraz ocenę zgodności wyniku analizy wpływa również sposób ich przedstawiania. Opracowano zatem wytyczne dotyczące zasad zaokrąglania, przedstawione w tabeli 3. Oznaczanie zawartości witamin i składników mineralnych w suplementach diety jest niezbędne do wyznaczenia wartości de-
Limity tolerancji zawiera niepewność pomiaru 1) dolny
górny
Witaminy
-20%
+50%2)
Składniki mineralne
-20%
+45%
limity tolerancji uwzględniają niepewność pomiaru. Podczas podejmowania decyzji o zgodności wartości mierzonej z wartością podaną nie należy brać pod uwagę dodatkowej niepewności pomiaru.
1)
2)
w przypadku witaminy C w płynach można zaakceptować wyższy górny limit tolerancji.
Tab. 2. Limity tolerancji dla suplementów żywnościowych obejmujące niepewność pomiaru.
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
klarowanej na opakowaniu oraz do kontroli poziomu w trakcie przechowywania produktu. Z uwagi na dużą różnorodność stosowanych do produkcji suplementów form chemicznych witamin i minerałów oraz biorąc pod uwagę obecność naturalnie występujących tych związków w składnikach suplementów diety (np. ekstrakty roślinne, oleje rybne) konieczne jest zastosowanie różnych metod przygotowania próbek i różnych technik analitycznych do oznaczeń końcowych. W przypadku witamin dobór metody wiąże się z uwzględnieniem wielu aspektów: • Wiele witamin jest niestabilna tj. ulega rozpadowi np. pod wpływem światła, temperatury, pH, obecności metali. • Większość witamin występuje naturalnie w postaci kilku różnych związków chemicznych. Najczęściej niemożliwe jest jednoczesne oznaczenie wszystkich związków w ich pierwotnej postaci. • Witaminy tworzą często połączenia z innymi składnikami żywności np. białkami, cukrami lub z resztami fosforanowymi.
20 |
• Różne formy witamin mają zwykle różną aktywność biologiczną. Ideałem byłoby, gdyby oznaczana zawartość witaminy rzeczywiście odzwierciedlała efekt biologiczny badanych związków na człowieka. Do oznaczania zawartości witamin najczęściej stosuje się metody chromatograficzne (wysokosprawna chromatografia cieczowa z detekcją fluorescencyjną HPLC-FLD i spektrofotometryczną HPLC-UV, a także chromatografia cieczowa sprzężona z tandemową spektrometrią mas LC-MS/ MS). Koniecznie trzeba mieć świadomość, czy oznacza się wszystkie znane formy danej witaminy, czy tylko główną lub nie-
Witamina
które jej formy. Często wykorzystywane są również metody mikrobiologiczne, dzięki którym mierzony jest efekt biologiczny, czyli działanie wszystkich aktywnych form witaminy znajdujących się w próbce, nie wiadomo jednak, czy taki sam efekt jest wywierany na komórki w organizmie człowieka. Rzadziej stosowane są metody miareczkowe, testy enzymatyczne czy metody wykorzystujące biosensory. Z uwagi na powyższe dobór odpowiedniej metody jest zadaniem wymagającym dużej wiedzy i doświadczenia personelu, a także zastosowania wysoko wyspecjalizowanego wyposażenia pomiarowo-badawczego. Potwierdzeniem przydatności danej metody analitycznej są badania certyfikowanych materiałów odniesienia oraz udział w badaniach biegłości. Ogólne informacje na temat najczęściej stosowanych metod oznaczania witamin wraz z granicami oznaczalności podano w poniższej tabeli. W przypadku oznaczania zawartości składników mineralnych zagadnienia związane z doborem odpowiedniej metody są już mniej skomplikowane. Do oznaczenia zawartości większości pierwiastków stosuje się technikę emisyjnej spektrometrii atomo-
Forma witaminy (wyrażenie wyniku)
wej ze wzbudzeniem w plazmie indukcyjnie sprzężonej (ICP-OES) lub spektrometrii mas z jonizacją w plazmie indukcyjnie sprzężonej (ICP-MS) po uprzedniej mineralizacji próbki. W przypadku chlorków stosuje się najczęściej metodę miareczkową, a w przypadku fluorków potencjometryczną. Niezwykle ważnym elementem w realizacji oznaczania witamin i składników mineralnych jest ścisła współpraca między laboratorium a klientem. Jest to szczególnie istotne w przypadku oznaczania witamin w suplementach diety. Informacja o formie chemicznej i orientacyjnym poziomie dodanej witaminy pozwoli na wybór właściwego sposobu przygotowania próbki (odważka próbki, rozcieńczenie roztworu) i tym samym wyeliminuje konieczność powtórzenia analizy. Występowanie w suplemencie diety kilku form chemicznych tej samej witaminy wskazuje niekiedy na konieczność zastosowania dwóch metod oznaczania np. obecność witaminy A w postaci retinolu i β-karotenu. Z uwagi na różnorodność form w jakich są wprowadzane do obrotu suplementy diety (np. kapsułki, tabletki, saszetki) należy także przedstawić
Granica oznaczalności 1)
Zasada metody oznaczania
A
retinol
zmydlanie, ekstrakcja ciecz-ciecz, HPLC-FLD
10
µg/100 g
β-karoten
β-karoten
zmydlanie i/lub ekstrakcja ciecz-ciecz, HPLC-UV
10
µg/100 g
D2
ergokalcyferol
zmydlanie, ekstrakcja ciecz-ciecz, oczyszczanie GPC, HPLC-UV
0,25
µg/100 g
D3
cholekalcyferol
zmydlanie, ekstrakcja ciecz-ciecz, oczyszczanie GPC, HPLC-UV
0,25
µg/100 g
E
α–tokoferol
zmydlanie, ekstrakcja ciecz-ciecz, HPLC-FLD
0,1
mg/100 g
E (suma tokoferoli)
przeliczone na aktywność α-tokoferolu
zmydlanie, ekstrakcja ciecz-ciecz, HPLC-FLD
0,1
mg/100 g
K1
fitomenadion
zmydlanie, ekstrakcja ciecz-ciecz, HPLC-FLD z redukcją po kolumnie
0,8
µg/100 g
B1
tiamina
hydroliza kwasowa i enzymatyczna, HPLC-FLD z tworzeniem pochodnej po kolumnie
0,01
mg/100 g
B2
ryboflawina
hydroliza kwasowa i enzymatyczna, HPLC-FLD
0,01
mg/100 g
B3
niacyna
hydroliza kwasowa, HPLC-FLD z tworzeniem pochodnej po kolumnie
0,1
mg/100 g
B3
niacyna
mikrobiologiczna
0,4
mg/100 g
B5
kwas pantotenowy
mikrobiologiczna
0,5
mg/100 g
B6
pirydoksyna
hydroliza kwasowa i enzymatyczna, HPLC-FLD
0,05
mg/100 g
B7
biotyna
mikrobiologiczna
1,0
µg/100 g
B9
kwas foliowy
mikrobiologiczna
5,0
µg/100 g
B12
kobolamina
mikrobiologiczna
0,01
µg/100 g
C
kwas askorbinowy
miareczkowa
10
mg/100 g
C
kwas askorbinowy
ekstrakcja kwaśnym roztworem (i redukcja), HPLC-UV
1,0
mg/100 g
1)
Granica oznaczalności często zależna jest od matrycy
Tab. 4. Ogólne informacje na temat oferowanych w J.S. Hamilton Poland metod oznaczania witamin wraz z granicami oznaczalności.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
22 |
Składnik mineralny
Zasada metody oznaczania
Granica oznaczalności
Potas
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
0,5
mg/100 g
Wapń
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
0,5
mg/100 g
Fosfor
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
0,6
mg/100 g
Magnez
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
0,5
mg/100 g
Żelazo
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
0,025
mg/100 g
Cynk
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
0,025
mg/100 g
Miedź
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
0,0025
mg/100 g
Mangan
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
0,0025
mg/100 g
Selen
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
2,5
µg/100 g
Chrom
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
2,5
µg/100 g
Molibden
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
25
µg/100 g
Chlorek
miareczkowa
100
mg/100 g
Jod
mineralizacja mikrofalowa, ICP-OES lub ICP-MS
0,01
mg/100 g
Fluorki
potencjometryczna
0,1
mg/100 g
Tab. 5. Ogólne informacje na temat oferowanych w J.S. Hamilton Poland metod oznaczania składników mineralnych wraz z granicami oznaczalności
w zleceniu czy badania mają być przeprowadzone w wypełnieniu czy w całości np. kapsułki. Z naszej wieloletniej praktyki wynika też potrzeba ustalenia z klientem sposobu przedstawienia wyniku (przeliczenie witaminy na określoną formę chemiczną, jednostka np. mg/kapsułkę, wówczas konieczna wiedza nt. masy kapsułki/wypełnienia). Pomocne w tym wypadku jest dołączenie do zlecenia specyfikacji produktu. J.S. Hamilton Poland oferuje kompleksowa usługę w zakresie oznaczania
zawartości witamin i składników mineralnych metodami akredytowanymi. Dotyczy to zarówno analiz chemicznych jak i mikrobiologicznych. Warto dodać, że w tym obszarze laboratorium J.S. Hamilton Poland posiada akredytację w zakresie elastycznym. Oznacza to, że laboratorium może modyfikować metodę badań, zmieniać zakres pomiarowy metody oraz dodać nową badaną cechę (witaminę lub składnik mineralny) w ramach obiektu i metody.
Suplementy są i będą grupą preparatów, których rynek będzie się stale rozwijał. Dlatego też należy położyć duży nacisk na ich bezpieczeństwo również w odniesieniu do poziomów witamin i składników mineralnych. Już dziś obserwuje się, że wielu producentów suplementów diety zainteresowanych jest przeprowadzaniem coraz większej ilości analiz w tym zakresie. Natomiast odpowiednia wiedza w zakresie wytwarzania suplementów, często pozyskiwana od samych producentów, a z drugiej strony rozwój w zakresie analityki umożliwia laboratoriom wdrażanie metod oznaczania zawartości witamin i składników mineralnych, najlepiej dostosowanych do tego rodzaju środków spożywczych.
Literatura 1. Ustawa o bezpieczeństwie żywności i żywienia z dnia 25 sierpnia 2006 r. Dz. U. 2006 r. Nr 171, poz. 1225 z późn. zm. 2. Commission staff working document „Characteristics and perspectives of the market for food supplements containing substances other than vitamins and minerals”, Bruksela, 2008, SEC (2008) 2976. 3. Rozporządzenie Ministra Zdrowia z dnia 9 października 2007 r. w sprawie składu oraz oznakowania suplementów diety (Dz. U. 2007, Nr 196, poz. 1425 z późniejszymi zmianami) 4. Discussion Paper on the setting of maximum and minimum amounts for vitamins and minerals in foodstuffs, Health and Consumer Protection Directorate-General, 2006 5. Wytyczne dla właściwych organów w sprawie kontroli zgodności z prawodawstwem UE, grudzień 2012.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
KONTROLA ZANIECZYSZCZEŃ
Nasz system produkcji jest wyjątkowy
W cleanroomie nie ma miejsca na wątpliwości. Nasze zapewnienie zgodności procesów (Process Match) pomaga je wyeliminować. Stosując produkty Ecolab możesz mieć pewność wyboru w pełni zwalidowanej palety produktów, które – dla stosowania w cleanroomach - powstają w cleanroomach. W naszym świadomie zbudowanym zgodnie z najwyższymi standardami zakładzie powstają według wymagań cGMP sterylne produkty w warunkach, które są identyczne z tymi u klientów. W CELU UZYSKANIA DODATKOWYCH INFORMACJI LUB WOLI WIZYTY W ZAKŁADZIE PROSIMY O KONTAKT Z NASZYM EKSPERTEM CONTAMINATION CONTROL LUB KONTAKT TELEFONICZNY Z INFOLINIĄ OBSŁUGI KLIENTA ECOLAB HEALTHCARE EUROPE ECOLAB HEALTHCARE HEALTHCARE EUROPE ECOLAB EUROPE Richtistrasse 7 Richtistrasse 7 8304 Wallisellen Richtistrasse 7 8304 Wallisellen Wallisellen Switzerland 8304 Switzerland +41 44 877 2000 Switzerland +41 44 44 877 877 2000 2000 +41 www.ecolab.eu www.ecolab.eu www.ecolab.eu © Ecolab 2014 6390.2/04.14
ECOLAB CONTAMINATION CONTROL ECOLAB CONTAMINATION CONTROL CONTROL ECOLAB CONTAMINATION Brunel Way Brunel Way Baglan Energy Park Brunel Way BaglanSA11 Energy Park Neath 2GAPark UK Baglan Energy Neath SA11 SA11 2GA UK 02920 854 2GA 390 UK (UK) Neath 02920 854854 390395 (UK) +44 2920 (Export) 02920 854 390 (UK) +44 2920 2920 854 854 395 395 (Export) (Export) +44 www.ecolabcc.com www.ecolabcc.com www.ecolabcc.com
Cała nasza bezkonkurencyjna paleta alkoholi i biocydów w spray`u wyróżnia się obecnością SteriShield Delivery System (SDS), jedynym zwalidowanym na rynku systemem utrzymania sterylności. W połączeniu z szeroką ofertą wysokiej jakości chusteczek – suchych i nasączanych – oraz urządzeń i dodatkowego serwisu – jesteśmy pewni, że spełniamy wszystkie oczekiwania klientów.
KONTROLA ZANIECZYSZCZEŃ
BEZ KOMPROMISÓW
24 |
Łatwy sposób zmniejszenia kosztów produkcji leków METTLER TOLERDO
Firmy farmaceutyczne zwracają coraz baczniejszą uwagę na koszty w związku z nasilającą się konkurencją oraz bardziej surowymi wymaganiami pojawiającymi się w regulacjach prawnych oraz wymaganiami stawianymi przez jednostki nadzorujące. Zmniejszanie kosztów przy jednoczesnym utrzymaniu wysokiej jakości wytwarzanych wyrobów stanowi poważne wyzwanie. Najnowsze zdobycze technologii analizy procesowej otwierają nowe możliwości, jeśli chodzi o zmniejszanie kosztów produkcji bez narażania na szwank jakości produktów.
Z
miany pojawiające się w przepisach prawnych, nasilająca się konkurencja oraz upływające terminy ważności patentów sprawiają, że margines zysku w przemyśle farmaceutycznym ulega istotnemu ograniczeniu. Oprócz tego, coraz powszechniejsza ochrona zdrowotna w krajach rozwijających się również dotyka firmy farmaceutyczne, ponieważ rządy tych państw dążą do ograniczania rosnących kosztów. Nie jest zatem zaskoczeniem, że firmy farmaceutyczne przyglądają się kosztom w całym łańcuchu wartości.
Istotnym wyzwaniem dla producentów leków jest znalezienie takich rozwiązań, które pozwoliłyby zmniejszyć koszty produkcji bez pogorszenia jakości i skuteczności gotowych produktów. W przewodniku omówiono technologię pomiarów analitycznych on-line pozwalającą zmniejszyć koszty konserwacji i umożliwiającą osiągnięcie zgodności z wymaganiami przepisów prawnych i jednocześnie ograniczenie ilości produktów niespełniających wymagań, które zazwyczaj są poddawane ponownemu przetwarzaniu, co pociąga za sobą dodatkowe koszty.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
25 Zastosowanie podejścia uwzględniającego ryzyko
dzone w przetworniku, do którego czujnik jest podłączony. Kalibracja jest długotrwałym procesem, w którym wymagane jest zastosowanie odpowiednich materiałów (np. buforów pH), które należy dostarczyć do punktu pomiarowego, z czym wiąże się ryzyko zanieczyszczenia. Kolejną kwestią w przypadku systemów analogowych jest brak możliwości stwierdzenia, czy czujnik będzie działał prawidłowo przez następną godzinę, dzień lub tydzień bez konieczności wykonania czynności konserwacyjnych. Niektóre firmy farmaceutyczne wymieniają czujniki pH po każdorazowym ich użyciu. Spełnienie wymagań zawartych w farmakopei oraz wymagań znajdujących się w instrukcjach SOP wymaga sporządzania wielu zapisów na nośniku papierowym. Każdy przypadek sterylizacji, kalibracji lub konserwacji czujnika powinien być dokumentowany, co zajmuje wiele czasu i jest podatne na występowanie błędów ludzkich. Niektóre cyfrowe systemy pomiarowe eliminują wszystkie te problemy.
W przemyśle farmaceutycznym obowiązują wymagania zawarte w farmakopeach. Przepisy prawne raczej utrudniają próby wprowadzania zmian w procesach po zakończeniu etapu opracowania leku i uzyskaniu pozwolenia na wprowadzenie do obrotu nowego produktu. Uznając, że takie podejście nie jest dobre dla zapewnienia zdrowia społeczeństwa, Agencja ds. Żywności i Leków (Food and Drugs Administration, FDA) oraz inne jednostki nadzorujące opracowały lub są na etapie opracowania inicjatyw odchodzących od paradygmatu jedynie “ślepego zapewnienia zgodności”. Celem tych inicjatyw jest zastosowanie w procesach opracowania leków i procesach produkcji podejścia opartego na ryzyku. Koncepcja Jakości przez Projektowanie (Quality by Design, QbD), na przykład, oraz technologie analizy procesowej (Process Analytical Technology, PAT) pozwalają zwiększyć wydajność produkcji bez negatywnego wpływu na jakość produktu. Rozwiązania te dają możliwość zgromadzenia bardziej wszechstronnej wiedzy o procesach, przynosząc korzyści zarówno firmom farmaceutycznym jak i jednostkom nadzorującym.
Dlaczego technologia cyfrowa jest lepsza Cyfrowe systemy analizy procesowej takie jak systemy z technologią inteligentnego zarządzania czujnikiem (ISM®) METTLER TOLEDO łączą w sobie zalety analizy on-line z korzyściami, które niesie ze sobą technologia cyfrowa. Po pierwsze, czujniki ISM posiadają wbudowany mikroprocesor. Mikroprocesor przekształca sygnał analogowy pochodzący z elementu detekcyjnego czujnika w rzeczywisty wynik pomiaru parametru i przesyła go w postaci sygnału cyfrowego do przetwornika i systemu sterującego procesem. Sygnał cyfrowy jest odporny na zakłócenia, których źródłem są pola elektromagnetyczne i wilgoć. Sygnał ten zachowuje stabilność nawet w przypadku przesyłania go kablem na duże odległości. Mikroprocesor gromadzi również dane dotyczące kalibracji. Oznacza to, że czujniki ISM można kalibrować z dala od procesu w dowolnej, wygodnej lokalizacji, korzystając z oprogramowania iSense™ (patrz niżej), i przechowywać je w magazynie do momentu, aż będą potrzebne. Po podłączeniu czujnika do przetwornika ISM, dane dotyczące kalibracji przechowywane w czujniku są natychmiast przesyłane automatycznie do przetwornika. Przetwornik samoczynnie przeprowadza własną konfigurację bez jakiegokolwiek udziału technika. Funkcje „Plug & Measure” (Podłącz i Mierz) w połączeniu z wstępna kalibracją czujnika sprawiają, że technik spędza znacznie mniej czasu w punkcie pomiarowym. Znika również całkowicie ryzyko popełnienia błędu przez człowieka.
Niższe koszty produkcji Przewaga systemów analizy procesowej działających w trybie on-line nad rozwiązaniami bazującymi na ręcznym pobieraniu próbek i badaniu ich w laboratorium jest bezsporna. Firmy farmaceutyczne generalnie odnoszą korzyści wynikające z dostępu do danych generowanych w czasie rzeczywistym oraz mniejszego zatrudnienia będącego konsekwencją zastosowania systemów analizy procesowej działających w trybie on-line. Ale co jeszcze można zrobić? W jaki sposób można jeszcze bardziej zmniejszyć koszty, stosując systemy analizy procesowej? Odpowiedzią jest technologia cyfrowa. Zastąpienie tradycyjnych instrumentów analogowych ich cyfrowymi odpowiednikami otwiera wiele nowych możliwości pozwalających ograniczyć zakres czynności konserwacyjnych dla danego punktu pomiarowego i zmniejszyć zakres szkoleń dla techników. Przejście na technologię cyfrową ułatwia osiągnięcie zgodności z wymaganiami przepisów prawnych. Wszystko to prowadzi do zmniejszenia kosztów operacyjnych. Technologia cyfrowa zapewnia znacznie wyższą niezawodność procesową punktu pomiarowego, pozwala zmniejszyć ilość przypadków, gdzie produkty nie spełniają wymagań, ograniczyć poziom błędów, których źródłem jest człowiek, oraz podnieść wydajność produkcji.
Wygodna kalibracja i dokumentacja
Analogowe systemy analityczne
Oprogramowanie iSense przeznaczone dla czujników ISM może być instalowane na standardowych komputerach osobistych lub laptopach. Po podłączeniu czujnika ISM do komputera przy pomocy kabla USB oprogramowanie iSense może być wykorzystane do jego dokładnej i bezpiecznej kalibracji. Oprócz tego, oprogramowanie iSense dokumentuje historię kalibracji i konserwacji poszczególnych czujników, gromadząc automatycznie odpowiednie zapisy w bazie danych. Z czujnika odczytywane są również dodatkowe informacje takie maksymalna temperatura, na działanie której był wystawiony czujnik, czas eksploatacji czujnika, liczba cykli SIP/CIP dla czujnika, itp. Dane te gromadzone są w oprogramowaniu iSense. Wszystkie dane można dokumentować elektronicznie lub drukować w formie dokumentu PDF. Historię czujnika można przetwarzać stosownie do wymagań odpowiednich przepisów prawnych. Uproszczeniu ulegają również instrukcje SOP związane z czujnikami.
Czujniki analogowe przeznaczone do pomiarów pH, tlenu rozpuszczonego, ogólnego węgla organicznego (TOC), itp., przesyłają sygnał, którego jakość ulega pogorszeniu, jest w pobliżu występują pola elektromagnetyczne i w powietrzu obecna jest wilgoć. Sygnał analogowy ulega osłabieniu, jeśli jest przesyłany kablem na duże odległości. Pojawia się zatem wątpliwość, czy dokładność wyniku pomiaru przesłanego do systemu sterowania procesem jest odpowiednia. Podejmowanie decyzji w oparciu o nieprawidłowe dane może prowadzić do wydłużenia czasu trwania procesów, powodować konieczność ponownego przetwarzania produktów niespełniających wymagań lub nawet konieczność utylizacji takich wyrobów. W przypadku analogowych systemów pomiarowych kalibrację należy przeprowadzać w miejscu zainstalowania czujnika, ponieważ dane dotyczące kalibracji czujnika są groma-
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
26 |
Diagnostyka predykcyjna
Po pierwsze, że względu na naturę tej techniki, czujniki optyczne wykazują wysoką stabilność nawet w długotrwałych procesach fermentacji, zapewniając bardziej precyzyjne wyniki pomiarów. Po drugie, czujniki te mają niewielkie wymagania w zakresie konserwacji. Czujniki polarograficzne wymagają okresowej wymiany membrany, wewnętrznego korpusu i ciekłego elektrolitu. W przypadku optycznych czujników tlenu rozpuszczonego METTLER TOLEDO okresowej wymiany wymaga jedynie element detekcyjny OptoCap.
Istotnym problemem w procesach fermentacji jest brak pewności, czy czujnik będzie działał niezawodnie przez cały, kolejny cykl procesu. Awaria czujnika w trakcie trwającego procesu fermentacji może wymagać ręcznego pobierania próbek i badania ich w laboratorium, co zajmuje wiele czasu i jest pracochłonne. Technologia ISM pozwala zapobiegać tym wszystkim problemom dzięki diagnostyce predykcyjnej. Czujniki ISM monitorują w trybie ciągłym swój własny status operacyjny i przy pomocy dedykowanych algorytmów przewidują moment, w którym konieczna będzie ich kalibracja lub inne czynności konserwacyjne, a nawet wymiana. Przed uruchomieniem procesu czujnik można sprawdzić przy pomocy oprogramowania iSense i przeprowadzić wymagane czynności konserwacyjne. Rozwiązanie to daje pewność, że czujnik będzie działał niezawodnie przez cały cykl procesu. W poniższej tabeli dokonano porównania analogowych czujników pH z ich cyfrowymi odpowiednikami. Obydwa rodzaje czujników zawierają szklaną membranę czułą na pH, ciekłe złącze oraz elektrolit referencyjny. Różnice w sprawności i niezawodności wynikają z zastosowania technologii ISM w czujniku cyfrowym.
Technologia ISM oszczędza czas Przejście z technologii analogowej na technologię cyfrową może stwarzać firmom farmaceutycznym pewne problemy, ponieważ cały proces musi zostać zwalidowany. Wymagane jest zatwierdzenie nowych instrukcji SOP.
Wnioski Cyfrowe systemy analizy procesowej są coraz powszechniej wdrażane przez firmy farmaceutyczne na całym świecie, ponieważ są one bardziej niezawodne od systemów analogowych. Technologia inteligentnego zarządzania czujnikiem ułatwia zarządzanie czujnikiem, poprawia niezawodność czujnika, pozwala znacznie łatwiej osiągnąć zgodność z wymaganiami przepisów prawnych i, co wykazano, pozwala znacząco zmniejszyć koszty – bez narażania na szwank jakości produktów. Aby dowiedzieć się więcej o oszczędnościach finansowych wynikających z wdrożenia technologii ISM, odwiedź stronę: www.mt.com/ISM-pharma-calc
Technologia pomiaru optycznego Technologia cyfrowa nie jest jedynym osiągnięciem w analityce procesowej odnotowanym w ostatnich czasach. W przypadku oznaczania tlenu rozpuszczonego technologia optyczna oferuje wiele korzyści w porównaniu z tradycyjnymi czujnikami polarograficznymi.
Analogowy system pH
Cyfrowy system pH
Czujnik
Potencjometryczny Szklana membrana czuła na pH Elektrolit referencyjny z ciekłym złączem Wbudowany czujnik temperatury
Potencjometryczny Szklana membrana czuła na pH Elektrolit referencyjny z ciekłym złączem Wbudowany czujnik temperatury Przetwornik analogowo-cyfrowy w głowicy czujnika Pamięć na dane dotyczące kalibracji Automatyczne zliczanie cykli SIP/CIP
Sygnał wyjściowy z czujnika
mV Wysoka impedancja Zmienny opór w zależności od temperatury
Protokół cyfrowy, jednoprzewodowy
Kabel
Wieloprzewodowy Ograniczona długość
Jeden przewód Maksymalnie do 80 metrów Wejście cyfrowe Automatyczne rozpoznawanie czujnika
Przetwornik
Wejście mV o wysokiej impedancji Dane dotyczące kalibracji gromadzone w przetworniku Wyjście analogowe Protokół HART Prosta diagnostyka czujnika
Kalibracja
Sterylizacja
Czujnik musi być podłączony do przetwornika Roztwory buforowe pH dla nachylenia i punktu zera Zazwyczaj po kalibracji, mocowany w reaktorze
2/2014
Wyjście analogowe Protokół HART Zaawansowana diagnostyka w czasie rzeczywistym Czujnik podłączony do oprogramowania kalibrującego lub do przetwornika Roztwory buforowe pH dla nachylenia i punktu zera Zazwyczaj po kalibracji, mocowany w reaktorze
e-wydanie do pobrania na:
www.farmacom.com.pl
28 |
Liposomy jako nośniki substancji aktywnych
Liposomy, kuliste pęcherzyki, składające się z jednej lub kilku podwójnych warstw fosfolipidowych, zostały po raz pierwszy opisane w połowie lat 60-tych. Dziś są jednymi z bardziej użytecznych narzędzi w wielu dyscyplinach naukowych, w tym biofizyce, chemii, biochemii i biologii. Jednakże największe znaczenie odgrywają w przemyśle kosmetycznym i farmaceutycznym ze względu na zdolność do transportowania aktywnych biologicznie substancji. Mimo, że liposomy znane są od ponad 50 lat to wciąż opracowywane są techniki produkcji preparatów liposomowych, zwłaszcza na skalę przemysłową. Wyzwaniem staje się również poprawa skuteczności działania leku, a w przypadku produktów kosmetycznych ich trwałości oraz precyzji dostarczania substancji aktywnych, do głębszych warstw skóry, ponieważ składniki niewbudowane do liposomu nie są w stanie pokonać bariery naskórkowej.
Roksana Wałęsa, Małgorzata A. Broda
Zbigniew Leżański
Wydział Chemii, Uniwersytet Opolski
Przedsiębiorstwo Produkcyjno - Handlowe KOSMED
W
ostatnim czasie, w odpowiedzi na potrzeby klientów oraz pacjentów prowadzone są intensywne badania nad rozwojem i unowocześnieniem produktów kosmetycznych i leków. Przedsiębiorstwa kosmetyczne oraz firmy farmaceutyczne coraz częściej i chętniej sięgają po rozwiązania oparte na innowacyjnych technologiach, aby stworzyć nowoczesne preparaty działające jeszcze silniej i efektywniej. Nośniki substancji aktywnych stanowiące dla nich „opakowanie” cieszą się obecnie bardzo dużą popularnością głównie dlatego, że substancja lecznicza zostaje odizolowana od środowiska zewnętrznego oraz jest chroniona przed inaktywacją. Jednymi z bardziej obiecujących i intensywnie badanych systemów transportowych wydają się być liposomy. Pierwszy artykuł dotyczący liposomów opublikowany został w 1963 r przez Aleca Banghama [1]. Natomiast na początku lat 80 doniesiono o skuteczności nośników liposomalnych w transporcie leków [2].
Klasyfikacja liposomów Liposomy są kulistymi, mikroskopijnymi cząstkami, składającymi się z uwodnionego rdzenia otoczonego jedną lub kilkoma koncentrycznymi warstwami lipidowymi. Błony liposomów składają się z naturalnych i/lub syntetycznych fosfolipidów, przede wszystkim fosfatydylocholiny (lecytyny), która jest materiałem biokompatybilnym, biode-
gradowalnym oraz nieimmunogennym [3]. Lecytyny izolowane są głównie z soi oraz żółtek kurzych jaj. Lipidy uzyskane z jajek charakteryzują się większą zawartością nasyconych kwasów tłuszczowych (kwasu palmitynowego oraz stearynowego), natomiast te pozyskane z nasion soi w 80% są mieszaniną kwasu oleinowego oraz linolowego [4]. Ze względu na unikalny, amfifilowy charakter, liposomy są wykorzystywane z powodzeniem jako nośniki substancji aktywnych zarówno o charakterze lipojak i hydrofilowym. Związki rozpuszczalne w wodzie przenikają do uwodnionego rdzenia liposomu, podczas gdy substancje lipofilowe łączą się z dwuwarstwą. Znane są róże podziały liposomów. Jeden z nich oparty jest na mechanizmie dostarczania substancji aktywnych. Klasyfikuje on liposomy na 5 typów [5]: • liposomy konwencjonalne zbudowane z naturalnych lipidów np. fosfolipidów; • liposomy pH-zależne • liposomy kationowe • immunoliposomy • długo krążących liposomy Innym sposobem klasyfikacji liposomów jest ich podział ze względu na rozmiar oraz warstwowość, co ma znaczenie w procesie wprowadzania solutu do wnętrza liposomu [6]: • Liposomy jednowarstwowe (UV – unilamellar vesicles),
2/2014
– małe liposomy jednowarstwowe (SUV – small unilamellar vesicles) – rozmiary od 0,02 do 0,05 µm, – duże liposomy jednowarstwowe (LUV – large unilamellar vesicles) posiadające wielkość od 0,1 do 1µm, – olbrzymie jednowarstwowe liposomy (GUV – giant unilamellar vesicles) - rozmiary > 1µm, – wielopęcherzykowe liposomy (MVVmultivesicular vesicles) o wielkości > 1µm • Liposomy wielowarstwowe: – wielowarstwowe pęcherzyki lipidowe (MLV – multilamellar vesicles) – posiadają rozmiary od 0,4 do 10µm, – pęcherzyki oligolamelarne (OLV – oligolamellar vesicles) – ich wielkość mieści się w granicach 0,1-1µm.
Sposoby produkcji liposomów Preparatyka liposomów odbywa się za pomocą różnych sposobów. Wybór właściwej metody zależy od wielu czynników. Jednym z nich może być zakładany cel ich przeznaczenia i skali wykorzystania (laboratoryjna, półprzemysłowa oraz przemysłowa). Ponadto istotne znaczenie mają parametry fizykochemiczne materiału przeznaczonego do „uwięzienia” w liposomie, ich rozmiar i trwałość, charakter środowiska, w którym pęcherzyki lipidowe są rozproszone, stęże-
e-wydanie do pobrania na:
www.farmacom.com.pl
29
nie zamkniętej substancji i jej potencjalna toksyczność oraz dodatkowe procesy, które pojawiają się podczas aplikacji i transportu pęcherzyków. Obecnie preparatyka liposomów opiera się na dwóch kategoriach metod: dyspersji mechanicznej oraz dyspersji z wykorzystaniem rozpuszczalnika. Do pierwszego typu zalicza się m.in. hydratację cienkiego filmu lipidowego, sonikację falami ultradźwiękowymi, zastosowanie prasy Frencha czy kalibrację (przeciskanie liposomów przez określonej wielkości pory [7,8]. Najbardziej popularne metody polegające na dyspersji za pomocą rozpuszczalnika to wstrzykiwanie roztworu etanolowego, wstrzykiwanie roztworu eterowego oraz odparowywanie techniką faz odwróconych. Pierwszą zastosowaną w skali laboratoryjnej metodą preparacji liposomów była tzw. metoda Banghama – hydratacji cienkiej warstwy lipidowej [9]. Metoda ta jest szeroko rozpowszechniona i łatwa w obsłudze, jednak uwodnienie suchego filmu fosfolipidów w większości daje populację liposomów wielowarstwowych (MLV) oraz niejednorodnych pod względem kształtu i wielkości. Proces dezintegracji liposomów MLV ultradźwiękami za pomocą sonikatorów prowadzi do uzyskania małych, równomiernych pęcherzyków jednowarstwowych [10]. Z kolei duże liposomy jednowarstwowe powstają w wyniku zastosowania metody REV (odparowywania faz odwróconych). Do roztworu fosfolipidów w rozpuszczalniku organicznym wprowadza się wodny roztwór substancji, która ma być zamknięta w liposomie. Następnie film lipidowy wytwarzany jest poprzez odparowanie rozpuszczalnika pod zmniejszonym ciśnieniem. Do pozostałości wprowadza się fazę wodną, co powoduje, że mikrokropelki pokrywają się drugą warstwą fosfolipidów i całość przekształca się w liposomy. Pęcherzyki uzyskane tą metodą charakteryzują się najwyższym wskaźnikiem objętości fazy wodnej, co pozwala na zamykanie stosunkowo znacznej ilości wodnego roztworu substancji aktywnej. Ich wadą jest natomiast pozostałość rozpuszczalników oraz możliwość denaturacji niektórych białek i zerwanie nici DNA w materiale, który ma być transportowany [11]. Kolejnymi z metod opartych na dyspersji rozpuszczalnika jest tzw. wstrzykiwanie roztworu etanolowego [12, 13] oraz eterowego [14]. Pierwsza z nich polega na roz-
e-wydanie do pobrania na:
www.farmacom.com.pl
puszczeniu lipidów w etanolu, a następnie na szybkim wstrzykiwaniu za pomocą strzykawki wodnego roztworu substancji, która ma być później zamknięta w liposomie. Wadą tej techniki jest formowanie się niejednorodnej, bardzo rozcieńczonej populacji liposomów MLV. Ponadto ze względu na to, że etanol tworzy mieszaninę azeotropową z wodą trudno jest go usunąć, a co za tym idzie w ich hydrofilowym wnętrzu mogą być zamykane jedynie biologicznie aktywnie związki trwałe w tym alkoholu. W metodzie wstrzykiwania eteru roztwór lipidów wprowadza się do wodnego roztworu ogrzanego do temperatury 55-65º lub pod zmniejszonym ciśnieniem, co prowadzi do utworzenia pęcherzyków. Tak jak poprzednio, głównym mankamentem tej metody jest niejednorodność powstałych pęcherzyków oraz to, że enkapsulowane substancje aktywne muszą być odporne na temperaturę. Produkcja liposomów na skalę przemysłową odbywa się za pomocą kilku technik, z których najbardziej popularną jest metoda ogrzewania [15] - stosunkowo nowa, przeznaczona do szybkiej produkcji liposomów. Obejmuje ona hydratację komponentów liposomowych, a następnie ich ogrzanie w obecności glicerolu do 120ºC. Obecność glicerolu powoduje zwiększenie stabilności liposomu, ponadto nie musi on być usuwany z końcowego produktu. Co więcej wyniki przeprowadzonych badań wskazują, że wysoka temperatura nie powoduje degradacji fosfolipidów oraz nie wymagana jest późniejsza sterylizacja, co znacznie redukuje czas i koszt produkcji liposomów.
Właściwości preparatów liposomowych Obecnie liposomy są głównym przedmiotem zainteresowania w dziedzinie farmacji, medycyny oraz kosmetologii. Ich niezwykła popularność jest związana z możliwością transportowania substancji aktywnych takich jak hormony [16], antybiotyki [17], leki przeciwnowotworowe [18], przeciwwirusowe [19] i grzybobójcze [20]. Istotną zaletą wykorzystania liposomów jako nośnika substancji aktywnych biologicznie jest selektywne dostarczenie leku do miejsca działania, redukcja toksyczności oraz zmniejszenie efektów ubocznych. Każda substancja chemiczna wprowadzona do organizmu w postaci wolnej bardzo szybko ulega metabolizmowi, a następnie jest z niego usuwana. Dlatego też, aby
2/2014
zwiększyć skuteczność i siłę działania należałoby zwiększyć jej dawkę, a co za tym idzie rośnie ryzyko wystąpienia efektów ubocznych. Wbudowanie np. leku do liposomu powoduje przedłużenie czasu przebywania w krwiobiegu a tym samym poprawę farmakokinetyki oraz biodystrybucji leku [21]. Liposomalne postacie leków cieszą się ogromną popularnością w onkologii. Na rynku dostępne są już liposomalne preparaty cytostatyczne [22], dla których w badaniach klinicznych stwierdzono znacznie mniejszą kardiotoksyczność w porównaniu z lekami konwencjonalnymi. Wynika to z faktu, że śródbłonek naczyń krwionośnych w obrębie tkanki guza nowotworowego nie jest tak szczelny jak śródbłonek tkanek niezmienionych chorobowo i umożliwia przepuszczanie stosunkowo dużej cząsteczki liposomu zawierającego lek do otaczających tkanek.
Stabilność liposomów Warunkiem koniecznym do tego, żeby liposomy mogły być wykorzystane jako transportery zamkniętych w nich substancji jest ich trwałość. Głównymi czynnikami wpływającymi na stabilność, a tym samym na płynność dwuwarstwy jest temperatura, skład błony lipidowej oraz rodzaj i stężenie wprowadzonej domieszki [23-26]. Wbudowanie innych cząsteczek lipidowych do dwuwarstwy np. cholesterolu, sfingomieliny, glikolipidów, glikozoaminoglikanów czy polimerów podnosi stabilność liposomów w warunkach zarówno in vivo jak i in vitro [27]. Natomiast modyfikacja powierzchniowej błony pęcherzyka poprzez inkorporację
30 | peptydów pozwala na precyzyjne kierowanie liposomu do docelowej tkanki [28]. Z kolei destabilizację struktury sfery lipidowej powodują silnie dysocjujące sole, alkohole oraz związki powierzchniowo czynne [29].
Liposomy jako nośniki substancji aktywnych w kosmetykach Technologią liposomową coraz częściej zainteresowani są producenci kosmetyków. Wykorzystanie liposomów w kosmetykach związane jest z utrzymaniem odpowiedniego uwodnienia skóry oraz wprowadzeniem substancji, które samoistnie nie mogą pokonać bariery naskórka. Obecne preparaty liposomowe wpływają na skórę zarówno pod względem pielęgnacyjnym, upiększającym jak i leczniczym. Pierwsze produkty oparte na formule liposomowej pojawiły się na rynku w 1987 r. Pierwszy liposomowy krem przeciwzmarszczkowy powstał w laboratorium Christiana Diora [30]. Mimo, że od zastosowania nośników liposomowych w transporcie substancji aktywnych minęło ponad 25 to technologia liposomowa jest jedną z intensywniej rozwijanych technik pod kątem poprawy skuteczności i bezpieczeństwa preparatów dermatologicznych i kosmetycznych. Głównym atutem liposomów jest to, że mogą przenikać przez warstwę rogową naskórka, a tym samym wprowadzać wodę, substancje lipidowe oraz inne składniki aktywne do jego przestrzeni międzykomórkowej. Ponadto, istotna jest również możliwość kontroli uwalniania substancji czynnej z liposomów, co wydłuża jej działanie, zwiększa trwałości preparatu poprzez oddzielenie wzajemnie reagujących substancji oraz zabezpiecza wrażliwe związki przed szkodliwym działaniem czynników zewnętrznych np. wilgoci czy tlenu zapobiegając ich inaktywacji [31]. Wyróżnia się 4 mechanizmy działania liposomów na komórki skóry. Pierwszy z nich to adsorpcja liposomów na powierzchni komórki, a następnie powolne uwalnianie substancji aktywnej. Kolejnym spotykanym zjawiskiem jest endocytoza, która polega na wniknięciu pęcherzyka lipidowego do wnętrza komórki, strawieniu i uwolnieniu substancji aktywnej. Wniknięcie substancji rozpuszczalnych w tłuszczach do wnętrza skóry możliwe jest dzięki transferowi lipidowemu. Ostatnią interakcją liposomu z komórką jest fuzja, która dotyczy połączenia składników membrany pęcherzyka z błoną komórek skóry [32]. Witaminy są bardzo cennym składnikiem preparatów kosmetycznych przeznaczonych do pielęgnacji skory. Jednak, aby ich działa-
nie było efektywne, to do najgłębszych jej warstw muszą przeniknąć formy aktywne. Okazuje się, że liposomy są doskonałymi składnikami kosmetyków, pozwalającymi na dostatecznie głębokie dostarczenie substancji aktywnej, by żywe komórki były w stanie ją przetworzyć i wykorzystać do regeneracji. Najczęściej w produktach kosmetycznych stosuje się witaminę A, E oraz C. Retinol (wit. A) wykazuje działanie regeneracyjne oraz odżywcze. Ponadto poprawia elastyczność skóry i zmniejsza przebarwienia. Do celów dermatologicznych zwykle stosuje się octan i plamitynian retinolu z powodu ich większej trwałości. Natura chemiczna retinoidów (wielokrotne nienasycone lipidy) sprawia, że są one bardzo podatne na utlenianie oraz promieniowanie UV-VIS, co skutkuje wytwarzaniem reaktywnych form tlenu oraz wolnych rodników [33,34]. Ze względu na ich niestabilność zaczęto szukać nowych rozwiązań mających na celu poprawę trwałości witaminy A w kosmetykach. Okazuje się, że doskonale nadają się do tego liposomy [35]. Dzięki nim możliwe jest wprowadzanie retinolu w jego najbardziej aktywnej, nieprzetworzonej postaci na odpowiednią głębokość skóry. Na uwagę zasługuję również fakt, że w ostatnim czasie witamina A zamykana jest w pęcherzykach lipidowych stabilizowanych kolagenem, dzięki czemu może dotrzeć do głębokich warstw skóry, a tym samym stwarza możliwość utrzymania stałego stężenia tego związku w warstwie rogowej. W liposomach oprócz witamin zamykane są również inne aktywne związki. Niesłabnącą popularnością cieszy się kwas hialuronowy. Ten polisacharyd występuje naturalnie w ludzkiej skórze. Ma zdolność do wiązania
2/2014
wody, co zapewnia sprężystość skóry, opóźnia procesy starzenia. Wraz z wiekiem ilość kwasu hialuronowego maleje, zmniejsza się zatem nawilżenie skóry oraz zaczynają pojawiać się zmarszczki [36]. Kosmetyki z zamkniętą w nośniku substancją aktywną działają w głębi skóry, dostarczając jej takiego nawilżenia, jakiego potrzebuje [37]. Znane są również żele na bazie kwasu hialuronowego, stosowane do wypełnień ubytków w tkankach, wypełnienia zmarszczek i powiększania ust oraz piersi. Niezwykle dobroczynne na skórę są kosmetyki zawierające enkapsułkowany tlen. Uwięzienie tego związku w liposomie przyspiesza jego wnikanie do wnętrza skóry, co przynosi poprawę mikrokrążenia i przemianę materii [38]. W ostatnich latach obserwuje się szczególne zainteresowanie surowcami naturalnymi: (ekstraktami roślinnymi, olejkami eterycznymi, aminokwasami, peptydami) jako składniki receptur kosmetycznych. Jest to związane z faktem, że są lepiej tolerowane przez skórę, a przez to mniej alergenne. Ponadto np. aminokwasy czy białka należą do podstawowych składników budulcowych organizmów żywych, dlatego są biozgodne, biodegradowalne i kompatybilne ze składnikami błon biologicznych. Stosowane w kosmetykach niskocząsteczkowe peptydy, w zależności od pełnionych funkcji, można podzielić na 3 zasadnicze grupy: peptydy sygnałowe, inhibitory neurotransmiterów oraz peptydy transportujące. Pojawiło się także pojęcie „peptydy inteligentne” („peptydy IQ”), którym określa się peptydy z dołączonym łańcuchem kwasu tłuszczowego (np. palmitynowego), dzięki czemu specyfik lepiej przenika przez skórę i łatwiej dociera do miejsca przeznaczenia [39]. Peptydy mogą pełnić rolę neuromediatorów stymulujących lub hamujących procesy życiowe, są silnymi antyoksydantami, zwiększają syntezę kolagenu oraz elastyny, co w efekcie przekłada się na szybsze gojenie ran, spłycenie zmarszczek oraz poprawę wyglądu u odporności skóry [40]. Mimo, że wiele peptydów zostało zidentyfikowanych, jako związki biologicznie aktywne to niestety ich zastosowanie wciąż pozostaje utrudnione. Podstawowym problemem staje się ich łatwa podatność na degradację proteolityczną oraz niska zdolność do pokonywania bariery skórnej z racji ich rozmiarów [41]. Nowe właściwości peptydy mogą uzyskiwać na drodze różnych modyfikacji. Szczególnie tzw. N-metylowanie stało się użyteczną techniką dostosowywania właściwości fizykochemicznych peptydów do określonych warunków „in vivo”, ponieważ wprowadzenie jednej bądź kilku
e-wydanie do pobrania na:
www.farmacom.com.pl
32 | grup metylowych do łańcucha peptydowego, może spowodować diametralną zmianę właściwości farmakokinetycznych, w tym biodostępności, podatności na degradację proteolityczną oraz przepuszczalności przez błony biologiczne [42]. Problem niskiej stabilności enzymatycznej peptydów może być również rozwiązany dzięki zastosowaniu odpowiednich nośników – zwłaszcza liposomów. Stosowanie miejscowe liposomalnych form peptydów daje znakomite rezultaty w nawilżeniu i odżywieniu dojrzałej skóry, wzroście jej elastyczności i jędrności, stymulacji odnowy komórkowej, poprawie struktury i szczelności bariery lipidowej oraz spłyceniu zmarszczek [43,44].
Referencje
Podsumowanie
[6] Sharma A, Sharma US, Liposomes in drug delivery: Progress and limitations, Int J Pharm, 1997, 154(2):123-140.
Pierwsze informacje o liposomach pojawiły się na początku lat 60. Od tego czasu były bardzo intensywnie badane, co doprowadziło do powstania odrębnej gałęzi zwanej technologią liposomową. Swoją popularność liposomy zawdzięczają unikalnym właściwościom m.in. zdolnością do transportowania substancji aktywnych. Liposomy ugruntowały sobie w szczególności silną pozycję w medycynie i kosmetyce. Liposomy mogą być nośnikami leków o działaniu zarówno miejscowym, jak i ogólnoustrojowym np. cytostatycznym, przeciwbólowym, przeciwhistaminowym, przeciwwirusowym oraz immunosupresyjnym Zastosowanie liposomów jako nośników substancji aktywnych daje możliwość podania mniejszej dawki leku, przyczyniając się równocześnie do obniżenia jego toksyczności. Liposomy były pierwszymi stosowanymi w kosmetyce nośnikami substancji biologicznie aktywnych. Obecnie wchodzą w skład wielu preparatów kosmetycznych jako, struktury zdolne do pokonania bariery naskórka i zwiększające wchłanialność do głębszych warstw skóry substancji nawilżających, odżywczych, witamin itp. Ponadto w przemyśle kosmetycznym liposomy są stosowane jako nośniki substancji hydrofilowych w tłustych kremach. Wydawać by się mogło, że o liposomach wiadomo już prawo wszystko. Mimo to przed naukowcami stawiane są wciąż wyzwania mające choćby na celu nadanie pęcherzykom lipidowym żądanych parametrów niezbędnych do konkretnego zastosowania, tak aby w danych warunkach były trwałe i efektywne. Niezwykłe i wszechstronne możliwości liposomów sprawiają, że z powodzeniem ugruntowały swoją pozycję jako nowoczesne składniki aktywnych kosmetyków XXI wieku.
[1] Bangham AD, Horne RW, Negative staining of phospholipids and their structural modification by surface-active agents as observed in the electron microscope, 1964, 8(5):660–668. [2] Mezei M, Gulasekharam V, Liposomes – selective drug delivery system for the topical route of administration, Life Sci. 1980, 26:1473-1477. [3] Akbarzadeh A, Rezaei-Sadabady R. Davaran S, Joo SW, Zarghami N, Hanifehpour Y, Samiei M, Kouhi M, Nejati-Koshki K, Liposome: classification, preparation, and applications Nanoscale Res Lett, 2013, 8:102[4] New, R.R.C. in New, R.R.C. (Ed.), Liposomes a pratical approach, Oxford University Press, Oxford, UK, 1990, 1- 67. [5] Laouini A, Jaafar-Maalej C, Limayem-Blouza I, Sfar S, Charcosset C, Fessi H, Preparation, Characterization and Applications of Liposomes: State of the Art, Journal of Colloid Scieraction, and in vivo pharmacology of ghrelin in liposomal suspensions, International Journal of Pharmaceutics, 2010, 390:13–18.
[7] Dua JS, Rana AC, Bhandari AK, Liposome: Methods of preparation and applications, Int J Pharm Sci Rev Res, 2012, 3:14-20. [8] Kozubek A, Wstęp do technologii liposomowej, 2004. [9] Bangham A, Gier JDe, Greville G, Osmotic properties and water permeability of phospholipid liquid crystals, Chem Phys Lipids, 1967, 1:225246. [10] Riaz M, Liposome preparation method, Pak J Pharm Sci, 1996, 9(1):65–77. [11] Szoka FJ, Papahadjopoulos D, Procedure for preparation of liposomes with large internal aqueous space and high capture by reversephase evaporation, Proc Natl Acad Sci USA, 1978, 75:4194-4198. [12] Batzri S, Korn ED, Single bilayer liposomes prepared without sonication, Biochim Biophys Acta, 1973, 298:1015-1019. [13] Stano P, Bufali S, Pisano C, Bucci F, Barbarino M, Santaniello M, Carminati P, Luisi PL, Novel camptothecin analogue (Gimatecan)-containing liposomes prepared by the ethanol injection method, J Liposome Res, 2004, 14:87-109. [14] Deamer DW, Preparation and properties of ether injection liposomes, Ann NY Acad Sci, 1978, 308:250-258. [15] Mozafari R, Liposomes: An overview of manufacturing techniques, Cell Mol Biol Lett, 2005, 10:711-719 [16] Moeller EH, Holstb B, Nielsen LH, Pedersen PS, Østergaard J, Stability, liposome int [17] Schiffelers R, Storm G, Bakker-Woudenberg I, Liposome-encapsulated aminoglycosides in pre-clinical and clinical studies Journal of Antimicrobial Chemotherapy, 2001, 48(3):333-344. [18] Gabizon AA, Liposome circulation time and tumor targeting: Implications for cancer chemotherapy, Advanced Drug Delivery Reviews, 1995, 16(2-3):285-294. [19] Désormeaux A, Bergeron MG, Targeting HIV with liposome-encapsulated antivirals, Zentralblatt fur Bakteriologie: international journal of medical microbiology, 1995, 282(3):225-231. [20] Reboiras MD, Miller MJ, Jones MN, Liposome adsorption to Candida albicans, Colloids and Surfaces B: Biointerfaces, 1997, 9(1-2):101107. [21] Lasic DD, Novel applications of liposomes, Trends Biotechnol, 1998, 16(7): 307-321 [22] Allen TM, Cullis PR, Liposomal drug delivery systems: From concept to clinical applications, Adv Drug Delivery Rev, 2013, 65:36–48.
2/2014
[23] Podolak M, Waga S, Przestalski S, The effect of amphiphilic biocides contained in a medium on liposome membranes fluidity, Polish J Environ Stud, 1994, 3(2): 23-27. [24] Podolak M, Man D, Waga S, Przestalski S. Bimodal effect of Amphiphilic biocide concentrations on fluidity of lipid membranes. Z. Naturforsch, 1996, 51c:853-858. [25] R. Harrison R, Lunt GG, Błony biologiczne: struktura i funkcje, PWN, Warszawa, 1980. [26] Man D, Podolak M, (2007), Tin compounds interaction with membranes of egg lecithin liposomes, Z. Naturforsch, (2007), 62c:427–432. [27] Stebelska K, Wyrozumska P, Grzybek M, Sikorski AF, Characterization and medical applications of liposome constructions, Adv Clin Exp Med, 2011, (2):229-242. [28] Wu HC, Chang DK. Peptide-Mediated Liposomal Drug Delivery System Targeting Tumor Blood Vessels in Anticancer Therapy, J Oncol, 2010, 1-8. [29] Martini MC.: Kosmetologia i farmakologia skóry. Warszawa: Wydawnictwo Lekarskie PZWL, 2007, 432-442. [30] Magdassi S, Delivery systems in cosmetics, Colloids Surfaces A, 1997, 123-124:671-679. [31] Pierre MBR, Costa ISM, Liposomal systems as drug delivery vehicles for dermal and transdermal applications, 2011, Arch Dermatol Res, 303:607–621. [32] Dylewska-Grzelakowska J, Kosmetyka stosowna, WSIP, 2009, 128. [33] Papageorgiou S, Varvaresou A, Hatziantoniou S, Tsirivas E, Demetzos C, Papaioannou G, Photostability of retinoids: The influence of the container, Rev Clin Pharmacol Pharmacokinet, Internat. Edit. International Edition, 2007, 21(1):49-53. [34] Ramos Silva M, Hexel DM, Rutowitsch MS, Zechmeister M, Hydroxy Acids and Retinoids in Cosmetics, Clin Dermatol, 2001, 19:460-466. [35] Imbert D, Kasting DB, Wickett RR,Influence of liposomal encapsulation on the penetration of retinoic acid through human skin in vitro, J Soc Cosmet Chem, 1994, 45:119-134. [36] Wiest L, Kerscher M, Native hyaluronic acid in dermatology — results of an expert meeting, J Dtsch Dermatol Ges, 2008, 6:176–180. [37] Chen M, Gupta V, Anselmoa AC, Muraski JA, Mitragotri S, Topical delivery of hyaluronic acid into skin using SPACE-peptide carriers, J Control Release, 2014, 173:67-74. [38] Rajaram A, Liposomal oxygen-carriers, effect on ultrasonic shear and potential applications, Int. J. Biomedical Engineering and Technology, 2012, 9(4):369 – 377. [39] Black DJ, Halling BD, Mandich DV,Pedersen SE, Altschuld RA, Hamilton SL, Calmodulin interactions with IQ peptides from voltage-dependent calcium channels, Am J Physiol Cell Physiol, 2005, 288:C669 –C676. [40] Gorouhi F, Maibach HI, Role of topical peptides in preventing or treating, Internat J Cosmetic Sci, 2009, 31:327–345. [41] Adessi S, Soto C, Converting a Peptide into a Drug: Strategies to Improve Stability and Bioavailability, Current Medicinal Chemistry, 2002, 9(9): 963-978. [42] Chatterjee J., Laufer B., Kessler H., Synthesis of N-methylated cyclic peptides, Nature Protocols, 2012, 7(3):432-444. [43] Barba C, Mendez S, Roddick-Lanzilotta A, Kelly R., Parra JL, Coderch L, Cosmetic effectiveness of topically applied hydrolysed keratin peptides and lipids derived from wool. Skin Res Technol, 2008, 14, 243–248. [44] Ehrlich M, Rao J, Pabby A, Goldman MP, Improvement in the appearance of wrinkles with topical transforming growth factor beta and l-ascorbic acid, Dermatol Surg, 2006, 32, 618–625.
e-wydanie do pobrania na:
www.farmacom.com.pl
33
Jak rozmawiać z drukarnią o bezpiecznym druku?
Bezbłędnie! Stwierdzenie, że proces druku opakowań jest skomplikowany i wieloetapowy to oczywisty truizm, niemniej wielce prawdziwy i nie dający się w żaden sposób zbagatelizować. Począwszy bowiem od wymiany danych pomiędzy firmą farmaceutyczną a drukarnią przy tworzeniu pliku do druku, poprzez przygotowanie form, a następnie sam druk, proces finishingu i w końcu dostawę opakowań – każdy z tych etapów wymaga wiedzy, dokładności oraz baczności, i na każdym może dojść do pomyłki. A spośród nich jeden zasługuje na szczególną uwagę. Od niego bowiem zależy pomyślne powodzenie całej skomplikowanej „operacji” jaką jest druk.
Marcin Weksler EyeC Polska
N
ajważniejszym etapem w całym procesie druku jest wymiana informacji pomiędzy firmą farmaceutyczną a drukarnią. Celem jest stworzenie pliku klienta i jego akceptacja. Proste? Absolutnie nie. Proces wymiany informacji to jedna z najbardziej niebezpiecznych faz produkcji opakowania. Dlaczego?
Może się zdarzyć i zdarza się, że przetworzony przez drukarnię projekt do akceptacji zawiera inne dane niż te, które zamawiał klient. Bo dokonując klasycznej „naocznej” kontroli zgodności projektu do akceptacji nie był on (klient) w stanie wykryć różnic i zaakceptował projekt w przekonaniu, że jest poprawny. Nietrudno jest więc wyobrazić sobie sytuację, w której 300 000 perfekcyjnie wyprodukowanych kartoników, ulotek lub etykiet jest do wyrzucenia, bo popełniono błąd już na samym początku procesu. I nawet jeżeli drukarnia ma akceptację klienta, który wziął odpowiedzialność za kontrolę zgodności ze wzorem, to jest to sytuacja, która stanowi poważny problem dla obydwu stron. Problem, którego można łatwo uniknąć.
Krok po kroku Pierwszy krok to przesłanie gotowego projektu kartonika lub ulotki w formacie PDF do drukarni. Plik ten zazwyczaj jest wynikiem kreacji działu marketingu, technologicznego lub opakowań. Zawiera on wszystkie elementy: grafikę, teksty, kolory, wykrojnik (nie techniczny), zamarkowane pola dla kodów kreskowych lub Data Matrix (choć nie jest to stała reguła) i zapis sześciopunktu Braille’a na jednej z klapek. Dział PrePress lub DTP drukarni przetwarza ten projekt dostosowując go do wymogów określonej technologii, np. offsetu arkuszowego czy też flekso. Następnie dodawane są zalewki, markowane metalizy lub tłoczenia, dodawane kody kreskowe, kody Data Matrix i zapis sześciopunktu Braille’a (jeżeli nie został dodany przez klienta). Do tego dochodzą elementy technologiczne, takie jak: laser kod ścieżki klejowej, oznakowanie SKU z systemu, tabela z pełnym opisem pracy, typem materiału, gramaturą, rozłożeniem kolorów, tłumaczeniem zapisu Braille’a i autorem projektu. Przetworzony projekt wraca do klienta do akceptacji. Załóżmy, że jest to tylko jeden cykl. Wówczas klient albo dokonuje porównania obydwu projektów manualnie, czytając na ekranie, albo są one drukowane i wówczas czytane dla porównania. W przypadku kartoników taki proces trwa ok. 20-30 minut, ale przy ulotkach jest to już od 40 minut do 1,5 godziny dla każdej!
e-wydanie do pobrania na:
www.farmacom.com.pl
Rozwiązanie? Oczywiście! Rozwiązaniem jest symetryczne zastosowanie nowoczesnych systemów inspekcji wizyjnej. Symetryczne oznacza, że w cyklu wymiany danych kontrola zgodności powinna odbywać się zarówno w drukarni, jak i w firmie farmaceutycznej. Systemy inspekcji wizyjnej skutecznie i szybko pomagają wykryć różnice pomiędzy projektem przesłanym przez klienta do drukarni, a projektem wysłanym do akceptacji klienta, chroniąc w ten sposób obydwie strony. Nowoczesne systemy wizyjne porównują pliki PDF z drukarni z projektami klienta – poprzez nałożenie ich na siebie rozpoznają wszystkie różnice graficzne, dokonują analizy porównawczej kodów kreskowych, kodów Data Matrix i zapisu Braille’a. Można porównywać wszystkie projekty opakowań, kartoników, ulotek, etykiet, folii alu. Najważniejsze jest to, że do dyspozycji jest narzędzie, które skutecznie, ultra szybko, dokładnie i – co najważniejsze – bez pomyłek pomoże bezpiecznie zaakceptować projekt do druku. Dla przykładu: czas potrzebny do zbadania zgodności
2/2014
34 | ulotki w formacie 70 x 21 cm przy wykorzystaniu systemu wizyjnego wynosi około 2 do 4 minut. I to w dowolnym alfabecie!
Tajniki szefa kuchni Aby zaufać technologii kontroli wizyjnej opakowań trzeba ją poznać od kuchni. System inspekcji wizyjnej to specjalistyczne oprogramowanie, które działa na zasadzie porównania plików zawierających artwork. Przetworzony obraz z pliku klienta w formacie PDF jest nakładany pixel do pixela na wyrenderowany obraz projektu próbki, czyli plik drukarni, również w formacie PDF. Tryb porównania graficznego pozwala zobaczyć wszelkie różnice w obszarze grafiki, np. zmieniony tekst, brakujące lub dodane znaki, przesunięty tekst, przesunięte elementy grafiki, zmianę koloru. W praktyce to również inna wersja językowa, mix wersji, podklejone znaki, przesunięcia znaków, dublowanie, itp. Analizie porównawczej mogą podlegać wszystkie elementy artworku w jednym cyklu, co pozwala na uzyskanie pełnego obrazu zgodności projektu klienta z projektem do akceptacji z drukarni. Technologia jest dokładna, niezawodna i szybka, a jej funkcjonalność potwierdzona w procesie walidacji.
czy choćby różnicach w stylu. Dodatkowy moduł do analizy kontentu, w przeciwieństwie do analizy graficznej, pozwala na porównanie tablic Unicodu znaków w tekście i wykazanie – czy i jak się różnią. Dla przykładu: litera „a” w tablicach Unicodu ma numer U+0061; litera „u” ma oznaczenie U+0075, oznaczenia Unicodu zostają porównane i system wykrywa tę różnicę. Różnice mogą także dotyczyć typu czcionki, bo zdarzają się sytuacje, w których jest ona tak podobna, że trudno ją odróżnić, ale system wskaże je bezbłędnie. Podobnie rzecz ma się z wielkością czcionek.
Systemy inspekcji wizyjnej skutecznie i szybko pomagają wykryć różnice pomiędzy projektem przesłanym przez klienta do drukarni, a projektem wysłanym do akceptacji klienta, chroniąc w ten sposób obydwie strony Ciekawostką, która potwierdza jak bardzo technologia inspekcji graficznej uzupełnia się z kontentową jest następujący przykład: znak, którego nie ma w tablicach Unicodu to kropka. Teoretycznie, przy zastosowaniu jedynie inspekcji kontentu błąd ten jest nie do wykrycia, ale wtedy w odwodzie występuje tryb graficzny, który wykryje jej brak. Inspekcja w obszarze kontentu jest bardzo przydatna i stanowi doskonałe uzupełnienie analizy graficznej.
Dokładność Programy tego typu działają w zakresie rozdzielczości od 300 do 1200 dpi, przy czym najczęściej stosuje się 600 dpi. Przy takiej rozdzielczości dokładność programu zaczyna się od 75 qm, co odpowiada około 1 pixelowi. Dla porównania, obowiązująca wielkość czcionki w drukach wynosi 8 pkt. Didota, czyli 8,23 postscript. Najmniejszym znakiem w tekście jest kropka, której wielkość przy rozdzielczości 600 dpi to około 300 qm (1000 qm równa się 1 mm). Oznacza to, że istnieje ogromny zapas dokładności, a w efekcie pewność, że wszystkie różnice zostaną wychwycone. Co więcej, można tak skalować czułość systemu, aby uzyskać optymalne ustawienia, adekwatne do konkretnego zadania. W konsekwencji operator otrzymuje w bardzo przystępny sposób wyniki porównania zaznaczone na ekranie – jeżeli brakuje jakiegoś elementu lub został on dodany, program wskaże takie miejsce. Operator może wówczas je ocenić, a efekt działania programu oraz swoje decyzje zapisać w raporcie w PDF. Zastosowanie systemów wizyjnych to zupełnie nowy poziom komfortu i bezpieczeństwa pracy.
Kody 1D i 2D Niezwykle ważnym elementem każdego opakowania są kody 1D i 2D, które również muszą być szczegółowo sprawdzane. Kody 1D (kody kreskowe) to zazwyczaj kody handlowe EAN-13, EAN-8, ale także kody PZN, Code 39, Code 25 i Pharma kody w standardzie Laetusa. Najlepsze systemy wizyjne oferują weryfikację tych kodów, zgodnie z normami CEN/ANSI (ISO 15416) oraz ISO 797. Stosowanie weryfikacji kodów na etapie ich tworzenia jest konieczne, aby mieć stuprocentową pewność, że są one odpowiednio zbudowane. Weryfikacja kodów 1D systemem inspekcji trwa kilkanaście sekund, a rezultat jest dostępny w wygenerowanym raporcie, zawierającym pełny opis parametrów kodu i ocenę jakościową od A do F. Odpowiadając na potrzeby rynku farmaceutycznego, systemy inspekcji wizyjnej coraz częściej wyposażane są w moduł do weryfikacji kodów 2D, czyli Data Matrix. Ten nowy w farmacji standard zapisu danych personalizowanych i zmiennych wymaga szczególnej kontroli i weryfikacji. System inspekcji wizyjnej nie tylko zdekoduje kod Data Matrix lub QR, ale również zgodnie z normą ISO 15415
Grafika vs. Kontent? Bynajmniej! Analiza różnic w grafice to dopiero początek. Najlepsze rozwiązania na rynku oferują również możliwość analizy tzw. kontentu. I tak jak analiza graficzna pozwala na wychwycenie różnic, tak w dalszym ciągu nic nie wiadomo o zastosowanych czcionkach, ich wielkości
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
35 poda ocenę jakościową od A do F. Możliwość zdekodowania informacji zawartej w kodzie, którą oferuje system, jest w tym przypadku kluczowa. Każde opakowanie będzie miało indywidualny numer seryjny (serializacja) i informację o pochodzeniu leku (producent), które będą musiały być zweryfikowane. Oczywiście wynik weryfikacji dostępny będzie w wygenerowanym przez system raporcie.
Jeszcze Braille! Systemy inspekcji wizyjnej umożliwiają precyzyjne zbadanie zarówno kodów kreskowych 1D i 2D, jak również kodu Data Matrix i QR oraz danych zmiennych. Weryfikują też punkty Braille’a. To szczególnie istotne, ponieważ zapis nazwy leku i jego dawki na opakowaniu produktu leczniczego jest standardem od 12 lat.
Niezależnie od technologii nanoszenia Braille’a, najbardziej rozpowszechniony i stosowany w Europie jest standard Marburg Medium. Tymczasem każdy alfabet zawiera znaki specjalne, diakrytyczne, które mają inny zapis w poszczególnych alfabetach. Ponadto stosuje się różne prezentacje znaków matematycznych. EBU (European Blind Union) stara się ujednolicić formuły zapisów, ale to bardzo czasochłonny i na dzień dzisiejszy niezakończony proces. Inaczej wygląda zapis dawki w języku słowackim, słoweńskim czy ukraińskim, podobnie jest ze znakiem cyfry czy miana. Takich różnic wymienić można znacznie więcej. Jak widać projektowanie Braille’a, który stanowi element projektu opakowania, niezależnie czy robi to klient czy drukarnia, jest obarczone ryzykiem powstania błędu. Dlatego tak ważne jest, aby stosować system inspekcji wizyjnej, który pozwoli w przeciągu kilkunastu sekund na porównanie zapisu z projektu klienta i zdekodowanie jego poprawności; lub projektu klienta do projektu drukarni – czy nie ma żadnych zmian. Bardzo pomocne i pożądane jest, aby system prezentował wynik w zapisie Braille’a i korespondującym zapisie czytelnym dla sprawdzającego. W takim układzie wychwycenie ewentualnej zmiany jest dziecinnie proste. W sytuacji, gdy tworzący tłumaczenie zapisu Braille’a nie posiada umiejętności czytania tego, co umieszcza na opakowaniu, taka funkcjonalność jest na wagę złota! Stało się zatem oczywiste, że błędów należy unikać na każdym etapie procesu druku. Może to zagwarantować przede wszystkim dobra komunikacja i proces wymiany informacji, dzięki którym kontrola, porównywanie, sprawdzanie i akceptowanie będą przebiegać zgodnie z planem. W poligrafii, w relacji z tak wymagającym klientem jakim jest branża farmaceutyczna, konieczne jest proaktywne działanie, bo nie ma tam miejsca na błędy i przebaczanie.
reklama
36 |
Od etapu projektowania leku do kontroli produkcji gotowego preparatu zastosowania spektroskopii NMR w chemii farmaceutycznej
dr Marek Żylewski
Kierownik Pracowni Spektroskopii NMR, Jagiellońskie Centrum Innowacji Sp. z o.o.
Anna Zając
Kierownik Laboratoriów, Jagiellońskie Centrum Innowacji Sp. z o.o
S
Spektroskopia NMR – wprowadzenie
pektroskopia magnetycznego rezonansu jądrowego (NMR) jest obecnie jedną z najbardziej istotnych metod analitycznych w chemii. Zakres jej zastosowania, początkowo ograniczony jedynie do analizy strukturalnej niewielkich cząsteczek organicznych, ciągle rośnie, zarówno w ilości możliwych do uzyskania informacji na temat badanych układów, jak i ich wielkości. Pierwsze obserwacje zjawiska magnetycznego rezonansu jądrowego przeprowadzono już w 1945 roku. Lata 50 przyniosły rozwój wiedzy na temat zależności zjawiska przesunięcia chemicznego i sprzężenia spinowo-spinowego od struktury chemicznej badanych próbek, co umożliwiło zastosowanie spektroskopii NMR do ustalania i potwierdzania struktury chemicznej związków. W latach 70. XX wieku wprowadzono do użycia magnesy nadprzewodzące i zastosowano w pomiarach eksperymenty impulsowe, wraz z procedurą szybkiej transformacji Fouriera. Dla chemików używających tej techniki badawczej był to milowy krok w rozwoju, który w sposób zdecydowany poprawił jej czułość i zwiększył rozdzielczość otrzymywanych widm. Był też podstawą, która umożliwiła wprowadzenie w następnej dekadzie eksperymentów wieloimpulsowych, metod akwizycji widm kolejno dwu i wielowymiarowych, dzięki którym możliwe stało się zastosowanie spektroskopii NMR do badania tak złożonych układów, jak białka i kwasy nukleinowe. Rozwój w stosowanej aparaturze i metodyce pomiarowej trwa nieprzerwanie po dzień dzisiejszy, otwierając coraz to nowe pola zastosowań dla tej potężnej techniki badawczej. O tym, jak ważna jest spektroskopia NMR dla dzisiejszej nauki, świadczą cztery nagrody Nobla otrzymane przez naukowców zajmujących się tą metodą – Felix Bloch i Edward Purcell otrzymali je w 1952 r., Richard Ernst w 1991 r. a Kurt Wuthrich w 2002 r.
W spektroskopii magnetycznego rezonansu jądrowego badać możemy jedynie takie jądra atomowe, które mogą oddziaływać z zewnętrznym polem magnetycznym. Na szczęście dla chemików, wśród tych możliwych do wykorzystania w spektroskopii NMR, są izotopy pierwiastków powszechnie spotykane w związkach organicznych. Najważniejsze z nich to jądra 1H, 13C – podstawowe składniki każdego związku organicznego, bardzo ważny, szczególnie w chemii medycznej, farmaceutycznej, a także w biochemii izotop 15 N, czy istotne w metabolomice, chemii związków naturalnych i badaniu metabolitów leków jądra 19F i 31P. Umieszczenie tych jąder w zewnętrznym polu magnetycznym, pozwala na absorpcję przez nie promieniowania elektromagnetycznego o charakterystycznej energii (a zatem i częstości promieniowania), zależnej od natężenia zewnętrznego pola magnetycznego, budowy samego jądra atomowego i co wielce istotne z perspektywy zastosowania w chemii, od otoczenia chemicznego danego jądra atomowego – czyli od rozmieszczenia sąsiednich atomów w cząsteczce, ich rodzaju i sposobu ich połączenia wiązaniami chemicznymi. Na tej podstawie możliwe jest powiązanie częstości absorbowanego przez poszczególne atomy promieniowania elektromagnetycznego ze strukturą chemiczną cząsteczki umieszczonej w zewnętrznym polu magnetycznym. Idąc dalej, możemy zatem stwierdzić obecność w badanym związku różnorakich grup funkcyjnych czy różnych elementów strukturalnych jak np.: pierścienie aromatyczne, fragmenty olefinowe czy alifatyczne. Na podstawie intensywności sygnałów możemy również wyznaczyć wzajemne stosunki ilości atomów budujących różne fragmenty struktury chemicznej molekuły, co przekłada się na możliwość poznania wielkości tych fragmentów
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
37
Badania wykonywane w Laboratorium Spektroskopii NMR:
• określenie określenie struktury związków chemicznych (wyznaczenie sposobu połączenia atomów budujących związek chemiczny, określenie jego budowy przestrzennej) • badanie czystości związków • badanie profilu zanieczyszczeń substancji chemicznych • produktów ich degradacji pomoc na etapie przygotowania i projektowania badań w celu rozwią• pomoc zania konkretnych problemów, jak i interpretacji otrzymanych wyników
www.jci.pl
(długość łańcucha alifatycznego, liczbę pierścieni aromatycznych itp.). W bardzo licznych przypadkach, szczególnie dotyczy to niezbyt dużych i nieskomplikowanych cząsteczek organicznych, powiązanie tych informacji pozwala na jednoznaczne rozwiązanie, czy też potwierdzenie struktury chemicznej badanej molekuły. W przypadkach bardziej skomplikowanych, gdzie w grę wchodzą zjawiska izomerii, wzrost wielkości cząsteczki, zwiększenie różnorodności fragmentów strukturalnych ją budujących, a proste reguły wiążące częstość pochłanianego promieniowania ze strukturą cząsteczki nie dają jednoznacznych rozwiązań, z pomocą przychodzą wspomniane już w rysie historycznym eksperymenty wieloimpulsowe, pozwalające na otrzymywanie widm dwu-i wielowymiarowych. Użycie tych metod dostarcza wielkiej ilości szczegółowych informacji strukturalnych np. wskazujących na wzajemne sąsiedztwo atomów w strukturze cząsteczki, czy też pozwalających na wyodrębnianie całych układów atomów w przypadku modułowej budowy struktury molekularnej. Szczególnie interesujący dla badań chemii medycznej i biochemii był rozwój metod pozwalających na uzyskanie informacji dotyczących sąsiedztwa atomów w przestrzeni, niezależnie od samego szkieletu wiązań chemicznych. Dało to wgląd w strukturę chemiczną cząsteczki nie tylko w odniesieniu do kolejności i sposobu połącze-
nia atomów budujących badaną molekułę, ale pozwoliło na określenie wzajemnego położenia fragmentów cząsteczki w przestrzeni, co jeszcze niedawno zarezerwowane było praktycznie wyłącznie dla rentgenografii strukturalnej. Obecnie jesteśmy w stanie przy użyciu spektroskopii NMR badać tak duże obiekty molekularne jak białka, określając z bardzo dużą dokładnością ich strukturę przestrzenną. Przykład zastosowania tego typu eksperymentów pokazano na rys. 1. Rysunek przedstawia wynik dwuwymiarowego eksperymentu NOESY, który zastosowany został w celu określenia wzajemnej konfiguracji przestrzennej podstawników pierścienia sześcioczłonowego. Wskazane na widmie sygnały korelacyjne (obwiedzione czerwonymi prostokątami), odpowiadają, jak wskazuje strzałka na zamieszczonym wzorze, oddziaływaniu przez przestrzeń protonów grupy tert-butylowej i protonów grupy CH2 pierścienia pięcioczłonowego. Odziaływanie to jest możliwe jedynie wtedy, gdy dwa fragmenty struktury związku, znajdują się po tej samej stronie względem płaszczyzny pierścienia sześcioczłonowego, definiując jednoznacznie strukturę przestrzenną badanego związku.
Projektowanie leków W chemii medycznej spektroskopia NMR jest techniką znajdującą zastosowanie począwszy od etapu projektowania leku, a skończywszy na kontroli produkcji gotowego preparatu. Poszukiwanie struktur wiodących w pracach nad nowym lekiem generalnie opiera się na dwóch zasadniczych drogach postępowania bądź ich kombinacji. Pierwszą jest synteza metodami chemii kombinatorycznej obszernych bibliotek związków, poddawanych w dalszym etapie prac próbom wiązania z receptorem białkowym. W badaniach tych spektroskopia NMR, dzięki możliwości zastosowania całej gamy różnorodnych eksperymentów, zaczyna odgrywać coraz poważniejszą rolę jako metoda weryfikacji wiązania się ligandu do receptora. Użycie spektroskopii NMR pozwala na zidentyfikowanie związków już o stosunkowo słabym powinowactwie, nie wymagając jednocześnie wcześniejszej wiedzy na temat działania samego białka. Obserwować można zmianę własności spektralnych receptora, co przy odpowiednim zaprojektowaniu eksperymentów, pozwala również stwierdzić czy ligand wiąże się w miejscu aktywnym, czy np. następuje wiązanie do nieaktywnych kieszeni na powierzchni cząsteczki białka. Dodatkowo, można także prowadzić obserwacje
Ryc.1. Dwuwymiarowy eksperyment NOESY
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
38 |
spektroskopowe potencjalnych ligandów, co jest bardzo użyteczne jako technika screeningowa, pozwalająca na szybkie wyodrębnienie z grupy potencjalnych ligandów, związków łączących się z receptorem. Drugie podejście zakłada ukierunkowane projektowanie cząsteczki liganda, zgodnie z wymogami miejsca wiążącego receptora, według koncepcji „klucza i zamka”. Pierwszym etapem w tym podejściu jest poznanie samego receptora białkowego, jego struktury przestrzennej, w czym spektroskopia NMR może stanowić cenne źródło informacji. Otrzymane w wyniku celowego projektowania związki, bada się i optymalizuje ich strukturę, w czym ponownie nieocenione możliwości daje spektroskopia NMR, mająca wgląd w strukturę przestrzenną cząsteczki w roztworze (SAR by NMR).
Badanie gotowych preparatów Zostawiając już bardzo obszerną tematykę projektowania nowych substancji leczniczych, nie można nie wspomnieć o zastosowaniu spektroskopii NMR do badania już gotowych preparatów. Ze względu na bardzo duży zakres skali dynamiki pomiaru widm NMR oraz możliwość prowadzenia pomiarów ilościowych, spektroskopię NMR można używać do badania czystości otrzymanych preparatów, oznaczania profilu zanieczyszczeń, oznaczania zawartości resztkowej rozpuszczalników oraz do oznaczania zawartości poszczególnych izomerów (jeżeli istnieją) w gotowym preparacie. Jednocześnie, oznaczając czystość otrzymanego preparatu, otrzymuje się istotną informację na temat chemicznego charakteru obecnych zanieczyszczeń, a często udaje się je także jednoznacznie zidentyfikować. Z tego samego powodu spektroskopia NMR doskonale nadaje się do oznaczania składu preparatów wieloskładnikowych, zarówno pod względem jakościowym, jak i ilościowym, co może również być wykorzystane do potwierdzenia autentyczności preparatu. Pomiary takie, określane mianem ilościowego NMR (qNMR), z powodzeniem są również stosowane w badaniach nad produktami pochodzenia naturalnego, w chemii spożywczej (analiza soków owocowych, olejów jadalnych czy win), jak również w chemii substancji pomocniczych stosowanych w farmacji, takich jak polimery i biopolimery (np. heparyny, modyfikowana skrobia, glukany). Podobnie bada się obecnie polisacharydy używane w procesie produkcji szczepionek. Ze względu na bardzo skomplikowany charakter takich układów, analiza opiera się często na porównywaniu widm próbek z widmem wzorca, bez konieczności przypisania sygnałów do odpowiednich składników próbki. Jednakże, jeżeli istnieje taka potrzeba, możliwe jest zidentyfikowanie składników produktu i określenie wzajemnej proporcji składników w próbce. Widma wykonywane w czasie posłużyć mogą do badania stabilności strukturalnej i oznaczania produktów rozkładu badanych substancji.
Rozwój spektroskopii NMR Ogromny rozwój, jaki dokonał się na przełomie wieków w technologii konstrukcji magnesów nadprzewodzących (magnesy aktywnie ekranowane), elektronice, konstrukcji sond pomiarowych (kriosondy), a także pojawienie się nowych metod pomiarowych, owocuje coraz większym zasięgiem możliwości zastosowania spektroskopii NMR w różnych dziedzinach chemii, biochemii czy farmacji, przy co warto podkreślić, ciągle niewielkim koszcie pomiaru widma NMR wynoszącym od 30 do 40 zł. Powyższy opis ma na celu jedynie zasygnalizowanie możliwych kierunków badań, w których spektroskopia NMR już odgrywa, bądź rozpoczyna odgrywać coraz większa rolę.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
artykuł sponsorowany
39
Testo AG prezentuje nową serię rejestratorów testo 184
Monitorowanie temperatury, wilgotności i wstrząsów oraz ich dokumentacja w transporcie żywności i produktów farmaceutycznych Nawet jednorazowe przekroczenie górnego lub dolnego limitu dopuszczalnych wartości temperatury, wilgotności lub wstrząsów może prowadzić do psucia się lub obniżenia efektywności działania wrażliwych produktów farmaceutycznych lub spożywczych. Jest to szczególnie ważne w przypadku produktów farmaceutycznych, ponieważ ich uszkodzenia podczas transportu często nie mogą być wykrywane wzrokowo ani za pomocą zapachu, co może pociągać za sobą poważne konsekwencje.
S
Wykorzystanie rejestratorów Testo wraz z możliwym do walidowania oprogramowaniem ComSoft CFR zapewnia między innymi: ograniczenie dostępu wyłącznie do osób upoważnionych, ścieżkę audytu wraz z zapisem czasu oraz podpisy elektroniczne, umożliwiające wykorzystanie rejestratorów zgodnie z 21 CFR Część 11.
ześć nowych rejestratorów Testo zostało stworzonych przede wszystkim z myślą o łatwej kontroli wrażliwych na temperaturę i wilgotność przesyłek farmaceutycznych (np. szczepionek i substancji aktywnych) oraz przesyłek produktów spożywczych (np. ryb, mięsa i produktów mleczarskich). Na serię rejestratorów testo 184 składają się cztery rejestratory temperatury (testo 184 T1, T2, T3 i T4), rejestrator temperatury i wilgotności (testo 184 H1) oraz rejestrator temperatury, wilgotności i wstrząsów (testo 184 G1).
Wytyczne GxP W środowisku regulowanym przez GxP szczególnie wysokie wymagania kładzione są na zarządzanie jakością. Coraz ważniejszą rolę odgrywają nie tylko GMP i GLP, ale również GDP (ang. Good Distribution Practice, dobra praktyka dystrybucyjna). Ponieważ dystrybucja produktów farmaceutycznych i medycznych to nic więcej jak mobilne magazynowanie, dotyczą jej te same reguły, co obowiązujące w przypadku produkcji, odnoszące się do kontroli i zapewnienia jakości. Przy pomocy rejestratora testo 184, praca zgodna z GxP nie będzie stanowić już problemu.
Łatwa obsługa i wygodny odczyt Aby uzyskać szczegółowe informacje dotyczące mierzonych parametrów, wystarczy podłączyć rejestrator do komputera za pomocą wejścia USB. Natychmiast wygenerowany zostaje raport w postaci pliku PDF zawierający wszystkie istotne dane, na podstawie którego można dokładnie prześledzić, czy temperatura, wilgotność i wstrząsy podczas transportu znajdowały się w dopuszczalnych przedziałach. Dodatkowo wszystkie niezbędne pliki i informacje są bezpośrednio i bezpiecznie przechowywane w urządzeniu testo 184. Są to: dane konfiguracyjne, certyfikat kalibracji (tylko testo 184 T1-T4), instrukcja obsługi oraz wygenerowany raport zawierający dane pomiarowe. Nie ma konieczności instalowania oprogramowania do użytkowania urządzenia, ani w celu konfiguracji poszczególnych wartości granicznych. Możliwy jest odczyt danych z rejestratorów przy pomocy smartfonów z Androidem i NFC (Near Field Communication). Rejestrator zapewnia wsparcie w postaci automatycznych obliczeń wartości MKT oraz opcji określania alarmów MKT, co jest przydatne przy analizie danych dotyczących stabilności. Szczegółowe zarządzanie alarmami umożliwia określanie kilku granic alarmowych. Możliwe jest określanie alarmów kumulatywnych, np. gdy temperatura nie może przekroczyć wartości granicznej 8°C na dłużej niż 30 minut.
Testo 184 w zastosowaniach zgodnych z 21 CFR Część 11 Rozporządzenie FDA 21 CFR Część 11, na podstawie którego oparty jest między innymi załącznik 11 UE GMP, zawiera postanowienia dotyczące przechowywanych elektronicznie dokumentów w których złożono podpisy elektroniczne.
e-wydanie do pobrania na:
www.farmacom.com.pl
Rejestratory danych z serii testo 184 są więc nieodzownym towarzyszem w transporcie wrażliwych towarów. Łatwe w konfiguracji i wygodne do odczytu, monitorują temperaturę, wilgotność i wstrząsy zgodnie z wszystkimi najważniejszymi przepisam i i normami.
2/2014
40 |
Chromatografia gazowa i cieczowa – opis metody oraz zastosowanie Związki chemiczne występują w przyrodzie w postaci mieszanin i w takiej też postaci są najczęściej otrzymywane drogą syntezy. Pojęcie rozdzielania mieszanin związków chemicznych było więc podstawowym problemem nauk chemicznych. W procesie owego rozdzielania mieszanin wykorzystuje się różne właściwości fizyczne, fizykochemiczne i chemiczne składników. Opracowano wiele metod rozdzielania substancji, zarówno na skalę mikro, jak i makro. Wśród klasycznych metod wymienić można: filtrację, odparowywanie, krystalizację, sedymentację, dekantację czy destylację. Zaliczyć tu należy także metody chromatograficzne.
Nadzieja Gawenda
Zastępca Kierownika Laboratorium Ds. Rozwoju i Wdrożeń Zakład Farmaceutyczny AMARA Sp. z o.o.
Co to jest chromatografia? Chromatografia to wyraz powstały połączenia dwóch leksemów pochodzących z języka greckiego: chromatos, czyli ‘barwa’ i grapho, czyli ‘pisze’. Za ojca chromatografii uznaje się Michaiła Siemionowicza Cwieta, rosyjskiego botanika, fizjologa i biochemika. Pierwsze prace prowadził on, używając roztworu chlorofilu w eterze naftowym, który przesączał przez ubitą kredę, opracował tym samym chromatografię kolumnową. Prowadził również badania nad rozdzielaniem barwników roślinnych – rozdzielił chlorofil i ksantofil, dlatego też uznawany jest za odkrywcę karotenoidów. Chromatografia jest metodą rozdzielania mieszanin, w których rozdzielane składniki ulegają podziałowi między dwie fazy – nieruchomą (stacjonarną) i ruchomą (mobilną) – układu chromatograficznego. Fazą ruchomą może być gaz, ciecz lub substancja w stanie nadkrytycznym, podczas gdy fazą stacjonarną jest substancja stała albo ciekła. Kinetyczny ruch cząsteczek prowadzi do nieustannej wymiany substancji pomiędzy obiema fazami. Jeżeli dla danej substancji podział jest bardziej korzystny dla poruszającej się fazy stacjonarnej, cząsteczki spędzą większość czasu, migrując ze strumieniem tej fazy i będą oddzielone od innych składników, których cząsteczki są dłużej zatrzymane przez fazę stacjonarną. Badana mieszanina jest wprowadzona do układu
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
41 w postaci wąskiej strefy (punkt wyjściowy), po czym substancje są transportowane z różną szybkością zgodnie z kierunkiem przepływu fazy ruchomej. Siłą napędową migrującej substancji jest poruszająca się faza ruchoma, a siłą przytrzymującą powinowactwo substancji do fazy stacjonarnej. Kombinacja obu tych sił, kontrolowana przez analityka, prowadzi do rozdzielenia składników mieszaniny na poszczególne substancje. Zdefiniowanie chromatografii jako metody rozdzielania nie oddaje w pełni możliwości jej zastosowań. Trzeba nadmienić, że jest to także metoda analizy mieszanin – jakościowej i ilościowej. Aktualnie chromatografia stanowi najbardziej rozpowszechnioną metodę analityczną i w połączeniu na przykład z metodami spektroskopowymi stwarza szerokie możliwości analizy skomplikowanych mieszanin, w szczególności związków organicznych.
Podział metod chromatograficznych Metody chromatograficzne klasyfikuje się według następujących kryteriów: Stan skupienia fazy ruchomej • Chromatografia gazowa • Chromatografia cieczowa • Chromatografia fluidalna Stan skupienia fazy stacjonarnej • Gaz – ciecz (ang. Gas-Liquid Chromatography – GLC) • Ciecz – ciecz (ang. Liquid-Liquid Chromatography – LLC) • Gaz – ciało stałe (ang. Gas-Solid Chromatography – GSC) • Ciecz – ciało stałe (ang. Liquid-Solid Chromatography – LSC) Natura zjawisk będących podstawą procesu chromatograficznego • Chromatografia adsorpcyjna
• Chromatografia podziałowa • Chromatografia jonowymienna • Chromatografia sitowa (sączenie molekularne – chromatografia żelowa) Techniki eksperymentalne Proces chromatografowania można prowadzić: • Techniką kolumnową, stosowaną we wszystkich metodach chromatograficznych. • Techniką planarną, możliwą tylko w chromatografii cieczowej, która dzieli się na chromatografię cienkowarstwową i bibułową.
Co to jest chromatografia gazowa? Chromatografia gazowa jest metodą stosunkowo niedawną, gdyż pierwsze prace na jej temat ukazały się w 1952 roku (James i Martin – chromatografia gazowa podziałowa, Cremer i Janak – chromatografia gazowa adsorpcyjna). Szacuje się, że 10-20% znanych związków może zostać wykryta za pomocą chromatografii gazowej. Związki, które mogą być analizowane z wykorzystaniem tej metody muszą charakteryzować się wystarczającą trwałością termiczną i odpowiednią lotnością. Jeżeli wszystkie, albo niektóre, cząstki składników znajdują się w fazie gazowej lub w postaci pary w 400-450˚C (ewentualnie poniżej tej temperatury), ale nie rozkładają się w niej, prawdopodobnie mogą być analizowane metodą chromatografii gazowej.
Zasada działania Do chromatografu gazowego dostarczany jest gaz lub gazy odznaczające się wysoką czystością. Jeden z nich (nazywany gazem nośnym) płynie przez kolumnę do dozownika, a następnie do detektora.
Próbka wprowadzana jest do dozownika strzykawką albo zewnętrznym urządzeniem dozującym. Dozownik ogrzewa się zazwyczaj do temperatury 150-250˚C, co powoduje odparowanie lotnych składników próbki. Odparowane składniki przenoszone są do kolumny za pomocą gazu nośnego. Temperatura kolumny utrzymana jest przez termostat. Składniki przenoszone są przez kolumnę w stopniu określonym przez ich właściwości fizyczne, a także w zależności od temperatury i zastosowanej kolumny. Badane substancje przepływają przez kolumnę z różną szybkością. Związki, które przepływają najszybciej, opuszczą kolumnę (eluują) jako pierwsze, po czym w odpowiedniej kolejności wymywane będą pozostałe składniki. Każdy z nich, który opuści kolumnę, wprowadzany jest do detektora. Detektor reaguje na poszczególne składniki próbki i wytwarza odpowiedni sygnał elektroniczny. Wielkość sygnału zapisana jest w systemie danych, a następnie wykreślona na chromatogramie, który przedstawia zależność wielkości piku do czasu wymycia składników. Idealny chromatogram zawiera niezachodzące na siebie, rozmieszczone blisko piki. Te nakładające się na siebie nazywane są pikami koelującymi. Czas wymywania oraz wielkość piku są bardzo ważne, ponieważ umożliwiają identyfikację i oszacowanie ilości analizowanych związków w próbce. Wielkość otrzymanego piku jest proporcjonalna do ilości składnika w próbce. Większe piki obserwuje się wtedy, gdy rośnie stężenie danego składnika. Jeżeli kolumna i wszystkie warunki jej pracy pozostają niezmienione, dany związek zawsze przemieszcza się przez kolumnę z tą samą szybkością. Dlatego analizowany związek może być także rozpoznany na podstawie czasu, w jakim przepłynął przez kolumnę (czas retencji).
Co to jest chromatografia cieczowa?
Rys. 1. Podstawowe elementy układu GC (C. Lopez, Chemia Analityczna – Chromatografia, Katedra Chemii Analitycznej, Wydział Chemiczny, Politechnika Gdańska 2002)
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
Najstarsza z metod chromatograficznych, klasyczna kolumnowa chromatografia cieczowa, przeżywa obecnie swój renesans dzięki nowoczesnym rozwiązaniom, skracającym czas analizy i zwiększającym zdolność rozdzielczą. Chromatografia cieczowa obejmuje te metody, w których fazą ruchomą jest ciecz. Współczesną chromatografię określamy w różny sposób: wysokosprawna chromatografia cieczowa, wysokociśnieniowa chromatografia cieczowa, szybka chromatografia cieczowa czy też chromatografia cieczowa o dużej zdolności rozdzielczej.
42 |
Właściwie wszystkie te określenia uwypuklają najistotniejsze cechy współczesnej chromatografii cieczowej, a mianowicie: wysoka sprawność, dobra rozdzielczość, duża szybkość procesu i stosowanie wysokich ciśnień. Wszystkie te korzystne parametry współczesnej chromatografii cieczowej (HPLC) osiągnięto dzięki instrumentacji metody i wprowadzeniu nowych faz stacjonarnych. Metoda HPLC okazała się najprężniej rozwijającą się techniką chromatograficzną i znalazła szerokie zastosowanie w analizie preparatów farmaceutycznych.
a rezultat tego pędu na pewno silnie odczuje przemysł farmaceutyczny.
Zastosowanie chromatografii w przemyśle farmaceutycznym
Chromatografia, poprzez swoją uniwersalność i możliwość łączenia jej z innymi technikami analitycznymi, stwarza ogromne pole do zastosowania w przemyśle farmaceutycznym. Chromatografia gazowa pozwala na określenie pozostałości rozpuszczalników po syntezie surowców farmaceutycznych. Niesie ze Rys. 2. Rodzaje kolumn chromatograficznych (R. Głowacki, Razem czy sobą również ogromne możliwości do osobno, czyli kilka słów o separacji związków chemicznych, Katedra Chemii badania preparatów, w skład których Środowiskowej, Wydział Chemiczny, Uniwersytet Łódzki) wchodzi alkohol, m.in. nalewek, wyZasada działania ciągów ziołowych, kropli i syropów. W chromatografach cieczowych fazę dodatkową pożądaną cechę, a mianowicie Analiza kremów, maści czy żeli nie stanowi ruchomą pompuje się przez kolumnę chrobardzo wąskie kanaliki. żadnego problemu dla chromatografii cieczomatograficzną. Analizowana próbka wstrzyObecnie na rynku dostępnych jest wiele wej. W jednej analizie jesteśmy w stanie określić kiwana jest na szczyt kolumny, gdzie składróżnorodnych rodzajów kolumn, stwarza to tożsamość preparatu oraz zawartość poszczeniki próbki są rozdzielane, a na wyjściu wyogromne możliwości dla rozwoju przemysłu gólnych substancji aktywnych i konserwujących. Można tak wymieniać bez końca, lecz podkrywane przez detektor. Sygnał z detektora farmaceutycznego – skomplikowane formulakreślić należy, że uniwersalność zastosowania zapisywany jest i przekazywany w postaci cje leków mogą być coraz szybciej i dokładniej metod chromatograficznych sprawia, iż stanie zapisu cyfrowego. Po przeprowadzonej anaanalizowane. Podczas jednego badania możsię ona nierozerwalną częścią przemysłu farmalizie powstaje chromatogram, na podstawie na zidentyfikować związki, określić ich zawarceutycznego i to właśnie ta gałąź przemysłu bęktórego można stwierdzić tożsamość związtość, jak również zawartość zanieczyszczeń. dzie wyznaczać trendy rozwoju chromatografii. ków, jak również ich zawartość. Przy pomocny klasycznych metod nie było „Sercem HPLC” jest kolumna chromatograficzna. Kolumna z wypełnieniem zawiera cząstki, które stanowią lub podtrzymują fazę stacjonarną, natomiast faza ruchoma przepływa przez kanaliki przestrzeni międzyziarnowej. Teoria wykazała, że lepsze rezultaty osiąga się, stosując bardzo małe cząsteczki, które jednocześnie zapewniają
podstaw, by choćby o tym marzyć. Kto wie, czym będziemy dysponować za 15 lat? Być może rozpuszczalniki zużywane będą w mikro-, a nie w mililościach, może analizy wykowywane będą w sekundach, a nie minutach. Tego w stu procentach dzisiaj nie wiemy, ale jedno jest pewne – rozwój chromatografii będzie pędził, jak najszybsze pociągi tego świata,
2/2014
Bibliografia •
C. Lopez, Chemia Analityczna – Chromatografia, Katedra Chemii Analitycznej, Wydział Chemiczny, Politechnika Gdańska 2002.
•
R. Głowacki, Razem czy osobno, czyli kilka słów o separacji związków chemicznych, Katedra Chemii Środowiskowej, Wydział Chemiczny, Uniwersytet Łódzki.
e-wydanie do pobrania na:
www.farmacom.com.pl
44 |
® – bezpieczny pacjent
Falsyfikaty leków, trudne do odróżnienia od oryginałów, opanowały zarówno światowy, jak i polski rynek. Strata pieniędzy to najłagodniejszy skutek kupna i zażycia podrobionego medykamentu.
KEA
U
życie leku pochodzącego z niewiadomego źródła to droga do silnych, trudnych do opanowania i leczenia, zatruć. Ponieważ nie można dopasować w takim przypadku skutecznej kuracji, skutek zażycia „fałszywki” może być najgorszy z możliwych. Większość podrabianych leków, bo aż 21,4% produkowanych jest z niewłaściwych składników, 20% zawiera niewłaściwą substancję aktywną, a 8,5% zawiera składniki zanieczyszczone lub zanieczyszczające. Najwięcej fałszywych leków kupowanych jest w aptekach internetowych oraz na bazarach. Ale trafić się mogą również w zwykłej, osiedlowej aptece, w której regularnie się zaopatrujemy. – Skala problemu, mimo szeregu przedsięwzięć w tym zakresie, podejmowanych przez liczne instytucje jest bardzo duża – mówi koordynator programu Prawdziwy Lek. – Światowa Organizacja Zdrowia (WHO) szacuje, że blisko 10% leków znajdujących się w obrocie, to podróbki. To oficjalne dane, przyjąć więc należy, że fałszywych medykamentów sprzedaje się co najmniej dwa razy więcej.
Trudna walka z podróbkami W ramach operacji PANGEA III, prowadzonej przez Interpol przy współudziale 45 państw, ujawniono 694 strony internetowe zaangażowane w nielegalną działalność. Od razu zlikwidowano 290 z nich. Specjaliści zbadali 268 tys. opakowań, z czego prawie 11 tys. zatrzymano. Skonfiskowano ponad milion nielegalnych lub podrabianych tabletek, w tym antybiotyków, steroidów, leków na raka, antydepresantów, leków na epilepsję, preparatów na odchudzanie i suplementów diety.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
45 Z fałszerstwami, obok światowych instytucji, walczy również powołany w listopadzie 2007 roku pod przewodnictwem Głównego Inspektora Farmaceutycznego międzyresortowy Zespół do Spraw Fałszowania i Nielegalnego Obrotu Produktami Leczniczymi oraz Innymi Sfałszowanymi Produktami Spełniającymi Kryteria Produktu Leczniczego. Rozwój nowoczesnych technologii oraz powszechny do nich dostęp spowodowały, że złamanie stosowanych obecnie technik zabezpieczeń, takich jak hologramy oraz farby termo – i światłoczułe nie stanowi dla zorganizowanych grup przestępczych większego problemu. Zabezpieczenia te nie dają zatem gwarancji oryginalności, a co za tym idzie bezpieczeństwa stosowania. W ocenie koordynatora programu Prawdziwy Lek, walka z fałszerzami leków wymaga także powszechnego i aktywnego zaangażowania ze strony producentów leków.
dziejstw systemu, ponieważ uruchomiliśmy dedykowaną do programu infolinię. KEA wypracowała również rozwiązanie, pozwalające dystrybutorom, hurtownikom czy aptekom sprawdzać autentyczność całej partii leków.
Producenci leków mają szansę zdobyć wiarygodność KEA jest gotowa do uruchomienia produkcji specjalnych, oznaczonych „kodem genetycznym” ulotek, a pod adresem www.prawdziwylek.pl funkcjonuje strona internetowa programu. Sam program w sposób zasadniczy rozwiązuje problem kontroli autentyczności leku wprowadzanego na rynek, a udział w programie Prawdziwy Lek to dla producenta przede wszystkim wyraz troski o bezpieczeństwo pacjentów oraz wzrost wiarygodności. Służby celne każdego roku zatrzymują blisko 160.000 podrobionych leków. Nie bez powodu Polska, zaraz po Bułgarii i Turcji uważana jest za najmniej bezpieczny rynek farmaceutyczny w Europie. Do tego Polacy przyjmują zatrważającą ilość leków bez recepty. Liczne i łatwo dostępne są kanały ich sprzedaży – od stacji benzynowych, poprzez sklepy spożywcze i kioski aż po automaty. To stanowi dla przestępców farmaceutycznych prosty sposób wprowadzenia podróbek do obiegu.
Program Prawdziwy Lek jest skutecznym rozwiązaniem Właśnie producentów leków KEA chce zainteresować autorskim programem Prawdziwy Lek. Jest to system zabezpieczający medykamenty przed podrabianiem, poprzez oznakowanie ich specjalnym, unikalnym dla jednostkowego opakowania leku, „kodem genetycznym”. Pacjent, chcąc sprawdzić autentyczność farmaceutyku, wprowadza kod za pośrednictwem strony internetowej lub infolinii, uzyskując w ten sposób wiarygodną informację na temat legalnego bądź nielegalnego źródła pochodzenia leku. – Każdemu pacjentowi dajemy do ręki narzędzie, pozwalające sprawdzić, czy nie wszedł w posiadanie szkodliwej dla zdrowia podróbki – mówi koordynator programu Prawdziwy Lek. – Również osoby nie mające dostępu do Internetu mogą skorzystać z dobro-
Unikatowy poziom zabezpieczeń odstraszy przestępców Zabezpieczenie leku unikalnym jednostkowym „kodem genetycznym”, którego weryfikacji dokonać może samodzielnie każdy pacjent jest zdecydowanie najskuteczniejszą metodą walki z fałszerzami – mówi koordynator programu Prawdziwy Lek. Opracowany przez nas wynalazek, obejmujący zarówno sposób jak i system zabezpieczenia produktów przed fałszowaniem, został zgłoszony do Urzędu Patentowego RP. Jego upowszechnienie w znacznym stopniu obniży aktywność przestępców, bo podrabianie leków stanie się po prostu nieopłacalne. Czy firmy farmaceutyczne dla dobra pacjentów i ochrony swoich interesów zdecydują się na udział w programie Prawdziwy Lek? KEA pracuje nad usunięciem wszelkich przeszkód, które mogłyby zagrozić sprawnemu wdrożeniu przedsięwzięcia. Sporym utrudnieniem dla producentów jest skomplikowana i długotrwała procedura zatwierdzania zmiany oznakowania opakowania zewnętrznego leku oraz treści ulotki przez Urząd Rejestracji Produktów Leczniczych. Dlatego też, zwróciliśmy się do Ministra Zdrowia wskazując na korzyści płynące z opracowanego przez nas systemu i sposobu zabezpieczeń oraz wprowadzenia sprawnej rejestracji nowych wzorów opakowań i ulotek.
Komisja Europejska przeciw podróbkom medykamentów KEA, wdrażając program Prawdziwy Lek wychodzi przede wszystkim naprzeciw pacjentom, a także instytucjom państwowym i firmom farmaceutycznym. Zwłaszcza, że w dniu 16 lutego br. Parlament Europejski, właśnie z uwagi na skutki zdrowotne, przyjął dyrektywę, która ma zapobiegać wprowadzaniu do legalnego systemu dystrybucji produktów leczniczych sfałszowanych pod względem tożsamości, historii lub źródła pochodzenia. Nowe przepisy wprowadzają między innymi konieczność zabezpieczenia opakowań poprzez umieszczanie na nich oznakowań identyfikacyjnych. Dotyczyć to ma przede wszystkim leków sprzedawanych na receptę, ale w dalszej kolejności również pozostałych, jeśli ryzyko ich podrabiania będzie duże. Na implementację nowych regulacji Polska ma 18 miesięcy. Wszystko wskazuje jednak na to, że dzięki programowi Prawdziwy Lek mogłaby zdecydowanie skrócić czas wdrażania postanowień wspólnotowej dyrektywy.
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
46
Pielęgnacja pacjentów z cukrzycą Nowe technologie w walce z globalną pandemią
Dr Johannes Rauschnabel Główny Ekspert Farmaceutyczny, Bosch Packaging Technology
L
iczba osób cierpiących na cukrzycę gwałtownie wzrasta na całym świecie. Równolegle globalny rynek terapii insulinowych rośnie znacznie szybciej niż łączna sprzedaż leków na receptę. Dla osób z cukrzycą zależnych od insuliny systemy penów, w których można stosować wkłady z insuliną i igły do wstrzykiwań już od dawna przewyższają wszystkie inne systemy wstrzykiwań. By umożliwić bezpieczne napełnianie wkładów insulinowych, producenci oferują nowe technologie zapewniające wysoką skuteczność, małą utratę produktu i optymalną ochronę pacjenta. Cukrzyca to pierwsza choroba niezakaźna, która nabrała wielkości pandemii. Rosnąca liczba młodych osób z cukrzycą jest szczególnie martwiąca, ponieważ w związku ze wzrostem zachorowań zwiększa się obciążenie systemu ochrony zdrowia związane ze skutkami długoterminowymi. Niemniej jednak badania nad cukrzycą przyczyniły się w ostatnich latach do ogromnego postępu. Choroba, która kiedyś była śmiertelna, dziś jest uznawana za chorobę przewlekłą. Dzięki nowym terapiom celowym i technologiom podawania insuliny oczekiwana długość życia osób cierpiących na cukrzycę jest taka sama jak oczekiwana długość życia innych osób. Bieżące liczby są jednak przerażające. Na świecie na cukrzyce cierpi 382 miliony osób. Szacuje się, że do 2015 roku liczba ta wzrośnie do 592 milionów.1 Większość osób z cukrzycą – około 80 procent – mieszka w krajach o dochodzie średnim do niskiego, przy czym coraz większy odsetek mieszka w tak zwanych gospodarkach wschodzących.
Typy cukrzycy W cukrzycy typu 1 komórki odpornościowe organizmu atakują wytwarzające insulinę komórki beta wysp Langerhansa trzustki. Często dzieje się tak w dzieciństwie. Do tej pory nie jest znane pełne naukowe wyjaśnienie przyczyny owej błędnej reakcji immunologicznej. Ze względu na powstający w efekcie niedobór insuliny w leczeniu cukrzycy typu 1 zawsze konieczna jest terapia insulinowa. Eksperci są natomiast zgodni, że cukrzyca typu 2 wynika głównie z nowoczesnego stylu życia. Obecnie cukrzyca tego typu stanowi około 90 procent przypadków. Nadwaga i brak ćwiczeń prowadzą do oporności na insulinę, a w efekcie hormon ten nie działa prawidłowo na błony komórkowe i nie transportuje glukozy do komórek. Pro-
2/2014
wadzi to do podwyższenia stężenia glukozy we krwi, które często nie zostaje rozpoznane przez wiele lat. Wszystkie metody leczenia cukrzycy zawsze miały na celu kontrolowanie poziomu cukru we krwi i zapobieganie jego znacznym wahaniom w dół (hipoglikemia) i w górę (hiperglikemia). W latach dwudziestych XX wieku badacze Frederick Banting i Charles Best zdołali wyodrębnić insulinę i po raz pierwszy skutecznie leczyć nią młodych pacjentów.2 Nagle dawało się kontrolować chorobę do tej pory śmiertelną. Dziś insulinę pozyskuje się z bakterii przy użyciu metod biotechnologicznych i sprzedaje na rynku jako insulinę ludzką. Od roku 1996 zatwier-
e-wydanie do pobrania na:
www.farmacom.com.pl
47 dzone się również insuliny modyfikowane. Produkty te, nazywane analogami insuliny, działają szczególnie szybko i jednolicie.
Zmiana metod leczenia cukrzycy i sposobu podawania Innowacje techniczne od roku 1980 umożliwiły samodzielne monitorowanie poziomu glukozy w domu – jest to istotny postęp w obliczaniu dawki insuliny, który daje pacjentom elastyczność w codziennym życiu. Peny insulinowe umożliwiają łatwe podawanie insuliny. Są one stosowane jako systemy wielokrotnego użytku z napełnianymi insuliną wkładami.3 Niezależne podawanie insuliny jest teraz dla pacjentów z cukrzycą znacznie łatwiejsze. Kształt penów umożliwia nie tylko wygodny transport, ale też podanie dawki poza domem bez zwracania uwagi. Pacjenci mogą lepiej dostosować terapię do ich stylu życia. Innym krokiem milowym było opracowanie pomp insulinowych, które stale i elastycznie podają pacjentom z cukrzycą typu 1 insulinę o krótkim działaniu. Chociaż bezigłowe systemy podawania nie są jeszcze bardzo popularne na rynku, kilka rozwiązań oferuje dalszą poprawę jakości życia pacjentów z cukrzycą. Przykładem jest insulina wziewna. Chociaż pierwsze komercyjne badania prowadzone od około 2006 roku się nie powiodły, ponowienie prób może nastąpić niedługo: Amerykańska Agencja ds. Żywności i Leków (FDA) prowadzi obecnie przegląd formuły wziewnej jednego z amerykańskich producentów produktów farmaceutycznych.4 Prowadzone są dalsze badania, również dotyczące rozwoju insuliny podawanej doustnie.5
Bezpieczeństwo produktu i pacjenta
Bezpieczeństwo produktu jest najważniejszym kryterium dla producentów farmaceutycznych. Z tego powodu przemysł farmaceutyczny usiłuje zminimalizować udział pracy ręcznej w procesie produkcji. Nowoczesna technologia barierowa całkowicie izoluje wzajemnie produkty, procesy, sprzęt i operatorów. Systemy barierowe ograniczonego dostępu (RABS od ang. Restricted Access Barrier Systems) zapewniają skuteczną separację w pomieszczeniu sterylnym. Producenci insuliny polegają też w coraz większym stopniu na izolatorach, które zapewniają wyższą jakość produktu przy niższych kosztach w porównaniu z konwencjonalnymi pomieszczeniami sterylnymi.
Urządzenia napełniające i zamykające wkłady o wydajności do 600 jednostek na minutę są obecnie uznawane za bardzo nowoczesne i są już stosowane na rynku w dużej liczbie. Niektóre linie napełniania wbudowane w systemy izolujące pracują ciągle przez 21 dni, oferując maksymalną wydajność. Przemysł oczekuje nawet większej elastyczności w zakresie systemów napełniania i obróbki opakowań. Dlatego nowoczesne zakłady i linie są zgodne ze wszystkimi obecnymi technologiami napełniania i częściowo wyposażone w wielofunkcyjne stacje napełniania obsługujące kilka typów opakowań, jak wkłady, fiolki oraz butelki lub strzykawki do iniekcji.
Wzrost rynku wymaga dużej wydajności
Skupienie na wytrzymałości szkła
Na bardzo konkurencyjnym rynku insuliny presja kosztu jest wszechobecna. Ustalenie wysokiej ceny produktów insulinowych nie jest możliwe, dlatego producenci mogą generować zyski wyłącznie przez wielkość produkcji. Chociaż pompy insulinowe są nawet łatwiejsze w użyciu niż peny, nie zdobyły popularności na świecie ze względu na wyższy koszt produkcji. Główni producenci rozszerzyli produkcję do coraz większej liczby miejsc na świecie nie tylko z powodu czynnika kosztów, ale też ze względu na rosnącą liczbę chorych na cukrzycę w gospodarkach wschodzących. Dlatego urządzenia do obróbki wkładów do penów insulinowych są używane coraz częściej zwłaszcza na wschodzących rynkach farmaceutycznych, na przykład w Indiach, Brazylii i Chinach. Producenci wybierają urządzenia na podstawie wysokiej wydajności, dużej dostępności i powtarzalnej precyzji wytwarzania insuliny.
Wkład przechodzi wieloetapowy proces: mycie, silikonowanie, sterylizację, napełnianie i zamykanie w urządzeniu izolującym, inspekcję i napełnianie tacy. W procesach tych wkład jest poddawany działaniu różnych temperatur, ciśnień i ruchów, które nie mogą spowodować uszkodzeń. Obciążenie szkła warunkami fizycznymi jest tym większe, im większa jest prędkość urządzenia napełniającego i zamykającego. Może ono powodować uszkodzenia szkła, np. pęknięcia, uszczerbienia lub złamania. Utrata produktu w wyniku takich uszkodzeń zwiększa koszty ponoszone przez producentów farmaceutycznych, czemu producenci urządzeń starają się zapobiec oferując nowe rozwiązania umożliwiające łagodne przetwarzanie.
Z powodu światowego wzrostu liczby osób cierpiących na cukrzycę i stałych usprawnień metod leczenia i podawania globalny rynek insuliny ciągle rośnie, równolegle z rynkiem penów i innych narzędzi do podawania insuliny. Obecnie peny są najczęściej stosowanym systemem, głównie ze względu na łatwość użycia i stosunkowo niską cenę produkcji. W penach insulinowych umieszcza się wkłady. Wkład taki to szklany cylinder z przodu zamknięty aluminiową zatyczką z przebijaną membraną. Tylny koniec cylindra jest zamknięty gumową zatyczką. Dla pacjentów z cukrzycą łatwa i bezpieczna obsługa penów jest najważniejszym kryterium. Producenci insuliny muszą zwracać szczególną uwagę na sterylne napełnianie i na czystość stosowanych materiałów.
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
Głównym celem innowacji jest ograniczenie kontaktu między szklanymi pojemnikami. Na przykład podczas ładowania do
48 potrząsanie przed podaniem. Podawanie kulek szklanych również jest monitorowane z użyciem czujników.
Badania dla lepszej jakości życia
urządzenia czyszczącego wkłady są umieszczane na taśmie transportowej w jednym rzędzie i następnie transportowane również w rzędach. Pojemniki ze stali nierdzewnej nazywane krążkami transportowymi zapewniają płynny transport ze stacji myjącej przez tunel sterylizujący, bez kontaktu szkła ze szkłem. Jest to szczególnie ważne w obróbce wkładów z dwiema komorami, które mogą być nawet bardziej wrażliwe ze względu na wewnętrzne obejście.
Dostosowanie obciążenia fizycznego W procesie sterylizacji szkło jest narażone na ogromne działanie wysokich temperatur. Wysoka temperatura rozszerza masę szklaną w tunelu. Można to zrównoważyć taśmą transportową z elastycznym bocznym podparciem, które poszerza się bezpośrednio po wejściu do tunelu. By zapobiec uszkodzeniu wkładów w razie przewrócenia, transportuje się je do wejścia do urządzenia napełniającego luzem, a następnie rozdziela kołem gwiazdowym. Kąt koła gwiazdowego musi być precyzyjnie zaprojektowany tak, by ułatwić spójne ładowanie wkładów do kieszeni odbierających w kole gwiazdowym. Maszynowe podawanie i usuwanie wkładów jeszcze bardziej ogranicza obciążenie fizyczne. Kosmetyczne uszkodzenia szkła świadczą o uszkodzeniu opakowania, które może się też złamać w transporcie do pacjenta lub ulec skażeniu cząsteczkami po napełnieniu i zamknięciu. Przede wszystkim jednak precyzyjne i prawidłowe zamknięcie wkładów
jest kluczowe dla bezpiecznego podania leku, dlatego ważna jest stuprocentowa inspekcja. W technologii Static Division (SD) światło jest przepuszczane przez płyn na czujnik optyczny, który różnicuje cząstki ruchome i elementy statyczne. Z kolei automatyczne systemy używające kamer wykrywają zarówno cząstki i uszkodzenia kosmetyczne. Kamery wykonują zdjęcia w wysokiej rozdzielczości w czasie obrotu zbiorników o ponad 360 stopni. Porównując obrazy system jest w stanie zidentyfikować cząstki przylegające do ścianek lub wadliwe zaciśnięcie kapsla.
Precyzyjne napełnianie dla bezpiecznego zamknięcia Wkłady muszą być napełniane insuliną zgodnie ze specjalnymi wymogami. Z jednej strony zawiesiny insuliny często wymagają napełnienia jednolitym poziomem składników aktywnych. Z drugiej należy napełniać do pełna i bez bąbelków, ale nie nadmiernie. Dlatego napełnianie odbywa się w dwóch krokach. Najpierw do pojemnika podaje się 80 procent maksymalnej zawartości. W drugiej stacji wkład jest wypełniany do końca z użyciem laserowego skanowania szyjki wkładu. Czujnik laserowy wyłącza napełnianie, kiedy menisk płynu sięgnie wiązki lasera. Przy pracy z zawiesinami konieczne jest ciągłe homogenizowanie szablonu produktu, a często również dodanie do wkładu zbiorników do mieszania (sterylne kulki szklane). Umożliwia to pacjentowi łatwą homogenizację zawiesiny przez
2/2014
Nawet we wczesnym etapie rozwoju produktów insulinowych bezpieczne napełnianie wkładów jest priorytetowe dla osób biorących udział w badaniach klinicznych. Producenci insuliny bardzo zatem potrzebują ręcznych i półautomatycznych narzędzi testowych w procesie rozwoju produktu. Nowe, wysoce elastyczne moduły laboratoryjne są używane głównie we wczesnych fazach klinicznych. Jest szczególnie istotne, by urządzenia te były wyposażone w różne technologie napełniania i umożliwiały później łatwe przeniesienie parametrów napełniania do systemów produkcyjnych przez powiększenie skali. Inspekcje są równie ważne w procesie rozwoju produktu: ręczne systemy inspekcji, w razie potrzeby wspomagane kamerami, szybko i dokładnie badają pełne i puste pojemniki szklane pod kątem cząstek w płynie lub defektów kosmetycznych. Nadal nie jest pewne, kiedy przewagę zyskają metody inne niż iniekcje insulinowe. Na tę chwilę peny insulinowe pewnie utrzymają status preferowanego systemu podawania. W najbliższej przyszłości z pewnością pojawią się jednak kolejne preparaty insulinowe i nowe, ulepszone peny insulinowe. Produkcja sztucznej insuliny – od wyodrębnienia po raz pierwszy do wprowadzenia pierwszego długo działającego analogu insuliny w 2000 roku – to niezrównany sukces w historii medycyny. Chociaż zawsze trzeba się skupiać przede wszystkim na zapobieganiu i unikaniu długoterminowych konsekwencji, postęp w leczeniu daje osobom chorym na cukrzycę nadzieję na dalsze znaczące polepszenie jakości życia.
1 http://www.idf.org/diabetesatlas 2 Merkel, Howard: How a Boy Became the First to Beat Back Diabetes, http://www.pbs.org/ newshour/rundown/how-a-dying-boy-becamethe-first-to-beat-diabetes/, styczeń 2013. 3 Freissmuth, Jérôme: Developments of Drug Delivery Devices are Increasingly Focused on Patients’ Needs, www.chemanager-online.com/ en, kwiecień 2013. 4 White, Ronald D.: MannKind is seeking approval for diabetes inhaler system by spring, http:// articles.latimes.com/2013/dec/08/business/lafi-stock-spotlight-mannkind-20131209, grudzień 2013. 5 Yaturu, Subshashini: Insulin therapies: current and future trends at dawn, http://www.ncbi.nlm. nih.gov/pmc/articles/PMC3596776/, luty 2013.
e-wydanie do pobrania na:
www.farmacom.com.pl
OPAKOWANIA DLA FARMACJI? MAMY NA TO LEKARSTWO.
effective
excellent
efficient
Błędy w druku opakowań farmaceutycznych i ulotek mogą wiele kosztować Twoją markę. BSC Pharmacenter skutecznie eliminuje to ryzyko na każdym etapie produkcji. Dzięki rzetelnej kontroli i walidacji wszystkich procesów produkujemy kartoniki i ulotki, które spełniają najwyższe standardy bezpieczeństwa w branży farmaceutycznej. Doświadczeni pracownicy, najnowsze maszyny produkcyjne, wysokie standardy GMP i GHP oraz zaawansowane oprogramowanie IT to gwarancja zachowania norm bezpiecznej produkcji. Powierz opakowanie swojego produktu BSC Pharmacenter!
BSC Pharmacenter Sp. z o.o. ul. Żmigrodzka 37 60-171 Poznań Tel.: +48 61 867 60 61 E-mail: office@bsc-packaging.com
Folding Boxes | Leaflets | Labels | Design & Consulting
Thinking out of the Box | since 1861
www.rlc-packaging.com
50
artykuł sponsorowany
Jakość i bezpieczeństwo opakowań farmaceutycznych
Ostrożności nigdy za wiele Umieszczenie lekarstwa w wadliwym opakowaniu kartonowym, które w dodatku zawiera ulotkę wykonaną z błędami tekstowymi, może mieć dla pacjenta fatalne konsekwencje. Dlatego firmy z branży farmaceutycznej, wybierając dostawcę opakowań i ulotek, biorą pod uwagę trzy kluczowe elementy: bezpieczeństwo procesu produkcyjnego, jakość i solidność.
N
owoczesna drukarnia opakowaniowa musi być wiarygodnym partnerem dla świadomych firm farmaceutycznych. Świadomych, czyli takich, które stawiają swoim dostawcom konkretne wymagania – przekonuje Andrzej Borowiński, prokurent drukarni BSC Pharmacenter z Poznania, która należy do międzynarodowego koncernu rlc packaging group i od 23 lat aktywnie działa na rynku druku opakowań i ulotek. Najważniejszymi z tych wymogów są: wysoki standard i bezpieczeństwo produkcji. Determinują one jakość gotowych opakowań pod względem zgodności z projektem i precyzji wykonania. Aby zachować tę jakość na
niezmienionym poziomie, drukarnie opakowaniowe prowadzą rzetelną kontrolę i walidację procesów związanych z przygotowaniem, produkcją, obróbką wykończeniową i weryfikacją jakościową wyrobu. W dobrze zorganizowanych i zaawansowanych technologicznie przedsiębiorstwach odbywa się to w sposób jasny, czytelny i przy użyciu odpowiednich maszyn, systemów oraz oprogramowania. Co więcej, klient ma wgląd w przepływ pracy zarówno w trakcie realizacji zlecenia produkcyjnego, jak i po jego wykonaniu, co daje mu możliwość kontroli na każdym etapie produkcji opakowania farmaceutycznego.
Zaawansowany park maszynowy umożliwia drukarni BSC Pharmacenter z Poznania produkcję opakowań farmaceutycznych na wysokim poziomie
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
51
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
52
Nowoczesne maszyny BSC Pharmacenter posiadają systemy kontroli, których wykorzystanie pozwala na zachowanie najwyższych standardów jakości i bezpieczeństwa produkcji
Zgodność ze wzorcem Przykładem drukarni opakowaniowej, która zachowuje wysoki standard produkcji opakowań farmaceutycznych, jest BSC Pharmacenter. Historia tej firmy sięga roku 1991, kiedy to powstała spółka BSC Drukarnia Opakowań. Gromadzone przez lata doświadczenie w produkcji opakowań poskutkowało w 2004 roku otwarciem spółki-córki – BSC Etykiety, wyspecjalizowanej w produkcji etykiet. Początek kolejnej dekady przyniósł przekształcenie BSC Etykiety w BSC Pharmacenter. Rzecz jasna zmianie uległa nie tylko nazwa spółki – rozpoczął się wówczas aktywny program dostosowania drukarni do produkcji opakowań z tektury litej i ulotek dla branży farmaceutycznej, z którego efektów mogą dziś czerpać klienci firmy. W BSC Pharmacenter kontrola zgodności, jakości i bezpieczeństwa odbywa się już na początkowym etapie – przygotowania pliku do druku. W tym momencie za pomocą wyspecjalizowanych systemów komputero-
wych sprawdzana jest kompletność przygotowanego pliku PDF, co odbywa się poprzez porównanie go z pierwotnym projektem. Dzięki temu do akceptacji klienta trafia zweryfikowany plik, który jest całkowicie zgodny z oryginałem i kompletny pod względem zawartych w nim elementów graficznych oraz tekstu. Wykorzystanie precyzyjnego oprogramowania do weryfikacji zgodności plików PDF ma szczególne znaczenie w produkcji opakowań przeznaczonych na rynki zagraniczne, w przypadku których pracownik drukarni nie jest w stanie wychwycić błędów w obcojęzycznym tekście. Kolejny etap to druk. W BSC Pharmacenter pracują nowoczesne maszyny wyposażone w oprogramowanie i systemy wizyjne, które porównują każdy użytek na arkuszu drukowym z PDF-em zaakceptowanym przez klienta. Dzięki temu wszystkie elementy graficzne są drukowane prawidłowo. Dodatkowym wsparciem są zainstalowane na maszynach drukujących systemy do kontroli kolorystycznej, gwa-
Od przygotowania do druku poprzez produkcję i obróbkę introligatorską aż do gotowego opakowania – BSC Pharmacenter zapewnia firmom farmaceutycznym kompleksową obsługę na najwyższym poziomie
2/2014
rantujące utrzymanie odchyleń kolorystycznych na poziomie nieprzekraczającym dopuszczalnego limitu. Również w introligatorni BSC Pharmacenter dba się o to, by nie nastąpiło przemieszanie się arkuszy z różnymi innymi nadrukowanymi opakowaniami. Drukarnia posiada system, który kontroluje maszyny sztancujące i gdyby w nakładzie pojawił się arkusz z innego zlecenia, nastąpiłoby zatrzymanie produkcji. Dzięki odpowiedniemu wyposażeniu składarko-sklejarki weryfikują w konfiguracji in-line jakość klejenia oraz możliwość przemieszania się różnych asortymentów. Złożone ulotki i sklejone kartoniki nie mogą opuścić drukarni, zanim nie przejdą ostatecznej weryfikacji za pomocą skanerów i oprogramowania, które ostatecznie sprawdzają takie aspekty, jak prawidłowość nadruku alfabetem Braille’a czy kompletność graficzna sklejonego opakowania i ulotki – wszystko poprzez porównanie wyrobu z zaakceptowanym przez klienta na wstępie PDF-em. Na przykładzie BSC Pharmacenter widać wyraźnie, że wyposażenie drukarni opakowaniowej w odpowiedni sprzęt i oprogramowanie umożliwia wysoko zautomatyzowaną kontrolę i weryfikację jakości opakowań. Dopełnieniem tego kompletnego systemu jest jeszcze jeden istotny element. W zeszłym roku wprowadziliśmy nowy system zarządzania jakością, przeznaczony dla producentów opakowań dla farmacji – ISO 15378 – dodaje Andrzej Borowiński. Spełnia on wymagania firm farmaceutycznych względem dobrej praktyki produkcyjnej i dobrej praktyki higienicznej.
Równy z równym Dzięki temu, że drukarnie opakowaniowe wdrażają systemy zarządzania jakością i odpowiednie systemy kontroli oraz weryfikacji wyrobów, firmy farmaceutyczne mogą mieć pewność, że jakość dostarczanych im produktów jest bez zarzutu. Pozostaje jeszcze jeden aspekt współpracy na linii drukarnia – producent: Przeżywamy obecnie okres konsolidacji w branży – komentuje Andrzej Borowiński. Pojedynczym drukarniom będzie coraz trudniej sprostać zmieniającym się wymogom klientów farmaceutycznych. BSC Pharmacenter należy do międzynarodowego koncernu rlc packaging group i stanowi część tworzonej przez niego sieci drukarń opakowaniowych w Europie. Dzięki temu może czerpać z doświadczeń między innymi drukarni Pharmacenter zlokalizowanej niedaleko Berlina oraz wykorzystywać walory wynikające z synergii grupy.
e-wydanie do pobrania na:
www.farmacom.com.pl
54 |
Rynek farmaceutyczny podlega podobnym tendencjom jak rynek FMCG i coraz bardziej się do niego upodabnia. Wytwórcy farmaceutyków odświeżają opakowania z coraz większą częstotliwością, tworzą też nowe marki. Wszystkie te działania mają podkreślić przewagę konkurencyjną producenta, zachęcić pacjentów do stosowania danego leku.
Tendencje w opakowaniach leków Ireneusz Korczyński współwłaściciel, Studio Projektowe IKAR
S
zczególnie firmy oferujące leki na rynku poza aptecznym starają się wydobyć jak najwięcej walorów swoich medykamentów. Najbardziej konkurencyjna jest kategoria leków przeciwbólowych. Najczęstszym sposobem projektowania opakowania leku przeciwbólowego to pokazanie postaci człowieka lub jego fragmentu z zaznaczeniem miejsc jego działania. Prezentacja wszelkich postaci człowieka jest wspierana przez modelowanie w programach 3D. Takie podejście można zaobserwować na Ibupromie Zatoki, Gripexie, Acatarze czy innych. Przy tak dużej ilości opakowań z postaciami człowieka trudno się wyróżnić. Ale jest to możliwe przez poszukiwanie oryginalnego przedstawienia. Dobrym przykładem może być
projekt opakowania „Linex Forte” firmy Sandoz, zaprojektowanego przez Studio Projektowe IKAR. Na froncie jego jest niebieska postać człowieka 3D. Jest ona mocno oświetlona co zmiękcza technologię 3D i wprowadza pierwiastek humanistyczny do surowego świata medycyny. Organiczna postać jest skontrastowana tutaj z prostokątną aplą z logo. Takie czyste, białe opakowanie z dwoma dominującymi elementami daje poczucie, że w leku zastosowano najnowocześniejszą technologię ale i bezpieczną. Inne jeszcze spojrzenie prezentowane jest przez agencję Hudleston w marce „Sinecod” Novartis. Rozmyte popiersie człowieka na czerwonym tle z fioletowym zaznaczeniem strefy bólu. Druga tendencją na rynku jest budowanie silnych elementów geometrycznych, które pokazują skuteczność działania medykamentu. Można to zaobserwować na opakowaniach Ibupromu US Zdrowie (projektowane przez Studio Projektowe IKAR) - fragment elipsy, z „kometą” spychającą dolegliwości to już klasyk na rynku. Idea komety jest też eksponowana w marce „Codipar” GSK przez agencję Delicateseen, czy na „Panadolu” GSK. Podobnie elipsy stosuje Polpharma w marce „Ranigast”, w brandzie „Metafen” i „Nurofen”. „Polopiryna” – też wykorzystuje dobrze sprzedająca się elipsę, na czerwonym, kontrastowym tle. Stosowanie intensywnych, mocnych kolorów w opakowaniach leków jest już niejako obowiązkiem, odkąd leki można kupić w supermarkecie.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
55
Zdarza się też stosowanie obu zabiegów razem np.: w marce Polpharmy „Dexa” (Hudleston) – elipsa oddzielająca zdjęcie od logo z portfolio Polpharmy. Zdjęcie uśmiechniętego dziecka zawsze budzi zaufanie rodziców. To też wykorzystuje firma Sandoz na marce „Linex Baby” czy GSK w „Xylorinie” (Studio Projektowe IKAR). Inne jeszcze podejście prezentowane jest w marce „Accidolac” Polpharmy, czy „Oscilloccocinum” firmy Boiron – przyjazne, delikatne kompozycje, budzące poczucie harmonii. Kolory jak z „bajek dla dzieci”. Szczególnie „Accidolac” – prezentuje tu delikatne i zwiewne rysunki dzieci przy zabawie, w zgeometryzowany sposób. Wszystko wskazuje, że nasz rynek leków zaczyna podążać w stronę prostszych kompozycji, gdzie zdecydowana kompozycja + dobra nazwa wybijają się na półce. Takie kroki poczyniły już Polpharma z marką „Pyralginum” . Opakowanie zostało podzielone na dwie strefy: czerwoną na dole i srebrną na górze. Dwie strefy są podkreślone przez (odważne) umieszczenie białego logotypu w dolnej części opakowania i białej tabletki na srebrnym tle z warkoczem, sugerującym pęd powietrza i skuteczność działania leku. Czysta kompozycja ale bardzo wyrafinowana. Równie bardzo impaktowe opakowanie zaprezentowała marka „APAP”. Wydobyto tutaj trzy cechy charakterystyczne marki: duże czerwone logo oraz prostokątny pasek z lewej strony, a na środku opakowania, na niebieskiej apli pojawiają się dwie tabletki. Tworzy to bardzo impaktowe opakowanie, gdzie głównie zauważa się logo i tabletki.
Równie czyste jest opakowanie marki „Plusssz up”. Czarna apla na białym wzbogacona o logo marki i pokazanie składu mineralnego z wykazaniem dziennego zapotrzebowania na minerały. Informacja staję się tu detalem ozdobnym. Jej charakter informacyjny jest tu najważniejszy i ma budzić zaufanie do producenta, który niczego nie ukrywa. Można się spodziewać, że takie kompozycje coraz częściej będą poszukiwane przez firmy farmaceutyczne. Takie tendencje można też zauważyć na rynkach zagranicznych. Doskonałym przykładem jest projekt opakowań farmaceutycznych „Help” firmy Remedies. Agencja „Pearlfisher” stworzyła linię minimalistycznych białych pudełeczek z kolorową obwódką i logiem „help” w tym samym kolorze. Obok nazwy brandu umieszczony jest opis wskazania: np.: „mam alergię”, „skaleczyłem się”, „boli mnie brzuch” itp. Pacjent od razu wie na co jest lek, a elegancka kobieta chętnie i bez oporów włoży takie pudełko do torebki. Maksimum treści przy minimum formy. Marka ma fantastyczną rozpoznawalność i daje poczucie komfortu, stosowania czegoś wyjątkowego. A to właśnie pragnie uzyskać każdy marketer. Można zauważyć nawet pewna analogię pomiędzy najnowszym opakowaniem „APAPu” a „help”, być może firma USP Zdrowie doceniła działanie amerykańskiego producenta „Help Remedies”.
reklama
FOKUS NA FARMACJĘ
KARTONIKI, ULOTKI, ETYKIETY ROZWIĄZANIA DLA FARMACJI Dzięki współpracy z ponad 500 Klientami z branży farmaceutycznej oferujemy sprawdzone pomysły i najlepsze rozwiązania. Opakowanie to nasza mocna strona, a do farmacji mamy wielką słabość – niezmiennie od 30 lat.
August Faller Sp. z o.o. | 94-406 Łódź, Nowy Józefów 64e tel. 42 2078 161 lub 603 988 077 | www.august-faller.com
56 |
Widać, że kierunek w którym podążają bardziej rozwinięte rynki to design i forma. Pojawia się tworzenie unikatowych wartości przez opakowania farmaceutyczne, które oferują nie tylko przechowywanie leków, ale i coś więcej. Może to być sposób aplikacji leku, jak w marce „Tylenol 8hr”, zaprojektowany przez agencję Fuseproject. Czerwone opakowanie może przypominać pudełeczko z cukierkami (przysłowiowe „Mentosy”) a nie leki. Sam design sprawia przyjemność, buduje wiarygodność marki, daje poczucie zaawansowania technologicznego leku oraz rozpoznawalność. Równocześnie tworzy produkt możliwy do stosowania przez osoby starsze przez przyjazny dla osób starszych aplikator. Starzejące się społeczeństwo jest traktowane jako równoprawny odbiorca produktu. A w przyszłości stanie się coraz ważniejszym odbiorcą rynku farmaceutycznego. Projektowanie opakowań leków dla powiększającej się liczby osób w przedziale 80-90 lat staje się faktem. Generuje nowe zadania i priorytety. Osoby w wieku 50+ biorą coraz więcej leków. Im starsza osoba, tym więcej medykamentów zażywa. Pojawiają się już systemy opakowań ułatwiające planowanie zażywania wielu leków. Marka „Sabi”, zaprojektowana przez firmę „Fuseproject” – doskonale prezentuję taki koncept. Designer opracował nawet pokrywkę, która można przedzielić tabletkę na dwie części. Oczywiście taki system opakowań jest estetyczny z samego założenia, ale jego największą zaletą jest strona użytkowa. Jeszcze inną tendencją jest tworzenie opakowań przyjaznych środowisku. Obecnie dostępne są już farby drukarskie tworzone jedynie na bazie naturalnych składników, papiery, kartony z recyclingu, tworzywa biodegradowalne. Konsumenci na Zachodzie Europy i w USA coraz chętniej wybierają produkty „przyjazne naturze”. Ta tendencja może być w krótce obecna także i w Polsce. Pojawia się szczególnie
ze wzrostem zamożności społeczeństwa. Akcentowanie kontaktu z naturą jest szczególnie widoczne we wszelkiego rodzaju herbatkach ziołowych, suplementach diety, środkach na odchudzanie. Firma Irving ma w swojej ofercie markę „Zioła z Polski” – zaprojektowaną przez agencję Brandy. Fioletowa apla z nazwą marki zachodzi na zielone liście, czy kwiaty ziół. Konsument ma poczucie obcowania z produktem naturalnym, może nawet ekologicznym. Ta linia opakowań doskonale wpisuje się w tendencję „simplicity” - komunikatów graficznie ograniczonych do niezbędnego minimum, ale w swojej prostocie bardzo impaktowych. „Lysi”, islandzki tran został pokazany przez agencję PND Futura, na niebieskim tle, sugerującym czyste wody oceanu. Logotypowi towarzyszy zabieg graficzny, sugerujący ławicę ryb. „Morskość” jest tu walorem niosącym skojarzenia z leczniczym charakterem tranu i jego naturalnym pochodzeniem. Można się spodziewać, że kolejnym krokiem będzie wprowadzenie humoru do opakowań (oczywiście tam gdzie jest możliwe). Świetnym przykładem są herbaty marki „Dr Stuart’s” projektu agencji Perlfisher z Londynu. W marce tej nastąpiło repozycjonowanie z prezentowania funkcjonalności do pełnej humoru wizji ekscentrycznego zielarza, który żartobliwie wyjaśnia korzyści każdej herbaty. Widok salutującego angielskiego gwardzisty w czerwonym mundurze i wystającego z puzonu każdemu może poprawić humor. Po taką herbatkę sięga się z dużą przyjemnością. Takie opakowanie może się stać manifestem „dobrego smaku” i być chętnie wyjmowane z damskiej torebki niczym biżuteria. Miejmy nadzieję, że możliwość aplikowania takiego dobrego humoru na opakowaniach leków w Polsce również zaznamy.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
58 |
Firma innowacyjna Bowil Biotech Sp. z o.o. jest prywatną, produkcyjno-badawczą firmą biotechnologiczną, której siedziba mieści się we Władysławowie (woj. pomorskie). Specjalnością firmy jest wytwarzanie nowoczesnego bionanomateriału otrzymywanego na drodze fermentacji z udziałem bakterii Gluconacetobacter xylinus E25.
Bowil Biotech
Historia
znaczonego na implanty dla chirurgii rekonstrukcyjno-odtwórczej P 390650. Firma dysponuje również europejskim zgłoszeniem patentowym pt.: „A method of production of a cartilage-like biomaterial designed for reconstructive surgery” EP 2371401. W roku 2011 firma zawarła umowę z Narodowym Centrum Badań i Rozwoju w ramach programu KadTech mającego na celu wsparcie procesów komercjalizacji technologii. W zakresie projektu prowadzone były prace nad opracowaniem nanocelulozowego opatrunku analgetycznego do leczenia chorych po hemoroidektomii. W tym celu została nawiązana współpraca z lekarzami zajmującymi się problematyką bólu pooperacyjnego oraz zlecono prace badawcze Wydziałowi Farmacji Uniwersytetu Medycznego w Gdańsku. W roku 2014 na skutek przeprowadzonych prac badawczych zostało opracowane kolejne zgłoszenie patentowe dotyczące zastosowań
Spółka Bowil Biotech została założona w 2006r. W 2011r. zakupiła od Politechniki Łódzkiej wiedzę know-how o nazwie „Technologia wytwarzania bionanocelulozy i materiałów opatrunkowych o nazwie CelMat,” oraz szczepu bakteryjnego Gluconacetobacter xylinus E25. Firma Bowil Biotech nabyła również prawa do patentów oraz zgłoszeń patentowych, które obejmują: Sposób wytwarzania celulozy bakteryjnej PL 171952; Sposób otrzymywania celulozy bakteryjnej PL 212003; Sposób wytwarzania bionanocelulozy o właściwościach opatrunku na uszkodzenia skóry PL 216180; Sposób modyfikacji błon celulozowych PL 214844; Sposób immobilizowania bakterii Bacillus subtilis syntetyzujących proteinazę PL 214828; Sposób otrzymywania immobilizowanych biokatalizatorów PL 214827; Sposób wytwarzania biomateriału o właściwościach chrząstki, prze-
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
59 materiału bionanocelulozowego jako opatrunku na rany choroby hemoroidalnej P. 407771. Wraz z rozwojem wiedzy na temat biopolimeru celulozowego oraz wykorzystując dotychczasowe badania opracowano innowacyjną technologię wytwarzania bionanocelulozy na skalę przemysłową, która został wdrożona w zakładzie we Władysławowie. Nowatorskie rozwiązania w skali świata wykorzystywane w produkcji zostały potwierdzone w Opinii o nowej technologii, sporządzonej w listopadzie 2011r. przez Wydział Inżynieryjno-Ekonomiczny Uniwersytetu Ekonomicznego we Wrocławiu. Technologia została również zgłoszona do ochrony patentowej w UP RP jako projekt wynalazczy, który został zarejestrowany pod numerem P.396809 w dniu 31.10.2011 a w roku 2012 uzyskał zdolność patentową i funkcjonuje pod numerem 216180. Od tamtego czasu wszystkie działania podejmowane przez firmę skupiają się wokół bionanocelulozy, możliwości jej produkcji na skalę przemysłową oraz wytwarzania szerokiej gamy produktów medycznych, dermokosmetycznych oraz farmaceutycznych.
(ang. Good Manufacturing Practice) oraz normami: ISO 13485:2003, ISO 9001:2009. Poza wydziałem produkcyjnym w skład inwestycji wchodzi magazyn wysokiego składowania, laboratoria: kontroli jakości oraz badań i rozwoju, instalacje procesowe (wody oczyszczonej, pary czystej, sprężonego powietrza, instalacji CIP/SIP) i techniczne (para techniczna, system HVAC). Produkcja celulozy bakteryjnej odbywa się w pomieszczeniach spełniających wymagania jak dla produkcji farmaceutycznej. Dział produkcyjny stanowi kompleks pomieszczeń czystych wyposażonych w system śluz osobowych i materiałowych wraz z instalacją wentylacyjno-klimatyzacyjną zapewniającą określone i kontrolowane parametry środowiska pracy. Rozplanowanie pomieszczeń zapewnia prawidłowy przepływ personelu i materiałów. Wszystkie urządzenia wykorzystywane w produkcji, ze względu na unikatowość tworzonego produktu, wykonane zostały na zamówienie. Wydajność produkcji biotechnologicznej to około 2 tony/serię. Materiał bionanocelulozowy poddawany jest kontroli jakości na wszystkich etapach procesu produkcyjnego – od materiałów wyjściowych i opakowaniowych, przez badania półproduktu i produktu gotowego. Dział Kontroli Jakości pracuje zgodnie ze standardami norm jakościowych oraz Farmakopeą Europejską i wyposażony jest w nowoczesną aparaturę kontrolno-pomiarową umożliwiającą rzetelną analizę uzyskiwanych wyników. Produkcja biomateriału jest unikatową technologią w skali świata, w związku z tym firma inwestuje znaczące środki na prowadzenie prac badawczych mających na celu wzrost potencjału innowacyjnego firmy. Obecnie, przy współudziale ośrodków naukowych oraz wyższych uczelni takich jak: Politechnika Gdańska, Uniwersytet Gdański, Gdański Uniwersytet Medyczny, Centrum Techniki Okrętowej CTO; Fundacja Rozwoju Kardiochirurgii, prowadzone są prace nad możliwościami zastosowania bionanocelulozy jako implantu w układzie sercowo-naczyniowym (zastawka serca). Prace te prowa-
Wytwarzanie Na początku roku 2014 został oddany do użytku innowacyjny zakład produkcyjny wytwarzający materiału biocelulozowy. Prowadzona od 2012 roku inwestycja została dofinansowana ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka i obejmowała budowę budynku produkcyjnego oraz zakup urządzeń wchodzących w skład linii technologicznej (koncepcja linii technologicznej jest autorskim pomysłem twórców technologii). Teren inwestycji objął około 6000 m2. Zakład posiada dwa wydziały produkcyjne: produkcji biomateriału polimerowego oraz produkcji wyrobów medycznych (klasy IIb oraz III) i kosmetycznych. Wytwarzanie produktów odbywa się zgodnie z systemem jakości GMP
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
60 60 | |
dzone są w ramach Projektu Badań Stosowanych dofinansowanego przez Narodowe Centrum Badań i Rozwoju, „Przedkliniczne badania możliwości zastosowania oryginalnej polskiej bionanocelulozy (BNC) w medycynie regeneracyjnej w aspekcie bioimplantów w kardiochirurgii i chirurgii naczyniowej”. Bowil Biotech planuje również uruchomienie Medycznego Ośrodka Badawczo-Szkoleniowego na terenie powiatu puckiego, którego celem jest poszerzanie świadomości lekarzy, personelu medycznego oraz pracowników gabinetów kosmetycznych na temat prozdrowotnych i leczniczych właściwości materiału celulozowego z którego wykonane będą produkty. Firma Bowil Biotech w ciągu minionych lat uczestniczyła w wielu targach branżowych odbywających się w Polsce i na świecie. Z racji ogromnego zainteresowania prezentowanymi materiałami przez potencjalnych nabywców, podjęto decyzję o uczestnictwie w projekcie unijnym: Wdrożenie Planu Rozwoju Eksportu w ramach Programu
Operacyjnego Innowacyjna Gospodarka Działania 6.1. Paszport do eksportu, tytuł realizowanego projektu: „Wdrożenie Planu Rozwoju Eksportu drogą ekspansji firmy Bowil Biotech na rynki zagraniczne”. W ramach projektu realizowane są działania promocyjne na targach międzynarodowych. W tym roku firma Bowil Biotech zaprezentowała się na międzynarodowych targach Cosmoprof odbywających się w kwietniu 2014 roku w Bolonii (Włochy). Głównym założeniem firmy jest tworzenie nowych materiałów z bionanocelulozy o szerokim spektrum zastosowań, stąd plany dotyczące uczestnictwa w kolejnych projektach badawczych m.in.: POIG Działanie 1.4., którego głównym celem jest rozwój polskiej gospodarki w oparciu o innowacyjne przedsiębiorstwa oraz międzynarodowy projekt ERA-IB ERA-NET finansowany z Szóstego Programu Ramowego Komisji Europejskiej (6PR).
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
61
Protokół z Nagoi
a polski przemysł farmaceutyczny Aleksandra Małyska Instytut Chemii Bioorganicznej PAN Wydział Biotechnologii i Nauk o Żywności Politechnika Łódzka
Elżbieta Martyniuk Krajowy Ośrodek Koordynacyjny, Instytut Zootechniki – PIB/ Katedra Genetyki i Ogólnej Hodowli Zwierząt Wydział Nauk o Zwierzętach SGGW
Tomasz Twardowski Instytut Chemii Bioorganicznej PAN
P
rzemysł farmaceutyczny wymaga relatywnie dużych nakładów finansowych, związanych z prowadzeniem długoterminowych badań naukowych, z których zaledwie nieliczne mają realny potencjał aplikacyjny. Dodatkowe wymagania w postaci wysoce wykwalifikowanej kadry, najnowocześniejszej aparatury oraz nakładów związanych z uzyskaniem praw własności intelektualnej sprawiają, że ten sektor może się rozwijać przede wszystkim w krajach wysoko rozwiniętych. Natomiast surowce i komponenty, które wchodzą w skład nowych farmaceutyków mogą pochodzić z różnych regionów świata, również tych najbiedniejszych. Taka sytuacja może być źródłem nieetycznych praktyk, polegających na czerpaniu korzyści finansowych przez międzynarodowe koncerny farmaceutyczne z pominięciem interesów państw, z których uzyskano materiał biologiczny wykorzystany do produkcji leku. Aby zapobiec takiej sytuacji podjęto międzynarodowe działania, których efekt będzie odczuwalny dla przemysłu farmaceutycznego na rynkach lokalnych, a znajomość wdrażanej legislacji będzie miała krytyczne znacznie dla działalności podmiotów w tym sektorze.
Biopiractwo a Konwencja o różnorodności biologicznej Protokół z Nagoi wiąże się ściśle z Konwencją o różnorodności biologicznej przyjętą w 1992 r. w Rio de Janeiro. Protokół Kartageński o bezpieczeństwie biolo-
e-wydanie do pobrania na:
www.farmacom.com.pl
gicznym sporządzony w 2000 r. (dyskutowany w 2001 r. w Kartagenie, Kolumbia, a przyjęty w 2002 r. w Montrealu, Kanada) stanowił pierwsze, istotne rozwinięcie tej konwencji (Ryc. 1). Dlatego dla pełnego zrozumienia treści zawartych w Protokole należy choć zarysować zasadnicze cele uwzględnione w pozostałych aktach prawa międzynarodowego, które obrazują ogólny kierunek kształtowania legislacji dotyczącej zasobów naturalnych oraz rozwoju.
W trakcie „Szczytu Ziemi”, który odbył się w Rio de Janeiro, Brazylia, w 1992 r., ustalono, że nadrzędnym celem polityki międzynarodowej będzie zrównoważony rozwój (ang. sustainable development). Głównym założeniem tej koncepcji jest takie wykorzystanie zasobów naturalnych dla potrzeb ludzkości, które zapewni stabilność systemów naturalnych i środowiska w perspektywie długoterminowej. Nadrzędne cele wskaza-
1992 r. Konwencja o różnorodności biologicznej (Konwencja z Rio) regulująca zasady ochrony i zrównoważonego użytkowania różnorodności biologicznej oraz sprawiedliwy podział korzyści wynikających z wykorzystania zasobów genetycznych
2000 r. Protokół Kartageński o bezpieczeństwie biologicznym do Konwencji o różnorodności biologicznej ujednolicający reguły dotyczące transferu i przechowywania żywych zmodyfikowanych organizmów (LMO, ang. Living Modified Organiosms)
2010 r. Protokół z Nagoi do Konwencji o różnorodności biologicznej dotyczący dostępu do zasobów genetycznych oraz uczciwego i sprawiedliwego podziału korzyści wynikających z ich wykorzystania
Ryc. 1. Akty prawa międzynarodowego dotyczące zasobów naturalnych i rozwoju
2/2014
62 | Sharing: Dostęp i Dzielenie się Korzyściami), które zapewni sprawiedliwy podział korzyści wynikający z wykorzystania zasobów genetycznych (Cancun Declaration, 2002). Negocjacje nowego reżimu międzynarodowego dotyczącego ABS trwały od 2004 do 2010 roku. Doprowadziły one do przyjęcia w październiku 2010 roku, podczas 10 Konferencji Stron Konwencji, nowego instrumentu prawa międzynarodowego, wdrażającego trzeci cel Konwencji: Protokołu z Nagoi dotyczącego dostępu do zasobów genetycznych oraz uczciwego i sprawiedliwego podziału korzyści wynikających z ich wykorzystania (http://www.cbd.int/abs/). Do 19 maja 20014 roku Protokół z Nagoi ratyfikowały 36 kraje oraz Unia Europejska (16 maja 2014 roku). (http://www.cbd.int/abs/nagoya-protocol/signatories/default.shtml). ne w Konwencji o różnorodności biologicznej to: • ochrona różnorodności biologicznej, • zrównoważone użytkowanie elementów różnorodności biologicznej, • równy i sprawiedliwy podział korzyści wynikających z wykorzystywania zasobów genetycznych (uwzględniający transfer technologii oraz odpowiednie finansowanie). Konwencja określając trzy poziomy, na jakich rozpatrujemy różnorodność biologiczną: ekosystemowy, gatunkowy i genetyczny, nakazuje tym samym realizowanie jej celów nie tylko w odniesieniu do organizmów, ekosystemów, siedlisk i gatunków dziko żyjących, ale także do zasobów genetycznych wytworzonych przez człowieka: przede wszystkim odmian roślin uprawnych i ras zwierząt gospodarskich, które są efektem pracy hodowlanej oraz procesu ewolucji i adaptacji do zmieniającego się środowiska. Trzeci cel Konwencji oraz Artykuł 15, określający sposób uzyskania dostępu do zasobów genetycznych były elementem tzw. „Wielkiej umowy” (The Grand Bargain) podczas negocjacji Konwencji, na mocy której zapewniono poszanowanie interesów dwóch grup krajów: rozwiniętych i rozwijających się. Kraje rozwinięte, leżące w dużej mierze w strefie klimatu umiarkowanego o bardziej ograniczonej i dość dobrze rozpoznanej bioróżnorodności były zainteresowane dostępem do nadal mało poznanych zasobów genetycznych (ZG) pochodzących z krajów leżących w strefie tropików i subtropików, które to zasoby mają olbrzymi potencjał komercyjny, szczególnie w tworzeniu nowych produktów w medycynie i ko-
smetyce. Kraje rozwijające się, o olbrzymiej ale nadal niewystarczająco poznanej różnorodności biologicznej były gotowe pozwolić na dostęp do swoich zasobów w zamian za udział w korzyściach wynikających z ich wykorzystania i ewentualnej komercjalizacji. Ta „Wielka umowa” miała na celu ograniczenie występującego, szczególnie w latach 70.-90., zjawiska tzw. piractwa biologicznego, które możemy określić albo jako nieautoryzowane (nielegalne) pozyskanie zasobów genetycznych albo nieautoryzowane wykorzystanie i w jego następstwie komercjalizację produktów opartych o zasoby genetyczne lub stowarzyszoną z nimi tradycyjną wiedzę (TW) (European Parliament, 2013). Biopiractwo prowadziło do patentowania produktów (przede wszystkim leków i kosmetyków) wytworzonych w oparciu o sprowadzane z krajów rozwijających się zasoby genetyczne, często z wykorzystaniem wiedzy społeczności tubylczych o stosowaniu tych zasobów w medycynie naturalnej. Zdaniem Sharmy (1999) „patenty zapewniają monopolistyczną dominację nie tylko poprzez przewagę technologiczną, ale także poprzez rozszerzenie kontroli nad bogactwem biologicznym i tradycyjną wiedzą pochodzącą z bogatych w zasoby genetyczne krajów rozwijających się”. Wobec nowych przykładów biopiractwa, mających miejsce w końcu lat 90., na forum Konwencji powstała nowa grupa „Podobnie myślących krajów o mega bioróżnorodności” (Like-Minded Megadiversity Countries, LMMC), której jednym z celów była wspólna walka z nielegalnym pozyskiwaniem zasobów genetycznych oraz podjęcie starań o przyjęcie nowego porozumienia międzynarodowego w zakresie ABS (Acess Benefit
2/2014
Protokół z Nagoi a przemysł farmaceutyczny w Polsce Obecnie trudno jest określić dokładną wartość światowego rynku farmaceutycznego opartego na zasobach genetycznych, ponieważ prowadzone statystki dotyczą obrotu wszystkimi produktami farmaceutycznymi, które otrzymano z wykorzystaniem zasobów genetycznych pochodzących zarówno z mikroorganizmów, jak też z roślin i zwierząt. Co więcej, w skład produktu leczniczego komercyjnie dostępnego na rynku najczęściej wchodzi pochodna zasobów genetycznych uzyskana w wyniku skomplikowanego i wieloetapowego procesu produkcji. Można jednak szacować, że wartość tego rynku przekroczyła już setki miliardów dolarów. Podział tak dużych zysków wynikających z wykorzystania zasobów genetycznych reguluje właśnie Protokół z Nagoi. Trzeba w tym miejscu podkreślić, że ten dokument nie obejmuje kwestii regulowanych innymi porozumieniami międzynarodowymi i ma zastosowanie do zasobów genetycznych zarówno dziko występujących, jak też użytkowych gospodarczo oraz tradycyjnej wiedzy związanej z tymi zasobami. Zgodnie z definicjami sformułowanymi w protokole: • “wykorzystanie zasobów genetycznych” oznacza prowadzenie prac badawczo-rozwojowych nad genetycznym i/lub biochemicznym składem zasobów genetycznych, także przez zastosowanie biotechnologii, • “pochodna” oznacza naturalnie występujący związek chemiczny otrzymany na skutek ekspresji genów lub metabolizmu zasobów biologicznych lub genetycznych, nawet jeżeli nie zawiera ona funkcjonalnej jednostki dziedziczności.
e-wydanie do pobrania na:
www.farmacom.com.pl
63 Należy wyjaśnić, że termin „zasoby genetyczne” należy pojmować bardzo szeroko, bowiem obejmuje klasyczne znaczenie (a zatem np. nasiona, rasy zwierząt, mikroorganizmy), jak również powiązane z nowoczesną biotechnologią, czyli zasoby genowe (DNA i RNA). 4 października 2012 Komisja Europejska przedstawiła projekt Rozporządzenia, którego celem jest wdrożenie Protokołu z Nagoi, a jednocześnie zwiększenie możliwości rozwoju nauk przyrodniczych i prac badawczo-rozwojowych w UE, zapobieżenie użytkowaniu nielegalnie pozyskanych ZG i TW na terytorium Wspólnoty oraz wsparcie skutecznego wdrażania porozumień dotyczących dzielenia się korzyściami (Komisja Europejska, 2012) Obecnie rozpoczęte zostały prace nad przygotowaniem legislacji krajowej, uzupełniającej Rozporządzenie UE, które dotyczyć będą również sektora farmaceutycznego. Biorąc pod uwagę, że wartość farmaceutyków wytwarzanych w kraju stanowiła 3,9 mld PLN przyjęte przepisy mogą mieć wpływ na działalność podmiotów, które do produkcji leku wykorzystają zasoby genetyczne lub ich pochodne (Wkład innowacyjnego przemysł farmaceutycznego w rozwój polskiej gospodarki, 20011). W takich przypadkach to właśnie przemysł farmaceutyczny będzie zobowiązany do wypełnienia następujących kwestii: • zachowania należytej staranności podczas uzyskiwania dostępu i korzystania z ZG oraz przechowywania przez okres 20 lat istotnych informacji na temat ich pochodzenia; • wstrzymanie użytkowania, gdy brakuje informacji potwierdzających legalny dostęp do wykorzystanych zasobów; • złożenia oświadczenia (a na żądanie również wymaganych dowodów), na końcowym etapie rozwoju leku, opracowanego przy wykorzystaniu ZG i TW związanej z zasobami genetycznymi, że dochowano należytej staranności i dostarczenia wymaganych informacji.
jomości struktury, reproduktywności otrzymywania i wiedzy o efektach pozytywnych i negatywnych w odniesieniu do działania biologicznego oraz w kontekście placebo. Spełnienie tych surowych i rygorystycznie kontrolowanych wymogów nie jest respektowane w odniesieniu do paraleków. Warto podkreślić ich specyficzne miejsce na rynku oraz wciąż rosnącą popularność preparatów znanych pod nazwą potoczną i handlową: „zielona kawa”, czy też „owoce goi”. Efektywność terapeutyczna takich preparatów nie jest możliwa do dyskusji ze względu na brak danych naukowych. Natomiast zakres komercjalizacji jest głównie efektem działań marketingowych. Preparaty takie są często importowane do naszego kraju a dystrybucja jest realizowana przede wszystkim przez Internet. Uzyskanie danych ilościowych (jak tonaż, czy wartość handlowa) jest niemożliwe. Oprócz takich preparatów na rynku krajowym mamy do czynienia ze znaczącą produkcją zielarską [np. preparaty firmy Herbapol, jak „Baikadent” zawierający wyciąg z korzenia Scutellaria baicalensis, czy też „sylicynar”, wyciąg suchy z ziela karczocha, lub z firmy Biotech Varsovia Pharma „Femurin” zawierający wyciąg z pestek dyni]. Do produkcji takich produktów bez wątpienia wykorzystano zasoby genetyczne, zatem, jeśli powstały one w wyniku prowadzonych badań badawczo-rozwojowych (B+R), ich wytwórcy również mogą w przyszłości zostać objęci regulacjami z Protokołu z Nagoi.
Konkluzje W sytuacji relatywnie bardzo małych inwestycji przemysłu w dział badania i rozwój
www.farmacom.com.pl
Literatura •
Cancun Declaration of Like-Minded Megadiversity Countries, 2002: http://www.weltvertrag.org/ e375/e719/e1045/CancunDeclarationonLikeMindedMegadiversityCountries_2002_ger.pdf
•
European Parliament, 2013: DRAFT REPORT on the proposal for a regulation of the European Parliament and of the Council on Access to Genetic Resources and the Fair and Equitable Sharing of Benefits Arising from their Utilization in the Union (COM(2012)576 – C7-0322/2012 – 2012/0278(COD)) Committee on the Environment, Public Health and Food Safety: 8.4.2013 Rapporteur: Sandrine Bélier
•
Komisja Europejska, 2012: ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY w sprawie dostępu do zasobów genetycznych oraz sprawiedliwego i równego podziału korzyści wynikających z wykorzystania tych zasobów w Unii. Bruksela, dnia 4.10.2012 COM(2012) 576 final 2012/0278 (COD) http:// eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri =COM:2012:0576:FIN:PL:HTML
•
Nagoya Protocol, 2010: http://www.cbd.int/abs/ text/default.shtml (EN)
•
Sharma Devinder, 1999: Conquests by Patents, Pakistan Observer, Islamabad 22 Aug 1999
•
Wkład innowacyjnego przemysł farmaceutycznego w rozwój polskiej gospodarki, 2011, źródło: http://www.infarma.pl/uploads/media/ PwC_Raport.pdf
reklama
Leki to wysoce przetworzone produkty końcowe, które (jeśli w ogóle posiadają w swym składzie surowiec naturalny) to najczęściej w formie pochodnej, a nie jako prosty komponent bezpośrednio pochodzący z zasobów genetycznych. Przemysł intensywnie poszukuje nowych farmaceutyków, a jednocześnie surowe wymogi zmuszają do dużej ostrożności inwestycyjnej i ogromnej dbałości o zabezpieczenie strony formalnej realizowanych prac w zakresie badań i rozwoju. Współczesne leki wymagają rygorystycznej kontroli jakości i zna-
e-wydanie do pobrania na:
(B+R) można założyć ograniczony wpływ Protokołu z Nagoi dla dalszego rozwoju rodzinnego przemysłu farmaceutycznego. Zwłaszcza, gdy komponenty do produkcji farmaceutyku są importowane powinny być opisane stosownymi atestami. Jednocześnie z powinno się podkreślić znaczenie tego dokumentu przy produkcji preparatów paramedycznych. Z pewnością nadzór i egzekucja przepisów wynikających z Protokołu z Nagoi będą bardzo trudnym przedsięwzięciem.
2/2014
64 |
Biologiczne pole doświadczalne Wiele kontrowersji wzbudza ostatni komunikat Ministra Zdrowia z 14 kwietnia 2014 r. „w sprawie stosowania leków generycznych”, dotyczący kwestii zamienialności biologicznych preparatów zawierających infliksymab. Minister Zdrowia zajmuje w nim kategoryczne stanowisko wspierające zamiennictwo leków zawierających infliksymab, na każdym poziomie terapii. W efekcie, Ministerstwo daje zielone światło na zamianę leku biologicznego wyłącznie ze względu na jego cenę i niezależnie od stanu zdrowia pacjenta czy decyzji lekarza, potwierdzając zarazem funkcjonujący w Polsce model automatycznej zamiany leków biologicznych (tzw. automatic lub regulatory switch). Patryk Turzański
Radca prawny w Praktyce Life Sciences kancelarii Domański Zakrzewski Palinka
Rejestracja leków biopodobnych
a kwestie związane ze zmianą stosowanego leku biologicznego na inny powinny być omawiane z lekarzem lub farmaceutą.2
Nie ulega wątpliwości, że rejestrowanie kolejnych produktów biopodobnych, po wygaśnięciu ochrony patentowej biologicznych oryginatorów, jest zjawiskiem korzystnym. Przede wszystkim, inaczej niż w przypadku cząsteczek chemicznych, preparat biopodobny na etapie rejestracji wymaga przedłożenia wyników szeregu dodatkowych badań porównawczych w stosunku do oryginatora. Te dodatkowe badania, prowadzone nieraz wiele lat po wprowadzeniu biologicznych oryginatorów, przynoszą również nowe informacje, istotne z punktu widzenia ochrony zdrowia i bezpieczeństwa pacjentów. Wykaz prowadzonych badań dla leków biopodobnych uwzględniających porównanie m.in. aktywności biologicznej, farmakokinetyki, farmakodynamiki, skuteczności, immunogenności oraz częstości występowań działań niepożądanych publikowany jest w European Public Assesment Report (EPAR) przez Europejską Agencję ds. Leków (EMA). W efekcie EMA na podstawie powyższych informacji rejestruje produkt biopodobny we wskazaniach takich jak biologiczny lek referencyjny. Jednocześnie, na rzecz zamienialności rejestrowanych leków generycznych świadczyć ma przede wszystkim badanie biorównoważności. W przypadku leków biologicznych analogiczne badanie wykazać może podobieństwo tych leków, ale nie jest dowodem naukowym potwierdzającym bezpieczeństwo zamienialności.1 Bezpieczeństwo zamiany mogłoby być wykazywane w specjalnie do tego celu projektowanym krzyżowym badaniu, przy czym aktualnie takie badania nie są potrzebne do uzyskania rejestracji dla biopodobnego produktu leczniczego. W efekcie należy podkreślić, że wbrew temu, co zdaje się twierdzić Ministerstwo Zdrowia w swoim komunikacie, EMA nie potwierdza faktu zamienności leków biopodobnych ze swoimi oryginatorami. Zgodnie z oficjalnym stanowiskiem EMA, ocena Agencji dotycząca rejestracji nie obejmuje zaleceń w zakresie możliwości stosowania leku biopodobnego zamiennie z jego lekiem referencyjnym,
W efekcie powyższego stanowiska EMA, kolejne państwa europejskie przyjęły regulacje zabraniające automatycznej zamiany leków biologicznych (Hiszpania, Niemcy i Francja) a Wielka Brytania oraz Belgia przyjęły obowiązek wskazywania nazw handlowych produktów biologicznych celem uniknięcia zamiany.3
Presja cenowa Zrozumiała jest intencja przyświecająca forsowaniu koncepcji automatycznej zamiany. Jest nią oczywiście generowanie oszczędności po stronie publicznego płatnika, co ma w efekcie przełożyć się na możliwość leczenia szerszej grupy pacjentów drogimi preparatami. Warto jednak wskazać, że efekt w postaci znacznych oszczędności został już wypracowany poprzez instrumenty zawarte w ustawie refundacyjnej. Zgodnie z ustawą, pierwszy odpowiednik leku referencyjnego może być zarejestrowany z ceną nie wyższą niż 3/4 ceny oryginatora. Wprowadzenie tańszego odpowiednika automatycznie wpływa zarazem na obniżenie limitu finansowania. W efekcie samo obniżenie limitu finansowania jest znaczącą oszczędnością płatnika, gdyż publiczne szpitale mogą nabywać leki z grupy limitowej (biologiczne oryginatory czy biopodobne) w cenie nie wyższej niż limit finansowania. W rezultacie również producent dotychczas droższego leku, aby skutecznie ubiegać się o przetarg publiczny, musi obniżyć swoją cenę przynajmniej do poziomu limitu finansowania. Konkurencja cenowa w ramach publicznych przetargów odbywa się zatem poniżej limitu finansowania i o wyborze konkretnego preparatu mogą decydować różnice nawet kilku złotych na opakowaniu w ofercie złożonej szpitalowi przez hurtownię. Te różnice kilku złotych, które same w sobie nie stanowią już istotnej oszczędności dla systemu, mogą zadecydować o konieczności zmiany terapii u pacjenta dobrze tolerującego dotychczasowy produkt i podaniu mu innego produktu, który akurat wygrał przetarg w szpitalu. Po-
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
65
wyższe, spotęgowane ilością szpitali i przetargów powoduje, że pacjent w ramach leczenia długotrwałej choroby może mieć wielokrotnie zmienianą terapię biologiczną. Przy czym zamieniany może być lek biologiczny na biopodobny lub na odwrót, jak i zamiany mogą następować pomiędzy samymi lekami biopodobnymi (w tej chwili refundowane są trzy preparaty z cząsteczką infliskymab). Powyższe odbywa się automatycznie bez decyzji lekarza czy informowania pacjenta.
w przypadku kontynuacji terapii u pacjentów wcześniej leczonych biologicznie zasadne byłoby poinformowanie pacjenta i uzyskanie zgody lekarza na zmianę terapii – tak jak rekomenduje to Europejska Agencja ds. Leków. Uzasadnione byłoby także umożliwienie zakupu konkretnych leków w przypadku braku decyzji lekarza o zmianie terapii. Zasadne byłoby wdrożenie również instrumentów zapewniających ścisłe monitorowanie bezpieczeństwa stosowanej terapii biologicznej. Ponadto mając na uwadze nieznaczne czasem różnice w cenie oferowanych w przetargach leków, można byłoby rozważyć pozostawienie do decyzji pacjenta, czy chciałby dopłacić do ceny innego leku, który wcześniej był mu już podawany, a więc przyznać pacjentowi uprawnienia, które już mu przysługują w ramach zwykłej refundacji aptecznej. Należy wskazać, że poprzez brak wprowadzenia dodatkowych regulacji dotyczących specyfiki leków biologicznych i sprowadzenie tematu wyłącznie do płaszczyzny generycznej, polski rynek staje się kazusem precedensowym, który będzie bacznie obserwowany przez pozostałe kraje wspólnoty w aspekcie konsekwencji zdrowotnych, społecznych jak i prawnych takiego rozwiązania. Powyższe rozwiązania mogłyby być implementowane przynajmniej do momentu wykazania bezpieczeństwa zamiany leku biopodobnego, czy też potwierdzenia tego faktu przez EMA. W innym razie nasz rynek pozostanie biologicznym polem doświadczalnym.
Odpowiedzialność Warto wskazać, że przedmiotowy komunikat Ministerstwa Zdrowia, potwierdzający automatyzm zamiany w żaden sposób nie wpływa na kwestie odpowiedzialności związane z podawaniem leku, którą ponosi przede wszystkim lekarz, podmiot leczniczy (odpowiedzialność za zdarzenia medyczne) oraz producent. Natychmiast powstaje tutaj skojarzenie pomiędzy tym a ostatnim komunikatem Ministrem Zdrowia, dotyczącym skuteczności i bezpieczeństwa podawania generycznych leków zawierających imatynib we wskazaniach pozarejestracyjnych, który miał rozwiać wątpliwości lekarzy dotyczące ich odpowiedzialności za podanie leku poza wskazaniem. W przypadku omawianego komunikatu, analogicznie może powstać wątpliwość, czy forsując koncepcję automatyzmu zamiany, organ nie powinien jednocześnie zwolnić lekarzy i szpitali z odpowiedzialności mogącej powstać z tego tytułu. Analogicznie, czy lekarze nie powinni uzyskiwać jednak zgód od pacjentów na podanie zamienionego produktu z uwagi na uwarunkowania cenowe, aby w ten sposób ograniczyć swoje ryzyko, tak jak to czynili do tej pory podając imatynib poza zarejestrowanym wskazaniem?
1
2
Złoty środek Wydaje się że najlepszym podejściem jest unikanie skrajności i podążanie za zasadą złotego środka. O ile podawanie leku biopodobnego u nowych pacjentów nie budzi większych wątpliwości, to
e-wydanie do pobrania na:
www.farmacom.com.pl
3
2/2014
Shein-Chung Chow, Quantitative Evaluation of Bioequivalence / Biosimilarity, http://omicsonline.org/0975-0851/JBB-S1-002.pdf Wytyczne Europejskiej Agencji ds. leków (EMA/837805/2011), Pytania i odpowiedzi na temat leków biopodobnych (podobnych biologicznych produktów leczniczych): „Czy lek biopodobny i jego lek referencyjny mogą być stosowane zamiennie?” Rovira, J., et. Al. The impact of biosimilars’ entry in the EU market. Granada (Spain): Andalusian School of Public Health 2011
66 |
Kiedy korzystanie z cudzego wynalazku nie powoduje naruszenia prawa W świecie farmaceutycznym rozgorzała dyskusja na temat zakresu wyjątku Bolara w odniesieniu do wyrobów farmaceutycznych wywołana po wydanym niedawno orzeczeniu Sądu Najwyższego IV CSK 92/13 w sprawie kasacji od wyroku Sądu Apelacyjnego w Gdańsku I ACa 320/12 dotyczącego naruszenia patentu PL182344 pt. „Nowe pochodne chinuklidyny i kompozycja medyczna zawierająca te związki”.
Iwona Płodzich-Hennig Rzecznik patentowy, Kancelaria JWP Rzecznicy Patentowi
P
rzywilej określony w art. 69 ust.1 pkt 4 Prawa Własności Przemysłowej (Dz.U. 2001 nr 49 poz. 508, dalej zwana PWP), nazywany inaczej wyjątkiem Bolara, pozwala na korzystanie z wynalazku, w niezbędnym zakresie, dla wykonania czynności, jakie na podstawie przepisów prawa są wymagane dla uzyskania rejestracji bądź zezwolenia, stanowiących warunek dopuszczenia do obrotu niektórych wytworów ze względu na ich przeznaczenie, w szczególności produktów leczniczych. Wyjątek Bolara został wprowadzony do prawa wielu państw po tym, jak w wyniku amerykańskiego sporu sądowego Roche vs. Bolar dopuszczono, by podmioty, które zamierzają wprowadzić na rynek produkt generyczny (odtwórczy), mogły to uczynić jak najszybciej po wygaśnięciu ochrony patentowej dla leku oryginalnego. Regulacja ta została między innymi wprowadzona do dyrektywy 2001/83/ WE Parlamentu Europejskiego i Rady z dnia 6 listopada 2001 r. w sprawie wspólnotowego kodeksu odnoszącego się do produktów leczniczych stosowanych u ludzi (tzw. dyrektywy farmaceutycznej) obligując państwa członkowskie do jej zaimplementowania do przepisów krajowych. Fakt doświadczalnego korzystania z wynalazku w celu opracowania produktu generycznego (prace badawczo-rozwojowe) nie budził wątpliwości interpretacyjnych. Natomiast prowadzenie badań biorównoważności (porównania parametrów farmakokinetycznych leku generycznego do leku oryginalnego), mimo iż jest działaniem niezbędnym do uzyskania pozwolenia na dopuszczenie do obrotu dla leku generycznego, stało się powodem różnic w orzecznictwach sądów państw unijnych. Po jednej stronie znajdowali się zwolennicy przekonania, że badania biorównoważności mieszczą się w sferze prac badawczo-rozwojowych objętych wyjątkiem badawczym jako jeden z etapów na drodze do uzyskania pozwolenia na dopuszczenie do obrotu. Proce-
dura uzyskiwania pozwolenia na dopuszczenie do obrotu jest dość długa, dlatego prowadzenie badań biorównoważności po ustaniu ochrony patentowej leku oryginalnego szczególnie w opinii producentów generycznych wydłużyłoby nadmiernie okres wyłączności rynkowej produktów oryginalnych. Odmienne poglądy w tej kwestii mieli producenci leków oryginalnych. Ten spór interpretacyjny wywarł swoje piętno również na implementacjach dyrektywy farmaceutycznej do prawa krajowego państw unijnych. O ile dyrektywa określa, że „przeprowadzenie niezbędnych badań i prób oraz wymogów praktycznych związanych z procedurą dopuszczenia do obrotu leku generycznego nie stanowi naruszenia patentu, to w przepisach krajowych wyjątek badawczy pozwala na korzystanie z wynalazku, w niezbędnym zakresie, dla wykonania czynności, jakie na podstawie przepisów prawa są wymagane dla uzyskania rejestracji bądź zezwolenia, stanowiących warunek dopuszczenia do obrotu niektórych wytworów ze względu na ich przeznaczenie, w szczególności produktów leczniczych” 1 Jednym z kluczowych surowców niezbędnych do wytworzenia leku jest substancja czynna (Active Pharmaceutical Ingredient - API). Gros prac badawczo-rozwojowych skupia się w początkowej fazie na wyborze API i opracowaniu kompozycji farmaceutycznej. Ponieważ producenci leków generycznych zazwyczaj nie prowadzą badań naukowych związanych z poszukiwaniem nowych molekuł, korzystają oni z dorobku firm oryginalnych, które z kolei starają się utrzymać jak najdłużej swój monopol patentowy. Firmy generyczne starając się odtworzyć kompozycję farmaceutyczną leku oryginalnego w swoich pracach R&D muszą również korzystać z API. Większość firm farmaceutycznych nie posiada własnego zaplecza wytwórczego substancji czynnych, korzysta zatem z zewnętrznych źródeł API. W tym miejscu pojawia się problem będący podłożem sporu o naruszenie patentu PL182344. Patent ten chroni wynalazek dotyczący
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
67
substancji czynnej (API) jak i kompozycji farmaceutycznej, która tę substancje zawiera. Producent oryginalny, firma A, właściciel wspomnianego patentu, wystąpił przeciwko generycznej firmie P z żądaniem zakazania naruszania praw z patentu, w tym oferowania bez zgody firmy A produktu (substancji czynnej bursztynian solifenacyny). Zdaniem pozwanego (firmy P) jego działania polegające na oferowaniu i sprzedaży substancji czynnej objętej ochroną patentową (bursztynian solifenacyny) mieszczą się w zakresie wyjątku Bolara, gdyż cel tych działań jest ukierunkowany na przeprowadzenie przez podmioty nabywające API czynności wymaganych dla uzyskania rejestracji bądź pozwolenia na dopuszczenie do obrotu. Zgodnie z treścią art.63 PWP uzyskanie patentu daje jego właścicielowi wyłączność korzystania z wynalazku w sposób zawodowy lub zarobkowy na terytorium Polski. Dlatego, na podstawie art. 66 PWP uprawniony z patentu może zakazać osobie trzeciej, nie mającej jego zgody, korzystania z wynalazku w sposób zarobkowy lub zawodowy polegający na wytwarzaniu, używaniu, oferowaniu, wprowadzaniu do obrotu lub importowaniu dla tych celów wytworu chronionego patentem. W ocenie Sądu Apelacyjnego w Gdańsku działania pozwanego, w tym oferowanie i sprzedaż substancji czynnej objętej ochroną patentową wynikającą z patentu PL182344 stanowią naruszenie praw wyłącznych powoda (firmy A), niezależnie od faktu, że zgodnie z twierdzeniami pozwanego celem nabywców miało być przeprowadzenie przez nich działań niezbędnych do rejestracji leku zawierającego opatentowaną substancję. Zdaniem Sądu interpretacja wyjątku Bolara, dopuszczająca korzystanie z rozwiązania chronionego patentem bez zgody uprawnionego dotyczy jedynie działań osoby, która sama korzysta z wynalazku, nie zaś działań osoby, która wytwarza, oferuje i wprowadza do obrotu produkt chroniony pa-
e-wydanie do pobrania na:
www.farmacom.com.pl
tentem. Mając na uwadze zawarty w art.69 ust.1 pkt 4 PWP wyjątek, który jest odstępstwem od bezwzględnej ochrony jaka wynika z prawa z patentu Sąd uznał, iż przepis ten nie powinien podlegać wykładni rozszerzającej. Dlatego też działań powoda polegających na oferowaniu i sprzedaży substancji czynnej objętej ochroną patentową bez zgody uprawnionego nawet, gdy intencją nabywców takiej substancji ma być prowadzenie działań zmierzających do uzyskania wymaganych prawem rejestracji lub zezwoleń nie można interpretować jako czynności mieszczących się w ramach wyjątku Bolara. W ocenie sądu wyjątek Bolara dotyczy wyłącznie czynności, które podejmuje podmiot bezpośrednio starający się uzyskanie rejestracji bądź zezwolenia, dlatego działań firmy P nie można uznać za mieszczące się w granicach przyznanych przez ten wyjątek. Sąd uznał, że celem działań firmy P było osiągnięcie korzyści majątkowej ze sprzedaży API, nie zaś uzyskanie przez niego rejestracji bądź zezwolenia na lek zawierający opatentowaną substancję. Uwzględniając terytorialny charakter ochrony patentowej, w ocenie Sądu, nawet gdyby firma P sprzedawała innemu podmiotowi opatentowaną substancję wyłącznie w celu uzyskania przez tego nabywcę stosownych zezwoleń, to i tak firma P nie może zobowiązać do przestrzegania przez nabywcę tego celu, zwłaszcza względem nabywców działających poza granicami Polski. W uzasadnieniu wyroku sąd podkreślił, że czym innym jest korzystanie z wynalazku w ramach wyjątku Bolara przez podmiot, który będzie uzyskiwał korzyści po ustaniu ochrony patentowej, a czym innym „czerpanie zysków bezpośrednio z wynalazku przez nieuprawnionego z patentu jeszcze w czasie trwania ochrony patentowej”, bowiem w czasie ochrony patentowej korzyści takie może uzyskiwać uprawniony z patentu. Nie sposób nie zgodzić się z oceną wyrażoną przez Sąd, iż korzystanie z wynalazku bez zgody uprawnionego w celu przeprowadzenia
2/2014
68 |
badań niezbędnych do przygotowania produktu, w tym uzyskania pozwolenia na dopuszczenie do obrotu powinno być dozwolone wyłącznie w sytuacji, gdy czynności takie przeprowadza podmiot, który sam zamierza wprowadzić produkt po ustaniu ochrony patentowej. Taka interpretacja wyjątku Bolara jest zgodna z intencją jaka przyświecała jego wprowadzeniu do przepisów prawa, co miało na celu osiągnięcie balansu pomiędzy absolutną wyłącznością uprawnionego do korzystania z wynalazku w czasie ochrony patentowej, a możliwością poczynienia przez inne podmioty działań przygotowawczych, które umożliwią korzystanie z wynalazku tuż po ustaniu ochrony patentowej, bez zwłoki związanej z oczekiwaniem na stosowne pozwolenia. Podobnie wypowiedział się Sąd Najwyższy w uzasadnieniu orzeczenia dotyczącego oddalenia skargi kasacyjnej od wyroku Sądu Apelacyjnego, (sygn. akt IV CSK 92/13). Zdaniem SN istotą wyjątku Bolara jest umożliwienie producentowi leku generycznego prowadzenia „testów bioekwiwalentości jeszcze w czasie trwania ochrony patentowej”. W ocenie sądu działania takie wykonuje jedynie przyszły producent leku generycznego i dlatego tylko jego działania są dozwolone w ramach wyjątku przewidzianego w art.69 ust.1 pkt 4 PWP. W sytuacji gdy pozwany korzystał z wynalazku poprzez wytwarzanie bez zgody uprawnionego substancji czynnej chronionej patentem, a nie zamierzał ubiegać się o dopuszczenie do obrotu leku generycznego zawierającego tę substancję, działania takie nie są objęte wyjątkiem Bolara. SN uznał, że doszło do naruszenia patentu, gdyż jedynym celem pozwanego było wytwarzanie substancji czynnej z zamiarem jej sprzedaży osobom trzecim, a więc zarobkowa eksploatacja cudzego wynalazku w czasie trwania ochrony patentowej. Zgodnie z wykładnią Sądu Najwyższego „korzystanie z wynalazku” w ramach wyjątku Bolara obejmuje wyłącznie czyn-
ności niezbędne, które są wymagane do uzyskania stosownego zezwolenia na dopuszczenie do obrotu. Dlatego zdaniem sądu sporną pozostaje kwestia czy wytworzenie substancji czynnej czy próbki leku również jest objęte zakresem niezbędnych czynności dopuszczonych przez wyjątek. Omawiane orzeczenie SN nie rozwiało wszystkich wątpliwości w zakresie jednoznacznej interpretacji czynności dozwolonych na podstawie wyjątku Bolara. Przyjęte przez SN stanowisko, że wyjątek Bolara ograniczony jest do czynności niezbędnych, wymaganych do uzyskania stosownego zezwolenia na dopuszczenie do obrotu z jedoczesnym pozostawieniem wątpliwości czy na przykład wytworzenie próbki leku może być za taką niezbędną czynność uznane, jest niespójne. Skoro wiadomym jest, że badania biorównoważności jako jeden z kluczowych etapów na drodze do uzyskania pozwolenia na dopuszczenie do obrotu wymaga wytworzenia próbki leku, który ma być poddany badaniu, czynność polegająca na wytworzeniu próbki leku bezsprzecznie powinna zostać uznana za czynność o niezbędnym charakterze. Tym bardziej, że w ocenie SN w ramach wyjątku Bolara czynności niezbędne powinien wykonywać jedynie podmiot, który zmierza do uzyskania pozwolenia na dopuszczenie do obrotu. Uważam, że w uzasadnieniu orzeczenia dotyczącym tej sprawy nie odniesiono się do wszystkich aspektów związanych z procedurami, w trakcie których podmioty generyczne uzyskują pozwolenie na dopuszczenie do obrotu. Czekamy zatem na kolejne orzeczenia, które w przyszłości mogłyby pozwolić na jednoznaczne wyjaśnienie wszystkich wątpliwości.
1
2/2014
Ż. Pacud Ochrona patentowa produktów leczniczych, Wolters Kluwer Polska, Styczeń 2013.
e-wydanie do pobrania na:
www.farmacom.com.pl
70 |
Koncepcja VMI
Nowoczesne zarządzanie przepływem towarów pomiędzy producentem preparatów farmaceutycznych i jego dystrybutorami
Usługa VMI to innowacyjne rozwiązanie stworzone do zarządzania współczesną logistką, którym zainteresowanych jest coraz więcej firm z branży farmaceutycznej. Współpracując z dystrybutorami w oparciu o VMI, firmy produkujące farmaceutyki są w stanie zabezpieczać lepszą dostępność swoich preparatów na rynku, przy zachowaniu optymalnych kosztów utrzymania zapasów w hurtowniach. Artur Śpiewak Szef Wydziału Wdrożeń Systemów Mobilnych i Platformy Connector, Asseco Business Solutions S.A.
Przejęcie części odpowiedzialności przez producenta Istotą koncepcji VMI jest przejęcie przez producenta części odpowiedzialności za planowanie wielkości dostaw preparatów do dystrybutorów. Rozwiązanie ma na celu taki dobór wielkości tych dostaw, aby w magazynach hurtowników utrzymywać jak najbardziej optymalne ilości poszczególnych produktów. VMI „pilnuje” więc, aby dystrybutorzy otrzymywali taką ilość preparatów, która szybko zostanie odsprzedana przez nich do aptek. Dzięki temu zarówno producent, jak i hurtownicy mogą mieć
pewność, że utrzymana zostanie stała dostępność produktu na rynku. Ponadto w magazynach nie będą tworzyć się tzw. over-stocki czy out-of-stocki (zbyt duża ilość czy brak towaru). Nadzorując dostawy do dystrybutorów za pomocą VMI, producent ma
Korzyści z wdrożenia VMI • Większa dostępność preparatów na rynku. • Większe przychody i marża brutto: minimalizacja utraconej sprzedaży związanej z występowaniem braków. • Redukcja kosztów producenta i dystrybutora.
wpływ na wielkość zamówień i może w nich uwzględniać różne uwarunkowania, o których hurtownie nie są w stanie dowiedzieć się z wyprzedzeniem. Mogą to być takie czynniki jak np.: kampanie reklamowe, moce produkcyjne czy sezonowość sprzedaży.
• Automatyzacja kluczowych procesów logistycznych. • Budowa sprawności biznesowej i partnerskich relacji z dystrybutorami na zasadzie „win-win”. • Wzrost poziomu obsługi klientów. • Zapewnienie wzrostu skuteczności działań marketingowych.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
71
VMI w firmie Adamed „Mając na uwadze wysoką dynamikę zmian w branży farmaceutycznej oraz coraz bardziej aktywną konkurencję zdecydowaliśmy się szukać nowych rozwiązań, które przyniosłyby wymierne korzyści dla nas oraz dla współpracujących z nami dystrybutorów. Zauważyliśmy szerokie możliwości partnerskiej współpracy dzię-
Oczywiście wszystko to jest możliwe wyłącznie dzięki współpracy producenta z dystrybutorami. W zamian hurtownie mogą oczekiwać bardziej korzystnych parametrów rotacji towarów producenta przy odpowiednim ich poziomie dostępności. W konsekwencji może przełożyć się to na racjonalizację kosztów zarządzania stanami magazynowymi, redukcję kapitału zaangażowanego w zapasy oraz spowodować zwiększenie przychodów poprzez minimalizację straconej sprzedaży związanej z brakiem dostępności preparatów dla aptek. Taki model współpracy może być źródłem nowych oszczędności, a więc i wzrostu rentowności działalności dla obu współpracujących stron.
Wymiana danych jako niezbędny element VMI Skuteczne zarządzanie przez VMI zapasami własnych preparatów u dystrybutorów odbywa się w oparciu o stałą analizę bieżących stanów magazynowych oraz poziomu odsprzedaży do aptek. Narzędzie VMI w praktyce wymaga więc automatycznej wymiany danych pomiędzy współpracującymi podmiotami oraz wykorzystania mechanizmów prognozujących popyt rynkowy. Najlepiej więc, jeśli VMI stanowi jeden z elementów większego systemu, który umożliwia
kompleksową wymianę danych handlowych w kanale dystrybucyjnym. Przykładem takiego rozwiązania jest oferowana przez Asseco Business Solutions usługa VMI, która stanowi element składowy systemu wsparcia sprzedaży, jakim jest Platforma Connector Asseco BS. Pozwala ona na elektroniczną wymianę danych i dokumentów pomiędzy producentem i dystrybutorami, na bieżąco dostarczając firmom producenckim wiarygodne dane z hurtowni, dotyczące m.in. odsprzedaży czy bieżącego poziomu zapasów u dystrybutorów, które mogą być następnie wykorzystywane w planowaniu dostaw. Dostępna w ramach Platformy Connector usługa VMI pozwala odzwierciedlić strukturę magazynów w hurtowniach oraz przepływy logistyczne między nimi. Cały proces planowania zamówień na rzecz dystrybutorów i nadzorowanie przepływu danych odbywa się za pomocą dedykowanej platformy webowej udostępnianej obu stronom projektu VMI.
Większa sprawność biznesowa Wspieranie przez firmy produkcyjne oraz handlowe dystrybutorów w optymalizacji kosztów i podnoszeniu poziomu obsługi klientów poprzez usługę
Platforma Connector Platforma Connector Asseco Business Solutions jest coraz częściej stosowanym narzędziem wsparcia współpracy partnerów biznesowych. O randze i popularności rozwiązania świadczy skala jego działania. Obecnie przez system przechodzi miesięcznie ponad 50 milionów komunikatów wymienianych
e-wydanie do pobrania na:
www.farmacom.com.pl
ki połączeniu sił w zarządzaniu zapasami naszych preparatów. Dlatego też postanowiliśmy wdrożyć system Connector VMI, który pozwoli nam zadbać o właściwy poziom dostępności naszych produktów u największych dystrybutorów, a naszym partnerom zagwarantuje optymalny poziom kapitału zaangażowanego w zapasy oraz racjonalizację kosztów ich utrzymania” – mówi Dariusz Deja, National Account Manager w Adamed Sp. z o.o.
VMI wzmacnia znaczenie współpracujących w ten sposób przedsiębiorstw, czyniąc ich bardziej atrakcyjnymi dostawcami od konkurencji. Stała dostępność produktów do odsprzedaży przez dystrybutorów oraz wysoka sprawność uzupełniania zapasów, pozwalają natomiast hurtowniom osiągać wysoki stopień realizacji zamówień składanych przez odbiorców detalicznych. To czyni także z dystrybutorów bardziej atrakcyjnych dostawców, gwarantujących ich odbiorcom wysoki poziom obsługi. Analizując różne segmenty rynku, widzimy szczególnie duży potencjał wykorzystania rozwiązania VMI właśnie w branży farmaceutycznej, gdyż jej struktura opiera się na dystrybucji preparatów kilkuset producentów przez kilku największych dystrybutorów. Skłania to do wniosku, że model współpracy oparty na koncepcji VMI i wsparciu przez producentów części obowiązków hurtowni związanych z planowaniem dostaw i zarządzaniem zapasami, może być bardzo korzystny dla obu stron. Współpracujący ze sobą i wykorzystujący VMI partnerzy handlowi mogą ograniczyć kapitał pracujący po każdej stronie oraz usprawnić komunikację między sobą, przez co ich wzajemne relacje mogą układać się jeszcze lepiej niż dotychczas.
pomiędzy kilkudziesięcioma producentami a siecią prawie dwóch i pół tysiąca oddziałów dystrybucyjnych. W ramach Platformy Connector dostępnych jest wiele usług, których zadaniem jest efektywne wsparcie działań producentów i dystrybutorów. Są to m.in. Connector VMI, Connector Category czy Connector B2B.
2/2014
72 |
Kwadratowe Koła
czyli eliminacja marnotrawstwa w magazynie wysokiego składowania
Artykuł przedstawia studium przypadku – organizację przepływu w Centrum Dystrybucyjnym znaczącego producenta farmaceutyków. Projekt miał na celu ograniczenie marnotrawstwa związanego z transportem wewnętrznym – przesuwaniem produktów.
Bogusz Dworak MPM Productivity Management
M
agazyn Baxter Polska Sp. z o.o. Opisany obiekt to magazyn wysokiego składowania – o wysokości ponad 11 metrów, siedmiu poziomach składowania i łącznej pojemności około 10 000 miejsc paletowych, zlokalizowany w parku logistycznym Metropol w Błoniu k/Warszawy.
Uwarunkowania prawne i jakościowe: podział magazynu i model przepływu Prawo farmaceutyczne dość precyzyjnie reguluje wymogi dotyczące składowania. W ramach magazynu producenckiego wymagane jest fizyczne oddzielenie stref magazynu, w których przechowywane mają być wyroby dopuszczone do obrotu od wyrobów niedopuszczonych. W związku z powyższym, magazyn producencki został
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
73 podzielony na dwie strefy – wyrobów gotowych oraz kwarantanny. Przedstawiamy poniżej rzut hali magazynu z góry ilustrujący podział na strefy oraz schemat przepływu towarów.
Identyfikacja źródeł marnotrawstwa Uznaliśmy za marnotrawstwo nadmierny czas trwania operacji w magazynie; zatem za cel postawiliśmy sobie tak zorganizować model przepływu produktów przez magazyn, aby wszystkie operacje wewnątrz magazynu trwały możliwie krótko. Optymalizacja celowała zatem w operacje: • odłożenia po przyjęciu (Putaway) • uzupełnienia strefy dystrybucji (Replenishment) • pobrania do wysyłki (Picking).
Uwzględniono ponadto dodatkowy czas, którego potrzebują operatorzy do precyzyjnego umieszczania palet na wysokich poziomach (od poziomu piątego wzwyż).
Minimalizacja czasu odłożenia (Putaway)
Za szczególnie istotne uznano optymalne zorganizowanie sprawnego pickingu, ze względu na wymagania rynkowe Klientów. Klienci wymagają dostawy na następny dzień, co powoduje duże obciążenie popołudniowej zmiany w magazynie przygotowywaniem wysyłek. Zanim przejdziemy do szczegółowego opisu wprowadzonych reguł przesuwania produktów, przedstawimy trójwymiarowy model magazynu, który został użyty do optymalizacji.
W skonstruowanym trójwymiarowym modelu magazynu, dla każdej z lokacji strefy kwarantanny obliczony został całkowity czas dostępu. Czas ten policzony został od umownego punktu kontrolnego strefy – punktu w strefie przyjęć w okolicach środkowej bramy służącej do przyjęć. Lokacje zostały posortowane w kolejności czasu dostępu narastająco. W momencie odkładania, używana jest pierwsza aktualnie pusta lokacja z tej listy. Reguła ta powoduje używanie lokacji, na którą odłożenie będzie trwało możliwie krótko. Oczywiście powyższa zasada została zaimplementowana w narzędziu klasy WMS, które automatyzowało przydzielanie optymalnych lokacji.
Trójwymiarowy model magazynu Aby możliwie precyzyjnie odzwierciedlić w modelu matematycznym rzeczywistość hali magazynowej, zbudowaliśmy trójwymiarowy model magazynu. Droga dostępu do każdej lokacji została rozbita na trzy odcinki: X – dojazd do pożądanego regału Y – droga alejką pomiędzy regałami do pożądanej lokacji Z – pionowa droga podnoszenia wideł wózka do pożądanej wysokości odpowiadającej poziomowi składowania.
Uzyskujemy w ten sposób kolejność wypełniania magazynu, zilustrowaną na poniższych rysunkach, przedstawiających rzut z boku wybranego regału (tu dla ilustracji wybrany regał nr 2). Litery A-G oznaczają poziomy składowania, liczby od 1 do 60 kolejne lokacje (zorganizowane w czterolokacyjne gniazda). W pierwszej kolejności używane są lokacje zaznaczone kolorem błękitnym, i stopniowo coraz dalsze, oznaczone ciemniejącą barwą niebieską. W szczególności, w ostatniej kolejności używane są lokacje zaznaczone kolorem granatowym:
Model ten zobrazowany jest na poniższym rysunku:
Zatem w naszym modelu czas dostępu do każdej lokacji składa się z trzech składników: • czas dostępu do regału (odcinek X) • czas dostępu do kolumny (odcinek Y) • czas podniesienia wideł do właściwego poziomu składowania (odcinek Z). Aby obliczyć czas dostępu, zmierzono długości dróg w magazynie oraz wymiary regałów. Zmierzono również przeciętną roboczą prędkość wózka oraz czas podnoszenia wideł. Prędkość pozioma wyniosła przeciętnie 1,8 metra na sekundę, prędkość podnoszenia wideł – 40 cm/sekundę, czyli 0,4 m/sekundę.
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
74 | Minimalizacja czasu pobrania do wysyłki (Picking) Aby zminimalizować czas trwania pobierania produktów do wysyłki, przyjrzeliśmy się dokładanie statystykom wysyłek. Dla każdego z produktów przeanalizowana została częstość pojawiania się w wysyłkach oraz przeciętna ilość w wysyłce. W oparciu o tę analizę zaplanowana została strefa podręczna, w której powinny znajdować się na poziomie zerowym wszystkie produkty potrzebne do organizacji wysyłek w ilościach mniejszych niż cała paleta. Chodzi o uniknięcie sytuacji, w której aby pobrać niepełną paletę do wysyłki (np. 3 kartony) zdejmowana jest paleta z wyższego poziomu – i odkładana z powrotem na górę po pobraniu niepełnej ilości. Pojemność strefy podręcznej zaplanowana została na około tydzień sprzedaży. Strefa jest regularnie uzupełniana, by zapewnić ciągłą dostępność produktów do pobrania. Po wydzieleniu strefy podręcznej, (której granice zaznaczono na ilustracji kolorem zielonym), pozostała część strefy dystrybucji przeznaczona została do obrotu całopaletowego. Strefa obrotu całopaletowego została z kolei podzielona na dwie podstrefy: • strefę dla produktów wysokiej rotacji (A) - stanowiących około 80% obrotu całopaletowego • strefę dla produktów średniej i niskiej rotacji B i C generujących pozostałe 20% obrotu całopaletowego.
na kształt, który zarysują punkty o jednakowym czasie dostępu na pustym placu:
Na pustym placu – bądź hali bez regałów, punkty o jednakowym czasie dostępu tworzą kształt regularnego koła. Zobaczmy, co dzieje się w sytuacji ruchu wymuszonego „po kwadracie” – z powodu stojących regałów. Otóż punkty o jednakowym czasie dostępu już „nie chcą” układać się w regularne koło; układają się, z grubsza rzecz ujmując, w kwadrat!
Na strefę A zarezerwowano 80% lokacji paletowych (zgodnie z udziałem kategorii A w obrocie). Lokacje do strefy A przydzielone zostały w sposób nieprzypadkowy: wybrane zostało 80% lokacji o najkrótszym czasie dostępu do strefy przygotowania wysyłek (znajdującej się w okolicy bram). Na poniższym diagramie, ilustrującym podział strefy dystrybucji, granicę strefy A oznaczono linią ciemnoniebieską. Pozostałe 20% strefy dystrybucji, które stanowią lokacje o najdłuższym czasie dostępu przeznaczono na produkty klas B oraz C. Strefę tę obwiedziono na diagramie linią brązową.
Taki sposób liczenia czasu dostępu może wydawać się nieco dziwaczny, chociaż ma przecież bardzo wyraźną interpretację. Wewnątrz magazynu, gdzie postawione są regały, ruch nie jest możliwy we wszystkich kierunkach. Wózki poruszają się jedynie wzdłuż regałów alejkami, jakbyśmy powiedzieli potocznie „po kwadracie”. W matematyce taki sposób mierzenia czasu dostępu nazywany jest metryką miejską. Jak się z domyśla Czytelnik, w naszym modelu nie tylko „koła są kwadratowe”. Ponieważ jest to model trójwymiarowy, kule są graniastosłupami! Ale dość już szkoły i matematycznych modeli, przejdźmy do podsumowania przepływów i korzyści z użytego modelu!
Gdzie są obiecane kwadratowe koła ? Czas najwyższy na rozszyfrowanie zagadkowego tytułu artykułu! Otóż fakt, że przestrzeń w magazynie jest zorganizowana przez stojące regały i ruch odbywa się wzdłuż alej powoduje specyficzne „zakrzywienie” przestrzeni. Dla porównania popatrzymy
Strumienie przepływu w nowym modelu Nowy model przepływu, zilustrowany poniżej został zaimplementowany w narzędziu klasy WMS (JDE One World Advanced Warehouse Module) oraz wdrożony w Centrum Dystrybucyjnym Baxtera w roku 2004. System informatyczny sugeruje uzupełnianie stref zgodnie z opisanymi powyżej wymaganiami; powstaje dokument
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
reklama
75 move slip, precyzyjnie opisujący, które produkty, w jakiej ilości i na które lokacje należy przesunąć. Opisany model działa w Centrum Dystrybucyjnym Baxtera z powodzeniem od bez mała pięciu lat.
Korzyści Oto lista korzyści z wprowadzenia powyżej przedstawionego modelu przepływu: • uzyskiwana jest minimalizacja czasu trwania operacji odstawienia (putaway): zawsze wybierane są lokacje gwarantujące najkrótszy czas odstawienia • osiągana jest minimalizacja czasu przygotowania wysyłek. W zaprezentowanym studium przypadku jest to szczególnie istotne, gdyż ze względu na wymagania Klienta (wymagana dostawa na następny dzień rano) wąskim gardłem w magazynie jest zmiana popołudniowa, podczas której odbywa się kompletacja wysyłek • automatyzacja wyboru lokacji: w opisanej implementacji sugestie są podawane przez system informatyczny, analizujący aktualną sytuację w magazynie. Oszczędność czasu dzięki wprowadzeniu opisanego modelu przepływu oszacowano na około 200 godzin miesięcznie. Czy to dużo? Przeliczając na pracowników, oznacza to nieco ponad jeden etat. Biorąc jednak pod uwagę, że gros oszczędności zostało uzyskane na wąskim gardle (tj. na drugiej zmianie, podczas której odbywa się kompletacja wysyłek), na korzyści należy patrzeć przez pryzmat usprawnienia przepustowości magazynu jako całości. Ze względu na rozmiar niniejszej publikacji, zostały zaprezentowane tylko najważniejsze elementy wprowadzonego modelu przepływu, z pominięciem szczegółów technicznych. Czytelników zainteresowanych podjęciem wyzwania wspólnej walki z marnotrawstwem w gospodarce magazynowej przy wykorzystaniu posiadanych (i często w znacznej mierze niewykorzystanych) narzędzi klasy WMS, zapraszam do bezpośredniego kontaktu pod adresem: bogusz.dworak@mpm24.com
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
76 |
Monitoring procesów logistycznych
w dystrybucji farmaceutycznej
Logistyka farmacji to jedna z najbardziej rozwiniętych oraz „wymagających„ gałęzi logistyki. O ile w przypadku tradycyjnych operacji logistycznych priorytetem jest przede wszystkim optymalizacja kosztów i w dalszej perspektywie uzyskanie wartości dodanej oraz odpowiednich wskaźników jakości, o tyle w operacjach logistycznych w obszarze farmacji kolejność ta jest odwrócona. Priorytetem jest przede wszystkim zachowanie wysokiego (najlepiej 100 procentowego) wskaźnika jakości na każdym etapie procesu logistycznego – co z kolei gwarantuje zachowanie odpowiedniego poziomu jakości użytkowej towaru. Zbigniew Gawęda
Łukasz Popowski
Business Development Manager
Business Development Specialist
N
iniejszy artykuł porusza zagadnienia związane z zapewnieniem odpowiedniego poziomu jakości procesu logistycznego. Zagadnienia te dotyczą zarówno aktów prawnych regulujących liczbę oraz kształt niezbędnych procesów jak i rozwiązań operacyjnych niezbędnych przy tego typu operacjach.
Normy prawne regulujące obowiązki kierownika składu konsygnacyjnego oraz kształt procesów w składzie konsygnacyjnym Obrót środkami jest ściśle regulowany na terytorium RP. Ustawa „Prawo farmaceutyczne” wraz z zalecaniami Dobrej Praktyki Dystrybucyjnej (GDP) jasno określają kształt łańcucha dystrybucji. Pierwszym ogniwem jest zawsze producent, następnym hurtownia farmaceutyczna/skład konsygnacyjny, a na końcu apteki. Ustawa określa właściwe procedury postępowania w każdym z tych ogniw – począwszy od wprowadzenia produktu do obrotu, a skończywszy na wydaniu środka pacjentowi. Każde z tych ogniw jest jednakowo ważne w zachowaniu odpowiedniego poziomu jakości produktu, jednakże to w ogniwie hurtowym występuje najwięcej czynników „ludzkich” mogących wpłynąć pozytywnie lub negatywnie na jakość zarówno produktu jak i procesu.
W przypadku składu konsygnacyjnego najważniejszym czynnikiem mającym wpływ na jakość jest doświadczenie oraz kompetencje kierownika składu konsygnacyjnego czyli „osoby odpowiedzialnej”1 Zgodnie z Ustawą prawo farmaceutyczne oraz zaleceniami GDP, kierownik składu konsygnacyjnego musi spełniać szereg następujących wymagań:2 • Kierownikiem składu konsygnacyjnego/ hurtowni farmaceutycznej może być farmaceuta mający dwuletni staż pracy w hurtowni farmaceutycznej lub w aptece. • Nie można równocześnie być osobą wykwalifikowaną odpowiedzialną za prowadzenie hurtowni farmaceutycznej i pełnić funkcji kierownika apteki. • Osobą wykwalifikowaną odpowiedzialną za prowadzenie hurtowni farmaceutycznej/składu konsygnacyjnego można być tylko w jednej hurtowni farmaceutycznej. Prócz wymagań określonych prawem, dobry kierownik składu konsygnacyjnego powinien cechować się również: • Bardzo dobrą znajomością procesów magazynowych • Stanowczością • Otwartością na zmiany • Umiejętnością efektywnej komunikacji z podwładnymi i przełożonymi • Umiejętnością szybkiego i jednoznacznego formułowania zaleceń i procedur
2/2014
Osoba spełniająca powyższe wymagania może zostać kierownikiem składu konsygnacyjnego, co wiąże się z przyjęciem następujących obowiązków przewidzianych ustawą:3 • prowadzenie hurtowni farmaceutycznej z przestrzeganiem Dobrej Praktyki Dystrybucyjnej, a zwłaszcza wydawanie uprawnionym podmiotom produktów leczniczych, a ponadto: • przekazywanie organom Inspekcji Farmaceutycznej, a w przypadku produktu leczniczego weterynaryjnego również właściwemu wojewódzkiemu lekarzowi weterynarii, informacji o podejrzeniu lub stwierdzeniu, że dany produkt leczniczy nie odpowiada ustalonym dla niego wymaganiom jakościowym; • wstrzymywanie i wycofywanie z obrotu i stosowania produktów leczniczych, po uzyskaniu decyzji właściwego organu; • właściwy przebieg szkoleń dla personelu w zakresie powierzonych im obowiązków. GDP uszczegóławia tenże zakres obowiązków. Zgodnie z GDP obowiązki kierownika składu obejmują: • zapewnienie, aby system zarządzania jakością został wprowadzony i stosowany • koncentrację na zarządzaniu działalnością objętą pozwoleniem oraz na rzetelności i jakości dokumentacji
e-wydanie do pobrania na:
www.farmacom.com.pl
77
• zapewnienie, aby zostały wprowadzone i były realizowane programy kształcenia i doskonalenia zawodowego • koordynację i szybkie przeprowadzanie czynności związanych z wycofaniem produktów leczniczych • zapewnianie efektywnego załatwiania skarg klientów • zapewnianie, aby dostawcy i klienci byli zatwierdzeni • zatwierdzanie działań wykonywanych przez podwykonawców, które mogą mieć wpływ na GDP; • zapewnianie, aby w odpowiednich, regularnych odstępach były przeprowadzane kontrole wewnętrzne według ustalonego programu, a także dopilnowanie, by wprowadzono odpowiednie środki naprawcze • właściwe dokumentowanie zadań zleconych innym osobom • podejmowanie decyzji w sprawie ostatecznego unieszkodliwienia zwróconych, odrzuconych, wycofanych lub sfałszowanych produktów • zatwierdzanie zwrotów do zapasów przeznaczonych do sprzedaży • zapewnianie, aby przestrzegane były wszelkie dodatkowe wymogi dotyczące określonych produktów, przewidziane prawem krajowym
e-wydanie do pobrania na:
www.farmacom.com.pl
Kierownik składu konsygnacyjnego ma również bardzo duży wpływ na kształt mechanizmów zachowania jakości. Ustawa oraz GDP jedynie ogólnie określają zakres obowiązków kierownika składu w tym zakresie. Uściślając – w zakresie jakości kierownik składu odpowiedzialny jest za przeniesienie regulacji prawnych w tym zakresie na praktyczne działania, a w szczególności: • Przygotowanie mierników jakości oraz mechanizmów ich kontroli • Dokładne opisanie procesów zachodzących w składzie wraz z jasnym określeniem odpowiedzialności • Wprowadzanie usprawnień wpływających dodatnio na jakość. Zapewnienie zgodności prowadzonych operacji z regulacjami prawnymi. Kształt i zasady funkcjonowania składu konsygnacyjnego są ściśle określone w ustawie prawo farmaceutyczne oraz GDP. Ustawa porusza głownie zagadnienia proceduralne dotyczące uruchomienia oraz funkcjonowania składu , natomiast GDP skupia się na rozwiązaniach technicznych niezbędnych do realizacji ogólnych postanowień ustawy. Wymagania proceduralne dotyczą:4 • Zasad rejestracji składu konsygnacyjnego • Zasad wprowadzania zmian
2/2014
• Obowiązków przedsiębiorcy prowadzącego skład konsygnacyjny • Odpowiedzialności za zaniedbania formalne Natomiast wymagania techniczne odnoszą się do:5 • Sposobu projektowania pomieszczeń i ich wyposażenia • Przechowywania towaru • Systemów komputerowych • Sprzętu • Walidacji systemów i urządzeń • Kształtu procesów logistycznych • Mierników jakości Porównując oba zestawienia można zauważyć pewną komplementarność. Każdemu punktowi wymagań formalnych można przypisać przynajmniej jeden punkt wymagań technicznych. Ustawa wprost odnosi się do GDP w kwestii wymagań technicznych. Warto w tym miejscu zaznaczyć, iż GDP opisuje zakres procesów logistycznych bardzo ogólnie, zostawiając dużą dozę dowolności w ich projektowaniu przez operatora logistycznego. Niemniej jednak możemy wyróżnić kilka podstawowych grup procesów zachodzących w składzie konsygnacyjnym/ hurtowni farmaceutycznej:6 • Sprawdzenie wiarygodności dostawcy • Przyjęcie towaru • Składowanie
78 |
• Pobranie towaru • Wydanie towaru z magazynu • Utylizacja produktów przeterminowanych • Zarządzanie produktami zwróconymi • Wycofanie produktów z obrotu Wytyczne zawarte w GDP nie precyzują samego kształtu procesów – określają jednak ich pożądany efekt. Aby zobrazować to stwierdzenie wystarczy spojrzeć na przykładowy paragraf dotyczący pobrania towaru „Pkt. 5.2 Należy wprowadzić środki kontrolne zapewniające pobranie właściwego produktu. W momencie pobrania produkt powinien mieć odpowiedni pozostały okres trwałości.”7 Z powyższego zalecenia nie wynika wprost jaki ma być kształt procesu pobrania – ważne jest jedynie aby zostały zachowane odpowiednie środki ostrożności zapewniające pobranie właściwego produktu.
Współdziałanie „Osiemdziesiąt pięć procent przyczyn niezaspokojenia oczekiwań klientów wiąże się z wadami systemów i procesów…, nie pracownika. Rola kierownictwa polega na zmianie procesów, a nie na nagabywaniu pracowników o więcej wysiłku”. W. Edward Deming Obowiązki odpowiedzialnego farmaceuty, wymienione wcześniej, nie powinny ograniczać się jedynie do pasywnego monitorowania przepisów prawa, prowadzenia prawidłowej dokumentacji dotyczącej przepływu towarów, prowadzenia systemu
procedur czy też szkoleń z prawidłowego obchodzenia się z produktami leczniczymi. Farmaceuta pełniąc funkcję kierownika hurtowni farmaceutycznej bądź składu konsygnacyjnego powinien aktywnie współdziałać z częścią operacyjną firmy, w której pracuje, w celu zapewnienia sobie lepszej kontroli nad procesem i ciągłego podwyższania jakości. W praktycznej części niniejszego artykułu chcielibyśmy zwrócić uwagę na jedną z wielu metod, które mogą zostać wykorzystane w celu poprawy jakości procesu. Aby jednak do niego przejść wpierw zapoznajmy się z kilkoma podstawowymi pojęciami z dziedziny logistyki, zarządzania procesami i jakości, które ułatwią nam lepsze zrozumienie opisywanej metody. Norma ISO mówi, że proces biznesowy to zbiór działań wzajemnie powiązanych lub wzajemnie oddziałujących, które przekształcają wejścia w wyjścia8, prowadząc do osiągnięcia założonych celów biznesowych. Z punktu widzenia zarówno farmaceuty jak i działu „operacji” można wyróżnić procesy szczegółowe stanowiące integralną część procesów głównych ujętych w GDP. Procesami szczegółowymi będą m.in.: • przyjęcie towaru do magazynu • przesunięcia wewnątrz-magazynowe • kompletacja i kontrola towaru • wydanie towaru • transport towaru oraz procesy pomocnicze: • nadzór nad temperaturą i wilgotnością składowania • nadzór nad produktami wstrzymanymi i wycofanymi • reklamacje • obrót lekami kontrolowanymi • itd. Każdy z wyżej wymienionych procesów/ podprocesów może zostać opisany za pomocą odpowiedniego zestawu kryteriów. Kryterium to miernik lub zasada brana pod uwagę przy wyborze, hierarchizacji, ocenianiu, szacowaniu itp. działań opierających się na pewnych narzuconych sprawcy lub przyjętych dowolnie przez sprawcę założeniach. W organizacji rozróżniamy różne kryteria:9 • oceny struktury ogólnej i szczegółowe mierniki sprawności funkcjonowania struktur organizacyjnych • oceny szczegółowej – wskaźniki jakości procesu zarządzania, dokładności i szybkości przepływu informacji
2/2014
• optymalności – wskaźniki, których ekstremalne znaczenie charakteryzuje osiągnięcie celu działania systemu System mierników w specyficzny sposób powinien zaspokajać zapotrzebowanie na informacje różnych odbiorców wskaźników logistycznych10. Każdy kierownik logistyki zarządzający procesem magazynowym dysponuje pewnym zestawem wskaźników (KPIs– Key Performance Indicators), na podstawie których mierzona jest wydajność, efektywność czy dokładność pracy podległego mu personelu. Na ich podstawie planowane jest zatrudnienie, motywowani są najlepsi pracownicy, sprawowana jest kontrola nad jakością i terminowością realizowanych procesów. Naszym zdaniem optymalnie skonstruowany system wskaźników logistycznych powinien być tworzony przy współudziale kierownika składu konsygnacyjnego (farmaceuty), który jako klient wewnętrzny, poprzez obowiązki narzucone mu przez obowiązujące prawo, reprezentuje punkt widzenia klienta zewnętrznego, a przyjęcie tego punktu widzenia jest kluczowe z punktu widzenia organizacji. Zastanówmy się zatem jakiego typu informacje interesują farmaceutę? Czy interesuje go wydajność, efektywność czy raczej dokładność, jakość pracy i terminowość? Jaka perspektywa czasowa umożliwia podjęcie szybkiej reakcji na niesatysfakcjonujący wynik? Jaki system pomiarów może być odpowiedni dla wybranego procesu (ludzki, dane z systemu WMS)? Jaki zestaw narzędzi, umożliwi podjęcie skutecznych działań korygujących i zapobiegawczych? Kto jest zatem klientem zewnętrznym operatora logistycznego? Jest nim: • klient finalny – pacjent • klient instytucjonalny – producent, ale także apteka, hurtownia, szpital • instytucja nadzoru - WIF, GIF Każdy Klient ma własne potrzeby, oczekiwania i wymagania, które powinny zostać opisane, a powstały na ich bazie system wskaźników winien zapewnić odpowiednim osobom informacje, na podstawie których będzie mógł podjąć działania zmierzające do ciągłego doskonalenia procesu (np. poprzez cykl PDCA (Plan, Do, Check, Act11)) w imię spełnienia, a nawet przekroczenia, w przypadku określenia satysfakcji na poziomie niższym niż 100%, oczekiwań Klienta. W tym artykule chcielibyśmy zwrócić uwagę Czytelnika na to, że bez względu na
e-wydanie do pobrania na:
www.farmacom.com.pl
79 • sprawdzenie prawidłowości funkcjonowania systemu informatycznego (algorytmów, blokad, funkcjonalności, praw dostępu) Odpowiednio skonfigurowany system wskaźników, systematyczny przegląd wybranych jego pozycji, a także podejmowanie działań zmierzających do osiągania coraz to lepszych rezultatów jest niezbędne do zachowania właściwego poziomu jakości produktów i procesów w całej operacji. Metodyka ta zwana „continous improvement” pozwala na ciągłe zwiększanie efektywności operacji przy stałej minimalizacji kosztów.
Warto zapamiętać
punkt widzenia, który reprezentuje (farmaceutyczny, logistyczny), istnieją skuteczne narzędzia i metody, z których korzystać może każdy. My skupimy się na opisie wybranej metody, jaką jest CTQ = Critical to Quality, na wybranym Kliencie, którym jest kierownik składu konsygnacyjnego, którego potrzeby są pochodną potrzeb wszystkich klientów zewnętrznych, i na wybranym przykładzie, jakim jest wybrany wskaźnik dla procesu „Przyjęcie towaru do magazynu” CTQ to krytyczne dla jakości produktu lub procesu cechy, które decydują o zadowoleniu klienta. W myśl tej metody podejmuje się następujące działania: • Zidentyfikuj swoich klientów • Pozyskaj głos klientów (VOC - Voice of customer) – przejrzyj dane, które posiadasz, zdecyduj jak pozyskać nowe dane, zgromadź je • Określ CTQ - przetwórz wszystkie dane, przełóż je na konkretne potrzeby klienta, a także ustal cechy krytyczne dla tych potrzeb W naszym przykładzie wynik powyższej analizy przedstawiać się może następująco:
Proces
Przyjęcie dostawy
Po zdefiniowaniu wybranego CTQ powinniśmy opisać jaką cechę pożądamy, zdefiniować miernik, który dostarczy nam informacji o cesze, ustalić idealny poziom miernika, a także stopień osiągnięcia satysfakcji oraz braku satysfakcji (usterki). W naszym przykładzie może wyglądać to następująco: • cecha: poprawne wprowadzenie towaru na stan magazynu • miernik: liczba serii poprawnie wprowadzonych do liczba wszystkich sztuk poprawnie wprowadzonych na stan • cel: bezbłędne wprowadzenie towaru na stan • specyfikacja: 100% • usterki: <1% Dzięki codziennemu przeglądowi stopnia realizacji wybranych celów, służby logistyczne i farmaceutyczne mogą szybko zareagować w przypadku osiągania niesatysfakcjonujących wyników poprzez podjęcie działań korygujących i zapobiegawczych m.in. takich jak: • zapewnienie dodatkowych szkoleń (farmaceutyczne, logistyczne, ze znajomości procedur) • sprawdzenie czy istnieją luki w procesie (process gaps)
Głos Klienta ogólna potrzeba
Problem w procesie
Definicja konkretnej potrzeby klienta (CTQ)
Na stan magazynu powinny być przyjęte wyłącznie produkty dopuszczone do obrotu.
Pracownicy komory przyjęć przyjęli na stan serię towaru, która była wstrzymana lub wycofana z obrotu.
Na wejściu do magazynu każdy produkt winien mieć sprawdzoną nazwę, dawkę, datę ważności, serię, ilość, a dane powinny zostać prawidłowo wprowadzone do systemu
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
W niniejszym artykule staraliśmy się wykazać, że zarówno cele postawione przed farmaceutą i logistykiem są zbieżne, jak i metody i narzędzia, z których mogą korzystać tożsame. Razem odpowiadając za jakość, odpowiadają przed różnymi instancjami w związku z czym często działają oddzielnie dublując podejmowane czynności lub nie korzystając z dorobku drugiej strony. Dopiero przyjęcie podejścia zintegrowanego, skoordynowanie działań i sprawna komunikacja (wewnętrzne GCCP – Good Communication&Cooperation Practice) między kierownikiem składu konsygnacyjnego (nadzór farmaceutyczny), a kierownikiem logistyki (nadzór operacyjny) przynosi wyniki przekraczające oczekiwania Klienta. 1 2 3 4
Ustawa Prawo Farmaceutyczne Art. 77 Ustawa Prawo Farmaceutyczne Art. 84 Ustawa Prawo Farmaceutyczne Art. 85 Ustawa Prawo Farmaceutyczne, Rozdział 6. Hurtownie Farmaceutyczne
5 Wytyczne Dobrej Praktyki Dystrybucyjnej: Rozdział 3 6 Wytyczne Dobrej Praktyki Dystrybucyjnej: Roz-
dział 5 i 6 7 Wytyczne Dobrej Praktyki Dystrybucyjnej: Punkt 5.2 8 PN EN ISO 9000 : 2006 Systemy zarządzania jakością. Podstawy i terminologia. PKN. Warszawa 2006, s. 33 9
Twaróg J. „Mierniki i wskaźniki logistyczne” Biblioteka Logistyka, Poznań 2003, str. 13 10 Pfohl H.Ch „Zarządzanie logistyką. Funkcje i instrumenty” ILiM Poznań 1998 11
http://pl.wikipedia.org/wiki/Cykl_Deminga
Literatura • • •
• • •
Ustawa Prawo Farmaceutyczne Wytyczne Dobrej Praktyki Dystrybucyjnej PN EN ISO 9000 : 2006 Systemy zarządzania jakością. Podstawy i terminologia. PKN. Warszawa 2006, s. 33 Twaróg J. „Mierniki i wskaźniki logistyczne” Biblioteka Logistyka, Poznań 2003, str. 13 Pfohl H.Ch „Zarządzanie logistyką. Funkcje i instrumenty” ILiM Poznań 1998 http://pl.wikipedia.org/wiki/Cykl_Deminga
80 |
Dystrybucja kontrolowana Z dystrybucją produktów leczniczych wiąże się wymóg kontroli temperatury na wszystkich etapach procesów magazynowania i transportu. O tym, jakie czynniki należy wziąć pod uwagę przy organizacji dystrybucji z zachowaniem określonych warunków, jak powinny być wyposażone magazyny produktów leczniczych oraz jakie środki techniczne i organizacyjne pozwalają na utrzymanie wymaganego zakresu temperatury w transporcie, opowiada Jarosław Mazur, specjalista firmy Poltraf.
Anna Kunysz: Jakie przepisy określają zasady dotyczące magazynowania i transportu w kontrolowanej temperaturze dla branży farmaceutycznej? Czy zostały w nich wprowadzone ostatnio jakieś zmiany?
nym łańcuchu z wykorzystaniem pasywnych pojemników izotermicznych, które nie zagwarantują utrzymania wymaganej temperatury przez dłuższy czas), wyposażenie magazynów i środków transportu, kompetencje przewoźnika, a także warunki, w jakich będzie odbywał się przeładunek i rozładunek. Inaczej planuje się dostawę do aptek, inaczej do szpitali.
Jarosław Mazur: Zasady dystrybucji produktów leczniczych określone są przez dwa akty prawne: ustawę z 6 września 2001 Prawo farmaceutyczne i jej kolejne nowelizacje oraz rozporządzenie Ministra Zdrowia z 26 lipca 2002, w sprawie procedur Dobrej Jakie etapy procesu dystrybucji produktów leczniczych w kontrolowanej temperaturze są związane z największym Praktyki Dystrybucyjnej, wraz z późniejszymi zmianami. W ciągu ryzykiem niedotrzymania wymaganych warunków? ostatnich 10 lat z punktu widzenia prawa nie było istotnych zmian. Jednak urzędnicy Głównego i Wojewódzkich Inspektoratów FarmaNajwiększe ryzyko przekroczenia określonego zakresu temperaceutycznych znacznie mocniej akcentury wiąże się z realizacją przeładunków tują ducha obowiązującego prawa (należy pamiętać, że są one możliwe Największe ryzyko przekroczenia i wymagają coraz więcej od firm zajtylko w komorach przeładunkowych określonego zakresu temperatury mujących się dystrybucją produktów hurtowni lub składu konsygnacyjnego), wiąże się z realizacją przeładunków, rozładunków towarów w momencie doleczniczych. rozładunków i zwrotów produktów stawy do odbiorcy (szczególnie w przyleczniczych Jakie czynniki należy wziąć padku braku odpowiedniej infrastruktupod uwagę przy organizacji ry u przyjmującego towar), a także przy dystrybucji w kontrolowanej temperaturze? realizacji zwrotów, ze względu na ryzyko niewłaściwego zapakowaTo zależy od przedziałów temperaturowych określonych dla nia przesyłki lub nieprawidłowego określenia przedziału temperatukonkretnych preparatów i wykorzystywanego modelu dystrybury, z zachowaniem którego powinna być ona transportowana. cyjnego. Przy organizacji dystrybucji z przeładunkiem w komorach przeładunkowych należy uwzględnić znacznie więcej czynników niż W jaki sposób powinien być wyposażony magazyn produktów wymagających składowania w przypadku prostej dystrybucji z magazynu do odbiorcy. Można w kontrolowanej temperaturze? jednak wymienić pewne okoliczności, z którymi należy liczyć się w każdej sytuacji, takie jak: warunki zewnętrzne (np. porę roku), W przypadku magazynowania produktów leczniczych zawsze czas transportu (istotny zwłaszcza w przypadku transportu w zimmówimy o składowaniu w kontrolowanej temperaturze i wilgotno-
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
81 ści. W zależności od informacji zawartych w charakterystyce produktu leczniczego możemy składować leki w różnych zakresach temperatury, jednak ogólnie przyjmuje się trzy przedziały: od 15 do 25°C, od 8 do 15°C i od 2 do 8°C. Magazyny muszą być wyposażone w urządzenia grzewczo-chłodzące, gwarantujące utrzymanie wyżej wymienionych zakresów temperatury w każdym miejscu magazynu przez cały rok, niezależnie od warunków zewnętrznych. Aby mieć pewność, że urządzenia techniczne zainstalowane w magazynie zapewniają zachowanie wymaganych warunków, konieczne jest wykonanie mapowania magazynu, czyli szczegółowych pomiarów temperatury i wilgotności w kluczowych punktach pomieszczeń w najzimniejszym i najcieplejszym miesiącu roku. Jeśli wyniki mapowania są niesatysfakcjonujące, konieczna jest modyfikacja systemów odpowiadających za utrzymanie właściwej temperatury i wilgotności (montaż nagrzewnic, klimatyzatorów, osuszaczy itp.)
trum zarządzania transportem. Sytuacja komplikuje się w przypadku transportów łączonych z wykorzystaniem przeładunków. Wyposażenie pojazdu jest analogiczne do opisanego, ale trzeba wprowadzić dodatkowe zabezpieczenia, takie jak system IT pozwalający na śledzenie drogi każdego unitu transportowego i przypisanie do nich historii przebiegu całego procesu. Ponadto, konieczne jest wykorzystanie środków, które zapewnią lekom bezpieczeństwo w trakcie przeładunku, a także pozwolą na identyfikację przesyłek.
Czym różni się transport w zimnym łańcuchu, tzn. w przedziale temperatury od 2°C do 8°C od transportu w innych zakresach temperatury?
Transport w zimnym łańcuchu wyróżnia się przede wszystkim bardzo małą rozpiętością zakresu temperatury (tylko 6°) i bliskością temperatury granicznej dla większości preparatów leczniczych (0°C). W przypadku transportu w zimnym Jakie cechy powinien posiadać łańcuchu, nie ma tolerancji dla jaDziałanie firm logistycznych opiera system regulacji i kontroli kichkolwiek przekroczeń. Dodatkowo, się w dużej mierze na sprawnie temperatury zainstalowany w w tym przedziale temperatury dysdziałającym i podatnym na modyfikacje trybuuje się stosunkowo niewiele magazynach hurtowni systemie informatycznym i składach konsygnacyjnych preparatów. Oznacza to, że organizaproduktów leczniczych? cja osobnej dystrybucji dla tych grup leków jest mało opłacalna. RozwiązaPrzede wszystkim, powinien być niem mógłby być transport łączony, czyli z wykorzystaniem samoprzygotowany przez firmę legitymującą się doświadczeniem w zachodów z dzieloną skrzynią ładowną, wiąże się to jednak z dodatkresie dostarczania tego typu rozwiązań. Przed instalacją systemu, kowymi kosztami przystosowania pojazdów. Metodą pozwalającą pomieszczenia magazynu powinny zostać zmapowane, tak aby na transport łączony, bez dostosowywania samochodów, jest wykoumieścić czujniki i rejestratory w miejscach wynikających z marzystanie aktywnych kontenerów chłodniczych, wyposażonych we powania. Istotne jest, żeby system dawał możliwość archiwizowawłasne agregaty i dzięki temu pozwalających na utrzymanie stałej nia wyników pomiarów. Dodatkową zaletą jest, gdy dane zebrane temperatury wewnątrz kontenera przez długi czas. w systemie są w łatwy sposób, np. online, dostępne dla osób odpowiedzialnych za zapewnienie jakości w firmie. Urządzenia do regulacji temperatury powinny być sprzężone z systemem alarmowym, wykrywającym zmiany temperatury lub zbliżanie się wskaźników do granicznych wartości.
Z jakich rozwiązań korzystają operatorzy logistyczni, by wywiązać się z obowiązku utrzymania wymaganego zakresu temperatury w trakcie całego procesu transportu? Wszystko zależy od stopnia komplikacji procesu. W przypadku dostaw dedykowanych, podczas których realizuje się jeden lub kilka rozładunków, jest to dość łatwe. Transport powinien być realizowany z wykorzystaniem samochodów, których komora ładunkowa posiada zabudowę izotermiczną, agregaty grzewczo-chłodzące oraz system pomiaru i rejestracji temperatury (tak jak w przypadku pomieszczeń magazynowych, w najzimniejszym i najcieplejszym miejscu komory ładunkowej przeprowadza się mapowanie rozkładu temperatury). Dodatkowo, środki transportu mogą być wyposażone w urządzenia do transmisji danych o warunkach transportu do cen-
Jaka jest rola systemów informatycznych w logistyce w kontrolowanej temperaturze? Jakie cechy powinny posiadać tego typu systemy? Po pierwsze powinny zostać poddane walidacji, tak aby upewnić się do co stabilności ich działania. Można powiedzieć, że obecnie działanie firm logistycznych opiera się w dużej mierze na sprawnie działającym i podatnym na modyfikacje systemie informatycznym. Z jednej strony rolą systemu IT jest obecnie zbieranie, rejestrowanie, gromadzenie i udostępnianie informacji o warunkach transportu. Z drugiej, jest to narzędzie pozwalające na organizację i zarządzanie transportem. Nowoczesne systemy IT pozwalają na zdalną kontrolę warunków dystrybucji, alarmowanie o możliwościach przekroczeń i przekroczeniach. Umożliwiają planowanie działań i redukują niemal do zera ryzyko narażenia towarów na niewłaściwe warunki. W najbardziej zaawansowanej formie pozwalają śledzić w czasie rzeczywistym drogę i warunki transportu dla każdej dystrybuowanej przesyłki.
82 |
Automatyka w służbie farmacji Dzisiaj już nikogo nie dziwi obecność w zakładzie farmaceutycznym robotów czy urządzeń z dedykowanymi interfejsami. Automatyka i informatyka przemysłowa jest w stanie sprostać wymaganiom branży na każdym etapie wytwarzania. Grzegorz Fijałka Zastępca Dyrektora ASTOR Consulting
Piotr Bistroń Prezes firmy ABIS
B
ranża farmaceutyczna jest specyficzna ze względu na zaostrzone wymagania bezpieczeństwa realizowanych procesów na wszystkich etapach produkcji: od przyjęcia materiałów na magazyn surowców, poprzez naważanie, sam proces technologicz-
ny, aż po konfekcjonowanie i składowanie w magazynie wyrobów gotowych. Wszystkie wymogi zdefiniowane w normach – czy to GMP, czy FDA 21 CFR Part 11 – mają na celu minimalizowanie do zera pomyłek i zapewnienie wytwarza-
nia bezpiecznych dla pacjenta produktów. Tu z pomocą przychodzą systemy automatyki i informatyki przemysłowej, wspierające personel zarówno w prowadzeniu procesu, jak i w rejestrowaniu wszystkich skojarzonych z procesem parametrów technologicznych i jakościowych.
Sprawdzanie procesu naważania Na samym początku produkcji, systemy informatyczne pomagają w kontroli procesu przygotowania naważek surowców. Przy wykorzystaniu skanera, drukarki, wagi, panelu operatora i bazy danych zleceń produkcyjnych i receptur, obsługa w prostszy i bezpieczniejszy sposób może przygotować surowce do dalszych etapów produkcji. Na panelu wyświetlane są podpowiedzi dotyczące kolejnych kroków i priorytetowych zleceń. Połączenie z układem wagi zapewnia rejestrację i weryfikację zgodności wykonanego zadania – dopiero po zatwierdzeniu możliwe jest wydrukowanie etykiety do oznaczenia pojemnika z surowcem. Na tym etapie możliwe jest również zarejestrowanie wymaganych przez dział jakości informacji – dla potwierdzenia tożsamości pobranego z magazynu surowca.
Zdj. 1. Dla technologa: panel edycji receptury (źródło: ASTOR)
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
83 Nowe rozwiązania z zakresu automatyki i informatyki produkcyjnej, połączone z dużym doświadczeniem inżynierów oraz wykorzystaniem możliwości normy ISA S88, pozwalają na budowę znacznie tańszych, a jednocześnie wystarczająco funkcjonalnych systemów sekwencyjnych. Głównym zadaniem tego prostego miksu automatyki i informatyki przemysłowej jest wspieranie operatorów w poprawnej realizacji czynności oraz technologów w prostym i szybkim projektowaniu sekwencyjnych receptur produkcyjnych. Przyczynia się to do zmniejszenia pomyłek na etapie prowadzenia procesu oraz ułatwia nadzór technologiczny nad zgromadzonymi recepturami. Zdj. 2. Podgląd przebiegu procesu wsadowego (źródło: Astor)
Kontrola zgodności z recepturą Najważniejszy w farmacji proces technologiczny w większości przypadków ma charakter wsadowy. Tu, ze względów bezpieczeństwa, szczególnie ważna jest kontrola zgodności z recepturą wytwarzania i dozowania właściwych składników. Przykładem uniwersalnego narzędzia do produkcji wsadowej jest system Wonderware InBatch, który stanowi bardzo elastyczne środowisko, umożliwiające łatwą adaptację do wymagań szerokiej gamy użytkowników. Bardzo ważne jest to, że raz zaprogramowany system daje się dowolnie konfigurować przez obsługę nieposiadającą wiedzy z zakresu automatyki i działania
Monitorowanie mikroklimatu
poszczególnych urządzeń, bez konieczności ponownej walidacji.
Poprawna realizacja czynności Procesy wsadowe mają zwykle prosty charakter sekwencyjny, czyli składają się z sekwencji, w ramach których równolegle realizowane są fazy produkcyjne. W większości wypadków recepturę produkcyjną można opisać właśnie jako prostą sekwencję następujących po sobie kroków (np. dozuj, mieszaj itp.) i realizowanych w ramach każdego kroku faz z odpowiednimi parametrami (np. w przypadku mieszania: włącz mieszadło na poziomie 25% mocy i podnieś temperaturę o 50%, utrzymując taki stan przez 30 minut).
Zdj. 3. System monitorowania mikroklimatu w ICN Polfa Rzeszów (źródło: ABIS)
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
Na wszystkich etapach wytwarzania, a szczególnie w obszarze magazynowania i w laboratoriach, ważną rolę w zakresie bezpieczeństwa produktu pełnią systemy monitorowania mikroklimatu. Temperatura, wilgotność i odpowiednia różnica ciśnień w pomieszczeniach muszą być stale monitorowane. Znaczenie tych pomiarów jest duże, gdyż jakiekolwiek nieprawidłowości mogą wpłynąć nie tylko na jakość leków, ale również niepowodzenie badań w laboratoriach. Firma ABIS z Krakowa, Złoty Partner wdrożeniowy ASTOR, zrealizowała implementację systemu monitorowania klimatu na terenie fabryki ICN Polfa Rzeszów. Aplikacja wykorzystująca Platformę Systemową Wonderware składa się
84 |
m.in. z: programu zarządzającego przepływem danych o wielkościach pomiarowych, alarmach i zapisem do bazy danych; przemysłowej bazy danych gromadzącej wartości pomiarowe, progi alarmowe w skompresowanej i dostępnej dla działu IT formie; interfejsów graficznych i narzędzi raportowych, z których mogą korzystać pracownicy kontroli jakości, utrzymania ruchu oraz inne służby w zakładzie, które potrzebują mieć wgląd w aktualny i archiwalny stan systemu. „Wizualizacja instalacji została dopracowana przez naszych pracowników w taki sposób, by spełniała wszystkie wymagania użytkowników. Było to możliwe dzięki znajomości procesów, doświadczeniu zespołu wdrożeniowego i szerokiej gamie możliwości oprogramowania Platforma Systemowa Wonderware” – komentuje Piotr Bistroń, prezes firmy ABIS. W systemie realizowane są m.in. funkcje wizualizacji, takie jak: • przegląd ekranów synoptycznych z wartościami mierzonych pomiarów; • przegląd trendów historycznych; • przegląd alarmów bieżących; • automatyczne potwierdzanie alarmów Hi oraz Lo oraz konieczność potwierdzania pozostałych alarmów przez dyspozytora; • ustawianie progów alarmowych dla odpowiednich pomiarów; • logowanie zmian progów alarmowych; • możliwość kalibracji wartości pomiarowych;
• sygnalizacja przekroczenia progu alarmowego (odpowiednim kolorem); • sygnalizacja błędów komunikacji, błędnych lub niewiarygodnych pomiarów itp.; • stworzenie Schedulera pracy poszczególnych liczników mierzących ilość cząstek oraz przepływu powietrza, jak również możliwość załączania oraz wyłączania liczników przez system i operatora.
Systemowe generowanie raportów Oprócz wizualizacji stworzono zaawansowane środowisko raportowania dostępne z poziomu przeglądarek internetowych. System umożliwia generowanie raportów zmianowych, dobowych oraz z danego okresu czasu, z wybranego wcześniej pomieszczenia. Istnieje możliwość przygotowania raportów z wybranym krokiem minutowym lub godzinowym. Przy każdym pomiarze w raporcie mogą wystąpić określone znaczniki, które informują operatora o przekroczeniach zdefiniowanych sygnałów alarmowych. Do każdego raportu przewidziane są dodatkowe sekcje, które można opcjonalnie włączyć, np.: • alarmy i przekroczenia – pokazujące opis alarmu wraz z czasem rozpoczęcia oraz zakończenia; • bilans – przedstawiający podsumowanie zawierające wartości minimalne, maksymalne i średnie dla każdego pomiaru;
limity – wyświetlające aktualne wartości progów alarmowych dla pomiarów; • przebiegi – wykresy obrazujące przebiegi pomiarów wraz z ich limitami. Zapis raportu możliwy jest w formatach: PDF, XLS, XML, CSV. W ramach projektu została napisana również aplikacja okienkowa służąca do przeglądania historii alarmów, konfiguracji Schedulera, nastaw progów alarmowych i współczynników kalibracji, a także historii logowania do systemu.
Stworzenie przestrzeni danych Platfoma Systemowa Wonderware, zastosowana przez przedsiębiorstwo ICN Polfa Rzeszów, jest idealnym narzędziem umożliwiającym stworzenie przestrzeni danych dla wszystkich wymienionych etapów produkcji. Jest przystosowana do łączenia z wagami, maszynami, czujnikami, systemami klimatyzacji i wentylacji, co pozwala na gromadzenie w wydajny sposób danych i zapewnia odpowiednie interfejsy komunikacji zarówno dla operatorów, jak i analityków procesu. Co najważniejsze, rozwiązanie jest zgodne z normami FDA 21 Part 11. Właściwe zastosowanie Platformy Wonderware zwiększa kontrolę nad procesami zachodzącymi w produkcji farmaceutycznej, a więc zapewnia zwiększenie bezpieczeństwa samych procesów, prowadząc finalnie do zagwarantowania produktów o wysokim poziomie jakości. Asystując przy wielu realizowanych w branży farmaceutycznej wdrożeniach, ASTOR obserwuje coraz większy udział systemów automatyki i informatyki przemysłowej GE IP i Wonderware, a także robotów Kawasaki. Coraz większym zainteresowaniem cieszą się szczególnie roboty przemysłowe, które zastosowane przy konfekcjonowaniu, na pograniczu stref czystości, umożliwiają (poza zwiększeniem efektywności procesu) odciążenie pracowników od żmudnej pracy. Jednakże najwięcej projektów realizowanych przez firmy ASTOR i ABIS, dotyczy systemów informatycznych Wonderware. Głównie dlatego, że systemy te umożliwiają rezygnację z papierowego obiegu dokumentów, przy jednoczesnym podniesieniu wiarygodności gromadzonych danych i zachowaniu zgodności z GMP.
Zdj. 4. Dla produkcji: fragment raportu z realizacji zlecenia (źródło: ASTOR)
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
RAN - Quality Systems Sp. z o.o. ul. Tołwińskiego 12 /11 01-711 Warszawa REGON: 0000346814 NIP: 5252472244 kapitał zakładowy 607.000 PLN tel. 22 832-53-30 fax. 22-832-53-32 e-mail: ran@medianet.pl
Jesteśmy już 20 lat w informatyce dla branży farmaceutycznej Z prawdziwą satysfakcją odnotowujemy 20 lat nieprzerwanej obecności naszej firmy w branży farmaceutycznej.
Jesteśmy polską firmą specjalizującą się w zastosowaniach informatyki w wytwarzaniu i dystrybucji produktów leczniczych.
Znamy zarówno literę, jak i ducha krajowych i międzynarodowych przepisów i zaleceń dotyczących tej branży oraz praktykę ich stosowania.
Jesteśmy dobrze zorientowani w inżynierii procesów wytwórczych i dystrybucyjnych w tej dziedzinie oraz możliwościach wspomagania ich metodami informatycznymi.
Stworzyliśmy i stale rozwijamy, doskonalimy i od kilkunastu lat utrzymujemy w stanie zwalidowanym własny obszerny system typu MES (Manufacturing Execution System) pod nazwą SZARŻA wspomagający prowadzenie i precyzyjne dokumentowanie procesu wytwarzania produktów leczniczych.
Znamy wszechstronnie zalecenia walidacyjne ujęte w przewodniku GAMP 5 (A Risk-Based Approach to GxP Compliant Computerized Systems) wydanym pod auspicjami światowej organizacji ISPE zrzeszającej specjalistów z dziedziny inżynierii farmaceutycznej (International Society for Pharmaceutical Engineering) – i umiemy je stosować w praktyce, zarówno w odniesieniu do dużych grup kapitałowych, jak i małych przedsiębiorstw.
Dzięki wieloletnim bieżącym kontaktom ze światowym GAMP Forum i ISPE dobrze wyczuwamy trendy w praktyce walidacyjnej, co może być szczególnie istotne w opracowywaniu strategii walidowania konkretnego przedsiębiorstwa.
Prowadziliśmy i prowadzimy walidację systemów informatycznych dla szeregu renomowanych przedsiębiorstw.
Prowadziliśmy walidację całych wytwórni farmaceutycznych. Aktualnie uczestniczymy w kompleksowej walidacji procesów i wspomagających je systemów informatycznych w kilku wiodących przedsiębiorstwach prowadzących dystrybucję hurtową produktów leczniczych.
Szczycimy się tym, że stworzyliśmy na zamówienie Głównego Inspektoratu Farmaceutycznego wielodziedzinowy system informatyczny wspomagający jego pracę.
Wyrażamy głęboką wdzięczność naszym partnerom biznesowym, którzy nieraz w okresie kilkunastu lat nieprzerwanej, ścisłej współpracy pozwolili nam głęboko wniknąć w specyfikę branży. Bez tego nie byłoby możliwe skuteczne wspomaganie ich działalności systemami informatycznymi, ani tym bardziej – prawidłowe i racjonalne prowadzenie walidacji procesów i systemów. Zapraszamy do współpracy.
Zarząd RAN – Quality Systems
86 |
Mamy system ERP Czy potrzebujemy EAM? Wdrożenie systemu ERP to dla wielu przedsiębiorstw wieloletni cel strategiczny. Planując dalszy rozwój tego systemu firmy często rozważają uwzględnienie potrzeb działu utrzymania ruchu. Rafał Karasiewicz Vetasi
N
Funkcje oferowane przez zaawansowany system EAM zostały przedstawione na schemacie poniżej.
iniejszy artykuł prezentuje argumenty pozwalające odpowiedzieć na dwa pytania związane z powyższą tematyką: • Czy mając już wdrożony system ERP, potrzebujemy dodatkowo funkcjonalności EAM? oraz • Czy mając system ERP powinniśmy go rozbudować o moduł EAM, czy też kupić oddzielny system EAM? Ostatnie kilkanaście lat spowodowało upowszechnienie systemów ERP na polskim rynku. W chwili obecnej nie tylko duże przedsiębiorstwa, ale również średnie organizacje mogą korzystać z dobrodziejstw zintegrowanych systemów informatycznych. Z reguły wdrożenie systemu ERP skupia się na głównych modułach pakietu:
Rys. 2.
Należy zwrócić uwagę, że pomimo identycznych nazw, procesy Gospodarki magazynowej i Zaopatrzenia w systemie EAM są ograniczone tylko do obsługi utrzymania ruchu. System ERP obsługuje te procesy na poziomie całej firmy. Z porównania funkcji obydwu systemów otrzymujemy odpowiedź na pierwsze pytanie: systemy ERP nie dostarczają funkcjonalności potrzebnej działom utrzymania ruchu czyli: szczegółowego rejestru majątku, obsługi awarii, ani planowania czynności konserwacyjnych.
Rys. 1.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
87
O ile brak obsługi awarii i konserwacji jest oczywisty (podstawowe moduły systemów ERP nie posiadają takich funkcji), to niekiedy próbuje się polemizować z pierwszą częścią powyższego stwierdzenia. Przyjmuje się argument, że w systemach ERP funkcjonuje rejestr środków trwałych, co powinno zaspokoić potrzeby informacyjne w zakresie rejestru majątku. Jest to tylko częściowo prawda, ponieważ w wielu organizacjach rejestr ŚT jest bardzo ogólny i np. środkiem trwałym jest cała linia produkcyjna podczas, gdy z punktu widzenia utrzymania konieczne jest rozbicie linii na poszczególne maszyny oraz idąc dalej na elementy składowe typu silnik, pompa. Nawet jeśli technicznie system ERP byłby przygotowany na taką szczegółowość danych, to użytkownicy tej części – księgowość – nie są w stanie wprowadzić potrzebnych informacji, ani ich utrzymywać. Jest to podstawowy argument, aby uwzględnić w planach firmy wdrożenie systemu EAM. Rozbudować system ERP o funkcjonalność EAM, czy też zakupić dedykowany system? Aby przeanalizować drugą część pytania zawartego w temacie artykułu należy przede wszystkim ustalić kto jest sponsorem wdrożenia systemu wspomagającego utrzymanie ruchu: dział techniczny czy też IT. Dla działu utrzymania ruchu istotna jest funkcjonalność systemu, a nie cechy techniczne. Z kolei dział IT dba o zapewnienie jednolitej infrastruktury informatycznej. Z powyższego wynika, że dział IT może optować za rozbudową systemu ERP bez inwestowania w oddzielny system EAM. Rozwiązanie dedykowane może wymagać oddzielnych serwerów, może korzystać z innej technologii niż system ERP (inna baza danych, inny serwer aplikacyjny). Skutkuje to często innymi kompetencjami wymaganymi od pracowników IT w zakresie utrzymania nowego systemu – całkowity koszt utrzymania (TCO) może być wyższy od rozwijania systemu ERP.
Słownik pojęć ERP
(ang. Enterprise Resource Planning): system do planowania zasobów przedsiębiorstwa. CMMS (ang. Computerised Maintenance Management System): określenie dla klasy systemów informatycznych odpowiedzialnych za gospodarkę remontową i utrzymanie ruchu w przedsiębiorstwie. EAM (ang. Enterprise Asset Management): kolejna generacja systemów CMMS, obejmuje całościowe zarządzanie zasobami przedsiębiorstwa zorientowane na aspekty finansowe, a zwłaszcza na maksymalizację ROA (eng. Return of Assets – zwrot z inwestycji). Obejmuje to poprawę wykorzystania i efektywności zasobów, a także obniżanie kosztów kapitałowych i operacyjnych oraz zarządzanie cyklem życia maszyn i urządzeń. MES (ang. Manufacturing Execution System): system śledzenia i nadzorowania produkcji
SCADA (ang. Supervisory Control And Data Acquisiiton): system nadzorowania procesów technologicznych
System EAM/CMMS powinien być przyjazny w obsłudze dla pracowników utrzymania ruchu. Rozumiemy przez to: ułatwioną nawigację w systemie, dostęp do najczęściej wykorzystywanych funkcji systemu oraz jednolity interfejs użytkownika, niezależnie od funkcji czy modułu. Dedykowane systemy EAM są z reguły bardziej spójne w tym obszarze od systemów ERP. Te drugie często ewoluują w ten sposób, że funkcjonalność branżowa jest dodawana poprzez wykupienie firmy oferującej konkretne rozwiązanie. Nowo zakupiony system jest następnie integrowany z pozostałymi częściami systemu ERP, ale nadal może wyglądać i działać inaczej w porównaniu do innych modułów. Z punktu widzenia użytkownika istotną cechą systemu komputerowego jest możliwość precyzyjnego, szybkiego i wygodnego wyszukiwania informacji. Na przykład: nie wystarczy wyszukiwanie indeksów magazynowych według opisu lub kodu. Dla służb utrzymania ruchu, które operują na 20 czy 40 tysiącach części zamiennych ważne jest, aby móc je opisać specyficznymi atrybutami np. średnicą wewnętrzną i zewnętrzną. Systemy EAM oferują możliwość wyszukiwania części na podstawie ich parametrów technicznych usprawniając obsługę. Elastyczność i możliwość dalszego rozwoju to cecha systemu informatycznego, która określa w jakim stopniu narzędzie będzie rozwijało się wraz z rozwojem przedsiębiorstwa. Ta cecha nie wynika wyłącznie z tego jak łatwo można modyfikować istniejący system poprzez dodawanie nowych pól, ekranów czy możliwości wpływania na logikę. To przede wszystkim zestaw najlepszych praktyk dostarczanych razem z oprogramowaniem dla utrzymania ruchu. Te dobre praktyki oraz rozwiązania zawarte w narzędziu mogą być wdrażane wraz ze wzrostem świadomości firmy. W tym zakresie dedykowane rozwiązania EAM wyprzedzają wbudowane moduły w ERP. Świadczy o tym chociażby ilość dodatków oferowanych do rozwiązań EAM, szybkość reakcji świata EAM na potrzeby. Systemy ERP nadrabiają te funkcjonalne zaległości z obszaru utrzymania ruchu z pewnym opóźnieniem.
Od strony technologicznej zarówno moduł systemu ERP jak i dedykowany system EAM oferują podobne możliwości. Z reguły są to produkty korzystające z nowoczesnej architektury informatycznej pozwalającej na rozbudowę systemu, dostęp do systemu możliwy jest przez przeglądarkę internetową. Obecnie dostępne na rynku, wiodące systemy EAM, mają wszystkie cechy narzędzi „enterprise”. Cechuje je: • Niezależności od systemu i sprzętu • Dostępność z każdego miejsca • Niezawodność i spójność danych • Poufność i bezpieczeństwo danych • Elastyczność • Przyjazna obsługa • Rozwojowość Rozważając wybór pomiędzy modułem systemu ERP, a oddzielnym systemem, należy uwzględnić koszt licencji dla użytkowników. Z reguły mówimy o kosztach: • Licencji związanej z serwerem aplikacji • Licencji bazy danych • Licencji dla użytkowników, którzy mogą wyłącznie zgłaszać usterki, problemy (często ten rodzaj licencji jest bezpłatny) • Licencji dającej pełny dostęp do systemu • Licencji dla użytkowników rozwiązań mobilnych Podejmując decyzję o wyborze konkretnego rozwiązania należy porównać koszty w obydwu modelach zarówno ceny z cennika (tzw. list price) oraz ceny z upustami dla konkretnego klienta, które mogą zaoferować dostawcy. Często dostawcy systemu ERP są w stanie obniżyć znacząco ceny licencji w module utrzymania ruchu dla klientów korzystających już z systemu ERP.
e-wydanie do pobrania na:
www.farmacom.com.pl
2/2014
88 | Warto również zwrócić uwagę na szybkość wprowadzania zmian do systemu. W przypadku dużych systemów ERP wprowadzanie nowych funkcji odbywa się stosunkowo rzadko np. 2 razy do roku. W dziale utrzymania ruchu konieczność zmiany działania może pojawiać się częściej (związana np. ze zmianą przepisów). Wtedy oddzielny system EAM będzie ułatwiał ich wprowadzenie, bez oczekiwania na najbliższe okno wprowadzenia zmian w systemie ERP. Kluczowym czynnikiem wpływającym na decyzję o wyborze rozwiązania są odmienne potrzeby użytkowników. W przypadku systemu ERP użytkownikami są: księgowi, magazynierzy, pracownicy działu zakupów, kontroling, kierownictwo firmy – mówiąc w uproszczeniu osoby zorientowane na dane ekonomiczne. W przypadku systemu EAM/CMMS użytkownikami są inżynierowie i służby techniczne. Wymaga to innego podejścia do wprowadzania danych. W systemach ERP naturalny jest miesięczny cykl pracy: dokumenty księgowe wprowadza się po zakończeniu okresu rozliczeniowego, uzgadnia salda, stany magazynowe, kontroluje budżet. System EAM z kolei pracuje na danych bieżących, ponieważ dane o urządzeniach, postęp prac dla określonych instalacji, akcje remontowe są realizowane i nadzorowane w trybie ciągłym. Z tego punktu widzenia rozdzielenie obydwu systemów jest konieczne, ponieważ jak wspomniano wcześniej: wdrożenie systemu ERP z reguły obejmuje główne obszary typu: finanse i księgowość, kontroling – wymagania dla tych modułów definiują użytkownicy z tych obszarów. Późniejsze dodanie modułu do utrzymania ruchu może być ograniczone funkcjonalnie istniejącą konfiguracją. Należy pamiętać, że inwestycja w system informatyczny dla służb utrzymania ruchu to narzędzie na kolejne 5, 10 czy 15 lat. Planując wdrożenie warto mieć na uwadze możliwy rozwój przedsiębiorstwa. Systemy informatyczne dla służb utrzymania ruchu operują na danych technicznych. Dane te mogą zostać wprowadzone do systemu ręcznie, ale zaleca się integrację systemu EAM z systemami technicznymi typu SCADA, MES w celu przyspieszenia pobierania danych oraz zapewnienia ich spójności. Możliwości integracyjne są więc kolejnym kryterium wyboru pomiędzy rozbudową systemu ERP, a zakupem dedykowanego systemu EAM. Nowoczesne systemy EAM / CMMS posiadają narzędzia ułatwiające integrację z ww. systemami, Są to dedykowane szyny integracyjne, gotowe moduły pozwalające na połączenie ze światem zewnętrznym (również z wykorzystaniem szyny danych o ile taka funkcjonuje w organizacji). Mówiąc o integracji dedykowanego systemu EAM z innymi programami należy wspomnieć o możliwości integracji z systemami ERP. Wynika to z faktu, że część funkcjonalności obydwu systemów pokrywa się, m.in. w zakresie zakupów, gospodarki magazynowej. Istotne jest, że wymiana danych może odbywać się dwukierunkowo: system dla utrzymania ruchu odbiera informacje o indeksach materiałowych, stanach magazynowych i wysyła do ERP gotowy dokument zapotrzebowania. Dzięki takiemu podejściu system utrzymania ruchu staje się częścią systemu zarządzania przedsiębiorstwem. Możliwych scenariuszy jest wiele, rysunek 3 przedstawia jeden z wariantów połączenia EAM – ERP: Integrując system ERP i EAM należy wziąć pod uwagę następujące czynniki: • Określenie, które elementy i procesy są realizowane przez działy utrzymania ruchu • Kwestie posiadanych licencji dla ERP • Określenie miejsca akceptacji dokumentów • Określenie potrzeb sprawozdawczości przedsiębiorstwa
Rys. 3.
Zasadniczą korzyścią połączenia systemów ERP i EAM jest podział licencji, który nie wymusza nabywania licencji systemów ERP dla służb technicznych. Integracja pomiędzy dedykowanym systemem EAM, a ERP stanowi jedno z najlepszych rozwiązań, ponieważ przedsiębiorstwo może w ten sposób skorzystać z najlepszych w swojej klasie rozwiązań (best-of-breed). Decyzja o tym czy należy wdrożyć funkcjonalność EAM jest naszym zdaniem oczywista – wszystkie organizacje posiadające rozbudowany park maszynowy powinny dysponować odpowiednimi narzędziami do zarządzania nimi. Oddzielną kwestią jest wybór rozwiązania: wdrożenie oddzielnego systemu EAM lub rozbudowanie istniejącego systemu ERP o specjalizowany moduł. Podejmując decyzję należy wziąć pod uwagę: • Porównanie funkcjonalności • Koszty zarządzania zmianą dla rozwiązania dedykowanego oraz pakietu ERP • Możliwość zarządzania dokumentacją techniczną • Wymagań technologicznych i architektonicznych • Koszt licencji • Koszty dostosowania systemu do potrzeb przedsiębiorstwa • Koszty ewentualnych integracji z już pracującymi systemami Na koniec należy podkreślić, że niezależnie od wybranego rozwiązania, sam system informatyczny nie wystarczy. Wdrożenie powinno objąć swoim zasięgiem również: • przeszkolenie użytkowników, • zapewnienie odpowiedniej ilości licencji, aby dane były wprowadzane w miejscu ich powstawania, • ujednolicenie procedur wewnętrznych w ramach całego przedsiębiorstwa i wszystkich komórek, • zapewnienie współpracy innych działów, ponieważ z uwagi na zmieniającą się technologię, system EAM/CMMS jest wykorzystywany nie tylko przez dział utrzymania ruchu, ale również operatorów maszyn, którzy wykonują zadania z zakresu UR. Wsparcie oferowane przez narzędzia EAM wydają się oczywiste dla działów UR. Liczymy, że przestawione zagadnienia będą stanowić dobry początek dla szczegółowych rozważań w temacie „ERP i co dalej”, oraz, że zwiększą świadomość obecnych oraz przyszłych użytkowników.
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
You Youknow knowthe thegoal goal–– we weknow knowthe theway way Cyclodextrin HPB: Cyclodextrin HPB:the theeffective effectiveroute route totoincreased increasedAPI APIsolubility solubilityand andstability stability
Merck Merck Millipore Millipore is aisdivision a division of of
90 |
Wykorzystanie systemów informatycznych w zakresie wsparcia procesów biznesowych przedsiębiorstwa farmaceutycznego, ze względu na branżowe, restrykcyjne wymagania jakościowe, jest zagadnieniem złożonym. W krajach Unii Europejskiej i Stanach Zjednoczonych część wyrobów może być dopuszczonych do sprzedaży pod warunkiem, że procesy produkcyjne poddane zostały walidacji, a producent przeprowadzi dowód, że stosowane przez niego procesy są zgodne z wymaganiami. Oprogramowanie musi więc m.in. wspierać przedsiębiorstwo w zakresie dobrych praktyk wytwarzania GMP (Good Manufacturing Practice) i zapewniać firmie pełne bezpieczeństwo w zakresie spełnienia wymogów formalnych. Ze względu na różne przeznaczenie aplikacji wspomagających zarządzanie, wyróżnione zostały poszczególne klasy systemów informatycznych, skierowanych dla przedsiębiorstw.
Systemy informatyczne w przedsiębiorstwach produkcji farmaceutycznej w praktyce Paweł Dawid DSR
Systemy klasy ERP Oprogramowanie klasy ERP (Enterprise Resource Planning) służy do zarządzania zasobami przedsiębiorstwa i jest głównym systemem organizacji, bez którego funkcjonowanie byłoby praktycznie niemożliwe. Jego celem jest integrowanie w możliwie najszerszym zakresie wszystkich szczebli zarządzania oraz gospodarowanie wszelkimi, istotnymi zasobami przedsiębiorstwa. Jako narzędzie zintegrowane, składa się z modułów odpowiedzialnych za wspomaganie poszczególnych obszarów funk-
cjonalnych: produkcja, magazynowanie, sprzedaż, zakupy, finanse itd. Coraz częściej w jego skład wchodzą również autonomiczne wcześniej moduły, jak np. CRM (zarządzanie relacjami z klientami), czy HRM (zarządzanie zasobami ludzkimi). W związku z tym, że oprogramowanie tej klasy jest wdrażane, czyli dostosowywane do indywidualnych procesów biznesowych poszczególnych organizacji, producenci i dystrybutorzy często oferują wersje predefiniowane, charakterystyczne dla danej branży. Ze względu na rygorysty-
2/2014
czne uwarunkowania jakościowe w branży farmaceutycznej, w projekcie wdrożenia systemu ERP nie chodzi wyłącznie o dostosowanie oprogramowania do specyficznych wymagań technologicznych i organizacyjnych. Celem jest również dostosowanie systemu do wyraźnie sformułowanych przepisów prawnych, tworzonych w trosce o zdrowie klienta końcowego. Zapewnienie zgodności systemu informatycznego z URS w przypadku obszernego i wielowątkowego projektu, jakim niewątpliwie jest implementacja
e-wydanie do pobrania na:
www.farmacom.com.pl
91
ERP, jest zadaniem trudnym. Zastosowana metodyka wdrożenia powinna więc zapewniać skuteczność przedsięwzięcia, bezpieczeństwo i niezawodność oprogramowania.
Systemy klasy APS Sprostanie realiom rynkowym branży farmaceutycznej i stale rosnącym wymaganiom klientów powoduje, że producenci muszą błyskawicznie odpowiadać na bieżący popyt. Wytwarzanie krótkich serii wyrobów gotowych w jak najkrótszym czasie wymaga tworzenia precyzyjnych, szybko modyfikowalnych harmonogramów, uwzględniających minimalizację stanów magazynowych, minimalizację kosztów przezbrojeń maszyn, minimalizację produkcji w toku itd. Rosnące wymagania producentów w tym zakresie spowodowały rozwój klasy systemów informatycznych o nazwie APS (Advanced Planning and Scheduling), służących do zaawansowanego planowania i harmonogramowania produkcji. Część przedsiębiorstw w tym zakresie wciąż jednak korzysta jedynie z możliwości narzędzi ERP, wspierając się dodatkowo np. arkuszem kalkulacyjnym. Większość dostępnych na rynku systemów klasy ERP wykorzystuje w ramach planowania dwie pętle: MPS (Master Production Schedule) i MRP (Material Requirements Planning). MPS grupuje popyt rzeczywisty (zamówienia klientów) i popyt prognozowany (głównie na podstawie planów sprzedaży) na wyroby gotowe, wyrażony w SKU (Stock Keeping Unit) i zestawia go z dostępnymi zapasami i planowanymi przyjęciami z produkcji. W efekcie planista otrzymuje informację kiedy należy utworzyć nowe zlecenia
produkcyjne. Zlecenia te są następnie wykorzystywane przez MRP, które rozwija i grupuje popyt na półprodukty oraz kupowane części w oparciu o BOM i technologię produkcji. Narzędzia w zakresie planowania i harmonogramowania dostępne w systemach klasy ERP posiadają jednak liczne, poważne ograniczenia np. bardzo ograniczona zdolność przewidywania dalszych konsekwencji jakiejkolwiek zmiany, brak ustalania priorytetów pracy, brak możliwości dokładnego oszacowania terminu realizacji nowego zlecenia, brak synchronizacji ograniczeń materiałowych i wydajnościowych itd., w związku z czym wymagają uzupełnienia rozwiązaniami klasy APS. Wśród głównych korzyści wynikających z wdrożenia systemu klasy APS wyróżnić można m.in. redukcję pracochłonności przygotowania harmonogramu, poprawę terminowości dostaw, wzrost wydajności produkcji, redukcję stanów magazynowych, redukcję produkcji w toku i zmianę roli planisty w przedsiębiorstwie.
Systemy klasy MES Systemy klasy MES (Manufacturing Execution System) stanowią uzupełnienie systemów klasy ERP, a ich przeznaczeniem jest kontrola produkcji. Umożliwiają zbieranie informacji w czasie rzeczywistym ze stanowisk produkcyjnych i ich transfer na obszar biznesowy. Dane o postępie realizacji poszczególnych zleceń, ewentualnych awariach, przestojach, mikroprzestojach, brakach itd. mogą być pobierane bezpośrednio z maszyn, jak również przy udziale pracowników bezpośrednioprodukcyjnych. Dzięki funkcjonalności systemów MES można błyskawicznie uzyskać informacje o stopniu wykonania produk-
Firmy stają więc przed wyzwaniem optymalizowania eksploatowanych narzędzi i automatyzowania procesów biznesowych, co zdecydowanie sprzyja rozwojowi innych klas systemów informatycznych, uzupełniających oprogramowanie ERP. Coraz więcej organizacji zaczyna bowiem dostrzegać luki w wykorzystywanych dotychczas aplikacjach np. w zakresie planowania i harmonogramowania produkcji, czy zarządzania cyklem życia produktów i decydują się na wyspecjalizowane rozwiązania, które odpowiednio wdrożone usprawniają funkcjonowanie przedsiębiorstwa i wzrost jego konkurencyjności.
Rys. 1. Dynamika zmian wartości światowego rynku ERP
e-wydanie do pobrania na:
www.farmacom.com.pl
cji, na bieżąco podejmować odpowiednie decyzje i reagować na nieprawidłowości pojawiające się w czasie procesu produkcyjnego. Wśród korzyści związanych z wykorzystaniem narzędzi klasy MES wyróżnić można m.in. skrócenie czasu cyklu produkcyjnego, obniżenie kosztów produkcji, wzrost wskaźnika całkowitej efektywności sprzętu OEE (Overall Equipment Effectiveness), poprawę wizualizacji procesów, skrócenie przestojów (planowanych i nieplanowanych) oraz zwiększenie stopnia wykorzystania zdolności produkcyjnych. Zbierane dane, przekształcane następnie do informacji na obszarze biznesowym, przyczyniają się do maksymalizacji wydajności krótkoterminowej, a docelowo mają również wpływ na znaczną poprawę wydajności długoterminowej. Wśród istniejących na rynku systemów można jeszcze wskazać inne, wyspecjalizowane narzędzia m.in. • PLM (Product Lifecycle Managment) – oprogramowanie wspomagające zarządzanie cyklem życia produktów, • SFC (Shop Floor Control) – oprogramowanie służące do rejestracji postępów realizacji zleceń produkcyjnych oraz kontroli wykonywanych czynności na hali produkcyjnej, • BI (Business Intelligence) – oprogramowanie wspierające procesy informacyjne i decyzyjne • WF (Workflow) – oprogramowanie wspomagające zarządzanie obiegiem dokumentów. Spadek dynamiki zmian wartości światowego rynku ERP w ostatnich latach (rysunek 1) świadczy o tym, że staje się on nasycony, co oznacza, że większość przedsiębiorstw posiada już rozwiązania klasy ERP.
2/2014
92 |
Pomiar małych ilości metodą grawimetryczną
Pomiar masy jest dość prostym procesem w porównaniu z innymi jakie stosuje się podczas wytwarzania i kontroli wyrobu. Poprawne odmierzenie ilości jest jednak ważnym elementem decydującym o wielu właściwościach począwszy od barwy a kończąc na specyficznych właściwościach leczniczych.
Janas Sławomir Radwag Wagi Elektroniczne, Laboratorium Badawcze
Z
Rzeczywista masa próbki
apewne niewielu użytkownikom określenie masy próbki kojarzy się z pomiarem siły. Jednakże zgodnie z zasadą pracy wag elektronicznych, podczas pomiaru masy mierzymy siłę z jaką masa próbki jest przyciągana przez Ziemię. Oceniając precyzję zjawiska można wyobrazić sobie jak Ziemia przyciąga próbkę o masie 50 mg a waga jest to w stanie dokładnie zmierzyć i pokazać. Taki pomiar jak każdy dotyczący również innych wielkości ma pewne ograniczenia, które determinują jego precyzję i dokładność.
Obserwując wynik ważenia w większości przypadków intuicyjnie przyjmujemy ten pomiar jako dokładny. Pewnie stąd wywodzi się pogląd (zresztą błędny), że można używać wagi z działką elementarną d=0,1 mg w procesie, który wymaga dokładności 0,1 mg. W rzeczywistości wynik powinien być interpretowany nie tylko jako wartość, ale również jako pewien obszar wokół niej (wynik bez podania niepewności pomiaru jest niekompletny). Odpowiednie testy wykonuje się zazwyczaj podczas kwalifikacji wagi. Ich zakres jest zależny od tego w jaki sposób waga jest wykorzystywana. Gdy służy ona tylko do odmierzania małych ilości, to zazwyczaj wystarczające jest badanie powtarzalności wskazań wagi. Jest to tym samym pierwszy bardzo ważny wniosek: o dokładności ważenia małych porcji decyduje powtarzalność wskazań. Mamy więc ustaloną zależność na poziomie metrologicznym. Powstaje zatem pytanie czy można dokładnie zważyć próbkę o masie zaledwie kilku działek elementarnych wagi? Istotne jest tu stwierdzenie ,,dokładnie” – jest ono pojmowane (definiowane) bardzo różnie. Odpowiedź na tak postawione pytanie jest jednocześnie wyznaczeniem miejsca gdzie zaczyna się zakres pomiarowy wag. Dla producenta zaczyna się on oczywiście od stanu zera a kończy na obciążeniu maksymalnym wagi. Nieco inaczej to zagadnienie przedstawia się od strony użytkownika. Mamy tu dwa różne podejścia, jedno pochodzi z metrologii prawnej oraz drugie wywodzące się z wymagań branżowych (np. USP).
W przypadku wag elektronicznych zasadnicze znaczenie ma powtarzalność wskazań rozumiana jako zdolność do wskazywania takich samych wyników przy wielokrotnym ważeniu tej samej próbki. Jak powszechnie wiadomo wartość tego parametru jest zależna od czynników związanych ze środowiskiem pracy, umiejętnościami operatora oraz częściowo od parametrów wagi. Przyczyn naszych ewentualnych niepowodzeń w pomiarach masy należy więc poszukiwać w tych obszarach. Analiza tego w jaki sposób te czynniki wpływają na zdolność pomiarową wagi jest dość skomplikowanym procesem, jego realizacja wymaga wiedzy i czasu. Mając na uwadze zasady zarządzania ryzykiem (dokumenty ICH Q), zakres badań i zaangażowanie powinno być adekwatne do przewidywanego zysku. Wszelkie działania powinny być zatem poprzedzone wnikliwą analizą całego procesu w skład którego poza właściwym pomiarem wchodzą inne czynności. Należy do nich zaliczyć również te związane z próbką (pobranie, przechowywanie).
Obciążenie minimalne według wymagań prawnych Wagi podlegające prawnej kontroli metrologicznej (w tym farmacja) mają ściśle zdefiniowany początek zakresu pomiarowego poprzez tzw. Obciążenie Minimalne, Min (EN 45501). Próg ten jest wielokrotnością działki elementarnej d, jego wartość zależy od klasy dokładności wag. W konsekwencji tego, zakres ważenia zawiera się pomiędzy obciążeniem minimalnym (Min) a obciążeniem maksymalnym (Max). Prawna kontrola metrologiczna w zakresie błędów wskazań dotyczy tylko tego zakresu. Warto wiedzieć, że istnieje dodatkowe ograniczenie będące konsekwencją tego, że najmniejsza
2/2014
e-wydanie do pobrania na:
www.farmacom.com.pl
93 masa wzorca wg. OIML R 111 wynosi 1 mg. Ten punkt może być tym samym najmniejszym testowanym obciążeniem.
ści próbki jest warunek dokładnego ważenia. Zawiera go rozdział 41 (Balances): Jeśli nie określono inaczej, gdy substancje muszą być „dokładnie ważone”, ważenie przeprowadza się za pomocą wagi, która jest kalibrowana w całym zakresie roboczym i spełnia wymagania określone dla powtarzalności i dokładności.
Rys. 1. Zakres pomiarowy wag (EN 45501)
Kuriozalnie wygląda taka zależność dla wag z działką elementarną d=1 µg lub 0,1 µg, badane obciążenie minimalne wynosi 1 000 d lub 10 000 d. W tych przypadkach dość wyraźnie widać, że wymagania pochodzące z przepisów prawnych są zbyt ,,szerokie” dla takich obszarów jak farmacja. Ten dość specyficzny obszar ma wypracowane własne wymagania i zalecenia, można je znaleźć w tzw. farmakopeach. Jest ich kilka, ale wydaje się, że dominującą rolę odgrywa farmakopea amerykańska (USP) jeżeli patrzy się na wymagania związane z dokładnością procesu ważenia.
Masa minimalna według wymagań USP The U.S. Pharmacopeial Convention (USP) przedstawia inne podejście do problemu ważenia małych ilości. Podstawowym obowiązującym wymaganiem dla pomiarów masy niezależnie od wielko-
Rys. 2. Warunki ,,dokładnego” ważenia (USP)
Mamy więc dwa wymagania, które graficznie pokazuje rysunek. Wymagana dokładność to różnica pomiędzy wartością wskazywaną a oczekiwaną (I2 - IREF). Ten test wymaga zastosowania odpowiednich wzorców masy. Jednakże wymagana tolerancja w postaci 0,10% m i jest na tyle duża, że w zasadzie dla pomiaru małych wielkości jest zawsze spełniona. Wpływ zmian czułości wagi na wielkość tego błędu jest niewielki (dcz-3 « dcz-1) co pokazuje rysunek. reklama
94 |
Rys. 3. Wpływ zmian czułości na wynik pomiaru
Zmiany czułości dla dokładności pomiaru są istotne wówczas, gdy masa próbki jest znaczna. Receptą na tę przypadłość jest adjustacja - jest to proces, który przywraca dokładność pomiarową wagi. Pomimo tego, że obecnie w wagach istnieją systemy adjustacji automatycznej, zawsze przed pomiarami ten proces można wykonać (zainicjować) ręcznie poprzez przycisk. Wymagania dotyczące powtarzalności jakie musi spełniać waga zawiera również rozdział USP 41 (Balances). Należy sprawdzić czy spełniony jest warunek: 2-krotne odchylenie standardowe z serii co najmniej 10 powtórzeń podzielne przez wartość masy, którą test był wykonany nie przekracza wartości 0,10%.
• minimalna masa określana przez różnych operatorów może być różna. Dobra praktyka ważenia to przede wszystkim umieszczanie ładunków na szalce bez udarów, unikanie nadmiernego ruchu powietrza w obrębie szalki, ważenie na środku pomostu itp. • odchylenie standardowe skończonej liczby powtórzeń ważeń jest tylko oszacowaniem prawdziwego odchylenia standardowego, które jest nieznane. • ustalenie minimalnego ciężaru na wadze testowej nie może być całkowicie reprezentatywne dla innych aplikacji ważenia. Test powtarzalności w ramach kwalifikacji wykonuje się tzw. masą skupioną, jest nią wzorzec masy. W rzeczywistości ważone są inne elementy typu kolby, uchwyty itd. Można zatem przypuszczać, że uzyska się nieco inne wartości podczas testów powtarzalności, a tym samym inną wartość MSW.
(2 sd)/m ≤ 0,10% Bezpośrednio z tego warunku wynika wartość masy minimalnej tzw. MSW, która jest opisana w rozdziale USP 1251 (Weighing on an Analytical Balance). Ta masa jest jednocześnie początkiem zakresu ważenia dla tych którzy muszą spełniać te wymagania.
Masa minimalna = 2000 sd
• Naczynia, opakowania mogą mieć wpływ na wartość masy minimalnej ze względu na oddziaływanie środowiska. Mogą zachodzić takie zjawiska jak elektrostatyka próbki i opakowań oraz zmiana masy (absorpcja i adsorpcja wilgoci). Nie należy wykluczać również innych zjawisk charakterystycznych dla danego środowiska pracy. Z powyższych powodów, o ile to możliwe, powinno się stosować nieco wyższe wartości dla minimalnej naważki (MSW) niż te wyznaczone. Jest to tym samym element Analizy Ryzyka o którym mówią dokumenty serii ICH Q.
Podsumowanie
Rys. 4. Zakres pomiarowy wag (USP)
Wprawdzie rozdział 1251 nie jest obligatoryjny (jest zaleceniem), ale ponieważ wykorzystuje warunek obligatoryjny opisujący dokładne ważenie (USP 41), jest przyjmowany domyślnie do stosowania. Istotną informacją jaka jest podana w rozdziale 1251 jest wskazanie na zmienność masy minimalnej. Ponieważ jej wartość jest zależna tylko od powtarzalności wskazań, więc można sformułować poniższe wnioski: • wyniki pomiarów, a zatem próg masy minimalnej może zmieniać się w czasie ze względu na zmieniające się warunki środowiskowe. Może to być wynikiem dryftów wskazania zera i czułości, te zjawiska mogą być widoczne w wagach o dużych rozdzielczościach (d ≤ 0,01 mg). Nie należy jednakże wykluczyć efektu niestabilności próbki (np. chłonięcie wilgoci przez proszki, zjawisko elektrostatyki)
2/2014
Poprawne odmierzanie małych ilości za pomocą wag elektronicznych wymaga umiejętności zastosowania wiedzy o parametrach metrologicznych wagi w praktyce. Można się domyślać, że to zagadnienie jest w gestii tzw. nadzoru metrologicznego jaki istnieje w większości firm różnych branż. Skuteczność działań tego zespołu decyduje o tym jak dokładnie będziemy mogli ważyć. Tym samym wiedza nadzoru metrologicznego powinna być stale weryfikowana i wzbogacana. Mając na uwadze dość szerokie spektrum pomiarów jakie wykonywane są w czasie produkcji i badań, należy tak prowadzić działania, żeby zapewnić odpowiednią jakość produktu finalnego. Tu powstaje chyba jedno z trudniejszych pytań związanych z pomiarami masy: jak dokładnie należy określić masę próbki na tym konkretnym etapie?. Czasami trudno jest uzyskać rzeczową odpowiedź na tak postawione pytanie. Można jednakże wyznaczyć najlepszą zdolność pomiarową wagi przy założeniu, że warunki środowiskowe pracy są w miarę stałe.
e-wydanie do pobrania na:
www.farmacom.com.pl
Ponad 30 lat doświadczenia w dystrybucji surowców farmaceutycznych i chemicznych.
Ekstrakty roślinne Aminokwasy Witaminy Sole mineralne API i substancje pomocnicze
Wyjątkowa oferta:
EKSTRAKTY ROŚLINNE ATRAKCYJNE CENY
ZAPRASZAMY DO WSPÓŁPRACY: Cortex Chemicals Sp. z o.o. tel.: +48 146319100 ul. Malczewskiego 8 fax :+48 146319118 33-100 Tarnów cortex@cortexchemicals.com www.cortexchemicals.com.pl
96 96 | |
Technologie przyszłości w obsłudze klienta branży farmaceutycznej
Poziom obsługi klienta w polskich firmach stopniowo rośnie. Przedsiębiorcy zdają sobie sprawę, że na coraz bardziej nasyconym rynku producentów i dystrybutorów farmaceutyków walka o nowego klienta jest o wiele kosztowniejsza, niż prowadzenie stałej sprzedaży w grupie lojalnych odbiorców danych produktów. Stąd coraz więcej firm farmaceutycznych poszukuje rozwiązań wzmacniających efektywność komunikacji z kontrahentami, zwiększających sprzedaż i automatyzujących podstawowe procesy obsługi klienta. Pozostaje jednak pytanie, co na tym rynku jest naprawdę innowacyjne? W jakie technologie warto zainwestować bez obawy, że za dwa lub trzy lata staną się przestarzałe? Marcin Grygielski Dyrektor regionalny na rynek Europy Środkowej i Wschodniej, Interactive Intelligence
W
edług ekspertów z Interactive Intelligence, w obecnym oraz kolejnych latach branżę contact center zdominuje rozwój technologii chmurowych oraz coraz powszechniejsza adaptacja aplikacji mobilnych umożliwiających obsługę klienta za pośrednictwem smartfonów lub tabletów. Wzrośnie strategiczna pozycja mediów społecznościowych w obsłudze klienta oraz znaczenie usług i narzędzi analitycznych.
Przyszłość w chmurze Publikacje analityków rynku IT wskazują na dynamiczny rozwój cloud computingu. W najbliższych latach popyt na rozwiązania dla centrów obsługi klienta w modelu chmury będzie znacząco przewyższał inwestycje tradycyjne. W raporcie zatytułowanym “Cloud Momentum Boosts Trends in the Contact Center” firma analityczna Frost & Sullivan przewiduje, że do 2017 roku globalne nakłady na hostowane contact center będą rosły w średnim tempie 12,1% rocznie, podczas gdy tempo wzrostu rynku rozwiązań wdrażanych tradycyjnie nie przekroczy w tym okresie 5,5%. Na rynku europejskim penetracja chmurowych i hostowanych rozwiązań contact center wzrośnie od 8% w 2012 roku do 15% w 2017. Fenomen chmury stanowi prostota i wygoda tego modelu dla użytkownika. Zamiast kupować na stałe pakiety oprogramowania i serwery, odbiorca kupuje funkcje, których w danym momencie potrzebuje. Nie musi samodzielnie niczego instalować, nie
potrzebuje wykwalifikowanego personelu, który będzie wdrażał aktualizacje i dbał o ciągłość działania systemu. W dowolnym momencie może zrezygnować z części usługi lub zwiększyć jej zakres, dopasowując ilość zasobów informatycznych do aktualnych potrzeb. Dla firm, które działają w trybie sezonowym – przykładowo, w branży handlowej przed okresami świątecznymi, w firmach turystycznych lub ubezpieczeniowych podczas tygodni wakacyjnych – oznacza to spore oszczędności. W Europie rozwój chmury jest dodatkowo stymulowany przez kryzys ekonomiczny. W niepewnej sytuacji gospodarczej firmy poszukują oszczędności, a model chmury jest bardzo korzystny finansowo. Tradycyjne wdrożenie systemu obsługi klienta amortyzuje się w firmie przeciętnie w ciągu 3 – 5 lat. W przypadku modelu usługowego miesięczne koszty inwestycji można natychmiast odpisać od podstawy opodatkowania, co stanowi znaczącą korzyść dla każdego przedsiębiorstwa, niezależnie od rozmiaru i charakteru działalności. Ponadto zmniejszają się koszty sprzętu oraz nakłady na administrację oprogramowania.
Contact center jako źródło dodatkowych dochodów Jeszcze kilka lat temu w większości firm dział obsługi klienta był traktowany przez menadżerów jako zło konieczne – kosztowną, lecz niestety niezbędną metodę utrzymywania dobrego wizerunku firmy.
2/2014
Jednak ten sposób myślenia powoli odchodzi w przeszłość. Centra obsługi coraz częściej przejmują aktywną rolę w sprzedaży, generując dodatkowe dochody i stając się wartościowym źródłem zysków dla firmy. W przyszłości sprzedaż będzie stanowiła istotny cel biznesowy contact center. Centra obsługi klienta, posiadające pełną bazę kontrahentów przedsiębiorstwa i na bieżąco monitorujące ich potrzeby, mogą znacząco zwiększyć sprzedaż poprzez kampanie promocyjne lub informacyjne skierowane do aktualnych odbiorców produktów przedsiębiorstwa. Niezbędnym narzędziem są tutaj aplikacje umożliwiające automatyzację kampanii wychodzących, tzw. dialery. Dialery samodzielnie wybierają numer klienta, nawiązują połączenie z odbiorcą i dopiero po udanym połączeniu przekazują rozmowę agentowi. Dzięki temu agent nie traci czasu na połączenia zajęte lub nieodebrane. Często również śledzą w czasie rzeczywistym skrypt rozmowy agenta i nawiązują z wyprzedzeniem odpowiednią ilość połączeń, aby maksymalnie zwiększyć efektywność pracy centrum kontaktowego. Nowoczesne dialery umożliwiają również prowadzenie kampanii mieszanych, wykorzystujących różne kanały komunikacji. Przykładem może być akcja telemarketingowa prowadzona za pomocą telefonu, ale z silnym wsparciem kanału email. Klient, uprzedzony o nowej ofercie danego producenta telefonicznie, chętniej otworzy
e-wydanie do pobrania na:
www.farmacom.com.pl
| 97
wiadomość email, traktując ją jako dedykowany komunikat, a nie spam, którego każdy z nas dostaje ogromne ilości. W zależności od reakcji klienta na email (otworzenie wiadomości, kliknięcie w link), konsultant służy dodatkowymi wyjaśnieniami i informacjami, aż do sfinalizowania transakcji sprzedaży. A wszystko to w zautomatyzowanym systemie, który samodzielnie wysyła przygotowane dla danej kampanii wiadomości i przypomnienia dla konsultanta, oraz monitoruje przebieg procesu w każdym kanale komunikacji. Bardzo ciekawą funkcją dialera są tzw. kampanie IVR. W kampanii tego typu w systemie zostaje przygotowany komunikat z krótką zachętą lub informacją. Następnie system automatycznie wydzwania klientów z listy, odczytując komunikat po odebraniu połączenia. Jeśli klient jest zainteresowany ofertą, może wcisnąć dany przycisk na klawiaturze telefonu, a połączenie zostanie natychmiast przekazane do agenta. Z badań wykonanych w zeszłym roku na zlecenie Interactive Intelligence wynika, że kontakt proaktywny jest dobrze odbierany przez odbiorców produktów - uznają ją za świadectwo zainteresowania firmy klien-
e-wydanie do pobrania na:
www.farmacom.com.pl
tem i dbania o jego satysfakcję. Jednak zbyt natrętna lub nietrafiona komunikacja może zniechęcić, zatem podstawą jest właściwe zaprojektowanie planowanej kampanii.
Technologie mobilne Aplikacje mobilne są jednym z najszybciej rozwijających się segmentów rynku. Według badań „Worldwide Quarterly Mobile Phone Tracker” wykonywanych kwartalnie przez firmę analityczną IDC, w 2013 roku na rynek trafiło już ponad miliard smartfonów, co stanowi 38,4 proc. wzrost w porównaniu z rokiem poprzednim. Jak dotąd niewiele firm z branży farmaceutycznej zdecydowało się wykorzystać potencjał technologii mobilnych w zakresie obsługi i samoobsługi klienta, jednak w czasie najbliższych miesięcy będziemy obserwować powolny wzrost inwestycji w tym szczególnym obszarze. Według szacunków Interactive Intelligence około 60 proc. przedsiębiorstw planuje zainwestować w mobilny kanał komunikacji, aby zwiększyć jakość obsługi klienta. Inwestycje mają na celu zarówno stworzenie nowych aplikacji mobilnych, jak i ulepszenie istniejących, ponieważ niektóre firmy używają tego kanału już od kilku lat.
2/2014
Efektywna aplikacja mobilna powinna nie tylko zawierać standardowe informacje produktowe i korporacyjne ze strony internetowej przedsiębiorstwa, ale również udostępniać kontrahentowi możliwość samodzielnej realizacji podstawowych działań – zakupu produktów lub usług, złożenia reklamacji, uzyskania informacji o statusie swojej sprawy, sprawdzenia stanu płatności lub zmiany danych konta użytkownika. W ten sposób technologie mobilne mogą znacząco odciążyć konsultantów contact center i zmniejszyć koszty obsługi przy zachowaniu wysokiego poziomu satysfakcji klienta. Aby w pełni wykorzystać potencjał nowej technologii, Interactive Intelligence rekomenduje wdrożenie mobilnej platformy komunikacyjnej zamiast prostej aplikacji, a także pełną integrację rozwiązania mobilnego z systemami komunikacyjnymi oraz bazodanowymi firmy. Platforma mobilna umożliwia szybkie tworzenie aplikacji dla różnych urządzeń i systemów operacyjnych na bazie jednego fundamentalnego kodu, co obniża koszty modyfikacji i zwiększa elastyczność technologiczną rozwiązania. Z kolei pełna integracja procesów komunikacyjnych i systemów back-office pozwala wykorzystać informacje kontekstowe o kliencie, skracając czas obsługi i zwiększając jego satysfakcję. W rozwiązaniu mobilnym zintegrowanym z systemem contact center informacja, że klient jest zainteresowany ofertą przedstawioną mu w aplikacji mobilnej, zostaje skierowana bezpośrednio do konsultanta znającego produkt lub personalnego doradcy danego klienta. Dzięki integracji wszystkich kanałów komunikacji, konsultant może oddzwonić, napisać maila lub zainicjować wideoczat – w zależności od sytuacji. Wraz z prośbą o kontakt otrzymuje również szereg informacji o kliencie oraz jego działaniach w aplikacji mobilnej, co znacząco przyspiesza zakończenie sprawy. W razie konieczności może pobrać dodatkowe informacje - takie jak umowy klienta z firmą, złożone wnioski i deklaracje – z pozostałych systemów bazodanowych firmy. Warto tutaj zauważyć, że aplikacje mobilne do obsługi klienta spełnią swoją rolę jedynie pod warunkiem posiadania prostego i przyjaznego dla użytkownika interfejsu, wykorzystującego opcje dotykowe, przeciąganie i przesuwanie ekranu oraz usługę lokalizacji urządzenia. Kluczową opcją dobrze zbudowanego rozwiązania jest również możliwość nawiązania szybkiego kontaktu z konsultantem contact center bezpośrednio z jej poziomu, z pominięciem menu głosowego.
98 |
Targi EuroLab 2014 za nami XVI Międzynarodowe Targi Analityki i Technik Pomiarowych EuroLab już za nami. Hale Centrum TargowoKongresowego MT Polska na trzy dni zmieniły się w laboratorium wypełnione tysiącami produktów oraz specjalistycznymi urządzeniami analityczno-pomiarowymi. W targach wzięło udział 178 wystawców z 13 krajów, których odwiedziło 6 000 specjalistów. Odbyło się również 20 specjalistycznych konferencji, w trakcie których liczne grono naukowców i ekspertów podzieliło się wiedzą i doświadczeniem.
metr NMR PicoSpin45. Wyróżnienia natomiast otrzymały firmy: FRITSCH GmbH MILLING AND SIZING za ANALYSETTE 28 IMAGE SIZER - analizator kształtu i wielkości cząstek w zakresie 20 µm do 20 mm oraz TUSNOVICS INSTRUMENTS Sp. z o.o. za ERAFLASH - automatyczny aparat do pomiaru temperatury zapłonu metodą tygla zamkniętego.
Patronat Medialny
Najlepszy Produkt Targów W konkursie na najlepszą ofertę Targów EuroLab 2014 Jury wyłoniło firmy oferujące produkty najwyższej jakości. W kategorii laboratoryjna aparatura pomiarowa nagrodę uzyskała firma Spectro-Lab Sp. z o.o. za Spektro-
Nauka i praktyka na wyciągnięcie ręki Targi EuroLab to także szeroki program wydarzeń towarzyszących, który powstaje przy udziale czołowych instytucji i ośrodków naukowych. Naukowcy zgodnie podkreślali wartościową formułę targów, która umożliwia
Kompleksowe wyposażenie laboratoriów Blask szkła naczyń laboratoryjnych, uderzająca biel i czysta forma mebli w zderzeniu z wyrazistymi kolorami odczynników stworzyły niepowtarzalny klimat tego branżowego wydarzenia. Przedstawiona na targach oferta w ramach czterech sektorów: analityki chemicznej, Life Science, biotechnologii oraz metrologii, znajduje zastosowanie w przemyśle, a także w instytucjach naukowych i badawczych, uczelniach wyższych, stacjach sanitarno-epidemiologicznych, zakładach uzdatniania wody i innych. Producenci i dystrybutorzy zaprezentowali sprzęt, instrumenty i artykuły analityczne oraz laboratoryjne, materiały zużywalne, odczynniki chemiczne, materiały odniesienia, wyposażenie oraz meble dla laboratoriów analitycznych, medycznych, ochrony środowiska, mikrobiologicznych i technologicznych. Nie zabrakło oprogramowania, odzieży ochronnej, rozwiązań technicznych i technologii niezbędnych do prac badawczo-rozwojowych i na skalę produkcyjną. Swoją ofertę zaprezentowały także firmy zajmujące się serwisem i obsługą urządzeń, szkoleniami i doradztwem technicznym.
ska-Reszka, A. Reszka Spółka Jawna za LCMS8050 spektrometr mas typu potrójny kwadrupol. Wyróżnienia wręczono firmom: IRtech Beata Kasprzycka za podręczny chromatograf gazowy sprzężony ze spektrometrem mas Tridion - 9 oraz OPTA - TECH za RAL Stainer automat do barwienia preparatów.
W drugiej kategorii konkursowej, jaką było wyposażenie laboratorium, komisja przyznała nagrodę firmie Witko Sp. z o.o. za chłodnicę powietrzną Findenser™, a wyróżnienia DANLAB Wyposażenie laboratorium za chłodziarki RLDF / RLDG pojemności 36 i 66 litrów oraz Selvita S.A. za STARLIMS LIMS (Laboratory Information Management System) - Zintegrowany System do Zarządzania Laboratorium. Nagrodzone produkty będą oznaczone unikatowym logo „Najlepszy Produkt Targów EuroLab 2014” potwierdzającym najwyższą jakość.
Grand Prix Prezesa PAN Po raz pierwszy podczas targów odbył się konkurs o Grand Prix Prezesa Polskiej Akademii Nauk. Jego celem jest promowanie innowacyjnych produktów i usług związanych z rynkiem medycznym i laboratoryjnym, które wyróżniają się nowoczesnością rozwiązań technologicznych, walorami estetycznymi i ekonomicznymi oraz funkcjonalnością. Muszą one również spełniać wymogi techniczne i jakościowe obiektów naukowych. Jury konkursowe przyznało nagrodę firmie „SHIM-POL A.M. Borzymowski” E. Borzymow-
2/2014
z jednej strony czerpanie wiedzy podczas wykładów i konferencji, a z drugiej zapoznanie się z praktycznym zastosowaniem urządzeń na stoiskach wystawców.
Patronaty Patronat Honorowy nad Targami EuroLab 2014 objęli: Stefan Niesiołowski - Przewodniczący Sejmowej Komisji Obrony Narodowej; Janusz Piechociński - Wiceprezes Rady Ministrów i Minister Gospodarki; prof. dr hab. Lena Kolarska-Bobińska - Minister Nauki i Szkolnictwa Wyższego oraz prof. dr hab. Michał Kleiber Prezes Polskiej Akademii Nauk. Targi CrimeLab 2014 odbyły się pod Patronatem Honorowym Stanisławy Prządki - Przewodniczącej Sejmowej Komisji Sprawiedliwości i Praw Człowieka oraz Marka Biernackiego - Ministra Sprawiedliwości. Patronat Medialny nad Targami EuroLab 2014 sprawował m.in. „Świat Przemysłu Farmaceutycznego”.
e-wydanie do pobrania na:
www.farmacom.com.pl