TTMS Blog
Świat okiem ekspertów IT
Wpisy autorstwa: Krystian Stempniak
Cyfrowa transformacja i Pingwiny czyli jak analizować, przetwarzać i przechowywać dane w 2024 roku?
Niektóre gatunki pingwinów zasypiają 10000 razy dziennie. Trochę jak rodzice małych dzieci, którzy budzą się co 5 minut, aby sprawdzić, czy dziecko oddycha lub by zmienić pieluchę albo nakarmić niemowlę. Zasypianie 10000 razy dziennie brzmi niewiarygodnie, ale i fascynująco. Natura bywa zaskakująca prawie tak bardzo, jak pomysł badaczy pingwinów dla przeciętnego człowieka by zbadać ich zwyczaje związane z zasypianiem. Kiedy pomyślę o ilości danych, które musiały zostać zebrane w związku z tym zjawiskiem nasuwają mi się pytania: Jak można zbadać coś takiego? Jak przeanalizować taką ilość danych, która wypływa z tej gigantycznej liczby cykli snu? 1. Po co w zasadzie ludzkość gromadzi informacje? Aby zrozumieć skomplikowaną naturę badaczy, którzy mieli w sobie tyle determinacji by obserwować habitat pingwinów cofnijmy się do początku. Ludzkość gromadzi informacje od tysięcy lat. Nasz gatunek intuicyjnie wie, że więcej informacji to: lepsze i szybsze podejmowanie decyzji, lepsze zrozumienie źródła problemu, oraz skomplikowanych zagadnień, a także bezpieczeństwo i zapobieganie zagrożeniom. Najpierw informacje gromadzono w postaci ustnych przekazów, potem były to naskalne rysunki, następnie coraz bardziej zaawansowane rodzaje pisma. Przekazywanie wiedzy przy pomocy pisma powszedniało. Początkowo umiejętność pisania i czytania były dostępne dla najbogatszych oraz duchowieństwa (średniowiecze). To właśnie te dwie grupy społeczne miały niegdyś jedyny dostęp do informacji przekazywanych pisemnie. Z czasem – wraz z rozwojem technik powielania treści (np. druk) przekazywanie informacji stało się przyczyną gwałtownego rozwoju edukacji i wiedzy. A szybki rozwój dostępności materiałów drukowanych napędził popularyzację umiejętności czytania i pisania. Więcej osób z tymi umiejętnościami napędzał szybszy rozwój nauki i przemysłu. Szybszy rozwój nauki i przemysłu spowodował natomiast to, że człowiek mógł przeznaczyć więcej środków na dalszy rozwój nauki i prowadzenie bardziej złożonych badań naukowych. W pewnym momencie doszliśmy do etapu, na którym przetwarzanie danych uzyskanych w trakcie eksperymentów w formie papierowej nie było efektywne. Dane zaczęto gromadzić w formie elektronicznej. Pojawienie się globalnej sieci internetowej było kolejnym impulsem, który przyśpieszył ilości gromadzonych, przetwarzanych i rozpowszechniania danych. 2. Era Excela Przeskoczmy na chwilę w czasie do roku 1985. Wtedy powstał Excel. Cudowne narzędzie do gromadzenia, przetwarzania, dystrybucji i wizualizacji danych. Pozwalał tworzyć prognozy, wykresy, tabele, skomplikowane formuły czy nawet makra pomagające szybko przetworzyć duże ilości danych. Możliwości wykorzystania arkuszy kalkulacyjnych były w zasadzie ograniczone jedynie wyobraźnią użytkowników. Z czasem jednak zaczęliśmy dobijać do arkuszowej ściany. Oznacza to, że wykorzystywanie ich jako baz danych, narzędzi do harmonogramowania czy analizy statystycznej ogromnej ilości danych spowodowało powstanie “potworków” o objętości kilku gigabajtów, które potrafiły zatrzymać każdy komputer. Uniemożliwiały także korzystanie z nich na wielu urządzeniach jednocześnie. Arkusze nie nadawały się również do przechowywania ważnych informacji, z powodów technicznych ograniczeń np. braku historii zmian wprowadzanych do pliku. Nic więc dziwnego, że z czasem narzędzie to zaczęło napotkać własne ograniczenia. Zastosowanie Excela do zadań, do których nie był pierwotnie przeznaczony, jak zarządzanie bazami danych czy skomplikowaną analizą statystyczną, prowadziło z kolei do problemów wydajnościowych i technicznych. W rezultacie, mimo swojej wszechstronności, Excel nie spełniał wszystkich wymagań nowoczesnych organizacji, co pokazało potrzebę bardziej zaawansowanych narzędzi. 3. Doceniam Cię, ale odchodzę, czyli pożegnanie z Excelem Każde przedsiębiorstwo musi dorosnąć do wyjścia z „klatki Excela”. Jego uniwersalność powoduje, że całkiem nieźle nadaje się do wszystkiego… Ale tylko całkiem nieźle. W miarę wzrostu złożoności procesów konieczne jest stosowanie wyspecjalizowanych narzędzi, zapewniających bezpieczeństwo i szybką analizę kluczowych danych i procesów. Dla uwidocznienia tego problemu można pokusić się o wyrysowanie osi czasu z poszczególnymi punktami: od palca wymazanego w barwniku, poprzez pismo klinowe, papier, Excela, aż do AI. Nie ma już powrotu do naskalnych rysunków. To jest dla nas logiczne. Natomiast ciągle trzeba jeszcze przekonywać, że era papieru już się skończyła, a Excela właśnie dobiegła końca. Czy w czasach, kiedy ludzkość, każdego dnia, wytwarza coraz więcej danych, możemy sobie pozwolić na stosowanie papieru? Papieru, który jest trochę lepszy niż gliniana tabliczka? To oczywiście pytania retoryczne. Co do pingwinów — żeby sprawdzić, czy ptak śpi, trzeba było analizować znacznie więcej parametrów niż jego sen. Sprawdzano takie parametry jak aktywność elektryczną mózgu (niezależnie dla każdej półkuli), ruchy ciała i mięśni szyi, a nawet, na jakiej głębokości w oceanie ptaki polowały na ryby. Wyniki obserwacji były zaskakujące. Okazało się, że ptaki nie spały długo. Jedna uśredniona drzemka pingwina trwała 1-4 sekundy. Trzeba jednak wspomnieć, że takich drzemkę było nawet kilkaset razy na godzinę. Po zsumowaniu czasu wszystkich chwil przeznaczonych na sen okazało się, że zwierzęta były w stanie spać do 15 godzin na dobę. W tym konkretnym przypadku Excel wystarczył, bo to była analiza przeprowadzona dla jedynie 14 osobników. Jak się jednak domyślacie, przy ich większej ilości mogłyby pojawić się problemy z wydajnością narzędzi obliczeniowych. Dlatego coraz więcej przedsiębiorstw zwłaszcza z branż, gdzie gromadzenie danych jest kluczowe, odchodzi od arkuszy na rzecz bardziej zaawansowanych narzędzi. Jest to oczywiste następstwo wynikające z rozwoju każdej firmy. 4. Jak analizować, przetwarzać i przechowywać dane w 2024 roku? Wspomniane pingwiny, były badane pod kątem parametrów mogących wskazywać na to, że zapadają w sen. Zapadały w sen na kilka sekund, nawet 600 razy na godzinę. Oznacza to, że pomiary powinny się odbywać z częstotliwością nie mniejszą niż co 0,5 sekundy. Jeden parametr zajmie 170 000 komórek w arkuszu, w przypadku tylko jednego badanego ptaka dziennie. W ciągu 10 dni ilość ta wzrośnie do 1 700 000. Mnożąc ten wynik przez 14 (całkowita ilość badanych osobników), uzyskamy prawie 24 mln komórek. Jeśli zaś pomnożymy to przez 10 różnych parametrów (które także były badane) uzyskamy 240 mln komórek zajętych parametrami życiowymi 14 pingwinów. Jeśli zmierzymy jeszcze więcej parametrów, to dochodzimy do ściany w postaci limitu ilości komórek w arkuszu. Podobny problem występuje w przypadku każdego procesu jakościowego, który chcielibyśmy prowadzić przy pomocy Excela. Jeśli proces wymaga wdrożenia audit trail (zapis kontroli — chronologiczny zapis wszystkich operacji) to objętość arkusza zaczyna się zwiększać bardzo szybko. Oczywiście Excel jest znacznie lepszym miejscem do przechowywania danych od wspomnianych w tym artykule wielokrotnie, glinianych tabliczek i papirusu. Nie nadaje się jednak, żeby używać go jako bazy danych. Właśnie po to stosuje się dedykowane narzędzia do gromadzenia danych. O to kilka z nich: Systemy klasy MES (skrót od Manufacturing Execution System, czyli system do nadzoru i kontroli procesu produkcyjnego, który może dbać o właściwe jego parametry i wydajność) pozwalają nadzorować i planować procesy produkcyjne, ERP (Enterprise Resource Planning) pomagają w zarządzaniu całym przedsiębiorstwem, a EDMS (Electronic Document Management System) umożliwiają i ułatwiają kontrolę nad jakością i dostępnością dokumentów. Wszystkie powyższe kategorie (i wiele innych) wymagają właściwej infrastruktury i obsługi. Warto wspomnieć, że każdy z tych systemów może być wspierany w pewnym zakresie przez AI. Wykonywanie scoringu i analiza ogromnej ilości danych jest tym, do czego AI się doskonale nadaje. Pozwala to optymalizować procesy w sposób niedostępny w prostych narzędziach typu Excel. W wielu przypadkach również w walidacji systemów skomputeryzowanych kluczowe dla bezpiecznej i wydajnej pracy każdego systemu komputerowego jest określenie wymagań użytkownika, i właściwe zrozumienie jego potrzeb. Również przez samego użytkownika. ”Hurra optymizm” ze strony klienta, który może się pojawić po świetnej prezentacji sprzedażowej wersji demo systemu, jest niezbyt dobrą praktyką, bo zazwyczaj nie uwzględnia realnych potrzeb biznesu, możliwości systemu i infrastruktury. Dostawcy są z reguły zainteresowani dobrą współpracą z klientem i dostarczeniem mu tego czego realnie potrzebuje, ale nie są w stanie spędzić wystarczająco dużo czasu z nim, aby wycenić jego realne potrzeby. Dotyczy to zwłaszcza sytuacji, kiedy wdrażanie narzędzie jest czymś nowym i użytkownik nie zawsze zdaje sobie sprawę ze swoich potrzeb (np. walidacja i śledzenie zmian, które może okazać się wymagane, czego Excel nie wspiera w zakresie wymaganym dla dużych ilości danych, a niewłaściwie dobrane narzędzie może wymagać niewykonalnych customizacji w celu implementacji właściwego rozwiązania). Przykładowo naukowcy od pingwinów zaczęli od opracowania metodyki, sprawdzenia poprzednich publikacji dotyczących tego zagadnienia i zastanowienia się nad tym co należy zbadać w celu uzyskania konkretnych danych. W przypadku systemów komputerowych ten fragment nazywa się “definiowaniem wymagań użytkownika”. Aby firma mogła skutecznie ustalić, jakie funkcjonalności powinien mieć nowy system do gromadzenia, przechowywania i przetwarzania danych, który ma zastąpić Excela, warto przejść przez kilka kluczowych kroków: Analiza wymagań biznesowych – Firma powinna zebrać i przeanalizować wszystkie potrzeby oraz cele związane z danymi w całej organizacji. Ważne jest zrozumienie, jakie procesy mają być wspierane przez nowy system i jakie konkretne problemy należy rozwiązać. Zaangażowanie kluczowych użytkowników – Warto przeprowadzić wywiady, ankiety lub warsztaty z pracownikami, którzy obecnie korzystają z Excela. Dzięki temu można poznać ich codzienne potrzeby i dowiedzieć się, z jakimi ograniczeniami i wyzwaniami się borykają. Mapowanie procesów i przepływów danych – Firma powinna prześledzić, jak przepływają dane w różnych działach. Przejrzyste mapowanie procesów pozwala zidentyfikować, jakie funkcjonalności są potrzebne, aby zautomatyzować, usprawnić lub zintegrować różne etapy pracy z danymi. Identyfikacja kluczowych funkcji i braków Excela – Przeanalizowanie, gdzie Excel nie spełnia oczekiwań, jest kluczowe. Na przykład, może brakować możliwości równoczesnej pracy wielu użytkowników, zaawansowanego raportowania, analizy w czasie rzeczywistym, integracji z innymi systemami czy zapewnienia odpowiedniego poziomu bezpieczeństwa. Analiza dostępnych technologii i rozwiązań – Firma powinna zbadać dostępne na rynku rozwiązania, które oferują funkcjonalności wymagane do realizacji wytyczonych celów. Zdefiniowanie priorytetów i niezbędnych funkcjonalności – Po zebraniu wszystkich wymagań firma powinna stworzyć listę funkcjonalności według priorytetów. Kluczowe funkcje mogą obejmować np. przechowywanie dużych wolumenów danych, analitykę w czasie rzeczywistym, automatyczne raportowanie, bezpieczeństwo danych, czy możliwość integracji z innymi systemami. Testowanie rozwiązań – O ile to możliwe warto przeprowadzić testy wybranych rozwiązań z udziałem użytkowników końcowych. Pozwoli to firmie ocenić, jak nowe funkcje sprawdzają się w praktyce i czy odpowiadają na potrzeby pracowników. Wybór dostawcy i wdrożenie pilotażowe – Po wstępnych testach firma może wybrać dostawcę systemu, który najlepiej spełnia wymagania, i przeprowadzić wdrożenie pilotażowe. Taki pilotaż pozwoli na dostosowanie systemu do specyfiki pracy w firmie przed pełnym wdrożeniem. Przechodząc przez te kroki, firma będzie w stanie dokładnie określić, jakie funkcjonalności są potrzebne w nowym systemie i wybrać rozwiązanie, które najlepiej odpowiada jej wymaganiom. 5. Nowoczesne Zarządzanie Danymi – Podsumowanie i Wnioski Poruszyłem temat złożoności gromadzenia, przechowywania i analizy danych na przykładzie badań nad snem pingwinów, aby pokazać, że przejście od Excela, do dedykowanych systemów klasy ERP, MES i EDMS jest konieczne. Takie rozwiązania są niezbędne dla firm przetwarzających ogromne ilości danych. W dobie cyfryzacji tradycyjne arkusze nie spełniają już potrzeb dynamicznego biznesu, a optymalne zarządzanie danymi wymaga profesjonalnych narzędzi oraz zrozumienia realnych wymagań użytkowników. Wracając do tematu samych pingwinów – wyobraźmy sobie, że ktoś zasypia i budzi się 600 razy na godzinę. Można by powiedzieć, że niemal cały czas śpi, budząc się tylko po to, by coś załatwić. To przypomina użytkownika podczas wdrożenia systemu, który nie przemyślał dokładnie swoich potrzeb. A to właśnie użytkownik i jego potrzeby są kluczowe w każdej implementacji. Często sam użytkownik nie potrafi właściwie zdefiniować swoich oczekiwań, nie zdaje sobie sprawy z konieczności przeprowadzenia walidacji, lub przeciwnie – myśli, że jest ona niezbędna, co prowadzi do niepotrzebnych wydatków. „Nadjakościowość” – to słowo, które właśnie wymyśliłem, ale dobrze oddaje zjawisko przesadnej dbałości o jakość. A jak jest w przypadku „niedojakościowości”? Tutaj sprawa jest znacznie poważniejsza – może to prowadzić do zakłóceń w kluczowych procesach biznesowych, co zagraża bezpieczeństwu pacjentów, jakości produktów i obniża rentowność przedsiębiorstwa. A co to ma wspólnego z Excelem? Każde przedsiębiorstwo powinno dbać o bezpieczeństwo i wydajność swoich procesów biznesowych. Aby to osiągnąć, procesy te powinny być wspierane przez odpowiednie narzędzia, które mogą zapewnić specjaliści w tej dziedzinie. Jeśli ten artykuł Cię zainteresował, masz pytania lub potrzebujesz wsparcia w zakresie transformacji cyfrowej, zostaw nam wiadomość. Nasz zespół ekspertów od Zarządzania Jakością pomoże spełnić Twoje oczekiwania w obszarze cyfrowej zmiany. Poznaj nasze case studies dotyczące zarządzania danymi i transformacji cyfrowej: Case Study: Automatyzacja systemu zarządzania pracownikami Zarządzanie w łańcuchu dostaw Case study: Optymalizacja kosztów Case Study: Spersonalizowany system zarządzania finansami w międzynarodowej organizacji Przykład jak poprawiliśmy wydajność raportowania i analizy danych Case Study z integracji platformy do zarządzania zgodami Skuteczne zarządzanie cyklem życia zgody w branży farmaceutycznej Borussia Dortmund: wsparcie zawodników i trenerów dzięki Coachbetter Cyfrowe Zdrowie: Case Study z wdrożenia w branży farmaceutycznej Operacja Krokodyl, czyli budowa centrum serwisowego
CzytajSerializacja leków. Skuteczne narzędzie do walki z fałszerstwami na rynku farmaceutycznym
Cały świat dostrzega ryzyko, jakie niesie za sobą stosowanie leków niewiadomego pochodzenia. Wiele opracowań wskazuje na znaczny odsetek podrobionych leków, które trafiają do pacjentów. Pacjenci często nieświadomie nabywają te produkty na portalach aukcyjnych, wszelkiego rodzaju „bazarkach”, od znajomych lub nawet w aptekach. O ile obrót produktami poza kontrolą państwa można ograniczyć jedynie dzięki edukacji i zdecydowanej postawie służb, o tyle podróbki, które trafiają do aptek, są trudniejsze do wykrycia. A to stanowi poważne zagrożenie. 1. Po co jest serializacja leków? Serializacja leków i produktów leczniczych to proces przypisywania każdemu opakowaniu leku indywidualnego numeru seryjnego, który jest monitorowany na różnych etapach łańcucha dostaw. Dzięki unikalnym numerom seryjnym, łatwiejsze staje się rozpoznawanie oryginalnych produktów, co pomaga eliminować fałszywe leki i chronić pacjentów przed szkodliwymi lub nie skutecznymi substancjami. Proces serializacji pozwala na śledzenie każdego opakowania leku od momentu jego produkcji aż po dostarczenie do pacjenta. Umożliwia to szybką reakcję w razie potrzeby wycofania wadliwej partii z rynku. Warto wspomnieć, że w wielu krajach, takich jak państwa Unii Europejskiej (zgodnie z Dyrektywą o przeciwdziałaniu fałszowaniu leków) czy USA (ustawa DSCSA), serializacja jest obowiązkowa, aby zwiększyć bezpieczeństwo produktów farmaceutycznych. Ponadto dzięki temu systemowi możliwe jest bardziej efektywne zarządzanie zapasami leków oraz kontrola ich dystrybucji, co redukuje ryzyko błędów, np. zdublowania partii czy nieodpowiedniego obrotu lekami kontrolowanymi. W historii farmacji było kilka głośnych przypadków, które ujawniły problem braku odpowiednich mechanizmów kontroli, takich jak serializacja. W latach 30. XX wieku w USA masowe zatrucia „eliksirem sulfanilamidu”, zawierającym toksyczny dietylenoglikol, spowodowały śmierć ponad 100 osób, w tym dzieci. Brak regulacji i mechanizmów kontroli, jak serializacja, przyczynił się do tej tragedii, co doprowadziło do wprowadzenia surowszego prawa (Food, Drug, and Cosmetic Act, 1938). Talidomid, stosowany w latach 50. i 60. XX wieku jako lek na mdłości u ciężarnych, spowodował deformacje tysięcy dzieci. Brak odpowiednich systemów monitorowania i serializacji uniemożliwił szybką reakcję i skuteczne wycofanie leku z obiegu. W Nigerii, w połowie lat 90., fałszywe leki antymalaryczne zalały rynek, co doprowadziło do licznych zgonów i komplikacji zdrowotnych u osób, które nieświadomie przyjmowały nieskuteczne lub toksyczne zamienniki. Nie jest to niestety jedyny skandal fałszerski na rynku farmaceutycznym w Afryce jaki pamięta Historia. W różnych krajach afrykańskich w latach 2000-2010 fałszywe leki przeciw malarii np. artemizyna były szeroko rozpowszechniane, co przyczyniło się do tysięcy zgonów z powodu nieskutecznego leczenia. Żadne opakowanie wspomnianego leku nie posiadało numeru seryjnego. O ile mogłoby się wydawać, że wymienione do tej pory przypadki przestępstw farmaceutycznych miały miejsce dawno temu lub nie dotyczą świata zachodniego, o tyle sprawa zanieczyszczonej heparyny z 2007 roku wydaje się już nieco bliższa. Heparyna, to lek powszechnie stosowany do rozrzedzania krwi. Zanieczyszczone siarczanem chondroityny partie tego leku uprzednio wyprodukowane w Chinach, a następnie importowane do USA i wprowadzone do obiegu, doprowadziły do kilkuset przypadków powikłań oraz 81 zgonów. Brak skutecznych mechanizmów identyfikacji poszczególnych partii produktu, takich jak serializacja, sprawił, że odpowiednie władze miały trudności z szybkim wycofaniem niebezpiecznych leków z rynku. Problem został odkryty dopiero na początku 2008 roku, kiedy odnotowano serię nieoczekiwanych powikłań i zgonów u pacjentów poddawanych zabiegom medycznym w szpitalach, w trakcie których podawano heparynę. Skandal związany z heparyną wyraźnie pokazał, jak ważne jest monitorowanie łańcucha dostaw leków, szczególnie w globalnej gospodarce. Serializacja leków, która została później wprowadzona jako standard w wielu krajach, miała na celu zapobieganie podobnym skandalom, umożliwiając śledzenie każdego opakowania leku od jego produkcji aż do pacjenta, co znacząco zwiększa bezpieczeństwo. Wszystkie te przypadki pokazują, jak kluczowa jest dokładna kontrola nad lekami i możliwość ich śledzenia. Serializacja produktów leczniczych jest jednym z narzędzi, które mogą pomóc w uniknięciu takich tragicznych incydentów, zapewniając bezpieczeństwo pacjentów i skuteczne wycofywanie produktów z rynku. 2. Weryfikacja poprzez unikalne identyfikatory W celu zwalczania podrobionych leków wprowadzono obowiązek weryfikacji autentyczności leków poprzez serializację. Weryfikacja leków poprzez unikalne identyfikatory to kluczowy element systemu zabezpieczającego przed fałszowaniem produktów farmaceutycznych. Proces ten polega na przypisywaniu każdemu opakowaniu leku unikalnego numeru serii leku (LOT), który jest śledzony na różnych etapach dystrybucji. Każdy kartonik leku otrzymuje unikalny identyfikator, składający się zazwyczaj z: globalnego Numeru Jednostki Handlowej (GTIN) – numeru przypisanego produktowi farmaceutycznemu, Numeru seryjnego (SN/NS) – unikalnego dla danego opakowania, numeru partii (LOT) – wskazującego na serię produkcyjną, daty ważności (EXP) – podającej okres przydatności leku. Wszystkie te informacje dotyczące danej serii leku są zapisywane w formie kodu kreskowego 2D (np. DataMatrix) lub kodu QR, który jest umieszczony na opakowaniu leku. Weryfikacja autentyczności odbywa się poprzez skanowanie kodu umieszczonego na opakowaniu, który jest sprawdzany w centralnej bazie danych, do której mają dostęp producenci, hurtownicy, apteki oraz odpowiednie organy nadzoru. Taki system weryfikacji autentyczności leków umożliwia sprawdzenie pochodzenia leków przed ich wydaniem pacjentowi oraz śledzenie każdego opakowania leku w całym łańcuchu dostaw. 3. Zastosowanie zaawansowanych technologii informatycznych Internetowy system weryfikacji leków wykorzystuje zaawansowane technologie informatyczne umożliwiając skuteczną weryfikację i identyfikację leków. Proces serializacji wymaga generowania unikalnych kodów i ich nanoszenia na opakowania. Ważnym elementem jest również weryfikacja nadruków, która polega na sprawdzeniu, czy kody leków są czytelne i zawierają poprawne informacje. W tym celu stosuje się techniki rozpoznawania obrazu oraz przetwarzania dużej ilości danych. Należy również wspomnieć, że zastosowanie zaawansowanych technologii informatycznych, takich jak blockchain, chmura obliczeniowa, IoT, AI i Big Data, znacząco zwiększa bezpieczeństwo i transparentność weryfikacji leków. Blockchain jest jedną z najnowszych technologii weryfikacji leków, zapewniającą pełną transparentność i niezmienność zapisów. W blockchainie każda transakcja dotycząca leku – od produkcji, przez dystrybucję, aż po sprzedaż – jest zapisywana jako blok w łańcuchu, który jest publicznie dostępny i zabezpieczony kryptograficznie. Systemy chmurowe umożliwiają szybki dostęp do danych dotyczących leków z dowolnego miejsca na świecie oraz integrację globalnych systemów (łatwe połączenie różnych systemów nadzoru farmaceutycznego, umożliwiając współpracę międzynarodową). Big Data, czyli analiza dużych zbiorów danych pozwala na identyfikację wzorców, trendów i anomalii w łańcuchu dostaw leków. Analizując ogromne ilości danych o dystrybucji, sprzedaży i monitorowaniu rynku, można wcześnie wykryć nieprawidłowości sugerujące obecność fałszywych leków. Technologia IoT, z kolei umożliwia komunikację między urządzeniami przez Internet. Może być wykorzystywana do monitorowania leków na każdym etapie ich drogi. Leki, zwłaszcza te wymagające specjalnych warunków (np. niska temperatura), są wyposażone w czujniki IoT, które monitorują temperaturę, wilgotność i inne parametry podczas transportu i przechowywania. Jeśli warunki przechowywania zostaną przekroczone, system IoT automatycznie wysyła alerty do odpowiednich osób, co pozwala na natychmiastową reakcję i wycofanie leków z obiegu. AI i uczenie maszynowe są coraz częściej wykorzystywane do analizowania danych dotyczących leków i przewidywania zagrożeń związanych z ich fałszowaniem. AI może przewidzieć potencjalne zagrożenia fałszerstwami, analizując dane historyczne i zachowania w łańcuchu dostaw. Systemy AI są w stanie automatycznie analizować dane dotyczące serializacji i zgłaszać podejrzane przypadki lub odstępstwa od normy. Wprowadzenie aplikacji mobilnych umożliwia pacjentom i farmaceutom szybką weryfikację autentyczności leków. Użytkownik może zeskanować kod kreskowy 2D na opakowaniu leku za pomocą smartfonu i natychmiast sprawdzić, czy lek jest oryginalny, oraz uzyskać informacje o jego pochodzeniu, producencie i dacie ważności. Przykłady: Aplikacje mobilne mogą ostrzegać pacjentów, jeśli wykryją fałszywy lek, a także umożliwiać zgłaszanie podejrzanych produktów do organów nadzoru. Technologia RFID umożliwia bezprzewodową identyfikację produktów za pomocą fal radiowych. Dzięki chipom RFID można na bieżąco monitorować, gdzie znajduje się dany lek i czy dotarł do odpowiedniej placówki. 4. Integracja systemów i centralna baza danych Producenci leków muszą zintegrować nowe systemy z istniejącymi lub stworzyć nowe rozwiązania, aby umożliwić proces serializacji. Integracja systemów polega na połączeniu różnych narzędzi i technologii używanych przez różne podmioty w łańcuchu dostaw leków, takich jak producenci, hurtownicy, apteki oraz organy regulacyjne, w jeden spójny system. Celem integracji jest zapewnienie płynnej wymiany informacji między tymi podmiotami, co umożliwia kompleksowe monitorowanie i weryfikację leków na każdym etapie ich drogi, od produkcji aż po dostarczenie do pacjenta. Każda linia pakująca w fabryce musi zostać wyposażona w odpowiednie interfejsy, drukarki, kamery i komputery do zarządzania procesem serializacji leków. Centralna baza danych leków to scentralizowana platforma, która gromadzi i zarządza informacjami na temat wszystkich leków objętych procesem serializacji i monitorowania. Baza ta jest kluczowym elementem systemu weryfikacji, ponieważ umożliwia przechowywanie danych o każdym opakowaniu leku lub produktu leczniczego i jego historii dystrybucji. Przykładem takiej bazy danych w Europie jest European Medicines Verification System (EMVS), który umożliwia weryfikację leków zgodnie z wymogami Dyrektywy o przeciwdziałaniu fałszowaniu leków (FMD). W USA funkcję tę pełni Drug Supply Chain Security Act (DSCSA), który przewiduje stworzenie podobnego systemu monitorowania. Centralna baza danych leków stanowi fundament systemów weryfikacji, umożliwiając pełną kontrolę nad autentycznością i pochodzeniem leków, co zapobiega ich fałszowaniu i zwiększa bezpieczeństwo pacjentów. Ponadto koszty związane z dodaniem leku do centralnej bazy danych leków zazwyczaj ponosi producent leku. Dzięki integracji systemów oraz gromadzeniu i wysyłaniu kodów z poprawnie zapakowanych produktów, możliwa jest skuteczna weryfikacja autentyczności leków na każdym etapie dystrybucji. 5. Wpływ na farmaceutyczną infrastrukturę Wdrożenie procesu serializacji miało znaczący wpływ na infrastrukturę i przemysł farmaceutyczny. Ten wymóg prawny zaowocował pozytywnymi zmianami dla całej branży. Przede wszystkim każdy podmiot produkujący oraz wprowadzający dany lek w obieg musi dostosować procesy produkcji, dystrybucji, monitorowania oraz zarządzania danymi. Wpływa to na wszystkie podmioty w łańcuchu dostaw, od producentów, przez hurtowników, po apteki. Każda apteka została wyposażona w terminale do weryfikacji opakowań, które umożliwiają sprawdzenie autentyczności leków przed ich wydaniem pacjentowi. Ponadto, wprowadzenie procesu serializacji wymagało koordynacji działań producentów, aptek i innych podmiotów zaangażowanych w ten proces. Dzięki temu zwiększyło się na pewno bezpieczeństwo leków. Jednak zapewnienie zgodności z globalnymi regulacjami podniosło koszty produkcji. W wielu krajach serializacja jest wymagana przez prawo (np. w Unii Europejskiej na mocy Dyrektywy o przeciwdziałaniu fałszowaniu leków – FMD oraz w USA na podstawie ustawy DSCSA), co oznacza, że firmy muszą dostosować swoją infrastrukturę do spełnienia tych wymogów. W Polsce Krajowa Organizacja Weryfikacji Autentyczności Leków (KOWAL weryfikacja leków) miała za zadanie nadzorować i koordynować wdrożenie procesu serializacji. Serializacja leków narzuciła producentom farmaceutycznym konieczność dostosowania się do nowych regulacji, co wiązało się z dodatkowymi kosztami. Choć może to wydawać się wyzwaniem, nie można jednak pominąć istotnych korzyści, jakie niesie ze sobą ten proces. Jedną z kluczowych zalet jest poprawa zarządzania jakością, którą te regulacje wymuszają na producentach, zapewniając wyższy poziom kontroli nad produktami i zwiększając bezpieczeństwo pacjentów. Stosowanie serializacji pozwala firmom lepiej zarządzać jakością leków poprzez monitorowanie całego cyklu życia produktu. Co zdecydowanie przekłada się nie tylko na poprawę ich jakości i bezpieczeństwa, ale pomaga także zoptymalizować koszty i produkować w większym szacunku do środowiska naturalnego. 6. Korzyści dla pacjentów i systemu farmaceutycznego Wprowadzenie procesu serializacji produktów leczniczych przyniosło liczne korzyści dla pacjentów oraz całego systemu farmaceutycznego. Przede wszystkim umożliwiło skuteczną identyfikację autentycznych leków oraz wykrywanie podróbek, transparentność (wzrost przejrzystości w dystrybucji leków przyczynił się do lepszego postrzegania systemu farmaceutycznego), a także lepszego zarządzanie zapasami. Pacjenci mogą mieć większą pewność, że otrzymują bezpieczne i skuteczne produkty a nie podróbki leków. Serializacja leków przyczynia się również do zwalczania szarej strefy i nielegalnego obrotu podrobionymi lekami, co przekłada się na ochronę zdrowia publicznego. Dodatkowo, poprawa kontroli nad dystrybucją leków może pomóc w ograniczeniu kosztów leczenia wynikających z niewłaściwego stosowania podrobionych lub nieskutecznych preparatów. Serializacja pomaga także chronić pacjentów przed przeterminowanymi lekami, ponieważ system, umożliwia śledzenie daty ważności leków na każdym etapie ich dystrybucji. Pacjenci otrzymują tylko leki, które są w pełni zgodne z obowiązującymi normami jakościowymi i nie są przeterminowane. 7. Serializacja leków – podsumowanie Podsumowując, wprowadzenie procesu serializacji do farmacji było niezbędnym narzędziem w walce z podróbkami leków, które jednocześnie zapewniło pacjentom bezpieczne i autentyczne produkty. Zastosowanie zaawansowanych technologii informatycznych pozwoliło na skuteczną weryfikację i identyfikację leków, a także umożliwiło kontrolę nad procesem dystrybucji. Korzyści dla pacjentów, producentów i całego systemu farmaceutycznego są oczywiste i stanowią ważny krok w kierunku zapewnienia bezpieczeństwa i autentyczności leków na rynku. W tej walce z podróbkami, jesteśmy dumnym dostawcą rozwiązań zarządzania jakością dla branży farmaceutycznej . Działając jako eksperci firmy TTMS w dziedzinie serializacji leków, oferujemy kompleksowe usługi i doradztwo, które pomogą w pełnym wdrożeniu procesu serializacji. Nasz doświadczony zespół specjalistów posiada wiedzę i umiejętności, aby wesprzeć Cię na każdym etapie, od planowania po wdrożenie i utrzymanie. Jeśli potrzebujesz wsparcia w implementacji odpowiednich systemów, dostosowanych do Twoich potrzeb, TTMS Quality jest tutaj, aby Ci pomóc. Nasi eksperci mogą dostarczyć nie tylko techniczne rozwiązania, ale również doradzić poprzez konsultacje dla biznesu. Skontaktuj się z nami, aby dowiedzieć się więcej o naszych usługach i jak możemy Ci pomóc w realizacji procesu serializacji. Razem możemy zapewnić pacjentom bezpieczeństwo leków i autentyczne produkty. Wesprzemy Cię w osiągnięciu sukcesu w branży farmaceutycznej.
Czytaj