Strona główna

Nowe technologie w ochronie infrastruktury krytycznej abstrakt


Pobieranie 55.35 Kb.
Data19.06.2016
Rozmiar55.35 Kb.
Marek ŻYCZKOWSKI, Mieczysław SZUSTAKOWSKI, Janusz WRÓBEL

Instytut Optoelektroniki, Wojskowa Akademia Techniczna, Warszawa



NOWE TECHNOLOGIE W OCHRONIE
INFRASTRUKTURY KRYTYCZNEJ

Abstrakt

The last year events, i.e., terrorist attacks on 11th September 2001 USA, war in Afghanistan and Iraq, necessity to protect military vehicles, convoys, patrols and next terrorist attacks in Madrid and London forced the progress in development of security systems of strategic objects in the range of sensors technology and technical organization of systems. Also views and methods of protection organisation have changed by considering the growing possibilities and facilities of terrorist groups. The used till now circumferential protection of stationary objects, based on construction of a ring with two-zone fencing, thermal cameras with illumination are efficiently displaced by the systems of wave technology sensors: vision technology – day/night cameras registering optical contrast of a scene, thermal technology – cheap bolometric cameras recording thermal contrast of a scene, active ground radars – signal-microwave and image-millimetre wavelengths that record and detect reflected radiation. The paper presents a structure of special object’s protection based on a module multisensor security system and its particular component elements.



Streszczenie

Obiekty infrastruktury krytycznej są bardzo zróżnicowane pod względem struktury i sposobu funkcjonowania. Obiekty przemysłowe, elektrownie, rafinerie, lotniska posiadają rozległe obszary ograniczone ogrodzeniem z wydzieloną zabudową, które podlegają ochronie jako strefy zastrzeżone. Równocześnie obszary miejskie czy podmiejskie wymagają monitoringu wydzielonych stref np. obiekty sportowe, wnętrza pociągów i autobusów. Obiekty infrastruktury zaopatrzenia miast w energię, paliwo, wodę, również są przedmiotem zagrożenia głównie terrorystycznego. Monitoring środowiska zwłaszcza miejskiego wymaga szczególnego rodzaju czujników i sieci monitorowania, które pozostaje poza określeniem systemów ochrony mienia i infrastruktury.

Zabezpieczenie infrastruktury krytycznej jak i elektroniczne systemy wyspecjalizowane w zabezpieczeniu obiektów publicznych są najbardziej rozwinięte w USA i niektórych Krajach Europy dotkniętych atakami terrorystycznymi. W kraju notujemy istotny wzrost zainteresowania ochroną infrastruktury krytycznej. Można odnotować rozbudowę monitoringu kamerowego miast, stadionów, środków transportu, dworców autobusowych i kolejowych. Urząd Lotnictwa Cywilnego określił sposób ochrony stref zastrzeżonych lotnisk którymi objęto cały teren wewnątrz ogrodzenia i urządzenia nawigacyjne zlokalizowane poza lotniskiem. Rygorystycznie prowadzony jest monitoring hali odlotów pod względem pozostawionych pakunków, prześwietlenie bagaży, kontrola osobowa.

Aktualnie to właśnie wymagania ochrony obiektów infrastruktury krytycznej w tym lotnisk, granic miast wymagają rozwoju nowych systemów monitoringu (zabezpieczenia ) otwartych przestrzeni jak i ochrony perymetrycznej –obwodowej. Do systemów zabezpieczeń wprowadzono niestosowane dotychczas kamery termowizyjne, radary naziemne. Rozwinięto automatyczne rozpoznawanie obrazów kamerowych i wizji obrazów z kamer różnej technologii (wizyjnej i termowizyjnej).

W kolejnych rozdziałach artykułu przedstawimy tendencje rozwojowe systemów zabezpieczeń infrastruktury krytycznej.


  1. EWOLUCJA SPRZĘTOWA ROZPOZNAWANIA OBRAZOWEGO W SYSTEMACH OCHRONY


1.1 Kamery wizyjne

Kamery wizyjnez matrycowym czujnikiem obrazu CCD są stosowane w systemach ochrony od ponad pół wieku. Najważniejszą cechą kamery jest jakość obrazu, która zależy od wielu czynników zarówno technologicznych (doboru optyki, jakości matrycy, przetwarzania, transmisji i odtwarzania obrazu) jak i pogodowych. Ale najważniejszym kryterium pozyskania obrazu umożliwiającego rozpoznanie sceny jest poziom oświetlenia obszaru obserwacji. W praktyce oznacza to konieczność sztucznego doświetlania sceny obserwacji mimo stosowania różnych technik widzenia w warunkach słabego oświetlenia.

Ponadto matryca zobrazowania CCD stosowana w kamerach ma określoną ilość pikseli, które są „nakładane” na pole widzenia kamery. Jeżeli pole widzenia powiększa się to ilość metrów kwadratowych terenu w polu widzenia jednego piksela powiększa się
a rozdzielczość obrazu maleje w stosunku odwrotnym do pola widzenia. W rezultacie systemy wizyjne generalnie nie są dostosowane do obserwacji szerokątnej, ale są bardzo użyteczne przy rozpoznaniu sceny z odpowiednio dobranym obiektywem dostosowującym powierzchnie pola widzenia do zdolności rozdzielczej matrycy.
1.2 Kamery termowizyjne

Kamery wizyjne i termowizyjne różnią się fizyką pozyskania obrazu. Kamera wizyjna rejestruje promieniowanie odbite pochodzące z postronnego źródła w odniesieniu do kamery


i obiektu. Fizyka działania kamery termowizyjnej eliminuje źródło zewnętrzne, gdyż kamera termo rejestruje kontrast termiczny miedzy obiektem i otoczeniem. Każdy obiekt w ruchu (biologiczny czy mechaniczny) generuje energie o natężeniu promieniowania termicznego
(w podczerwieni) wyższą od statycznego otoczenia.

Eliminacja postronnego źródła doświetlania sceny powoduje, że dwie technologie wizyjna i termowizyjna wzajemnie uzupełniają się w systemach ochrony. Do niedawna głównym ograniczeniem użycia kamer termowizyjnych w systemach ochrony była cena. Wprowadzenie na rynek niechłodzonych stosunkowo tanich termowizyjnych kamer na bazie matryc bolometrycznych udostępniło zastosowanie tej technologii w systemach ochrony.

Zasięg widzenia i kryterium detekcji rozpoznania i identyfikacji obu kamer wizyjnych i termowizyjnych są podobne i będą omówione w następnym punkcie.

Tutaj podkreślimy jeszcze, że mimo różnej fizyki detekcji obiektu to podatność na wpływ opadów (deszcz, śnieg) i przezroczystość atmosfery (mgły) obu kamer jest zbliżona. Np. mgła, opady powodują tłumienie fali podczerwieni 8 – 12 µm i 3 – 5 µm na których pracują kamery termowizyjne, zatem maleje zasięg „widoczności” kamery. Ponadto opady np. śniegu i deszczu schładzają zarówno obiekt jak i otoczenie niwelujące różnice temperatur – maleje, więc kontrast sceny. Zatem mimo zastosowania dwóch technologii nie możemy zapewnić stałego prawdopodobieństwa wykrycia intruza na założonej odległości dla optymalnych warunków.


1.3. Radary naziemne (Security Radar)

Radar (ang. radio detection and ranking) jest urządzeniem powszechnie znanym jako mikrofalowe urządzenie detekujące obiekty latające, określające ich położenie w przestrzeni


z śledzeniem ich ruchu. Zdolność przenikania mikrofal (3 – 30) GHz przez dym, mgłę, opady oraz możliwość wykrywania obiektów na ziemi tzw. dynamiczne odtwarzanie topologii terenu w zakresie zasięgu radaru spowodowały, że małe, gabarytowo i małej mocy (rzędu dziesiątek miliwatów) naziemne radary stały się ważnym elementem w systemach ochrony.

W literaturze anglojęzycznej ten typ radarów oznacza się skrótem PSRS (Perimeter Surveillance Radar System lub Security Radar) i zgodnie z nazwą znajduje głównie zastosowanie w systemach ochrony obszarów rozległych. Rynkowo dostępnych są dwa rodzaje radarów:

a) radary na falach centymetrowych tradycyjnie zwane na mikrofalach w zakresie częstotliwości (3 – 30) GHz, są najczęściej stosowane w zakresie odległości 5-10 km przy dolnej granicy częstotliwości i 2-5 km przy górnej granicy częstotliwości;

b) radary na falach milimetrowych w zakresie częstotliwości (30 ÷ 300) GHz, są stosowane


na zasięgi detekcji rzędu 1 – 3 km.

Oba typy radarów prezentują aktywną technologię w odróżnieniu od pasywnych kamer wizyjnych i termowizyjnych, zatem są mniej zależne od warunków zewnętrznych. Stosowane długości fal są również mniej tłumione przez opady i mgły niż o wiele krótsze fale widzialne lub podczerwień.

Detekcja intruza i określenie położenia (odległość, azymut) za pomocą fal elektromagnetycznych może być realizowana z użyciem wielu sposobów. Najprostsza jest metoda impulsowa. Powracający impuls wąsko kątowej wiązki sondującej odbity od obiektu określa odległość z różnicy czasu emisji i powrotu. Kątowe położenie obracającej się anteny kierunkowej wyznacza azymut położenia obiektu.

Jeżeli radar generuje wiązkę sondującą jako fazowo – koherentną (tzn. znana jest różnica fazy między impulsem generowanym a odbitym) to na podstawie efektu Dopplera możliwe jest obliczenie prędkości ruchomego obiektu zaś efektem śledzenia obiektu jest kreślenie śladu ruchu obiektu. Zatem radar nie daje obrazu wizyjnego obiektu, lecz rzutuje na ekranie punkt symbolizujący obiekt zaś ruch punktu po ekranie kreśli drogę fizycznego ruchu obiektu.

Cechą charakterystyczną radarów naziemnych (Security Radar) jest możliwość szybkiego sekundowego przeszukiwania przestrzeni w zakresie 3600 lub w wyznaczonym sektorze z dużym prawdopodobieństwem wykrycia w ustalonych zakresach zasięgu i małą ilością fałszywych alarmów.

Radary naziemne zostały dostosowane softwerowo do pracy w systemach zabezpieczeń jako aktywne czujniki dookolnej detekcji intruza współpracujące z czujnikami detekcji na granicy ogrodzenia. W przypadku sygnalizowania alarmu z danej strefy czujników radar zmienia tryb pracy na przeszukiwanie danej strefy.

Radary naziemne z reguły posiadają zdolność naprowadzania kamer wizyjnych termowizyjnych lub sprzężonego zestawu tych kamer na wykryty obiekt celem ułatwienia rozpoznania i identyfikacji obiektu.

Najbardziej spektakularne jest użycie zestawu radarowo-kamerowego zbudowanego na jednej platformie obrotowej lub dwóch oddzielnych radar i zestaw kamerowy sprzężonych softwerowo z automatycznie ustawianym obiektywem na odległość podaną przez radar.

Wyposażenie radaru w odbiornik GPS umożliwia określenie pozycji radaru
i naniesienie na mapie cyfrowej chronionego terenu. Dzięki temu obiekty w polu widzenia radaru są automatycznie lokalizowane na mapie chronionego terenu. Każdy nowy obiekt
w terenie będzie traktowany jako generujący alarm dopóki operator nie akceptuje jego pozycji. Dzięki wyposażeniu radarów w rozbudowaną technikę softwerową i telekomunikacyjną radary stały się kluczowymi urządzeniami w organizacji nowej generacji systemów ochrony obszarów rozległych.

a b


Rys. 1.1. Ilustracja zestawów: a) kamerowych (kamery wizyjna i termowizyjna);

b) radarowo- kamerowe (kamera po lewej stronie, radar po prawej).



  1. EWOLUCJA SOFTWAROWA W SYSTEMACH KAMEROWYCH I RADAROWO – KAMEROWYCH

Analiza obrazów kamer wizyjnych, termowizyjnych i ekranów radarowych przez operatora przy dużej ilości zestawów kamerowych lub radarowo-kamerowych jest trudna i mało efektywna. Jak wykazują badania publikowane chociażby przez Akademię Monitoringu (Kraków) operator w cyklu 2 godzinnym pracy może obsługiwać 4 monitory i do 16 kamer.

Aktualnie do analizy obrazów w systemach ochrony są aplikowane i rozwijane od ponad 20 lat technologie widzenia komputerowego (machine vision) zwane w systemach ochrony jako kamery automatycznego (inteligentnego) rozpoznawania obrazów lub w skrócie kamery inteligentne (Automatic Video Surveillance (AVS) albo Inteligence Video Surveillance (IVS).

W kamerach lub dokładniej w systemach inteligentnych kamer odpowiednie oprogramowanie analizuje obraz wg kryteriów wprowadzanych przez operatora systemu. Zatem kamera sygnalizuje alarm w przypadku pojawienia się w polu widzenia zaprogramowanej sekwencji obrazu: człowiek, samochód, przedmiot itp.

Drugą nie mniej ważną technologią jeszcze słabo rozpowszechnioną jest fuzja obrazów np. z kamery wizyjnej i termowizyjnej. Nałożenie na siebie dwóch obrazów pozyskanych w różnych technologiach poprawia wizualną jakość obrazu i poprawia skuteczność analizy komputerowej.

Najnowsze doniesienia wskazują na wprowadzenie do procesu fuzji danych pozyskanych z radaru (np. współrzędnych lokalizacji na mapie). Niżej przybliżymy w skrócie powyższe problemy.
2.1. Technologia automatycznej (inteligentnej) analizy obrazu
Analiza ruchu (Video Motion Detection – VMD) była pierwszą technologią softwerową mającą wspomóc operatora w analizie obrazu wizyjnego. Automatyczna detekcja ruchu była równolegle wprowadzana z cyfryzacją obrazów i cyfrowym zapisem (Digital Video Recorder (DVR). Oprogramowanie VMD jest do dzisiaj stosowane do analizy ruchu w polu widzenia kamer wizyjnych i termowizyjnych, jest również aplikowane w radarach.

Program VMD porównuje bieżący obraz pola widzenia kamery lub wydzielony obszar z poprzednim. W przypadku wykrycia zmian w porównywanych obrazach sygnalizuje alarm i obraz z alarmowej kamery wyświetlany jest na ekranie operatora.

Podstawa tej technologii było założenie, że każdy ruch w obszarze sceny jest interesujący dla obserwatora. Okazało się jednak, ze w przestrzeni otwartej jest wiele ruchu (gałęzie drzew, owady, liście itp.), które generują fałszywe alarmy. W praktyce technologia VMD znalazła zastosowanie w szczególnych przypadkach pomieszczeń zamkniętych.

Inteligentna analiza obrazu (Intelligence Video Surveillance – IVS)

IVS jest komputerową analizą obrazu, w której program śledzi zmiany intensywności


w obrębie poszczególnych pikseli. Generacja alarmu następuje wg. zaprogramowanego kryterium zmiany natężenia światła grupy pikseli lub przemieszczania się zmian. Technologia aplikowana w systemach ochrony jest gałęzią głównego nurtu badań sztucznej inteligencji (artificial intelligence) w problematyce widzenia maszynowego.

Zastosowanie technologii IVS czyni kamerę (zarówno wizyjną jak i termalną) szczególnym czujnikiem, który stosuje odpowiednie algorytmy do detekcji i śledzenia zaprogramowanego obiektu w polu widzenia kamery. IVS zawiera również algorytmy pozwalające na klasyfikacje obiektów na podstawie figury zarysowanej przez grupę „dynamicznych” pikseli i zdolna jest wyróżnić zwierzę, człowieka, samochód lub inny przedmiot. W zależności od przeznaczenia IVS może być wyposażone w algorytmy zdalnej identyfikacji osób według szczególnych cech zachowania lub cech ubioru.

IVS może być użyte do analizy obrazów kamer stacjonarnych
i obrotowych po wykonaniu sekwencji obrotu. Może obsługiwać kamery czarno – białe, kolorowe, słabego oświetlenia oraz kamery termowizyjne. IVS może być użyte w warunkach wewnętrznych i zewnętrznych w różnych warunkach atmosferycznych. Może być również użyte w różnych scenariuszach bezpieczeństwa np. detekcja intruza w systemach perymetrycznych, detekcja pozostawionych przedmiotów lub usunięcia przedmiotów obserwowanych przez kamerę, zatrzymanie się lub odjazd pojazdu z obserwowanego miejsca, osoba biegnąca lub przepychająca się w grupie osób itp.

Rys.2.1. Porównanie systemów analizy ruchu VMD i inteligentnej analizy obrazu IVS.



  1. obraz źródłowy; b) VMD – z trudem detekuje obiekt pływający przy ruchu otoczenia;
    c) wyraźna detekcja obiektu.

System monitoringu kamerowego wyposażony w IVS spełnia wymagania systemu zabezpieczeń w bardzo szerokim zakresie. W odniesieniu do obiektów infrastruktury krytycznej technologia IVS może być włączona w system ochrony perymetrycznej kamerach indywidualnych lub w zestawie kamerowym (wizyjna i termowizyjna) jak i w systemach monitoringu, ruchu osobowego w terminalach, dworcach, stadionach, miastach itp.

Kamery wyposażone w technologie IVS mogą być włączone w dowolny system zabezpieczeń w integracji z systemem czujnikowym czy kontroli dostępu. System IVS w istotnym stopniu wyręcza w pracy operatora, ponadto podnosi skuteczność monitoringu kamerowego i generuje małą ilość fałszywych alarmów.


2.2. Kryterium detekcji, rozpoznania i identyfikacji w systemie IVS

W systemach kamerowych przy obserwacji wizyjnej obrazu przez obserwatora są powszechnie znane zdefiniowane kryteria:

- monitorowanie tłumu, jeżeli zajmuje 5% ekranu;

- wykrycie osoby, jeżeli zajmuje 20% ekranu;

- rozpoznanie osoby, jeżeli zajmuje 50% ekranu;

- identyfikacji osoby, jeżeli zajmuje 120% ekranu.

Zdecydowanie inaczej definiuje się kryteria i pojęcia detekcji, rozpoznania i identyfikacji w systemach inteligentnej (automatycznej) analizie obrazów – IVS. W tym przypadku obowiązuje tzw. kryterium Johnsona, które zakłada, że krytyczny wymiar człowieka wynosi 0,75m oraz definiuje – kryterium 50% prawdopodobieństwa:


  • detekcji gdy powierzchnie 0,75 m odwzorowuje 1,5 piksela co oznacza
    1,5/0,75 = 2 piksela na metr;

  • rozpoznania, gdy 0,75m odwzorowuje 6 pikseli, co oznacza 6/0,75 = 8 pikseli na metr;

  • identyfikacji, gdy 0,75 m odwzorowuje 12 pikseli, co oznacza
    12/0,75 = 16 pikseli na metr.

Ponadto przyjmuje się, ze stojący człowiek ma wymiary 1,8m wysokości i 0,5 szerokości. Przeliczając powierzchnie człowieka na ilość pikseli odwzorowania otrzymamy: kryterium detekcji 1,8 x 2 = 3,6 piksela w pionie oraz 0,5 x 2 = 1 piksel w poziomie.

Podobnie określamy kryterium:

- rozpoznania: 14,4 na 4 piksele na ekranie;

- identyfikacji: 28,8 na 8 pikseli na ekranie.

Graficzne przedstawienie powyższych wyliczeń obrazuje rys. 2.2. gdzie dla kontrastu zestawiono kryteria telewizji obserwacyjnej i telewizji widzenia komputerowego.

W przypadku automatycznej analizy obrazu kryteria rozpoznania detekuje się jako:

- detekcja – oznacza wykrycie obecności obiektu w polu widzenia: jest lub nie ma;

- rozpoznanie-oznacza określenie rodzaju obiektu w sensie zwierzę, człowiek, samochód;

- identyfikacja – ma tutaj wojskowe znaczenie: swój czy obcy, w praktyce cywilnej oznacza możliwość określenia np. posiadanie przedmiotów, bagażu itp.



Rys.2.2. Kryteria detekcji rozpoznania i identyfikacji w analizie obrazu przez człowieka (góra) i automatycznej analizie komputerowej (dół). (Analiza automatyczna na przykładzie kamery termowizyjnej wg prospektu firmy FLIR).

Oczywiste jest, że obraz człowieka odwzorowany na matrycy zobrazowania kamery zależy od pola obserwacji, które z kolei jest funkcja obiektywu i odległości. Zdolność automatycznego rozpoznawania obrazu w funkcji odległości podaje się w formie znormalizowanych nomogramów jak na rys.4.4 dla matryc o określonej ilości pikseli i wymiarów piksela. Z wartości ilości pikseli na 0,75 metra dla danej odległości oblicza się ilość pikseli na metr i na człowieka skąd wynika zdolność detekcji, rozpoznania, identyfikacji w funkcji odległości (jak na rys. 4.3).

W praktyce jednak należy uwzględnić warunki atmosferyczne (tłumienie), uwarunkowania kontrastu obrazu i tła. Dla kamer wizyjnych to oznacza oświetlenie i współczynnik odbicia światła obrazu i tła a dla kamer termowizyjnych to różnica temperatury obrazu i tła. Zatem analizę parametrów konkretnej kamery podawanych zwykle dla warunków optymalnych należy odnieść do spodziewanych parametrów w warunkach ekstremalnych.



Rys. 2.3. Nomogram bolometrycznej kamery termowizyjnej z matrycą 320 x 280 pikseli. Wymiar piksela 38 µm.


2.3. Fuzja obrazów

Jednoczesne pozyskanie obrazu z kamer różnej technologii np. wizyjnej


i termowizyjnej zapewnia optymalne widzenie (na miarę dysponowanej techniki)
w dzień/noc i w różnych warunkach pogodowych. Ale w rozdzielnej technologii przetwarzania obrazu otrzymujemy obrazy na różnych monitorach z wadami właściwymi każdej technologii np. dla kamer wizyjnych: słabo kontrastowe obrazy w nocy i przy złej pogodzie, na dużych odległościach dla kamer termowizyjnych: mała rozdzielczość (brak szczegółów), słaby kontrast przy opadach, trudna intuicyjna interpretacja obrazu na dużych odległościach.

Technologia fuzji czyli nałożenie obu obrazów z kamer różnych technologii i prezentacja wynikowego obrazu na jednym ekranie poprawia jakość obrazu niwelując słabsze strony łączonych technologii oraz poprawia efektywność i komfort pracy operatora [6.7].

Na rys. 2.4 przedstawiamy schemat procesu fuzji obrazów jako pre-procesingu przed poddaniem inteligentnej analizie (IVS) już wspólnego obrazu.

Rys.2.4. Schemat procesu fuzja (nakładania) obrazów pozyskanych z kamer różnych technologii.



Rys.2.5. Fotograficzna prezentacja wyników fuzji obrazów dwóch kamer:



  1. Obraz kamery wizyjnej; b) obraz kamery LWiR; c) obraz wynikowy fuzji; d) sygnatury pojedynczych obrazów i złożonego obrazu.

Na rys.2.5 pokazano fotografie prezentujące obrazy pojedynczych kamer i efekt fuzji. Najbardziej wyrazisty jest efekt sygnatury na zdjęciu 4.5d otrzymany w wyniku analizy linii poziomej przecinającej obraz. Analiza linii pokazuje, że największy kontrast obiektu względem otoczenia daje obraz otrzymany w wyniku fuzji. Zatem obraz łączny poddany procesowi komputerowej analizie IVS istotnie zwiększa prawdopodobieństwo właściwego rozpoznania obrazu. Zwiększenie prawdopodobieństwa detekcji obiektu do poziomu 99% daje wprowadzenie do procesu fuzji obrazów z kamer danych radarowych. System wizyjny odwzorowuje kształt obiektu na ekranie, podczas gdy radar podaje odległość, azymut (lokalizuje na mapie) oraz kierunek ruchu i prędkość. Posiadając kształt obiektu i odległość można określić przekrój obiektu (w pionie i poziomie) w celu jego klasyfikacji. Detekowany obiekt jest prowadzony radarem z takim sterowaniem pola widzenia kamer żeby utrzymać obiekt w środku pola widzenia, co umożliwia ciągłą weryfikację identyfikacji obiektu. W całym procesie śledzenia ruchu obiektu algorytm automatycznego rozpoznania dokonuje ciągłej korelacji wymiarów obiektu, odległości i szybkości.

Fuzja danych trzech sensorów: kamer wizyjnych i termowizyjnej oraz radaru daje najbardziej wiarygodne i skuteczne wyniki automatycznej detekcji, rozpoznania


i identyfikacji obiektu w systemach ochrony.


  1. EWOLUCJA TELETRANSMISJI W SYSTEMACH OCHRONY

Wiele systemów ochrony oferowanych zwłaszcza przez duże firmy bazuje na własnych wewnątrz systemowych protokołach transmisji i dedykowanych sterownikach. Systemy takie nazywamy zamkniętymi z uwagi na trudności z dołączeniem urządzeń innych firm. Ale zagrożenia terrorystyczne zwłaszcza w odniesieniu do obiektów infrastruktury krytycznej wymagają integracji nie tylko samych technicznych systemów ochrony jak perymetrii, SWiN, SKD, TV, ochrony fizycznej, ale i zapewnienia wymiany informacji a w tym obrazowej z sztabem zarządzania bezpieczeństwem i służbami odpowiedzialnymi za bezpieczeństwo. Ponadto obserwujemy istotny wzrost informatyzacji systemów ochrony. Między innymi stąd wynika dążenie do budowy technicznych systemów ochrony na bazie profesjonalnych teleinformatycznych systemów spełniających wymagania telekomunikacji wewnątrz systemowej coraz bardziej zinformatyzowanych systemów i wymagania otwartej telekomunikacji w ramach organizacji zarządzania bezpieczeństwem.

Protokół internetowy (IP) implementowany w sieci Ethernet głównie światłowodowej i sieciowe elementy systemu zwłaszcza urządzenia inteligentnej analizy obrazu tworzą obecnie sieciocentryczne inteligentne systemy teletransmisyjne, które są bazą nowej generacji zintegrowanych systemów ochrony.
3.1. Ewolucja analogowej CCTV do sieciowej telewizji z automatyczną analizą obrazów

Najbardziej spektakularny przykład ewolucji technologii teletransmisji w systemach ochrony można przedstawić na przykładzie ewolucji transmisji od telewizji analogowej do cyfrowych inteligentnych systemów wizyjnych.

Typowy system telewizji analogowej to kamera połączona z monitorem kablem koncentrycznym przez krosownicę (multiplekser z zapisem kasetowym). System wewnętrznie zamknięty był odwzorowany w nazwie Closed Circuit Television – CCTV.

Rys.3.1. Analogowy system CCTV z zastosowaniem multipleksera.

Ewolucje całego systemu security, w tym telewizji, stymuluje stopniowe przenikanie technologii informatycznych do przemysłu security. Istotny wpływ na informatyzacje systemów ochrony wywarły:


  • Cyfryzacja i cyfrowe przetwarzanie obrazu umożliwiło kompresje obrazu, cyfrową transmisję i cyfrowe odtwarzanie;

  • Adaptacja technologii widzenia komputerowego umożliwiło automatyzację analizy i fuzji obrazów;

  • Adaptacja sieci teleinformatycznych z oprzyrządowaniem i oprogramowaniem sieciowym stworzyło otwartą sieć integrującą systemy ochrony.

Informatyzacja przeniknęła nie tylko do systemów, ale i do poszczególnych urządzeń.

Rys.3.2. Przykładowa inteligentna kamera sieciowa firmy AXIS.


Na rys.3.2. przedstawiono inteligentną kamerę sieciową firmy AXIS wyposażonej w miniaturową technologię procesową. Wprowadzenie inteligentnych kamer, czujników i innych czujek rewolucjonizuje konfiguracje systemów ochrony, co ewidentnie widać na rys.3.3 przedstawiającym schemat inteligentnej telewizji sieciowej.

Rys.3.3. W pełni sieciowy system wideo z inteligentną kamerą sieciową.


W sieciowej inteligentnej telewizji wszystkie nowe technologie jak cyfryzacja, kompresja, zapis, IVS, interfejs sieciowy mogą być bezpośrednio umieszczone w kamerach.
3.2. Sieciowa integracja systemów ochrony

Sieciowy, teleinformatyczny system telekomunikacji wewnątrz systemowej jest budowany na strukturze sieci Ethernet z elementami oprzyrządowania First Ethernet – 100Mb/s i Gigabit Ethernet 1 Gbit/s. Mniejsze sieci mogą występować w konfiguracji 10/100 Mbit/s Ethernet.

Na rys. 3.4 przedstawiono szkielet modelowej struktury sieciowej proponowanej dla systemu ochrony.

Strukturę sieci tworzą profesjonalne urządzenia typowej sieci teleinformatycznej jak przełączniki, routery zarządzanie siecią. Serwer kamer i media konwertery występują tutaj jako interfejsy sieciowe do podłączenia urządzeń ochrony: kamer analogowych, czujek, czytników.

Urządzenia końcowe w postaci serwerów, stacji roboczych są wyposażone w standardowe interfejsy sieciowe. Przedstawiona na rys. 3.4 struktura sieci z oprogramowaniem sieciowym uzupełniona w oprogramowanie aplikacyjne, sieciowe serwery, inteligentną analizę obrazu oraz sieciowe urządzenia rejestracji obrazów staje się szkieletową strukturą integrującą system ochrony czyli Inteligence Network Security System.

Rys. 3.4. Schemat szkieletowej sieci teleinformatycznej do zastosowań w systemach ochrony.


4. PODSUMOWANIE
W artykule przeanalizowano trendy rozwojowe optoelektronicznych i radarowych urządzeń detekcji i zobrazowania w odniesieniu do systemów ochrony obiektów infrastruktury krytycznej.

Organizacja i struktura systemów ochrony jest uzależniona od technicznych i informatycznych możliwości stosowanych urządzeń. W ochronie dużych obiektów jakimi są obiekty infrastruktury krytycznej niezbędne staje się stosowanie:

- mieszanych technologii odnośnie detekcji (np. ogrodzeniowych czujników i radarów naziemnych);

- mieszanych technologii zobrazowania w warunkach dzień/noc (np. kamer wizyjnych i termowizyjnych);

- mieszanych technologii naprowadzania i śledzenia (np. radar i zestaw kamer video + termowizja);

- zastosowanie technologii automatycznego rozpoznawania, identyfikacji w czasie śledzenia intruza w tym: inteligentnego rozpoznania i fuzji obrazów z kilku czujników.

Skuteczne przeciwdziałanie integruje systemy, ludzi i procedury działania. Wymaga więc inteligentnej struktury integracyjnej. Aktualnym rozwiązaniem staje się sieciocentryczna struktura teleinformatyczna w konfiguracji sieci IP Ethernet. Szkielet sieci buduje się na profesjonalnych urządzeniach sieci teleinformatycznych jak komputery, switche, routery z konwerterami jako interfejsy do podłączenia urządzeń ochrony.

Sieciowy teleinformatyczny system komunikacji wewnątrz systemowej oraz automatyczna analiza obrazów stymuluje przemysł urządzeń security, zwłaszcza optoelektronicznych kamer do produkcji inteligentnych urządzeń sieciowych. Zatem rozwój technologii informatycznych i ich przenikanie do systemów ochrony rewolucjonizuje zarówno struktury systemów ochrony, a zwłaszcza obiektów infrastruktury krytycznej.


LITERATURA

  1. GAO –04-728 Aviation Security: Further Steps Needed to Strengthen the Security of Commercial Airport Perimeter and Access Control. www.gao.gov./new.items/do4728.pdf

  2. Airport Security Transportation – THALES.

  3. F. Kapounek. M. Maki Inteli Fiber – The Next Generation Optic Fence Sensor
    35th Annual 2001 ICC on Security Technology. London

  4. M. Szustakowski at.all: Recent Development of Fibre Optic Sensors for Perimeter Security, 35th Annual 2001 ICC on Security Technology, London.

  5. T. Riley and Moira Smith: Image Fusion Technology for Security and Surveillance Application. Proc. of SPIE ,Vol.6402.

  6. M. Smith. J.P. Heather: Review of Image Fusion Technology in 2005, Proc. of SPIE, vol.5782.

  7. Lipton and all: Critical Asset Protection, Perimeter and Threat Detection Using Automated Video Surveillance. www.objectvideo.com.

  8. Kinysley and all: Computer Vision for Security Applications, 32nd Annual 1998 ICC on Security Technology.

  9. Lipton and all: Moving Target Detection and Classification from Real-Time Video, Procc. of the IEEE Workshop on Application of Computer Vision.1998r.

  10. C.J. Baker, H D Griffits: Bistatic and Multistatic Radar Sensor for Homeland Scurity, www.nato-asi.org/sensors2005/papers/baker.pdf

  11. P. Cory and all: Radar – Based Intruder Detector for a Robotic Security System, www.nosc.mil/robots/pubs/spie3525b.pdf

  12. Browne: High Resolution Millimeter Wave (MMW) Perimeter Surveillance Radar, www.amphitech.com/pdf/PSRwpMay2006.pdf

  13. Technical guide to network video www.axis.com

  14. Mark Morris: Teleinformatics, J. Willey ltd., 2000.

  15. FFT Secure Fence installation overview, www.fft.com.au/

  16. B. Hennessey at all; Security Simulation for Vulnerability Assessment, Proceedings of the SPIE, Volume 6227, pp. 622708 (2006).






©snauka.pl 2016
wyślij wiadomość