Sztuczna inteligencja w cyberbezpieczeństwie? 4 pytania, które warto zadać, zanim dokonamy wyboru
Nie wszystkie rozwiązania, które oferowane są jako sztuczna inteli-gencja rzeczywiście są na niej oparte. Moda na AI przyczyniła się do wielu nadużyć, a w połączeniu z wciąż niewystarczającą wiedzą o tym, czym właściwie jest AI, sprawiła, że wiele osób ma problem z wyborem najlepszego dla siebie narzędzia zapewniającego bezpie-czeństwo. Christian Putz z Vectra AI podpowiada, na co zwracać uwagę, aby wybrać mądrze.

 REKLAMA 
 Wdrażasz KSeF w firmie 
 
AI ma problem z PR - a właściwie dwa

Pierwszy problem: termin AI jest obecnie nadużywany na rynku, często wręcz bez-myślnie – szczególnie jeśli chodzi o cyberbezpieczeństwo. W rezultacie hasło sztucz-na inteligencja jest stosowany tak często i tak przypadkowo, że traci swoje znaczenie. Moda na AI przyczyniła się do tego, że na każdym kroku spotykamy się z odniesie-niami do „wzmocnionych przez sztuczną inteligencję” lub „zasilanych przez sztuczną inteligencję” rozwiązań bezpieczeństwa, które nie są implementacjami sztucznej inte-ligencji. Często są to jedynie systemy oparte na regułach: przepływy pracy typu „jeśli to, zrób to”.

Drugi problem: znaczna część opinii publicznej nie rozumie pojęcia sztucznej inteli-gencji, co w mediach czyni ją pożywką dla wzbudzania sensacji. Na przykład inżynier Google, Blake Lemoine, zwrócił ostatnio uwagę całego świata, gdy twierdził, że we-wnętrzny system generujący chatboty stał się świadomy. Twierdził, że ma „osobo-wość” i zgłasza obawy o własną śmiertelność. I choć Google szybko zdementował jego twierdzenie, wśród wielu osób nie będących ekspertami, jego historia przywołała wizje rodem z science fiction.

Potęga AI w wykrywaniu zagrożeń

W przypadku cyberbezpieczeństwa, sztuczna inteligencja z pewnością nie jest przy-stosowana do podejmowania wrogiego działania. Zapewnia natomiast znacznie większą użyteczność niż standardowy prosty, oparty na regułach cyfrowy strażnik. Ten ostatni automatycznie sygnalizuje anomalie bez kontekstu, to znaczy bez świadomo-ści zachodzących wydarzeń poprzedzających lub równoległych.

Obecnie potrzebujemy uogólnionych możliwości wy-krywania zagrożeń, które wykraczają poza wąskie reguły oparte na znanych meto-dach ataku, potrafiące wydedukować cele atakującego. Potrzebujemy rozwiązań, któ-re skalują się bez utraty wydajności i mogą przygotować się na nieznane jeszcze for-my cyberagresji. Sztuczna inteligencja jest niezbędnym narzędziem obronnym w dzi-siejszym zestawie narzędzi bezpieczeństwa. – mówi Christian Putz, Country Manager w Vectra AI.


4 pytania, które ujawniają prawdziwą jakość AI

Jak odróżnić dobrą propozycję od złej? Poniższe cztery pytania pomogą zorientować się, jak realna jest propozycja dotycząca AI.
  1. Czy oferowana AI skupia się na wykrywaniu nietypowych zachowań czy na wskazywaniu problemów bezpieczeństwa? Produkt, który zajmuje się wykry-waniem ogólnych informacji o anomaliach nie przechodzi testu: nie każda anomalia jest zagrożeniem. Co więcej, nie każde prawdziwe zagrożenie obja-wia się jako nietypowe zachowanie.
  2. Jak i gdzie dostawca wdraża sztuczną inteligencję? Niektórzy wykorzystują sztuczną inteligencję do rozwiązywania problemów peryferyjnych, ale nadal pozostają zależni od starszych technologii, jeśli chodzi o podstawowe funkcje. Im bardziej centralną rolę odgrywa AI, tym większą wartość może zapewnić, np. wykryć operacje atakującego, priorytetyzować wieloetapowe ataki i zarządzać systemem.
  3. Czy występuje uzupełniający czynnik ludzki? AI jest tak dobra, jak jej twórcy. Może odzwierciedlać ludzkie przeoczenia, uprzedzenia lub inne ograniczenia. Do projektowania AI niezbędne są wydajne zespoły ze spójną wizją i wysokimi umiejętnościami. Ważne, by specjaliści w dziedzinie analizy danych i badań nad bezpieczeństwem wnosili do tworzenia AI różnorodne umiejętności, od neurobiologii po fizykę, od reagowania na realne incydenty po inżynierię wsteczną. Gdy AI jest wdrażana u klientów, równie ważny pozostaje czynnik ludzki. AI powinniśmy zawsze traktować jedynie jako pomoc i przewodnika - świadoma decyzja w wielu obszarach nadal należy do człowieka.
  4. Czy AI jest przedstawiana jako lekarstwo na wszystko? Jako uniwersalny antybiotyk na wszystkie infekcje w cyberprzestrzeni? Prawdziwa AI nie działa w ten sposób. Zmieniająca się, ewoluująca topografia domen sieciowych - czego przykładem są nowe strategie chmur hybrydowych oraz wzrost liczby dostaw-ców SaaS i PaaS - regularnie stawia nowe wyzwania. Należy zachować ostrożność wobec dostawców, którzy mogą przesadzać w obietnicach dotyczą-cych ich produktów.

Kształt przyszłych zagrożeń jest nieznany. Najlepsza obrona przed nieznanym polega na odpowiednim poziomie doświadczenia, zwinności i gotowości do ite-racji. Identyfikowanie prawdziwej sztucznej inteligencji i jej optymalizacja na potrzeby cybe-robrony jest zadaniem bardziej złożonym i pełnym niuansów, niż niektórzy by sobie życzyli. Nie zastąpi ona ani tym bardziej nie odrzuca ludzkiej pomysłowości i osądu. Obecnie jest to jednak najlepsze narzędzie do identyfikowania nowych, trwałych wzorców zagrożeń i odróżniania ich od łagodnych anomalii.

Źródło: Vectra

PRZECZYTAJ RÓWNIEŻ:


Back to top