Według Kyle Wilhoita, dyrektora ds. badań nad zagrożeniami, Unit 42 (Palo Alto Networks), w tym roku narzędzia AI odegrają kluczową rolę w akcjach dezinformacyjnych w mediach społecznościowych.
W związku ze zbliżającymi się wyborami prezydenckimi w Stanach Zjednoczonych eksperci spodziewają się zalewu dezinformacji tworzonej przez wiele różnych, czasem nawet przypadkowych osób. W codziennym szumie informacyjnym bardzo trudno odróżnić fałszywe lub spreparowane materiały audiowizualne od tych rzetelnych.
Cyberprzestępcy odkrywają nowe możliwości AI
W perspektywie średnioterminowej możemy się spodziewać, że cyberprzestępcy udoskonalą swoje narzędzia za pomocą sztucznej inteligencji. Na przykład, atakujący mogą poinstruować modele AI, aby zidentyfikowały zasoby internetowe organizacji z uruchomionymi odpowiednimi usługami, a to żeby z kolei pomóc w znalezieniu luk w zabezpieczeniach
Spodziewam się dalszego wzrostu złożonych zagrożeń. Cyberprzestępcy będą doskonalić swoje umiejętności z pomocą generatywnej sztucznej inteligencji. Chociaż algorytmy AI, takie jak modele językowe, asystują w obecnych operacjach hackerskich, to nie zostały jeszcze w pełni wykorzystane do tworzenia złośliwego oprogramowania lub prowadzenia kampanii na większą skalę – tłumaczy ekspert.
Wśród działań przestępczych wspieranych przez AI, możemy zaobserwować doskonalenie tekstów wiadomości phishingowych. Takie maile stają się bardziej przekonujące dzięki zastosowaniu poprawnych odniesień geograficznych, slangu i gramatycznie poprawnego tekstu. Przez to odbiorca może odnosić wrażenie, że to rzeczywisty mail. Eksperci spodziewają się także stosowania sztucznej inteligencji do prowadzenia działań rozpoznawczych, takich jak badanie odporności systemu. Dotyczy to analizy zakresu blokad sieci, dostępności otwartych usług / portów, a nawet skanowania luk w zabezpieczeniach.
Pilotowanie bezpieczeństwa z wykorzystaniem AI
Patrząc dalej w przyszłość, kwestią czasu jest wdrożenie copilotów bezpieczeństwa opartych na sztucznej inteligencji. Takie narzędzia mogą pomagać zarówno obrońcom jak i atakującym w różnych fazach ataku, takich jak ruch boczny i eskalacja uprawnień w zagrożonych środowiskach. Chociaż ta koncepcja nie jest jeszcze w pełni wdrożona, na branżowych forach padają pytania, w jaki sposób atakujący mogą wykorzystać takie narzędzia korzystające z algorytmów AI.
Z jednej strony, podręczny pilot bezpieczeństwa wspierający pracę SOC eliminuje czas potrzebny na manualną weryfikację fałszywie dodatniego lub fałszywie ujemnego wyniku, automatyzując ten proces. Z drugiej jednak strony, takie narzędzie przyspiesza pracę nie tylko cyber-obrońców, ale także cyberprzestępców. Dlatego w miarę ewolucji tej technologii, będzie ona prawdopodobnie kształtować sposób, w jaki praktycy bezpieczeństwa i personel SOC będą podchodzić do swoich ról i obowiązków.
Patrząc na wdrożenia algorytmów AI, w krótkim terminie powinniśmy szczegółowo obserwować kampanie dezinformacyjne i analizować ataki typu deepfake ito co się dzieje tu i teraz. W dalszej kolejności warto zwrócić uwagę na coraz bardziej wyrafinowane ataki phishingowe i próby rozpoznania elementów cyber-obrony oraz zaobserwować pojawienie się pilotów bezpieczeństwa opartych na sztucznej inteligencji, wykorzystywanych do ulepszania złośliwych działań. Ponieważ dziedzina cyberbezpieczeństwa nadal ewoluuje, jasne jest, że sztuczna inteligencja będzie siłą napędową zarówno w strategiach defensywnych, jak i ofensywnych. Organizacje i specjaliści ds. bezpieczeństwa muszą być na bieżąco informowani, dostosowywać swoje mechanizmy obronne i być przygotowani na skuteczne przeciwdziałanie zagrożeniom opartym na sztucznej inteligencji.
Źródło: Palo Alto Networks