23/02/2024

Cyberprzestępcy + AI = ingerencja w wybory prezydenckie?

Aż 90% dyrektorów finansowych planuje w 2024 roku zwiększyć nakłady na technologie AI. Jednocześnie, eksperci od cyber-obrony zastanawiają się jaki wpływ na bezpieczeństwo będą miały algorytmy w perspektywie kilku lat. W jakim kierunku zmierzają wdrożenia sztucznej inteligencji, których coraz częściej dokonują cyberprzestępcy?

Omawiając rolę sztucznej inteligencji w cyberbezpieczeństwie, warto w pierwszej kolejności wziąć pod uwagę krótkoterminowe skutki. Pod pewnymi względami, jest to nieco nieznany obszar, wymagający wnikliwej perspektywy wykraczającej poza codzienny szum informacyjny. Według Kyle’a Wilhoita z Palo Alto Networks (firma zajmująca się rozwiązaniami dla cyberbezpieczeństwa), w tym roku narzędzia AI odegrają kluczową rolę w akcjach dezinformacyjnych w mediach społecznościowych.

Cyberprzestępcy + AI = ingerencja w wybory prezydenckie?

Cyberprzestępcy i AI w działaniach dezinformacyjnych

Takie kampanie mogą mieć miejsce przed, w trakcie i po ważnych wydarzeniach, takich jak konflikty zbrojne, imprezy masowe czy wybory. Będą nakierowane na podważenie zaufania do faktów wymagających weryfikacji i szerzenie niepokojów społecznych tłumaczy Kyle Wilhoit.Chociaż trudno o niezbite dowody, informacje z otwartych źródeł jasno pokazują wzrost znaczenia AI w działaniach dezinformacyjnych – dodaje ekspert.

W związku ze zbliżającymi się wyborami prezydenckimi w Stanach Zjednoczonych eksperci spodziewają się zalewu dezinformacji tworzonej przez wiele różnych, czasem nawet przypadkowych osób. W codziennym szumie informacyjnym bardzo trudno odróżnić fałszywe lub spreparowane materiały audiowizualne od tych rzetelnych.

Chociaż nie jest to bezpośrednio związane z tradycyjnym bezpieczeństwem IT, to materiały typu deepfake zaczynają być łączone z atakami socjotechnicznymi. Skrzyżowanie inteligentnej technologii i technik manipulacyjnych zaczyna budzić niepokój specjalistów od cyberbezpieczeństwa. Zwłaszcza, że algorytmy stają się coraz bardziej dopracowane i umożliwiają ominięcie tradycyjnych mechanizmów obronnych, stosowanych powszechnie przez zespoły SOC (Security Operations Center)dodaje Kyle Wilhoit. 

Cyberprzestępcy odkrywają nowe możliwości AI

W perspektywie średnioterminowej możemy się spodziewać, że cyberprzestępcy udoskonalą swoje narzędzia za pomocą sztucznej inteligencji. Na przykład, atakujący mogą poinstruować modele AI, aby zidentyfikowały zasoby internetowe organizacji z uruchomionymi odpowiednimi usługami, a to żeby z kolei pomóc w znalezieniu luk w zabezpieczeniach

Spodziewam się dalszego wzrostu złożonych zagrożeń. Cyberprzestępcy będą doskonalić swoje umiejętności z pomocą generatywnej sztucznej inteligencji. Chociaż algorytmy AI, takie jak modele językowe, asystują w obecnych operacjach hackerskich, to nie zostały jeszcze w pełni wykorzystane do tworzenia złośliwego oprogramowania lub prowadzenia kampanii na większą skalę – tłumaczy ekspert.

Wśród działań przestępczych wspieranych przez AI, możemy zaobserwować doskonalenie tekstów wiadomości phishingowych. Takie maile stają się bardziej przekonujące dzięki zastosowaniu poprawnych odniesień geograficznych, slangu i gramatycznie poprawnego tekstu. Przez to odbiorca może odnosić wrażenie, że to rzeczywisty mail. Eksperci spodziewają się także stosowania sztucznej inteligencji do prowadzenia działań rozpoznawczych, takich jak badanie odporności systemu. Dotyczy to analizy zakresu blokad sieci, dostępności otwartych usług / portów, a nawet skanowania luk w zabezpieczeniach. 

Pilotowanie bezpieczeństwa z wykorzystaniem AI

Patrząc dalej w przyszłość, kwestią czasu jest wdrożenie copilotów bezpieczeństwa opartych na sztucznej inteligencji. Takie narzędzia mogą pomagać zarówno obrońcom jak i atakującym w różnych fazach ataku, takich jak ruch boczny i eskalacja uprawnień w zagrożonych środowiskach. Chociaż ta koncepcja nie jest jeszcze w pełni wdrożona, na branżowych forach padają pytania, w jaki sposób cyberprzestępcy mogą wykorzystać takie narzędzia korzystające z algorytmów AI. 

W ciągu ostatnich sześciu miesięcy branża cyberbezpieczeństwa szeroko komunikowała wdrażanie pilotów systemów AI bezpieczeństwa, które mają nam pomagać w codziennych operacjach. Niestety, coraz więcej doniesień wskazuje, że nie tylko uznane firmy takie jak Palo Alto Networks, pracują nad takimi rozwiązaniami. Do dostawców narzędzi biznesowych oferujących copiloty takich systemów dołączają  cyberprzestępcy, które na własny użytek rozwijają wirtualnych asystentów. Mogą one posłużyć mniej wprawnym hackerom do prowadzenia szkodliwych działań, zwiększając w ten sposób skalę atakówwyjaśnia Wojciech Gołębiewski z Palo Alto Networks.

Cyberprzestępcy kontra specjaliści

Patrząc na wdrożenia algorytmów AI, w krótkim terminie powinniśmy szczegółowo obserwować kampanie dezinformacyjne i analizować ataki typu deepfake i to co się dzieje tu i teraz. W dalszej kolejności warto zwrócić uwagę na coraz bardziej wyrafinowane ataki phishingowe i próby rozpoznania elementów cyber-obrony. Warto zaobserwować pojawienie się pilotów bezpieczeństwa opartych na sztucznej inteligencji, wykorzystywanych do ulepszania złośliwych działań.

Ponieważ dziedzina cyberbezpieczeństwa nadal ewoluuje, jasne jest, że sztuczna inteligencja będzie siłą napędową zarówno w strategiach defensywnych, jak i ofensywnych. Organizacje i specjaliści ds. bezpieczeństwa muszą być na bieżąco informowani, dostosowywać swoje mechanizmy obronne i być przygotowani na skuteczne przeciwdziałanie zagrożeniom opartym na sztucznej inteligencji.

Autor/Redaktor publikacji

Marcin Majerek
Marcin Majerek