Cyberprzestępcy coraz częściej wykorzystują sztuczną inteligencję

fot. Sztuczna inteligencja / DALL-E

Wraz z rozwojem sztucznej inteligencji (AI), na LinkedIn i w mediach internetowych rozgorzała dyskusja na temat korzyści, jakie może ona przynieść zarówno podmiotom odpowiedzialnym za cyberataki, jak i zespołom odpowiedzialnym za zapewnienie bezpieczeństwa. Choć AI może być potężnym narzędziem dla cyberprzestępców, pozwalając im na automatyzację ataków i skuteczniejsze unikanie wykrycia, może być również potężnym narzędziem dla specjalistów ds. bezpieczeństwa, umożliwiając im szybsze i skuteczniejsze wykrywanie i reagowanie na zagrożenia. Kto wygra ten pojedynek? W jaki sposób sztuczna inteligencja jest wykorzystywana przez cyberprzestępców, a jak przez specjalistów od zabezpieczeń i bezpieczeństwa – analizuje Steve Foster z Netskope, Senior Solutions Engineer.

Polaryzacja prognoz skłania do zastanowienia się, czy wpływ AI na cyberbezpieczeństwo może się ostatecznie zrównoważyć. Czy każdy postęp dokonany przez cyberprzestępców spotka się z analogicznym postępem ze strony specjalistów od bezpieczeństwa? Czy jedni i drudzy będą wykorzystywali podobne narzędzia? Oczywiście równowaga może zostać zachowana jedynie tak długo, jak długo obie strony będą nadążały za konkurencją. W miarę jak cyberprzestępcy będą stawali się coraz bardziej sprawni w wykorzystywaniu AI, specjaliści ds. bezpieczeństwa będą również musieli wykorzystywać bardziej zaawansowane narzędzia i techniki do obrony przed atakami.

Jak cyberprzestępcy korzystają z AI?

  • Wykorzystują AI do identyfikacji celów. Skanują internet w poszukiwaniu systemów podatnych na atak.
  • Tworzą AI-boty w celu naśladowania ludzkich zachowań, aby skuteczniej unikać wykrycia przez systemy bezpieczeństwa.
  • Generują ukierunkowane e-maili phishingowe za pomocą AI, być może przygotowane na podstawie wielu zestawów danych zdobytych w Dark Web, tak aby zawierały wiarygodne szczegóły, które pomogą zwabić cel i zbudować zaufanie (ponieważ społeczeństwo staje się coraz bardziej przyzwyczajone do interakcji z AI-botami do obsługi klienta, podszywanie się pod te chatboty może stać się skutecznym narzędziem inżynierii społecznej dla złośliwych cyberprzestępców).
  • Tworzą coraz bardziej wyrafinowane złośliwe oprogramowania, np. wykorzystując sztuczną inteligencję do znajdowania możliwych do wykorzystania wzorców w systemach bezpieczeństwa tworzą złośliwe oprogramowanie specjalnie zaprojektowane w celu uniknięcia wykrycia.

Jak specjaliści ds. bezpieczeństwa korzystają z AI?

  • Analizują ogromne ilości danych z wielu źródeł w celu identyfikacji i śledzenia potencjalnych zagrożeń. Systemy Threat Intelligence mogą również uczyć się na podstawie incydentów z przeszłości, co pozwala im na dostosowanie się i doskonalenie w czasie.
  • Oferują pracownikom szkolenia przed wystąpieniem incydentu poprzez identyfikację ryzykownych wzorców zachowań, co pozwala pracownikom do podejmowania lepszych decyzji w zakresie ochrony danych i bezpieczeństwa systemu.
  • Sortują incydenty bezpieczeństwa i nadają im priorytety na podstawie poziomu ryzyka.
  • Wykorzystują rekomendacje AI w celu skupienia wysiłków na najbardziej krytycznych problemach.
  • Wykrywają wzorce, które wskazują na potencjalny incydent bezpieczeństwa, a następnie automatyczne uruchamiają reakcje i alarmy dla zespołów bezpieczeństwa (ostatnio udowodnione w swojej skuteczności przez NATO).
  • Korzystają z automatyzacji badania incydentów, co pomaga w identyfikacji pierwotnej przyczyny incydentu i ułatwia powiadomienie zainteresowanych stron.

Kto więc okaże się zwycięzcą w walce o bezpieczeństwo naszych danych i infrastruktury? Sztuczna inteligencja ma potencjał, żeby zrewolucjonizować cyberbezpieczeństwo, jednak nie usunie wymogu spójnej architektury i strategii. Nie da się jeszcze zlecić całej pracy maszynom i pójść zrobić sobie filiżankę kawy. W nadchodzących miesiącach i latach ważne będzie zrozumienie, że sztuczna inteligencja nie jest cudownym lekarstwem ani samodzielnym rozwiązaniem, ale raczej narzędziem uzupełniającym, które należy stosować w połączeniu z innymi środkami bezpieczeństwa. Podobnie jak ludzki zespół ds. bezpieczeństwa, AI wymaga ciągłego monitorowania, oceny i dostrajania, w celu zapewnienia jej funkcjonowania zgodnego z oczekiwaniami.

Materiał we współpracy z Netskope.