Fałszywy głos, prawdziwe straty. Nowa era cyberataków

Fałszywy głos, prawdziwe straty. Nowa era cyberataków

30 kwietnia 2026 0 przez Redakcja ilovepoland.pl

Jeszcze kilka lat temu przeprowadzenie skutecznego cyberataku wymagało zaawansowanej wiedzy technologicznej, czasu i zasobów. Dziś, by przygotować skuteczny atak coraz częściej wystarczy dostęp do ogólnodostępnych narzędzi opartych na sztucznej inteligencji. Eksperci zwracają uwagę, że AI radykalnie obniżyła barierę wejścia do cyberprzestępczości, zmieniając ją z działalności dla wąskiej grupy specjalistów w zjawisko masowe.

Jak najbardziej jesteśmy świadkami takiego wykorzystania AI.  Nie trzeba być specjalistą, by używając takich narzędzi skutecznie zmanipulować inną osobę – mówi Rafał Krakowski, ekspert firmy CTS Customized Training Solutions Sp. z o.o. ds. bezpieczeństwa informacji, ADN Akademia.

Jednym z najprostszych przykładów jest generowanie wiarygodnych wiadomości phishingowych. Wystarczy, że atakujący pozyska podstawowe informacje o ofierze z publicznie dostępnych źródeł, takich jak LinkedIn czy Facebook, a następnie wykorzysta modele językowe, takie jak ChatGPT lub Gemini, do wygenerowania profesjonalnej, hiper-personalizowanej wiadomości np. podszywającej się pod prezesa firmy i zawierającej pilną prośbę o przelew – dodaje Krakowski.

Jak pokazuje raport „Cost of a Data Breach Report 2025” przygotowany przez IBM, stworzenie przekonującej wiadomości phishingowej jeszcze niedawno zajmowało nawet kilkanaście godzin, dziś może zostać skrócone do zaledwie kilku minut właśnie dzięki wykorzystaniu generatywnej AI. Nie tylko szybciej, ale też skuteczniej. Sztuczna inteligencja pozwala bowiem błyskawicznie analizować dane o potencjalnych ofiarach i tworzyć komunikaty dopasowane do ich stylu komunikacji, stanowiska czy aktualnej sytuacji zawodowej. Do takiego ataku nie potrzeba żadnego dodatkowego oprogramowania. Według szacunków już w 2025 roku od 82 do 90% kampanii phishingowych zawierało elementy generowane przez AI.

To, że coś widzisz i słyszysz, nie oznacza, że to prawda

Równolegle rośnie skala ataków typu vishing, czyli wyłudzeń telefonicznych z wykorzystaniem klonowania głosu. Wystarczy kilkanaście sekund nagrania, pozyskanego np. z TikToka lub wiadomości głosowej, aby przy użyciu łatwo dostępnych narzędzi odtworzyć głos.

Następnie przestępca, często korzystając z technologii VoIP (telefonia internetowa), kontaktuje się z bliskimi osoby poszkodowanej, odgrywając scenariusz nagłej sytuacji wymagającej natychmiastowego wsparcia finansowego.

 

Tego typu ataki są wyjątkowo przekonujące i skuteczne i to również wobec osób świadomych zagrożeń a ich przeprowadzenie nie wymaga zaawansowanych umiejętności technicznych – komentuje Rafał Krakowski. Bardziej zaawansowanym technicznie atakiem jest stworzenie deepfake video. Jednak w mojej ocenie nadal pozostaje to w zasięgu laika. Wystarczą narzędzia typu open-source i kilka sekund wideo z YouTube/TikToka; tworzona jest fałszywa wideorozmowa lub filmik jak np.: z Elonem Muskiem promującym scam inwestycyjny.

 

Badania pokazują, że ludzie mają ogromny problem z rozpoznaniem takich manipulacji. Szacunki rynkowe wskazują, że nawet ok. 35% ataków wykorzystujących AI może obejmować podszywanie się przy użyciu technologii typu deepfake. Skuteczność wykrycia takich wysokiej jakości manipulacji spada przy tym nawet poniżej 25%.

Jednocześnie rośnie skuteczność socjotechniki. Ataki coraz częściej wykorzystują emocje, presję czasu i zaufanie, a nie tylko luki technologiczne. Generatywna AI umożliwia prowadzenie spersonalizowanych, wielokanałowych kampanii oszustw na niespotykaną dotąd skalę. W praktyce oznacza to, że cyberatak przestaje być skomplikowaną operacją, a staje się usługą, którą można „złożyć” z gotowych elementów.

Przytoczone powyżej przykłady niezbicie pokazują jak niebezpiecznym narzędziem potrafi być AI w rękach pomysłowego przestępcy, choćby początkującego – zwraca uwagę Rafał Krakowski, ekspert ADN Akademia. Jednak AI nie rewolucjonizuje zagrożeń w sensie całkowicie nowych wektorów, ale ewolucyjnie je wzmacnia: czyni je szybszymi, bardziej spersonalizowanymi, trudniejszymi do wykrycia i jednocześnie bardziej skutecznymi przeciwko człowiekowi.

W 2026 roku eksperci bezpieczeństwa mówią o tzw.:„cyber arms race” napędzanym AI – zarówno atakujący, jak i obrońcy używają tej technologii, ale to atakujący często wysuwają się na prowadzenie dzięki niższym kosztom i większej swobodzie. Obrona wymaga połączenia zaawansowanych narzędzi AI z silnym czynnikiem ludzkim: świadomością, procedurami i zdrowym sceptycyzmem.

 

Światełko w tunelu: AI jako narzędzie obrony, ale też wspólna odpowiedzialność

Choć obraz zagrożeń może wydawać się niepokojący, eksperci podkreślają, że ta sama technologia, która jest wykorzystywana przez cyberprzestępców, może być również skutecznym narzędziem obrony. Sztuczna inteligencja już dziś pomaga wykrywać anomalie w systemach, analizować ogromne ilości danych w czasie rzeczywistym i identyfikować zagrożenia szybciej niż tradycyjne metody.

Patrząc na to z pewnego dystansu, można zaryzykować tezę, że tempo zmian jest zbyt duże dla większości pojedynczych organizacji. Nawet te, które nadążają, robią to kosztem ogromnych nakładów i z rosnącym ryzykiem – podsumowuje  Rafał Krakowski.

Wnioskiem może być też stwierdzenie iż jest to moment, w którym cyberbezpieczeństwo staje się odpowiedzialnością społeczną. Nie oznacza to jednak, że organizacje mają „odpuścić” – wręcz przeciwnie, moim zdaniem powinny inwestować w AI governance, zero-trust i ludzkie kompetencje. Ale same nie wygrają. Potrzebna jest szersza współpraca: rządy, regulatorzy, dostawcy technologii i sektor prywatny. To nie jest pesymizm – to konstatacja z raportów incydentów cyberbezpieczeństwa z 2025 roku oraz bieżące doniesienia. Organizacje, które to zrozumieją najszybciej i będą budować nie tylko własną odporność, ale też współpracę ekosystemową, będą w lepszej pozycji – dodaje Krakowski.

Dlatego kluczową rolę odgrywa dziś edukacja – zarówno w organizacjach, jak i na poziomie systemowym. Budowanie kompetencji cyfrowych, uczenie krytycznego myślenia i rozpoznawania manipulacji powinno stać się nawykiem, obecnym od szkoły po miejsca pracy. Bez tego nawet najbardziej zaawansowane technologie ochrony mogą okazać się niewystarczające.