AI po stronie użytkownika: jak wykorzystać sztuczną inteligencję do wykrywania oszustw i złośliwych wiadomości

0
26
3/5 - (1 vote)

Nawigacja:

Scenka startowa: niewinna wiadomość, która prawie skończyła się katastrofą

Krótki epizod z życia użytkownika

Telefon zawibrował w środku dnia pracy. Na ekranie powiadomienie: „Twoje konto zostanie zablokowane w ciągu 30 minut. Natychmiast potwierdź dane – Bank X”. Link wyglądał poprawnie, logo znane, ton wiadomości idealnie dopasowany do poprzednich komunikatów z banku. Kciuk już prawie stuknął w niebieski przycisk, gdy na ekranie pojawił się dodatkowy alert z przeglądarki: „Ostrzeżenie: ta strona może próbować wyłudzić Twoje dane. Została oznaczona przez systemy bezpieczeństwa jako potencjalnie niebezpieczna”.

To nie był przypadek ani magia, tylko działanie systemów opartych na sztucznej inteligencji, które przeanalizowały domenę, treść strony i zachowanie podobnych linków. Oszust wykorzystał AI, żeby przygotować wiarygodną wiadomość, ale użytkownik miał AI po swojej stronie – i to uratowało mu konto.

Coraz częściej walka o nasze dane i pieniądze przebiega właśnie w ten sposób: algorytm przeciwko algorytmowi. Z jednej strony modele językowe i generatory obrazu po stronie oszustów, z drugiej – filtry antyphishingowe, systemy reputacji domen, inteligentne alerty w telefonie i przeglądarce. Różnica polega na tym, czy użytkownik umie te narzędzia świadomie włączyć i wspierać, czy działa „na czuja”, polegając wyłącznie na intuicji.

Intencja jest prosta: wykorzystać sztuczną inteligencję nie jako gadżet, lecz jako praktyczne wsparcie w poczcie, komunikatorach, bankowości i mediach społecznościowych. Tak, żeby codzienny kontakt z internetem nie oznaczał nieustannej loterii: „kliknę i zobaczymy, co się stanie”.

Jak oszuści wykorzystują AI i dlaczego same ostrzeżenia nie wystarczą

Nowa skala i jakość ataków na użytkownika

Oszustwa internetowe nie są nowe, ale zmieniła się ich skala i jakość. Klasyczny phishing – maile podszywające się pod bank, kuriera, urząd skarbowy – przez lata był dość łatwy do rozpoznania: błędy językowe, dziwne formatowanie, toporne logotypy. Dziś coraz częściej mamy do czynienia z wiadomościami przygotowanymi przez modele językowe, w perfekcyjnej polszczyźnie, z poprawnym stylem, a nawet charakterystycznymi zwrotami używanymi przez prawdziwe firmy.

Do tego dochodzą inne formy ataku:

  • Smishing – fałszywe SMS-y o niedopłacie za paczkę, blokadzie konta, zaległej fakturze.
  • Vishing – rozmowy telefoniczne, często wspierane syntezą mowy, gdzie ktoś podszywa się pod pracownika banku czy policjanta.
  • Ataki „na kuriera”, „na pracodawcę”, „na dziecko” – wiadomości w komunikatorach z prośbą o natychmiastowy przelew lub podanie danych.
  • Fałszywe oferty pracy lub inwestycji – korespondencja mailowa i na LinkedIn, wyglądająca jak profesjonalny kontakt biznesowy.

Wspólny mianownik: presja czasu („natychmiast”, „ostatnie ostrzeżenie”), odwołanie do emocji (strach, poczucie winy, chęć zysku) i prośba o dane, dostęp lub przelew. AI pozwala generować setki tysięcy takich wiadomości dziennie, każdą nieco inną, spersonalizowaną, dopasowaną do języka odbiorcy.

Jak sztuczna inteligencja pomaga przestępcom

Przestępcy przestali pisać maile ręcznie. Zamiast tego używają modeli językowych i innych narzędzi AI, które:

  • Generują treść w poprawnym języku – bez literówek, z poprawną gramatyką, często trudną do odróżnienia od prawdziwej korespondencji.
  • Personalizują wiadomość – na podstawie danych z mediów społecznościowych, wycieków baz danych czy historii wcześniejszej korespondencji.
  • Symulują styl komunikacji konkretnej firmy – używają podobnych zwrotów, struktury maili, szablonów graficznych.
  • Masowo testują, co działa – dzięki automatyzacji mogą w kilka godzin sprawdzić setki wariantów treści, tytułów, wezwań do działania i wybrać te najbardziej skuteczne.

Do tego dochodzi wykorzystanie AI w bardziej zaawansowanych scenariuszach: np. analizowanie odpowiedzi użytkowników i automatyczne dopasowywanie kolejnych wiadomości, tak by prowadzić ofiarę krok po kroku aż do celu: instalacji złośliwej aplikacji, podania danych logowania czy wykonania przelewu.

Deepfake głosowy i wideo w „pilnych” prośbach o przelew

Coraz groźniejszym trendem jest użycie deepfake’ów – syntetycznie generowanego głosu i obrazu. W praktyce może to wyglądać tak: ktoś dostaje na komunikatorze nagranie głosowe od „szefa” z prośbą o szybki przelew, bo „konto firmy jest tymczasowo zablokowane”. Głos brzmi jak szef, intonacja podobna, ton rozmowy typowy. W tle pojawia się wiadomość tekstowa w stylu: „Odezwę się później, teraz jestem w spotkaniu, zrób to proszę od razu”.

Do stworzenia takiego ataku wystarczy kilka próbek głosu z internetu (np. wywiad, nagranie ze spotkania, podcast) oraz narzędzia do klonowania głosu. AI „uczy się” barwy głosu i potrafi generować nowe wypowiedzi w tym samym stylu. Podobnie z obrazem – można wygenerować krótkie wideo, gdzie usta są zsynchronizowane z tekstem, a twarz wygląda jak dana osoba.

W takich sytuacjach klasyczne rady typu „rozpoznasz po głosie” przestają działać. Głos bywa niemal nie do odróżnienia. Tym bardziej potrzebne są systemy po stronie użytkownika (i firm), które potrafią analizować nietypowe wzorce zachowań, adresy nadawców, okoliczności i dane techniczne, a nie tylko treść samej wiadomości czy nagrania.

Kiedy „wiem, jak wygląda spam” przestaje działać

Przez lata wielu użytkowników wyrobiło sobie pewien obraz spamu i phishingu. Niechlujna grafika, błędy w nazwie banku, adres nadawcy z dziwną domeną. Problem w tym, że te elementy można dziś łatwo poprawić, a oszuści robią to masowo przy pomocy AI. Do tego część ataków jest szyta na miarę – personalizowane wiadomości wyglądają jak naturalna kontynuacja realnej wymiany.

Dlatego samo „doświadczenie” i przekonanie „ja się nie nabiorę, widziałem już takie rzeczy” staje się złudne. Człowiek ma ograniczoną pamięć, ograniczone możliwości analizy technicznych szczegółów i podatność na zmęczenie. AI po stronie użytkownika nie jest nieomylna, ale potrafi wychwycić wzorce, których nie zauważymy: nietypowe serwery pocztowe, reputację domeny, nagły wysyp podobnych wiadomości w krótkim czasie, anomalie w strukturze linków.

Najważniejszy wniosek: skoro oszuści wykorzystują sztuczną inteligencję, zwykły użytkownik musi zrobić to samo. Nie chodzi o to, żeby ufać AI ślepo, lecz żeby mieć przy sobie dodatkową warstwę obrony, która pracuje 24/7, analizuje tysiące sygnałów i ostrzega, zanim klikniemy w coś, czego później będziemy żałować.

Rodzina w niebieskim świetle symbolizująca cyfrowe bezpieczeństwo
Źródło: Pexels | Autor: Ron Lach

Co potrafi AI po stronie użytkownika – przegląd możliwości w prostym języku

Od filtrów antyspamowych do inteligentnych asystentów bezpieczeństwa

Pierwszym kontaktem większości osób ze „sztuczną inteligencją” w bezpieczeństwie były filtry antyspamowe w poczcie. Na początku działały prosto: jeśli wiadomość zawiera określone słowa, trafia do spamu. Z czasem zaczęły korzystać z uczenia maszynowego. Zamiast ręcznie wpisywać zasady typu „jeśli w tytule jest słowo viagra, to spam”, model uczył się na setkach tysięcy przykładów maili oznaczonych jako spam lub nie-spam.

Dzisiejsze filtry nie zatrzymują się na samych słowach. Biorą pod uwagę:

  • adresy i domeny nadawców,
  • strukturę wiadomości (nagłówki, formatowanie),
  • rodzaj linków (czy prowadzą do świeżo zarejestrowanych domen, czy do zaufanych serwisów),
  • zachowanie innych użytkowników – czy wiele osób oznaczyło podobną wiadomość jako spam lub phishing.

Na tej bazie budowane są coraz bardziej zaawansowane systemy – tzw. inteligentni asystenci bezpieczeństwa. Działają one w tle w poczcie, przeglądarce, telefonie, a nawet w aplikacjach bankowych. Gdy coś „wygląda inaczej niż zwykle”, użytkownik otrzymuje sygnał: ostrzeżenie, dodatkowe pytanie, konieczność potwierdzenia operacji innym kanałem.

Jak działa filtr antyspamowy i antyphishingowy w praktyce

Od strony użytkownika filtr antyspamowy z AI to po prostu folder „Spam” i sporadyczne ostrzeżenia. W środku jednak dzieje się dużo więcej. Intuicyjnie można to opisać tak:

  1. System zbiera dane – miliony maili dziennie, oznaczenia użytkowników („to spam”, „to phishing”), dane techniczne o serwerach pocztowych, treść wiadomości.
  2. Model uczy się wzorców – zauważa, że maile z określonych adresów, o określonej strukturze, z linkami do pewnych domen, często kończą jako spam.
  3. Każda nowa wiadomość dostaje „ocenę ryzyka” – liczbowo, na wewnętrznej skali. Im wyższa ocena, tym większe prawdopodobieństwo, że to spam lub phishing.
  4. Na podstawie progu decyzji wiadomość trafia do skrzynki lub do spamu – progi te mogą się zmieniać dynamicznie, w zależności od tego, co się dzieje w sieci (np. fala nowych kampanii oszustów).

Systemy antyphishingowe idą o krok dalej. Analizują:

  • czy domena w linku jest podobna do znanej (np. „bankx-pl.com” vs „bankx.pl”),
  • czy strona docelowa nie była ostatnio zgłaszana jako złośliwa,
  • czy formularz na stronie nie próbuje zbierać danych logowania do innych usług,
  • czy wygląd strony nie naśladuje znanych serwisów (logo, kolory, układ).

Dzięki temu użytkownik dostaje ostrzeżenie, zanim w ogóle wpisze dane. Wiele współczesnych przeglądarek i aplikacji pocztowych potrafi odciąć dostęp do takiej strony lub przynajmniej wyświetlić czerwony ekran z dużym komunikatem o zagrożeniu.

Analiza behawioralna: nietypowe logowania i podejrzane kliknięcia

Tekst wiadomości to tylko część układanki. AI coraz częściej analizuje też zachowanie użytkownika i zachowanie systemu. Przykłady:

  • Nietypowe logowanie – logujesz się do konta z kraju, w którym nigdy nie byłeś, albo z urządzenia, którego wcześniej nie używałeś. System wykrywa anomalię i wymaga dodatkowego potwierdzenia (kod SMS, powiadomienie push).
  • Nagła zmiana zachowań – konto, które zwykle wysyła kilka maili dziennie, nagle zaczyna wysyłać setki wiadomości z linkami. AI może to uznać za oznakę przejęcia konta i zablokować wysyłkę.
  • Podejrzane kliknięcia – użytkownik próbuje wejść na stronę, którą system reputacji linków oznacza jako ryzykowną. Przeglądarka wyświetla ostrzeżenie lub blokuje połączenie.

Takie systemy działają głównie po stronie dostawców usług (banków, operatorów, dużych platform), ale użytkownik ma wpływ na to, czy są aktywne i jak reagują. Włączenie uwierzytelniania dwuskładnikowego, zgoda na powiadomienia o nowych logowaniach, instalacja dedykowanej aplikacji bezpieczeństwa – to konkretne kroki, które pozwalają AI skuteczniej „patrzeć na ręce” potencjalnym atakującym.

Modele NLP do rozpoznawania manipulacji i presji

Nowoczesne systemy bezpieczeństwa korzystają z NLP (przetwarzania języka naturalnego), żeby analizować treść wiadomości nie tylko na poziomie słów, ale też intencji. Algorytmy potrafią wykrywać wzorce takie jak:

  • Presja czasu – wyrażenia typu „natychmiast”, „ostatnia szansa”, „konto zostanie zablokowane za 30 minut”.
  • Prośby o poufne dane – pytania o hasła, kody SMS, dane karty płatniczej, numer PESEL.
  • Nietypowa poufałość lub agresja – nienaturalny ton w wiadomości od „urzędnika” lub „pracownika banku”.
  • Obietnica szybkiego zysku – „gwarantowany” wysoki zysk bez ryzyka, szczególnie w krótkim czasie.

Na tej podstawie system może oznaczyć wiadomość jako potencjalnie niebezpieczną, nawet jeśli pochodzi z legalnego serwera pocztowego lub nowej domeny, której jeszcze nie ma w czarnych listach. To szczególnie ważne w pierwszych godzinach nowej kampanii oszustów, zanim tradycyjne filtry reputacyjne „nadrobią” wiedzę.

Systemy reputacji domen i linków – zaufanie budowane na danych

Gdy klikasz w link, w tle często uruchamia się cały łańcuch mechanizmów oceny ryzyka. Wykorzystywane są m.in.:

  • Bazy znanych złośliwych adresów – listy domen i URL-i, które były zgłaszane jako źródło phishingu, malware’u czy spamu.
  • Analiza czasu życia domeny – świeżo zarejestrowane domeny, użyte natychmiast w kampanii mailingowej, są bardziej podejrzane.
  • Historia certyfikatów SSL – czy strona ma poprawny certyfikat, kto go wystawił, jak długo jest ważny.
  • Powiązania z innymi znanymi domenami – czy adres znajduje się na tym samym serwerze co inne złośliwe strony.

Rozpoznawanie „dziwnych schematów” w treści i załącznikach

Wyobraź sobie, że dostajesz fakturę od „stałego kontrahenta”. Logo się zgadza, ton wiadomości też, kwota jest sensowna. Dopiero po chwili asystent bezpieczeństwa podświetla pole nadawcy na czerwono i dosłownie „mówi”: ten adres istniał od wczoraj, a podobne maile właśnie masowo krążą po sieci.

AI nie widzi tylko tekstu. Patrzy na całość pakietu: nagłówki techniczne, historię podobnych wiadomości, sposób przygotowania dokumentu PDF czy arkusza, a nawet to, jakie makra i skrypty są w środku. Gdy elementy nie składają się w sensowną całość, rośnie ocena ryzyka.

Typowe sygnały, które potrafią wykrywać współczesne mechanizmy po stronie użytkownika:

  • Niepasujące szczegóły – treść mówi o „pilnym rozliczeniu roku”, a data pliku wskazuje na stworzenie kilka minut przed wysyłką.
  • Zaawansowane podszywanie się pod szablony – ktoś skopiował układ i grafikę Twojego banku, ale czcionki, rozmiary przycisków lub styl linków minimalnie się różnią.
  • Ukryte odnośniki w załącznikach – plik PDF z fakturą zawiera niewidoczną warstwę z linkiem prowadzącym do obcej domeny.
  • Dziwne makra i skrypty – dokument Word niby jest „specyfikacją”, ale po otwarciu próbuje łączyć się z serwerem, z którym Twój komputer nigdy wcześniej się nie komunikował.

W praktyce użytkownik widzi to jako komunikat typu: „Załącznik zawiera nietypowe makra – otwarcie może być ryzykowne” albo „Ten typ pliku od tego nadawcy pojawia się pierwszy raz, czy na pewno chcesz go pobrać?”. Nie chodzi o to, by wszystko blokować, ale by w miejscach, w których zwykle klikamy automatycznie, pojawił się moment refleksji.

Personalizacja ochrony: AI, która zna Twoje nawyki

Człowiek przyzwyczaja się do pewnego rytmu: podobne godziny pracy, podobni nadawcy, podobne tematy. AI zainstalowana lokalnie na urządzeniu lub działająca w ramach konta pocztowego może ten rytm poznać i wykorzystać do wykrywania odstępstw.

Dobrze skonfigurowany asystent bezpieczeństwa po kilku tygodniach używania zaczyna wiedzieć, że:

  • zwykle nie otrzymujesz plików .zip od nieznanych nadawców,
  • prawdziwe wiadomości z banku przychodzą w jednym, stałym formacie,
  • w pracy rzadko korzystasz z linków skracanych (typu bit.ly),
  • nie logujesz się z innych kont użytkownika na tym samym komputerze.

Jeśli nagle pojawia się mail z nieznanego adresu, z zaszyfrowanym archiwum i prośbą o natychmiastowe działanie, system może zareagować mocniej: wymusi skan pliku, poprosi o dodatkowe potwierdzenie tożsamości lub od razu przeniesie wiadomość do osobnego folderu „podejrzane”.

Mini‑wniosek: im bardziej pozwolisz narzędziom AI „oswoić się” z Twoim stylem pracy, tym skuteczniej wyłapią to, co do tego stylu nie pasuje. To nie jest magia, lecz statystyka i obserwacja powtarzalnych schematów.

Jak skonfigurować pocztę e‑mail, by AI odwalała czarną robotę za Ciebie

Włączenie zaawansowanych filtrów i ostrzeżeń w popularnych usługach

Scenariusz znamienny: ktoś twierdzi, że „nie ma żadnego filtra antyphishingowego”, po czym okazuje się, że od lat korzysta z domyślnej konfiguracji skrzynki i nigdy nie zajrzał do ustawień bezpieczeństwa. Tymczasem większość dużych usługodawców poczty ma dziesiątki przełączników, które można ustawić pod siebie.

Warto przejść po kolei przez podstawowe kroki w typowej skrzynce (Gmail, Outlook.com, iCloud Mail i podobne):

  1. Sprawdź, czy „inteligentny filtr” jest włączony – w ustawieniach często kryje się opcja określająca poziom agresywności filtrów spamu i phishingu. Ustaw go raczej na poziom średni lub wysoki, zwłaszcza na kontach prywatnych.
  2. Włącz wyświetlanie pełnych adresów nadawców – niech klient poczty zawsze pokazuje pełny e‑mail, a nie tylko „imię i nazwisko”. Ułatwia to zarówno AI, jak i Tobie wychwycenie podróbki.
  3. Zgadzaj się na komunikaty ostrzegawcze – część użytkowników wyłącza powiadomienia typu „ta wiadomość wygląda podejrzanie”, bo je irytują. To trochę jak zaklejanie kontrolki „check engine” taśmą.
  4. Włącz ochronę przed zewnętrznymi obrazkami – blokowanie automatycznego pobierania grafik utrudnia śledzenie otwarć przez spamerów. Jeśli treść jest bezpieczna, można obrazki dopuścić ręcznie.

Po tej krótkiej konfiguracji duża część „czarnej roboty” – ocenianie, czy coś wygląda jak próba wyłudzenia – przenosi się na mechanizmy AI serwera pocztowego, a Twoja skrzynka staje się „ciszej” niebezpieczna, bo mniej szkodliwych maili w ogóle trafia do głównej skrzynki.

Uczenie filtrów na własnych przykładach

AI w poczcie nie działa w próżni. Każde kliknięcie „To spam” lub „To nie jest spam” jest dla modelu sygnałem, który może poprawić jego skuteczność – często nie tylko u Ciebie, ale też u innych użytkowników tej samej usługi.

Prosty nawyk, który znacząco wzmacnia ochronę:

  • jeśli w skrzynce głównej pojawia się phishing lub nachalny spam – oznacz go ręcznie jako spam/phishing,
  • jeśli do folderu „Spam” trafia legalny newsletter lub wiadomość służbowa – wyciągnij ją i oznacz jako „Nie spam”.

Po kilku takich „lekcjach” filtr zaczyna lepiej rozumieć, co jest dla Ciebie normalne, a co nie. W tle modele uczą się nowych wzorców: jakimi słowami posługują się polscy oszuści, jakie schematy tematów wiadomości są typowe, jakie linki są używane częściej w oszustwach niż w prawdziwych wiadomościach.

To nie jest jednorazowa konfiguracja, raczej ciągła współpraca: Ty pokazujesz systemowi, które decyzje były błędne, a on na tej podstawie modyfikuje swój „obraz świata”.

Dodanie lokalnego strażnika: rozszerzenia bezpieczeństwa i aplikacje

Same filtry serwerowe rozwiązują wiele problemów, ale część ataków i tak się prześlizguje. Wtedy przydaje się „lokalny strażnik” – program lub rozszerzenie do przeglądarki, które analizuje maile i linki bezpośrednio na Twoim urządzeniu.

Typowe funkcje takich narzędzi to m.in.:

  • Analiza linków w locie – każde kliknięcie jest sprawdzane w bazach reputacji i przez modele oceny ryzyka; w razie podejrzeń pojawia się ostrzeżenie.
  • Skany załączników w chmurze – pliki są bezpiecznie wysyłane do piaskownicy (sandbox), gdzie AI obserwuje ich zachowanie, zanim trafią na Twój dysk.
  • Ochrona kont online – asystent monitoruje logowania do kluczowych serwisów (bank, poczta, media społecznościowe) i reaguje na anomalia.

Przy wyborze narzędzia warto sprawdzić dwie rzeczy: czy ma dobrą reputację (opinie, recenzje z wiarygodnych źródeł) oraz jak jasno tłumaczy swoje komunikaty. Jeśli ostrzeżenia są niezrozumiałe, użytkownik zaczyna je ignorować – a to najprostsza droga do „wyklikania” sobie problemu.

Automatyczne reguły wspierane przez AI

Zaawansowani użytkownicy poczty od lat korzystają z ręcznych reguł: „wiadomości z tego adresu przenoś do takiego folderu” czy „tematy z frazą faktura oznaczaj gwiazdką”. Połączenie tego podejścia z AI daje silniejsze, ale wciąż zrozumiałe narzędzie.

Przykładowo, w niektórych klientach poczty możesz ustawić:

  • „Jeśli wiadomość ma wysoki poziom ryzyka phishingu, nie pokazuj obrazków i nie pozwalaj na klikanie linków bez dodatkowego potwierdzenia”.
  • „Jeśli nadawca podszywa się pod znaną domenę (literówka w adresie), dodaj widoczne ostrzeżenie w nagłówku wiadomości”.
  • „Jeśli nadawcą jest ktoś spoza mojej książki adresowej i wiadomość zawiera prośbę o przelew lub dane karty, oznacz ją jako Wymaga weryfikacji”.

AI w tym układzie odpowiada za ocenę treści i ryzyka, a reguły za to, co ma się z tą oceną stać. Taki podział ról ułatwia życie: nie trzeba samemu wymyślać setek warunków, wystarczy kilka mądrych reakcji na sytuacje, które system uzna za potencjalnie groźne.

Mężczyzna z siatką laserową na twarzy symbolizującą rozpoznawanie biometryczne
Źródło: Pexels | Autor: cottonbro studio

Komunikatory i SMS‑y: AI jako tarcza przed fałszywymi wiadomościami i linkami

Głos z „banku” na WhatsAppie i SMS z kurierem

Telefon wibruje. Najpierw SMS o niedopłacie za przesyłkę, potem wiadomość na komunikatorze od „konsultanta banku”, który prosi, by szybko zweryfikować dane logowania. Wszystko brzmi uprzejmie, bez literówek, grafika w załączonym obrazku wygląda profesjonalnie.

Nowe oszustwa coraz silniej przenoszą się do kanałów, które traktujemy jako „bardziej prywatne” niż e‑mail. AI implementowana w komunikatorach, aplikacjach SMS i systemie operacyjnym telefonu staje się więc kluczową linią obrony.

Filtrowanie SMS‑ów i analiza krótkich wiadomości

W najnowszych wersjach systemów mobilnych standardem stały się algorytmy kategoryzujące i filtrujące SMS‑y. To już nie tylko proste „spam” vs „nie spam”, ale też rozpoznawanie typów wiadomości: kody jednorazowe, powiadomienia z banku, reklamy, nieznane numery.

Gdy do gry wchodzi AI, pojawiają się dodatkowe możliwości:

  • Rozpoznawanie schematów phishingowych – komunikaty o rzekomych niedopłatach, blokadach kont, wygranych w loteriach są wyłapywane na podstawie treści i struktury linków.
  • Odcinanie skracaczy linków – system może rozwinąć skrócony adres (np. z serwisów typu bit.ly) i z wyprzedzeniem ocenić reputację docelowej strony.
  • Grupowanie podejrzanych numerów – jeśli wielu użytkowników oznacza wiadomości z danego numeru jako oszustwo, AI szybciej zaczyna traktować nowe SMS‑y z tego źródła z większą ostrożnością.

Użytkownik może to wspierać, tak jak w przypadku maila: oznaczać wątpliwe wiadomości jako spam/oszustwo i zezwalać systemowi na funkcje typu „filtrowanie SMS‑ów od nieznanych nadawców do osobnego folderu”. Dzięki temu ryzykowne treści nie mieszają się z prawdziwymi powiadomieniami.

AI w komunikatorach: od wykrywania podejrzanych linków po ochronę rozmów wideo

Komunikatory internetowe – WhatsApp, Messenger, Signal, Telegram i dziesiątki innych – stały się głównym kanałem komunikacji prywatnej i służbowej. To również naturalne środowisko dla przestępców, którzy wykorzystują zaufanie do „znajomych kontaktów”.

AI może tu działać na kilku poziomach:

  • Analiza linków w wiadomościach – gdy ktoś wysyła odnośnik, komunikator może go w tle sprawdzić w bazie reputacji i oznaczyć jako potencjalnie niebezpieczny, zanim klikniesz.
  • Wykrywanie masowych kampanii – jeśli ten sam tekst (np. „kliknij, aby odebrać dopłatę do rachunku”) jest rozsyłany jednocześnie do setek osób, system może to uznać za spam i ograniczyć rozprzestrzenianie.
  • Ostrzeganie przed podszywaniem się – niektóre aplikacje są w stanie sygnalizować, że dany kontakt niedawno zmienił numer lub urządzenie, co w połączeniu z nietypową prośbą („pożycz mi na szybko, oddam jutro”) jest już mocnym sygnałem ostrzegawczym.

Coraz więcej komunikatorów testuje też funkcje rozpoznawania manipulacyjnych treści w wiadomościach głosowych i wideo. Najprostsza forma to wykrywanie, że plik wideo jest generowany komputerowo lub mocno edytowany – nie po treści, ale po cechach technicznych nagrania.

Asystenci na urządzeniu: ekran bezpieczeństwa przed odebraniem połączenia

Niektóre smartfony oferują funkcje, które potrafią „odebrać” podejrzane połączenie za użytkownika i przy pomocy AI zamienić rozmowę na tekst. System pokazuje na ekranie, co mówi dzwoniący, i pozwala zdecydować, czy warto kontynuować rozmowę.

To przydatne szczególnie przy:

  • nagłych telefonach od „firm windykacyjnych” lub „urzędów”,
  • nieznanych numerach z zagranicy,
  • automatycznych botach, które próbują wyłudzić potwierdzenie danych.

AI w takiej roli rozpoznaje typowe skrypty oszustów – presję czasu, groźby kar, nacisk na podanie danych logowania lub kodów z SMS – i może zasugerować odrzucenie połączenia. Użytkownik zyskuje dodatkową warstwę dystansu: zamiast reagować emocjonalnie na głos w słuchawce, czyta tekst i ma chwilę na ocenę sytuacji.

Praktyczne ustawienia w telefonie, które wzmacniają AI

Nawet najlepsze algorytmy niewiele pomogą, jeśli są wyłączone lub działają w ograniczonym trybie. Kilka konkretnych kroków, które można wykonać na większości nowoczesnych smartfonów:

Konfiguracja filtrów i ochrony połączeń – krok po kroku

Agnieszka zorientowała się, że coś jest nie tak dopiero wtedy, gdy na wyświetlaczu pojawiła się trzecia próba połączenia z „infolinią banku” w ciągu godziny. Niby numer z polskim prefiksem, niby znajoma formułka na początku rozmowy, ale każda z nich kończyła się prośbą o podanie kodu z SMS. Gdy w końcu włączyła filtr połączeń i ochronę przed spamem, telefon jakby ucichł.

Na większości smartfonów elementy ochrony są już na pokładzie, trzeba je tylko uaktywnić i pozwolić im współpracować z AI:

  • Oznaczanie i blokowanie numerów – po każdym oczywistym oszustwie nie wystarczy odrzucić rozmowę; lepiej oznaczyć numer jako spam/wyłudzenie. System bierze te zgłoszenia pod uwagę przy kolejnych próbach połączeń, zarówno na Twoim, jak i na innych urządzeniach.
  • Filtr nieznanych numerów – funkcja, która automatycznie wycisza lub przenosi do osobnej listy połączenia od numerów spoza książki adresowej. AI może dodatkowo priorytetyzować numery rozpoznane jako urzędowe lub firmowe.
  • Integracja z aplikacją operatora – część operatorów udostępnia własne aplikacje antyspamowe, łączące dane sieciowe z analizą AI na telefonie. To połączenie jest skuteczne, bo wykrywa nietypowe wzorce dzwonienia (np. setki krótkich połączeń z jednego numeru).

Im częściej korzystasz z tych opcji, tym więcej sygnałów dostaje model – które połączenia są ważne, a które trafiają prosto na listę „nie odbierać”. Z czasem nawet pojedyncze dzwonki od znanych przestępczych call center stają się rzadkością.

Ograniczanie dostępu aplikacji do wiadomości i połączeń

Piotr zainstalował „darmowy skaner QR”, który w regulaminie miał drobnym drukiem prośbę o dostęp do SMS‑ów. Po tygodniu zaczął dostawać dziwne kody resetu hasła do różnych serwisów, których nawet nie używał. Dopiero przegląd uprawnień pokazał, że aplikacja mogła czytać i wysyłać wiadomości.

AI na poziomie systemu operacyjnego analizuje, jakie uprawnienia proszą aplikacje i jak ich używają. Jeśli aplikacja do notatek żąda dostępu do SMS‑ów i listy połączeń, to pierwszy sygnał alarmowy – zarówno dla użytkownika, jak i dla modeli bezpieczeństwa.

Przy instalowaniu i utrzymaniu aplikacji przydaje się kilka prostych nawyków:

  • Nie zgadzaj się „zbiorczo” na wszystkie uprawnienia – lepiej przyznać minimum i obserwować, czy aplikacja rzeczywiście działa poprawnie. AI może dodatkowo oznaczać aplikacje o nietypowych żądaniach jako „potencjalnie ryzykowne”.
  • Sprawdzaj raporty o zachowaniu aplikacji – część telefonów wyświetla podsumowania: która aplikacja ile razy odczytywała SMS‑y, wykorzystywała mikrofon czy łączyła się w tle z siecią. W połączeniu z analizą AI da się wychwycić podejrzane wzorce.
  • Aktualizuj tylko z oficjalnych sklepów – tam również działają modele wykrywające złośliwe aplikacje, które masowo wyłudzają SMS‑y autoryzacyjne lub podszywają się pod kurierów i banki.

Im mniej niepotrzebnych aplikacji ma dostęp do Twoich komunikatorów i wiadomości, tym łatwiej AI odróżnia normalną aktywność od anomalii. Chaos uprawnień utrudnia pracę zarówno użytkownikowi, jak i systemowi ochrony.

Rozsądne korzystanie z „inteligentnych” funkcji podpowiedzi

Kasia polubiła funkcję inteligentnych odpowiedzi: jednym tapnięciem mogła odpisać „OK, dziękuję” albo „Oddzwonię później”. Z czasem telefon zaczął też sugerować kliknięcie w link do „sprawdzenia przesyłki”, bo „zwykle tak reaguje”. Mechanizm uczący się zachowań zaczął ją niechcący pchać w stronę automatycznych reakcji.

Systemy podpowiedzi tekstu i szybkich odpowiedzi też korzystają z AI. Analizują Twoje wcześniejsze zachowania, słownictwo i to, w co klikasz. Jeżeli bezrefleksyjnie akceptujesz każdą sugestię, model może uznać nawet ryzykowne schematy za coś normalnego.

Aby zachować balans między wygodą a bezpieczeństwem, przydają się trzy proste zasady:

  • Bądź nieufny wobec sugestii, które prowadzą do klikania linków – szczególnie w wiadomościach z nieznanych numerów lub takich, które dotyczą płatności, blokad kont czy „ważnych dopłat”.
  • Raz na jakiś czas wyczyść historię podpowiedzi – część telefonów pozwala zresetować modele podpowiedzi na urządzeniu. To przydaje się, gdy kiedyś klikałeś w każdy link z SMS, a dziś chcesz zmienić nawyki, nie walcząc z „pamięcią” systemu.
  • Wyłącz inteligentne odpowiedzi tam, gdzie otrzymujesz dane wrażliwe – np. w aplikacji banku lub komunikatorze używanym do kontaktu z księgowością.

AI w roli wygodnego „autopilota” to duże ułatwienie, ale przy tematach finansowych czy logowaniu lepiej, żeby ostatnie słowo należało do człowieka, nie do algorytmu.

Co dalej: użytkownik i AI w jednym zespole

Budowanie własnego „zmysłu cyfrowego” z pomocą AI

Mateusz, po kilku nieprzyjemnych przygodach z SMS‑ami „z banku”, zaczął z premedytacją traktować AI jak partnera, a nie strażnika. Gdy coś go niepokoiło, nie klikał w link – kopiował treść wiadomości do asystenta na telefonie i prosił o ocenę ryzyka. Po kilku miesiącach łapał podejrzane schematy już intuicyjnie, zanim zdążył skonsultować je z systemem.

AI może być nie tylko tarczą, lecz także trenerem. Zamiast liczyć, że „system wszystko załatwi”, można wykorzystywać go do nauki własnej czujności:

  • Analiza podejrzanych treści – wątpliwą wiadomość możesz bez klikania w link poddać analizie lokalnemu asystentowi (lub zaufanej aplikacji). System wskaże elementy typowe dla oszustwa: nietypowe adresy, presję czasu, błędy w strukturze linków.
  • Wyjaśnienia w prostym języku – zamiast „wysokie ryzyko phishingu (score 0,82)”, dobre narzędzia potrafią napisać: „Nadawca prosi o dane logowania i kieruje na stronę niezgodną z prawdziwą domeną banku”. To buduje zrozumienie, a nie tylko posłuszeństwo wobec alertu.
  • Porównywanie z legalnymi wzorami – mając pod ręką kilka prawdziwych wiadomości z banku lub od kuriera, można poprosić AI o porównanie formy, domen, sposobu zwracania się do klienta. Różnice stają się wtedy bardzo wyraźne.

Po pewnym czasie wyłapywanie czerwonych flag staje się automatyczne, a AI wchodzi raczej w rolę drugiej opinii niż jedynego arbitra. To ważne, bo schematy oszustw zmieniają się szybko, a ludzka intuicja wsparta narzędziami bywa bardziej adaptacyjna niż sam system.

Łączenie sygnałów z wielu kanałów

Magda dostała najpierw SMS z dopłatą do przesyłki, potem maila „od kuriera” na prywatny adres, a na końcu wiadomość na komunikatorze z prośbą o szybkie uregulowanie opłaty, tym razem od „znajomego, który przejął paczkę”. Każdy komunikat osobno wyglądał w miarę wiarygodnie, ale zestawione razem tworzyły czytelną kampanię celowaną.

Nowocześniejsze systemy bezpieczeństwa próbują patrzeć na sytuację szerzej niż pojedynczy SMS czy e‑mail. Łączą sygnały z kilku źródeł, aby lepiej ocenić ryzyko:

  • jeżeli w krótkim czasie przychodzi podobna treść kanałami SMS, e‑mail i komunikator – może to oznaczać skoordynowany atak,
  • jeśli kilka osób z Twojej listy kontaktów zaczyna masowo wysyłać zainfekowane linki, AI może tymczasowo podnosić poziom podejrzliwości wobec wiadomości „od znajomych”,
  • gdy z telefonu wychodzą niespodziewane zapytania sieciowe do znanych serwerów przestępczych, lokalny strażnik może zablokować komunikację i zasugerować skan urządzenia.

Takie „składanie puzzli” jest praktycznie niemożliwe ręcznie. Po stronie użytkownika zostaje jednak kluczowa rola: nie ignorować powtarzających się ostrzeżeń dotyczących tego samego tematu, nawet jeśli każdy pojedynczy komunikat wydaje się „niegroźny”.

Granice zaufania: gdzie AI nie powinna decydować sama

Tomek po kilku udanych blokadach phishingu zaczął ufać swojemu pakietowi bezpieczeństwa bezgranicznie. Gdy AI „z zielonym znaczkiem” przepuściła podejrzaną stronę logowania, uznał, że wszystko jest w porządku. Dopiero później okazało się, że był to świeży atak, którego sygnatury nie zdążyły trafić do bazy.

Żaden system nie jest nieomylny, a AI uczy się na danych historycznych. Istnieją obszary, w których lepiej, by człowiek miał zawsze ostatni głos:

  • Potwierdzanie przelewów i transakcji – nawet jeśli aplikacja nie zgłasza zastrzeżeń, warto sprawdzić nazwę odbiorcy, numer rachunku i adres strony logowania. AI może nie znać najnowszych numerów „mułów finansowych”.
  • Podawanie danych logowania lub numeru karty – przeglądarka może nie krzyczeć alertami, ale pytanie „czy na pewno sam wpisałem adres strony w pasek?” powinno paść zawsze.
  • Instalacja nowego oprogramowania z zewnętrznych źródeł – system antywirusowy i AI mogą nie rozpoznać świeżego szkodnika, który jeszcze nie został opisany. Zdrowy sceptycyzm wobec „darmowych cudów” z nieznanych stron jest tutaj ważniejszy niż jakikolwiek filtr.

AI może podpowiadać, blokować najbardziej oczywiste zagrożenia i odciążać z rutyny, ale odpowiedzialność za ostateczne decyzje finansowe i dostęp do kont pozostaje po Twojej stronie. Ten podział ról działa najlepiej: algorytm gasi pożary w tle, użytkownik zajmuje się kluczowymi drzwiami od sejfu.

Domowa „polityka bezpieczeństwa” dla rodziny

U Iwony największym problemem nie był jej własny telefon, tylko smartfon nastoletniego syna i tablet babci. Każde z nich miało inny komunikator, inne ustawienia i inną odporność na sprytne wiadomości „od znajomych”. Dopiero gdy usiedli razem i ustawili wspólne zasady, ilość nagłych „mamo, coś mi się włączyło” spadła prawie do zera.

AI może chronić pojedyncze urządzenie, ale wiele oszustw celuje w najsłabsze ogniwo w domu. Dlatego przydaje się prosta domowa umowa, w której biorą udział zarówno ludzie, jak i systemy:

  • Włączone filtry i asystenci na wszystkich urządzeniach – nie tylko na Twoim służbowym telefonie, lecz także na urządzeniach dzieci i osób starszych. Tam zwykle uderza pierwszy atak.
  • Jedna zasada weryfikacji płatności – np. „nigdy nie płacimy za przesyłkę ani nie przelewamy pieniędzy na podstawie linku z SMS/komunikatora, zawsze logujemy się przez oficjalną aplikację lub wpisany ręcznie adres”. AI może podpowiadać, ale reguła jest ludzka.
  • „Czerwony przycisk” na wątpliwe sytuacje – jedna osoba w rodzinie (często ta bardziej techniczna) jest kontaktem do konsultacji, gdy ktoś dostanie dziwną wiadomość. Do tego można dodać lokalnego asystenta AI do wstępnej analizy treści.

Takie podejście scala ochronę: AI filtruje i ostrzega, a wspólne zasady pomagają uniknąć sytuacji, w której ktoś „przeklika” ryzykowną wiadomość, bo nie wiedział, jak zareagować na komunikat systemu.

Świadome korzystanie z lokalnych modeli AI

Coraz częściej telefony i komputery mają na pokładzie modele działające bezpośrednio na urządzeniu – bez wysyłania treści do chmury. Dla wielu osób to idealne połączenie: prywatność plus inteligentna analiza zagrożeń. Problem w tym, że nie każdy wie, kiedy taki model naprawdę działa lokalnie, a kiedy dane jednak lecą na serwer.

Przy korzystaniu z lokalnych asystentów dobrze jest poświęcić chwilę na sprawdzenie kilku kwestii:

  • Tryb przetwarzania – czy narzędzie ma wyraźne oznaczenie, kiedy działa lokalnie, a kiedy korzysta z chmury? Warto używać trybu lokalnego szczególnie przy analizie wrażliwych treści: wyciągów z banku, dokumentów umowy, skanów dowodu osobistego.
  • Zakres dostępu do systemu – lokalny model, który ma możliwość czytania wszystkich wiadomości i plików, powinien mieć jasny opis, jak je wykorzystuje. W dobrych rozwiązaniach ustawisz, które foldery, aplikacje czy komunikatory mogą być analizowane.
  • Aktualizacje modeli – nawet lokalne AI potrzebuje okresowych aktualizacji, by znać nowe wzorce oszustw. Mechanizm aktualizacji powinien być przejrzysty: co się zmienia, skąd pobierane są dane, czy możesz odroczyć instalację.

Lokalne AI może stać się najbardziej zaufanym strażnikiem: ma dostęp do kontekstu Twoich danych, działa szybko i nie wymaga wysyłania wszystkiego do internetu. Pod warunkiem, że jest dobrze skonfigurowane i pochodzi od producenta, którego model biznesowy nie opiera się na sprzedaży Twoich informacji.

Sylwetka hakera z czerwonym kodem binarnym na twarzy
Źródło: Pexels | Autor: cottonbro studio

Co warto zapamiętać

  • Oszust wykorzystuje AI, żeby przygotować perfekcyjnie wyglądającą wiadomość, ale użytkownik też może mieć „swoją” AI – w postaci filtrów, alertów i systemów reputacji domen, które wyłapują podejrzane linki i strony, zanim dojdzie do szkody.
  • Jakość ataków mocno wzrosła: phishing, smishing, vishing i fałszywe oferty pracy powstają dziś w poprawnym języku, z dopasowanym stylem i logotypami, więc stare „patenty” typu szukanie literówek przestają wystarczać.
  • Modele językowe pomagają przestępcom masowo generować i testować różne wersje wiadomości, personalizować je na podstawie danych z sieci oraz naśladować komunikację konkretnych firm, co radykalnie zwiększa skuteczność kampanii.
  • Deepfake głosowy i wideo sprawia, że nie można już polegać na samym „rozpoznaniu głosu” – nagranie szefa, dziecka czy kuriera może być syntetyczne, dlatego liczą się techniczne sygnały i kontekst (nietypowa prośba, dziwne okoliczności, presja czasu).
  • Wspólnym mianownikiem większości ataków jest pośpiech, granie na emocjach i prośba o dane lub przelew; AI umożliwia skalowanie takich scenariuszy na setki tysięcy ofiar, każdej serwując lekko zmodyfikowaną, bardziej wiarygodną wersję.
  • Przekonanie „wiem, jak wygląda spam” staje się złudne, bo AI usuwa typowe „czerwone flagi” (błędy, kiepską grafikę, dziwne formatowanie), więc użytkownik musi oprzeć się na nowych nawykach i wsparciu narzędzi, a nie tylko na intuicji.
  • Bibliografia i źródła

  • ENISA Threat Landscape 2023. European Union Agency for Cybersecurity (2023) – Przegląd trendów cyberzagrożeń, w tym phishingu i nadużyć AI
  • Internet Organised Crime Threat Assessment (IOCTA) 2023. Europol (2023) – Analiza przestępczości internetowej, phishing, socjotechnika, deepfake
  • Phishing Activity Trends Report. Anti-Phishing Working Group (2023) – Statystyki i charakterystyka współczesnych kampanii phishingowych
  • 2023 Data Breach Investigations Report. Verizon (2023) – Dane o wektorach ataków na użytkowników, socjotechnika, smishing, vishing
  • NIST AI 100-1: Adversarial Machine Learning. National Institute of Standards and Technology (2023) – Opis zagrożeń i zastosowań AI w kontekście bezpieczeństwa informacji
  • Cybersecurity and Infrastructure Security Agency Phishing Guidance. Cybersecurity and Infrastructure Security Agency – Zalecenia CISA dotyczące rozpoznawania i blokowania phishingu
  • Social Engineering Attack Vectors. SANS Institute – Opis technik socjotechniki: phishing, smishing, vishing, ataki na przelew