CFTC ostrzega: AI stała się narzędziem w rękach cyberprzestępców
Od jakiegoś czasu wiadomo, że przestępcy wykorzystują AI do tworzenia fałszywych platform inwestycyjnych. Z najnowszego raportu CFTC wynika, że coraz chętniej używają tej technologii także do skutecznego ukrywania swojej tożsamości.
Internetowi oszuści fałszują dokumenty i kreują fikcyjne tożsamości
Regulator ostrzegł, że internetowi oszuści coraz częściej korzystają z technologii Deepfake. Nie tylko generują realistyczne zdjęcia i profile w mediach społecznościowych przeznaczone do kontaktu z ofiarami, ale również fałszują oficjalne dokumenty lub manipulują wideorozmowami. Dzięki AI mogą w czasie rzeczywistym modyfikować swój wizerunek i głos, co utrudnia ich zidentyfikowanie podczas czatu.
Jak podkreśliła Melanie Devoe – dyrektor biura edukacji klientów CFTC:
Oszuści mogą wykorzystywać nowe technologie do maskowania swojej tożsamości, nie tylko na zdjęciach profilowych w mediach społecznościowych, ale także w rozmowach wideo, zmieniając swoje rysy twarzy oraz głosy.
Dane pokazują, że problem narasta w niepokojącym tempie. Według raportu dostawcy usług KYC – firmy Sumsub, częstotliwość występowania oszustw tożsamościowych w branży finansowej w roku 2024 wzrosła o 162% w skali YoY (w Europie było to 150%), a te wykorzystujące Deepfake pojawiały się aż czterokrotnie częściej.
W niedalekiej przeszłości, regulatorzy ostrzegali także przed fałszywymi platformami inwestycyjnymi podszywającymi się pod renomowane instytucje i oferującymi podejrzanie wysokie zyski czy oszustami z portali społecznościowych. Ci drudzy zyskują zaufanie ofiar poprzez długoterminową budowę fikcyjnej relacji (tzw. Pig-Butchering). Dłuższy kontakt ma na celu uśpienie czujności ofiary i nakłonienie jej do inwestowania na podejrzanych platformach handlowych.
Jak zauważa CFTC, wraz z rozwojem sztucznej inteligencji rozpoznanie oszustw staje się coraz trudniejsze, dlatego “najlepszą obroną jest nigdy nie przekazywać pieniędzy osobom, które znamy tylko z internetu”.