Polski inżynier Borys Musielak pokazał, jak łatwo dziś oszukać systemy weryfikacji tożsamości przy użyciu sztucznej inteligencji. W pięć minut stworzył fałszywy paszport za pomocą ChatGPT, który przeszedł przez kilka systemów KYC – a jego eksperyment wywołał poruszenie w świecie cyberbezpieczeństwa.
„Obraz jako dowód to przeszłość”
Musielak, założyciel funduszu inwestycyjnego SMOK Ventures, opisał na LinkedIn cały proces:
– Każdy przepływ weryfikacji, który opiera się na obrazach jako dowodzie, jest już oficjalnie przestarzały – napisał.
Twierdzi, że zarówno zdjęcia dokumentów, jak i selfie (również wideo) mogą być obecnie skutecznie sfałszowane za pomocą generatywnej AI.
Systemy KYC nie nadążają za rozwojem AI
Systemy KYC (Know Your Customer), wykorzystywane m.in. przez banki, giełdy i platformy fintechowe do weryfikacji tożsamości, mogą stać się bezużyteczne, jeśli bazują wyłącznie na analizie obrazu.
– Sztuczna inteligencja pozwala teraz na tworzenie dużych ilości fałszywych dokumentów w krótkim czasie, co zagraża całemu ekosystemowi cyfrowej identyfikacji – ostrzega Musielak.
Nowe rozwiązanie? Weryfikacja oparta na chipach
Inżynier apeluje o przejście na cyfrowo weryfikowaną tożsamość, jak np. portfele eID, które używają autentykacji chipowej.
To rozwiązanie jest już częścią zaawansowanych standardów bezpieczeństwa w UE, wdrażanych w ramach rozporządzenia eIDAS.
Fala fałszywych dokumentów w mediach społecznościowych
Po publikacji posta Musielaka, użytkownicy z całego świata zaczęli testować podobne metody. Jak informuje The Economic Times, indyjskie media społecznościowe zalały fałszywe karty Aadhaar i PAN, generowane przy pomocy AI.
Twórcy ChatGPT reagują
Zespół odpowiedzialny za rozwój ChatGPT szybko zareagował na rosnące zagrożenie. Według Biometric Update:
- Próby generowania dokumentów tożsamości są blokowane,
- Obrazy tworzone przez AI są teraz wyraźnie oznaczane jako „próbka”, „demo” i „nie do użytku oficjalnego”.
Nowa era oszustw – czy systemy bezpieczeństwa nadążą?
Eksperci ds. bezpieczeństwa cyfrowego ostrzegają: tradycyjne metody weryfikacji są coraz mniej skuteczne. Dynamiczny rozwój sztucznej inteligencji może wyprzedzać tempo wdrażania nowych zabezpieczeń – a to oznacza, że zaufanie do cyfrowych systemów identyfikacji może być poważnie nadszarpnięte, jeśli nie zostaną wprowadzone nowe, solidne standardy.