Technologia deepfake sprawia, że oszuści potrafią idealnie podrobić głos bliskiej osoby. W 2026 roku jeszcze bardziej należy nauczyć się odróżniać prawdziwą prośbę o pomoc od cyfrowej pułapki przygotowanej przez sztuczną inteligencję. Oszuści zbierają próbki głosów z publicznych nagrań w mediach społecznościowych. Wystarczy krótki filmik na Instagramie czy TikToku, żeby specjalny program stworzył niemal idealnego klona mowy dziecka lub znajomego.
Kolejny krok to telefon, w którym ofiara słyszy znajomy głos proszący o pilny przelew z powodu rzekomego wypadku. Brzmi to tak realistycznie, że u wielu osób emocje biorą górę nad zdrowym rozsądkiem.
Jak się uchronić przed oszustwem?
Najlepszym sposobem na obronę przed taką manipulacją jest ustalenie z rodziną specjalnego hasła bezpieczeństwa. Może to być nazwa ulubionej potrawy z dzieciństwa albo imię pierwszego zwierzaka. Jeśli odbierzesz podejrzany telefon z prośbą o pieniądze, zapytaj rozmówcę o to tajne słowo.Podczas rozmowy warto zachować czujność i zwracać uwagę na drobne błędy w brzmieniu głosu. Sztuczna inteligencja czasami gubi naturalny rytm mowy albo dziwnie akcentuje niektóre wyrazy. Jeśli masz choć cień wątpliwości, rozłącz się i sam zadzwoń do osoby, która rzekomo potrzebuje wsparcia.
Brak komentarzy:
Prześlij komentarz