2026/01/14

Twój wnuk prosi o pieniądze? Uważaj, głos w słuchawce może być dziełem AI

 

Technologia deepfake sprawia, że oszuści potrafią idealnie podrobić głos bliskiej osoby. W 2026 roku jeszcze bardziej należy nauczyć się odróżniać prawdziwą prośbę o pomoc od cyfrowej pułapki przygotowanej przez sztuczną inteligencję.              Oszuści zbierają próbki głosów z publicznych nagrań w mediach społecznościowych. Wystarczy krótki filmik na Instagramie czy TikToku, żeby specjalny program stworzył niemal idealnego klona mowy dziecka lub znajomego.

Kolejny krok to telefon, w którym ofiara słyszy znajomy głos proszący o pilny przelew z powodu rzekomego wypadku. Brzmi to tak realistycznie, że u wielu osób emocje biorą górę nad zdrowym rozsądkiem.

Jak się uchronić przed oszustwem?

Najlepszym sposobem na obronę przed taką manipulacją jest ustalenie z rodziną specjalnego hasła bezpieczeństwa. Może to być nazwa ulubionej potrawy z dzieciństwa albo imię pierwszego zwierzaka. Jeśli odbierzesz podejrzany telefon z prośbą o pieniądze, zapytaj rozmówcę o to tajne słowo.Podczas rozmowy warto zachować czujność i zwracać uwagę na drobne błędy w brzmieniu głosu. Sztuczna inteligencja czasami gubi naturalny rytm mowy albo dziwnie akcentuje niektóre wyrazy. Jeśli masz choć cień wątpliwości, rozłącz się i sam zadzwoń do osoby, która rzekomo potrzebuje wsparcia.

Brak komentarzy:

Prześlij komentarz