Bratislava 23. marca (TASR) - Umelá inteligencia (AI) dokáže vierohodne napodobniť hlas známej osoby, odborníka či člena rodiny. Stačí jej na to krátka nahrávka zo sociálnej siete alebo videa. Podvodníci to zneužívajú pri telefonických podvodoch. Občania by tak mali byť obozretní. Na sociálnej sieti na to upozornila polícia.
„Scenár býva podobný. Volajúci ponúka výhodnú investíciu, rýchle zhodnotenie peňazí alebo tvrdí, že ide o naliehavú situáciu. Využíva tlak, emócie a časovú tieseň. Hlas znie dôveryhodne, pokojne a profesionálne. Práve to je najväčšie riziko - človek verí tomu, čo počuje. Peniaze sú následne prevedené na zahraničné účty alebo do neznámych investičných platforiem,“ uviedli policajti.
V iných prípadoch je pri podvodoch hlas človeka reálny a podvodník využije takzvaný falošnú legendu. „Volajúci sa predstaví ako pracovník banky, polície či investičnej spoločnosti. Tvrdí, že je potrebné okamžite konať, aby sa zabránilo strate financií,“ priblížila polícia.
Najmä v poslednej dobe zaznamenáva prípady, keď sa podvodník vydáva za vyšetrovateľa a obeti pošle aj falošný policajný preukaz. Polícia upozornila, že jej príslušníci nikdy o peniaze nežiadajú a neposielajú kópie svojich služobných preukazov.