Al momento

Fraude

Ciberdelincuentes usan IA para “clonar” voces en WhatsApp y estafar a usuarios

Se alertó sobre un creciente modus operandi en el que los estafadores utilizan la IA para falsificar la voz de un familiar de la víctima y engañarla para que entregue dinero

Ciberdelincuentes usan IA para clonar voces en WhatsApp
Línea Directa | Para protegerse de este tipo de estafas, las empresas de ciberseguridad, como McAfee, sugieren estar alerta al contexto en el que ocurren las situaciones sospechosas

México. El avance vertiginoso de la Inteligencia Artificial (IA) ha traído consigo enormes beneficios, pero también ha abierto la puerta a nuevos riesgos, especialmente en el ámbito de la seguridad digital. Los ciberdelincuentes, siempre atentos a las oportunidades que surgen con la tecnología, ahora están utilizando la IA para crear fraudes sofisticados, uno de los cuales involucra la “clonación” de voces a través de aplicaciones de mensajería como WhatsApp.

En un reciente comunicado, el Instituto Nacional de Ciberseguridad de España (INCIBE) alertó sobre un creciente modus operandi en el que los estafadores utilizan la IA para falsificar la voz de un familiar de la víctima y engañarla para que entregue dinero. A través de grabaciones de voz obtenidas de videos en línea o llamadas pregrabadas, los delincuentes logran capturar muestras suficientes para generar audios convincentes. Con solo unos segundos de audio, la IA es capaz de generar mensajes de varios minutos.

Una vez que los criminales han creado la grabación falsa, la envían a la víctima por WhatsApp, simulando que proviene de un ser querido. Para aumentar la credibilidad del fraude, incluso pueden incluir imágenes de la persona clonada. Esta técnica, que implica la suplantación de identidad, está diseñada para generar confianza y hacer que las víctimas actúen de manera impulsiva, transfiriendo dinero sin sospechar nada.

Te puede interesar leer: ¡Atención! Google comenzará a eliminar cuentas inactivas en diciembre

Consejos para prevenir fraudes con IA en WhatsApp

Para protegerse de este tipo de estafas, las empresas de ciberseguridad, como McAfee, sugieren estar alerta al contexto en el que ocurren las situaciones sospechosas. Una de las recomendaciones más importantes es establecer una “clave verbal” con tus familiares o amigos cercanos, que solo tú y ellos conocerán. De esta forma, si alguna vez recibes un mensaje de voz pidiendo ayuda o dinero, podrás verificar que la persona que te contacta es realmente quien dice ser.

Otro consejo útil es prestar atención a la calidad del audio. Si notas que la voz suena artificial, robótica o presenta distorsiones, probablemente se trate de un intento de fraude. En este caso, es recomendable no responder directamente, sino confirmar la situación con la persona a través de otro canal de comunicación.

Además, el INCIBE enfatiza la importancia de verificar cualquier mensaje sospechoso directamente con el supuesto remitente. Si un familiar o amigo dice haber enviado un mensaje pidiendo ayuda, confirma su bienestar antes de tomar cualquier acción.

¿Qué hacer si ya fuiste víctima de un fraude?

Si has sido víctima de este o cualquier otro tipo de estafa digital, es fundamental tomar medidas inmediatas. Informa a tus contactos sobre el fraude para evitar que ellos también sean engañados. Además, bloquea el número de teléfono desde el que se cometió el delito y repórtalo a las autoridades correspondientes. Puedes ponerte en contacto con la Policía Cibernética llamando al 55 5242 5100 ext. 5086 o a la Guardia Nacional al 088.

Fuente: Línea Directa

Fotografía de perfil de Perla Rodríguez Contreras

Perla Rodríguez Contreras

Editor de Contenidos

Perla Rodríguez Contreras

Ver más

Al momento

Suscríbete a nuestro boletín

Para tener la información al momento, suscríbete a nuestro boletín en el tendrás las últimas noticias de Sinaloa, México y el mundo.