Cómo evitar las estafas generadas por la IA

Los engaños ya no son sólo por email, SMS o mensajes de WhatsApp. Ahora la Inteligencia Artificial es capaz de imitar la voz y apariencia de cualquier persona, así que hay que estar muy atentos y tomar medidas para evitar caer en la estafa.

 

Hace unas semanas saltó la noticia de que en Hong Kong un empleado transfirió unos 25,6 millones de dólares creyendo seguir las órdenes del Director Financiero cuando se trataba de un deepfake. Este fue el procedimiento:

  • El empleado recibió un email del CFO solicitándole enviar el dinero, y avisándole de que le llamaría para confirmarlo.
  • Al comenzar la videollamada le pidieron al empleado que se presentara. Había presentes varios directivos, que no interactuaron con él. Simplemente le confirmaron que transfiera el dinero y terminaron la reunión de forma repentina.

 

El empleado cumplió las órdenes y más tarde se dio cuenta de que había sido engañado. Y es que en la actualidad basta con un vídeo en redes sociales o un podcast para clonar la imagen o la voz de alguien.

 

Otras veces los engaños no son tan sofisticados. Las víctimas suelen caer con un audio de un familiar en apuros, especialmente los mayores de edad. El mensaje de voz suele involucrar alegaciones de emergencias médicas, problemas legales o dificultades financieras, y solicitar urgentemente dinero o información financiera para resolver la situación. El estafador puede pedir discreción a la víctima para evitar que otros miembros de la familia se enteren de la situación.

 

Cómo protegerse de un Deepfake

A continuación te damos desde acens algunos consejos para no caer en estos engaños:

  • Desconfía de las urgencias y las peticiones inhabituales: tienes que estar muy atento cuando algo se salga de lo normal. No hagas nada a las prisas y coméntalo con otras personas antes de hacer nada.
  • Mira con lupa la calidad del clip: si hay movimientos bruscos, cortes de voz, parpadeos extraños, falta de sincronía de los labios con el habla, cambios en el tono de la piel o en la voz… puede indicar de que se trata de un engaño.
  • Contacta con la persona por otro medio: los estafadores pueden suplantar hasta el número de teléfono. Intenta dejar esa llamada en espera y llamar a la persona por otro lado (si te llaman al móvil llámale por WhatsApp, o viceversa).
  • Contrata un seguro: busca una cobertura ante fraudes basados en Deepfake.
  • Exige autorización múltiple ante grandes pagos: si varias personas tienen que autorizar la transacción será más difícil caer en engaños.
  • Invierte en software para detectar deepfakes: para que avisen cuando se detecte alguna actividad sospechosa.
  • Documenta el caso y repórtaloreúne todas las pruebas (capturas de pantalla, enlaces, audios, vídeos…), denúncialo si se ha publicado en alguna plataforma y busca ayuda legal si han puesto en riesgo tu reputación.
  • Crea una contraseña familiar o empresarial: los estafadores pueden obtener mucha información de las redes sociales y confundirte, por ello puedes pactar una serie de preguntas y respuestas para confirmar que la víctima es quien dice ser (incluso hacer preguntas trampas, como cuál era el nombre del primer perro que tuvisteis si no teníais mascota).

 

Si quieres estar a la última en tecnología y conocer todo lo que se mueve en el sector, ¡suscríbete a nuestro boletín!

Logotipo de acenews

Déjanos un comentario o cuéntanos algo.

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.