Carabineros de Chile realizó una alerta a las personas por el uso de un nuevo modus operandi en que los delincuentes utilizan inteligencia artificial (IA) para clonar rostros de famosos y así realizar estafas.

¿Cómo funcionan las estafas con IA?

Este nuevo tipo de estafa, por medio de la imitación de rostros y voces, se le denomina como Deepfake” (falsificaciones profundas). Esta acción les permite a los delincuentes hacer creer a las víctimas que interactúan con otra persona a través de videos o audios.

Gabriel Bustamante, capitán de la Sección de Ciberdelitos del OS-9 de Carabineros, explicó que los antisociales buscan acceder, mediante subterfugios, a datos confidenciales o a sistemas de seguridad, los que son vulnerados a fin de obtener un beneficio económico.

Cabe destacar que también existe el concepto de “Vishing” o “Pishing de voz”, que corresponde a una estafa telefónica en la cual se asimila la voz de personas de confianza de las víctimas para obtener información confidencial o para solicitar dinero.

Estafas telefónicas

Estafas telefónicas

¿Qué aconsejan los Carabineros?

Ante este nuevo método de estafa, Carabineros entregó las siguientes recomendaciones:

  • Si se recibe una llamada o un mensaje que pareciera ser de un familiar que está solicitando dinero con urgencia, intente comunicarse con esa persona por medio de otro canal seguro, a fin de confirmar que su identidad sea real.
  • Ajustar la configuración de privacidad en redes sociales y otras plataformas para limitar la cantidad de información personal expuesta en esos canales. Esta acción disminuye el riesgo de ser víctima de un fraude personalizado.
  • En el caso de enfrentarse a solicitudes de información personal, financiera o de acceso al sistema, mantenga un nivel saludable de desconfianza, especialmente si dicha petición requiere una respuesta rápida.

¿Has sido víctima de estafa con alguno de estos métodos?

¿Has sido víctima de estafa con alguno de estos métodos?

YA VOTARON 0 PERSONAS