OSDE - Novedades

Deepfakes: ¿Cómo protegerte de las estafas con Inteligencia Artificial?

Escrito por OSDE | 14/04/26 18:23

Durante muchos años, una imágen o video era evidencia suficiente para confirmar la veracidad de lo que estábamos viendo.

Sin embargo, en la era de la transformación digital, esas frases han quedado sin poder. Hoy, la Inteligencia Artificial (IA) es capaz de clonar rostros, gestos y voces con una precisión asombrosa, dando lugar a lo que conocemos como Deepfakes 

En OSDE, entendemos que tu seguridad digital es tan importante como tu bienestar integral. Por eso, queremos brindarte las herramientas necesarias para enfrentar estos nuevos desafíos y proteger tu identidad.

 

La estructura de la duda: más allá de lo que ves

Los ciberdelincuentes ya no se limitan a "hackear" sistemas; ahora buscan vulnerar tu confianza utilizando la imagen o la voz de personas en las que confiás.

¿Cómo detectar un Deepfake en segundos?

Aunque la IA es cada vez más sofisticada, su "perfección" suele ser superficial. Si recibís un video o audio inusual, prestá atención a estos detalles:

  • La mirada "vidriosa": el parpadeo en los Deepfakes suele ser inexistente o muy irregular. Además, los ojos no suelen enfocar un punto real y no tiene el brillo natural de una persona viva.

  • Falta de sincronía labial: observá la boca con detenimiento. Si el movimiento de los labios tiene un ligero retraso respecto al sonido o si los dientes se ven como una "mancha" blanca sin definición, estás ante un montaje.

  • El contorno vibrante: los bordes del rostro, especialmente cerca de las orejas o el pelo, pueden verse borrosos o mostrar pequeñas interferencias digitales cuando la persona se mueve.

  • Piel demasiado perfecta: la IA tiende a eliminar arrugas, lunares e imperfecciones naturales. Si la piel parece un filtro exagerado de redes sociales, desconfiá.

  • La voz sin matices: la tecnología suele fallar en la entonación emocional. Si el mensaje es alarmante pero el tono suena monótono, plano o con un rastro metálico, es una señal de alerta clara.

Protocolo de acción: qué hacer ante una sospecha

Los ataques basados en IA dependen de que actúes rápido y bajo presión. Si recibís un pedido inusual de dinero o datos personales a través de video o audio, mantené la calma y seguí estos pasos:

  1. Finalizá la comunicación: no cedas ante la supuesta urgencia o gravedad del problema.

  2. Salí de la plataforma: si te contactaron por redes sociales o WhatsApp, no continúes la charla por ahí.

  3. Verificá por vía directa: buscá el número oficial de la entidad o el contacto guardado de la persona en tu agenda y llamá por una vía alternativa para confirmar la veracidad del pedido.

  4. Alertá a la comunidad: si confirmás que es un engaño, notificá de inmediato a la persona o entidad cuya identidad fue clonada. Tu aviso es la herramienta más eficaz para frenar la cadena de estafas.

¿Detectaste contenido sospechoso vinculado a OSDE?

No lo pases por alto, reportalo a través de nuestros canales oficiales para que podamos proteger a toda nuestra comunidad.

Para más consejos sobre cómo cuidar tus datos, te recomendamos leer nuestra sección sobre ciberseguridad. 

Te puede interesar: