23 dic. 2025

Usan imagen con IA del presi Santiago Peña para estafar

¡Atentos qué! Si te sale un video del presi hablando de “jubilación anticipada” o de “ser millonario” con solo “invertir” plata es todo mentira. Loperro están haciendo estos trucos para estafar.

santi peña.png

Video hecho con IA donde invita a la genta a “invertir”, pero todo es mentira. A estar atentos.

Captura

En redes sociales están alertando sobre un video donde invita a invertir dinero para ganar plata. Y para que sea más “creíble” usan la imagen del propio presidente Santiago Peña.

En el contenido peligrosamente falso, se puede ver la imagen del presi con gestos convincentes y hasta tiene el mismo timbre de voz, eso sí, tiene algunas fallas en el idioma que te pueden ayudar a identificar que es todo bola.

La imagen está hecha con inteligencia artificial (IA) y Peña invita a invertir “1.800.000 de garantías”, he’i, en vez de guaraníes. Lo que ya te tiene que dar una pista de que es falso.

Marcelo Elizeche usó su cuenta de X, donde posteó la alerta. “Otra para sumar a la lista, esto me saltó en Instagram. Obviamente es una estafa. Está hecho con IA y la voz es muy convincente. Hablen con sus familiares, comenten sobre este tipo de estafas de antemano porque si una persona llega a creer y girar la plata es difícil volver atrás”, escribió.

Santiago Peña IA.mp4

La IA mal utilizadas

Los fraudes generados con IA utilizan los ciberdelincuentes creando mensajes, llamadas, videos o chats falsos que parecen auténticos. A diferencia de las estafas tradicionales, que usan plantillas generales o la intervención humana directa, los fraudes generados con IA utilizan modelos de aprendizaje automático para copiar patrones de habla, estilos de escritura o incluso un parecido visual, lo que hace que el engaño sea mucho más difícil de detectar.

Te dejamos los tipos de fraudes más comunes:

Deepfakes de video: Los deepfakes de video pueden imitar en forma convincente a personas reales superponiendo el aspecto y la voz de personas influyentes, como directores generales, altos ejecutivos y famosos, en videos manipulados procedentes de redes sociales o comunicaciones retransmitidas en directo. El ejemplo claro es el del presidente.

Voz clonada con IA: La voz clonada con IA replica con precisión la voz de una persona, normalmente un familiar supuestamente en una situación de emergencia o crisis, con el fin de obtener información confidencial o dinero de las víctimas. Si recibís una llamada de este tipo, hacé preguntas de seguridad personal que solo vos y tu ser querido conozcan. También podés colgar y llamar directamente al número de tu ser querido para verificar la emergencia.

Imitadores de chatbots: La interacción es fluida y las respuestas son rápidas, similares a las humanas, por lo que es difícil detectarlos.