Estafas sin faltas de ortografía: la inteligencia artificial ya hace más difícil detectar engaños
RED

Un 45 % de los usuarios sigue creyendo que estos errores son una pista infalible para identificar fraudes, pero los ciberestafadores ya utilizan IA para elaborar textos impolutos
19 feb 2025 . Actualizado a las 11:54 h.Entre las recomendaciones más habituales para detectar una ciberestafa ha estado siempre la de fijarse en errores ortográficos o gramaticales. Los ciberdelincuentes suelen —o solían— delatarse con frases mal construidas, o palabras mal escritas. Sin embargo, como muchas otras cosas, estas imprecisiones de los estafadores están cambiando a golpe de Inteligencia Artificial. Según un estudio reciente de la compañía Trend Micro, un 45 % de los usuarios sigue creyendo que estos errores son una pista infalible para identificar fraudes. La realidad, por el contrario, es mucho más compleja.
Con el avance de la Inteligencia Artificial, los estafadores han perfeccionado sus técnicas. Ahora pueden utilizar herramientas de IA generativa —el propio Chat GPT— para redactar mensajes impecables, sin faltas de ortografía ni estructuras sospechosas. La sofisticación de estos textos hace que en ocasiones sean indistinguibles de los correos corporativos auténticos o de mensajes enviados por conocidos, aumentando el riesgo de engaño.
Los avances en los modelos de aprendizaje automático (LLMs) han permitido que los delincuentes mejoren la calidad de los textos, logrando una gramática perfecta y volviéndolos mucho más persuasivos. Esto les ha permitido incluso replicar páginas web auténticas de diversas empresas, lo que aumenta el éxito de sus ataques. Además, gracias a estos modelos, ahora también pueden dirigirse a sus víctimas en varios idiomas. O incluso imitar el estilo de comunicación de personas específicas, como amigos o socios, ya que también tienen la capacidad de analizar publicaciones en redes sociales y otra información pública disponible.
Evolución de estafas conocidas
Con el avance de la tecnología, también lo hace la ciberdelincuencia. Por ejemplo, el conocido timo del familiar en apuros, en el que la víctima recibe un mensaje de un supuesto familiar que necesita urgentemente ayuda económica, ahora podría empezar a incluir los llamados deepfakes. Es decir, vídeos, imágenes o audios falsos creados con tecnología de Inteligencia Artificial, que pueden hacer que alguien parezca decir o hacer algo que nunca ocurrió.
Si normalmente en el fraude del familiar en apuros los estafadores se hacían pasar por alguien conocido para convencer a la víctima de que necesitaban dinero, ahora pueden incluso evitarse convencer al usuario con ningún discurso. Directamente pueden enviar un audio de ese familiar pidiendo ayuda con su propia voz —que en realidad estará clonada— o, en las tecnologías más precisas, enviar un vídeo corto generado con IA generativa.
Posibles errores
¿Qué consejos para identificar estafas quedan entonces todavía vigentes? En primer lugar, los expertos recomiendan que siempre que recibamos un mensaje de un conocido o un familiar que por el contenido pueda parecernos sospechoso, nos pongamos en contacto directamente con esa persona.
Cuando se trata simplemente de comprobar la autenticidad de un correo electrónico, o un SMS, pese a que el texto pueda no contener errores, es probable que el enlace que le acompaña sí. La compañía de seguridad Kaspersky recomienda verificar la ortografía de estos hipervínculos: «A veces, los correos electrónicos y páginas web de phishing parecen exactamente igual que los sitios oficiales. Sin embargo, es probable que los hipervínculos contengan errores ortográficos o te redirijan a otro lugar», explican. Si un correo contiene un enlace, y desconfiamos de su origen, lo mejor es introducirlo directamente en el navegador para verificar si parece correcto y buscar después el oficial.
En un futuro no muy lejano, los programas de seguridad deberán ser capaces de identificar la utilización de la IA: «Los modelos de lenguaje de gran escala están mejorando, y los ciberdelincuentes están explorando formas de aplicar esta tecnología para fines maliciosos. Con futuros avances, distinguir el contenido generado por IA del texto escrito por humanos podría volverse mucho más difícil, lo que hace crucial utilizar soluciones de seguridad avanzadas que analicen información textual junto con metadatos y otros indicadores de fraude», explica Vladislav Tushkanov, gerente del grupo de desarrollo de investigación en Kaspersky.