EDR NEWS te informa: How Lithuania Is Bracing for AI‑Driven Cyber Fraud

EDR NEWS te informa: How Lithuania Is Bracing for AI‑Driven Cyber Fraud

Fraude cibernético impulsado por la IA
Presentación de la misión del Consorcio KTU 'Una sociedad digital segura e inclusiva' en el evento de la Agencia de Innovación 'Desayuno de innovación: cómo los programas de ciencia e innovación orientados a la misión abordarán los desafíos sociales'.

Las tecnologías están evolucionando rápidamente, remodelando las economías, la gobernanza y la vida cotidiana. Sin embargo, a medida que la innovación se acelera, también lo hacen los riesgos digitales. El cambio tecnológico ya no es abstracto tampoco para un país como Lituania. Desde firmas electrónicas hasta registros sanitarios digitales, el país depende de sistemas seguros.

La ciberseguridad se ha convertido no sólo en un desafío técnico sino también social, que exige la cooperación de científicos, líderes empresariales y formuladores de políticas. En Lituania, esta cooperación ha tomado una forma concreta: la iniciativa financiada por el gobierno iniciativa nacional. Coordinado por la Agencia de Innovación de Lituania, el proyecto tiene como objetivo fortalecer la seguridad electrónica y la resiliencia digital del país.

Bajo este paraguas, universidades y empresas con experiencia de larga data están trabajando de la mano para transformar el conocimiento científico en innovaciones de alto valor listas para el mercado. Varias de estas soluciones ya se están probando en entornos reales, por ejemplo, en instituciones públicas y operadores de infraestructuras críticas. Como explica Martynas Survilas, director del Departamento de Desarrollo de Innovación de la Agencia de Innovación de Lituania:

«Nuestro objetivo es convertir el potencial científico de Lituania en un impacto real: soluciones que protejan a los ciudadanos, refuercen la confianza en los servicios digitales y ayuden a construir una economía inclusiva e innovadora. La era de la investigación aislada ha terminado. En la práctica, la ciencia y las empresas deben trabajar juntas para seguir el ritmo de amenazas complejas y de múltiples niveles».

Una misión nacional: una sociedad electrónica segura e inclusiva

Entre las tres misiones nacionales estratégicas lanzadas en el marco de este programa, una se destaca por su relevancia para el panorama digital global: “Sociedad electrónica segura e inclusiva”, coordinada por Universidad Tecnológica de Kaunas (KTU).

Fraude cibernético impulsado por la IA

La misión tiene como objetivo aumentar la resiliencia cibernética y reducir los riesgos de violaciones de datos personales, centrándose en los usuarios cotidianos de servicios electrónicos públicos y privados, contribuyendo directamente a la transformación de Lituania en una sociedad segura y empoderada digitalmente. Su valor total supera los 24,1 millones de euros.

El consorcio KTU incluye las principales universidades lituanas (Vilnius Tech y Mykolas Romeris University), así como empresas líderes en ciberseguridad como NRD Cyber ​​Security, Elsis PRO, Transcendent Group Baltics y el Instituto Báltico de Tecnología Avanzada, junto con la asociación industrial Infobalt y el Centro de Competencia, Investigación y Educación en Cibercrimen de Lituania.

Los esfuerzos de investigación y desarrollo de la misión cubren un amplio espectro de desafíos de ciberseguridad que definen el panorama digital actual. Los equipos están desarrollando edificios inteligentes, adaptables y de autoaprendizaje. En el sector financiero, se están construyendo nuevos sistemas de defensa impulsados ​​por IA para proteger a las empresas FinTech y a sus usuarios del fraude y las filtraciones de datos. La seguridad industrial se fortalece mediante prototipos de sensores de detección de amenazas para infraestructuras críticas, mientras que los sistemas híbridos de gestión de amenazas se están adaptando para su uso en entornos de seguridad pública, educación y negocios. Otras investigaciones se centran en combatir la desinformación a través de modelos de inteligencia artificial que detectan automáticamente la actividad coordinada de bots y trolls, así como en la creación de plataformas inteligentes para inteligencia automatizada sobre amenazas cibernéticas y análisis en tiempo real.

Fraude por IA: un nuevo tipo de amenaza

Según el Dr. Rasa Brūzgienė, profesor asociado del Departamento de Ciencias de la Computación de la Universidad Tecnológica de Kaunas, la aparición de la Inteligencia Artificial Generativa (GenAI) y los Grandes Modelos Lingüísticos (LLM) ha cambiado fundamentalmente la lógica del fraude contra los servicios de gobierno electrónico.

«Hasta ahora, la principal defensa se basaba en la detección basada en patrones; por ejemplo, los filtros y cortafuegos automáticos podían reconocer patrones de fraude recurrentes, frases típicas o estructuras», explica. «Sin embargo, GenAI ha eliminado ese límite de 'patrón'. Hoy en día, los delincuentes pueden usar modelos generativos para crear mensajes contextualmente precisos. Los modelos saben cómo escribir sin errores gramaticales, usar terminología precisa e incluso replicar el estilo de comunicación de las instituciones. Esto significa que los correos electrónicos de phishing modernos ya no se parecen al 'fraude clásico' sino que se vuelven difíciles de reconocer incluso para los humanos, y mucho menos para los filtros automatizados».

Ella enfatiza que tanto la escala como la calidad de los ataques han evolucionado: «La escala ha aumentado porque GenAI permite la generación automatizada de miles de mensajes fraudulentos diferentes y no repetidos. La calidad ha aumentado porque estos mensajes son personalizados, multilingües y a menudo se basan en información disponible públicamente sobre la víctima. El resultado: los firewalls y filtros de spam tradicionales pierden su efectividad porque sus detectores ya no pueden confiar en características formales de palabras, frases o estructuras. El cambio principal ya no es la escala masiva, sino el realismo. En otras palabras, los ataques modernos Los ataques no parecen fraude, parecen comunicación legal normal”.

Fraude cibernético impulsado por la IA

Los delincuentes actuales, advierte el Dr. Brūzgienė, tienen acceso a un amplio arsenal de herramientas de inteligencia artificial. Utilizan modelos como GPT-4, GPT-5, Claude y alternativas de código abierto como Llama, Falcon y Mistral, así como variantes más oscuras como FraudGPT, WormGPT o GhostGPT, diseñadas específicamente para actividades maliciosas. «Pueden clonar voces utilizando ElevenLabs o VALL-E de Microsoft a partir de unos pocos segundos de alguien hablando. Para crear caras y vídeos falsos, utilizan StyleGAN, Stable Diffusion, DALL-E y DeepFaceLab, junto con soluciones de sincronización de labios como Wav2Lip y First-Order-Motion», señala.

Aún más preocupante, añade, es cómo estas herramientas se organizan juntas: «Los delincuentes producen fotografías de rostros fotorrealistas, vídeos deepfake y copias de documentos con metadatos meticulosamente editados. Los LLM generan textos de phishing personalizados y de alta calidad y diálogos de incorporación, TTS y modelos de clonación de voz recrean la voz de una víctima o de un empleado, y las herramientas de generación de imágenes producen vídeos de «vivacidad» que engañan a los sistemas de verificación. Los agentes automatizados de IA se encargan del resto: crear cuentas, cargarlas documentos y responder a los desafíos. Estas cadenas multimodales pueden eludir la verificación tanto automatizada como humana basada en la confianza”.

«Lo aterrador», concluye el Dr. Brūzgienė, «es cuán accesible se ha vuelto todo esto. Las soluciones comerciales TTS como ElevenLabs y las implementaciones de código abierto de VALL-E brindan clonación de voz de alta calidad a cualquier persona. Stable Diffusion, DeepFaceLab y herramientas similares facilitan la generación rápida de imágenes fotorrealistas o deepfakes. Debido a esta accesibilidad, un solo operador puede crear cientos de perfiles falsos convincentes, diferentes pero interconectados en poco tiempo. Ya estamos viendo casos de este tipo en intentos de abrir cuentas falsas en instituciones financieras y plataformas criptográficas”.

Ingeniería social impulsada por IA

Otra nueva frontera es la ingeniería social adaptativa impulsada por la IA. Los atacantes ya no dependen de scripts estáticos: utilizan LLM que se adaptan a las reacciones de la víctima en tiempo real.

Los bots comienzan con reconocimiento automatizado, raspando redes sociales, directorios profesionales y bases de datos filtradas para crear perfiles personalizados. Luego, el LLM elabora mensajes iniciales que reflejan el tono profesional o el lenguaje institucional de una persona. Si no hay respuesta, el sistema cambia automáticamente de canal (de correo electrónico a SMS o Slack) y cambia el tono de formal a urgente. Si un objetivo duda, la IA genera una tranquilidad plausible, citando políticas o procedimientos internos reales.

En un escenario típico, un “colega” escribe a través del correo electrónico del trabajo, realiza un seguimiento en LinkedIn y luego llama usando una voz clonada, todo orquestado por herramientas de inteligencia artificial conectadas. El Dr. Brūzgienė describe esto como una nueva etapa en la evolución del cibercrimen: «La ingeniería social se ha vuelto escalable, inteligente y profundamente personal. Cada víctima experimenta un engaño único y en evolución diseñado para explotar sus puntos débiles psicológicos y de comportamiento».

El liderazgo en ciberdefensa de Lituania

El ecosistema digital de Lituania, conocido por su avanzada arquitectura de gobierno electrónico y sistemas centralizados de identidad electrónica (eID), enfrenta desafíos únicos. Sin embargo, también demuestra un progreso notable. El país ha ascendido de manera constante en los índices internacionales, ubicándose en el puesto 25 a nivel mundial en el Índice de Buen Gobierno de Chandler (CGGI) y en el 33 en el Índice de Preparación de la IA del Gobierno (2025).

La estrategia de IA de Lituania (2021-2030), actualizada en 2025, ha priorizado la ciberdefensa impulsada por la IA, la detección de anomalías y el desarrollo de resiliencia. El Centro Nacional de Seguridad Cibernética (NKSC) integra la IA en el monitoreo de amenazas, reduciendo los incidentes de ransomware cinco veces entre 2023 y 2024. La colaboración con la OTAN, ENISA y los socios de la UE mejora aún más las capacidades de defensa híbrida de Lituania.

«Consideramos la ciberresiliencia no sólo como una tarea técnica sino como una base para la democracia y el crecimiento económico», dice Survilas. «A través de la misión de una sociedad electrónica segura e inclusiva, no solo protegemos nuestra infraestructura digital, sino que también capacitamos a los ciudadanos para que confíen y participen en el mundo digital. La IA inevitablemente se utilizará con fines maliciosos, pero también podemos usarla para defendernos. La clave es la colaboración entre sectores y la educación continua. Esta misión es una de las herramientas que nos ayuda a convertir esa idea en proyectos, pilotos y servicios concretos para la gente de Lituania».

¿Encontró interesante este artículo? Este artículo es una contribución de uno de nuestros valiosos socios. Síguenos en noticias de google, Gorjeo y LinkedIn para leer más contenido exclusivo que publicamos.



Fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *