En Cúcuta, el amor por una mascota terminó siendo el anzuelo perfecto para una red criminal. Lo que comenzó como una angustiosa búsqueda por una gata desaparecida se transformó en una sofisticada estafa emocional, impulsada por tecnología de inteligencia artificial. El caso deja al descubierto una nueva modalidad de extorsión que pone en jaque la seguridad digital de las familias.
Alejandra, una joven del norte de la ciudad, jamás imaginó que perder de vista a su gata Ikys, una felina casera y sobreviviente de un accidente de tránsito, sería el inicio de una experiencia aterradora. Durante días, la joven pegó volantes, recorrió su barrio y publicó la desaparición en redes sociales. Fue esa última decisión acudir a lo digital en busca de ayuda la que dio pie a la estafa.
El lunes 26 de mayo, recibió una llamada, un hombre aseguraba tener a Ikys y pedía una recompensa. Ella, dispuesta a recuperar a su compañera, accedió a entregar $100.000 y se dirigió al lugar acordado. Pero mientras caminaba, su familia recibía llamadas que los paralizaron, escuchaban la voz de Alejandra llorando, suplicando ayuda y asegurando que la habían secuestrado.
No era una coincidencia ni una broma. Los delincuentes habían clonado su voz utilizando inteligencia artificial. Con esa réplica exacta, exigían un rescate de tres millones de pesos a sus padres. En medio del miedo y sin lograr comunicarse con su hija ocupada aún en la llamada con el supuesto rescatista de la gata, sus familiares transfirieron parte del dinero.
La supuesta entrega de Ikys nunca ocurrió. El “contacto” desapareció y con él, cualquier esperanza de encontrar a la mascota. Todo fue una farsa, orquestada con frialdad y precisión. La voz que escucharon sus padres no era real: era un montaje digital, construido con solo unos segundos de audio, probablemente tomado de redes sociales o mensajes de voz.
Este tipo de estafa, conocida como vishing, mezcla clonación de voz, ingeniería social y manipulación emocional. Es una modalidad en auge que ya ha hecho víctimas en distintas ciudades del país. Bastan tres segundos de grabación para que un sistema de IA pueda reproducir la voz de una persona, al punto de engañar incluso a sus seres más cercanos.
Además de usar voces clonadas, estas redes criminales también acceden a cuentas de WhatsApp mediante el robo de códigos de verificación, ampliando el alcance del engaño y haciéndose pasar por familiares para seguir delinquiendo.
Las autoridades han encendido las alarmas, este delito no solo está creciendo, sino que se está perfeccionando. Y lo más preocupante es que opera sobre algo que ninguna tecnología puede blindar del todo: las emociones humanas.
El caso de Alejandra es una advertencia para todos incluso los actos más inocentes, como buscar una mascota en redes sociales, pueden convertirse en puertas abiertas al crimen. La tecnología avanza y con ella, también los métodos de quienes no dudan en usarla para el mal.
Alejandra*: nombre cambiado a petición de la entrevistada