El desarrollo de la inteligencia artificial y, en particular, de la IA generativa, ha traído diversos beneficios a las empresas y a la sociedad. Sin embargo, su uso para actividades delictivas, como ciberataques y espionaje industrial, además de otras poco éticas, como armas autónomas para la guerra, ya son una realidad.
En el caso del cibercrimen, la IA generativa se ha convertido en un potencial vector de ataque, especialmente en el robo de credenciales y acceso a organizaciones a través de campañas de cibercrimen. phishing (suplantación de identidad) utilizando técnicas de profundoes decir, archivos de imagen, audio o vídeo alterados mediante IA para que parezcan reales.
Según el Informe de Fraude de Identidad 2024 de Onfido -firma especializada en servicios de verificación de identidad- los intentos de fraude a través de profundo En el mundo aumentaron un 3.000% en 2023.

La gerente de Seguridad de IBM para Argentina, Chile, Uruguay y Paraguay, Pamela Skokanovic, afirmó que la IA generativa ha permitido escalar estos ataques y campañas de seguridad. phishing con profundo -en el ámbito empresarial- se han centrado en el “audio generativo” o suplantación de voz, que “puede utilizarse para engañar a ejecutivos, como directores financieros, para que realicen transacciones”.
Skokanovic explicó que la manipulación de una conversación puede ocurrir en tiempo real, a través de técnicas comotoma de audio -ataque basado en IA generativa para interceptar y manipular conversaciones en vivo sin ser detectado- y software malicioso.
“Los ciberdelincuentes pueden interceptar y reemplazar palabras específicas en una conversación en vivo. Este tipo de ataque es difícil de detectar ya que se ajusta al contexto original de la conversación. Sin embargo, es más probable que se vea en campañas dirigidas a personas de alto perfil con un historial de hablar en público o charlas que pueden aprovechar para suplantar su voz”, dijo.
Por su parte, el socio de Deloitte Cyber y experto en ciberseguridad, Nicolás Corrado, dijo que otro de los riesgos asociados a esta tecnología es la inyección de inmediatoun tipo de ataque en el que el delincuente manipula las instrucciones dadas a un modelo de IA generativa para que actúe de una forma diferente a la determinada por el usuario.
“Por ejemplo, podemos hacer que la IA lea un depósito de 1 dólar y luego ver en la inyección que es 1 millón de dólares. Si hacemos esto por oficina administrativa (tareas administrativas de una empresa) y lo implementamos en un banco, se podría generar un depósito de US$ 1 millón en lugar de US$ 1”, ejemplificó.

espionaje industrial
La IA también abre nuevas posibilidades para descifrar secretos corporativos, plagios y vulnerar la propiedad industrial, aunque hoy en día no se conocen muchos casos en los que el uso de esta tecnología con estos fines haya estado directamente vinculado.
En 2023, la agencia de imágenes Getty Images inició un procedimiento judicial ante el Tribunal Superior de Justicia de Londres contra Stability AI, la empresa detrás del modelo de generación de imágenes Stable Diffusion, alegando que la empresa copió y procesó ilegalmente millones de imágenes protegidas por derechos de autor. derechos de autor y metadatos asociados, propiedad o representados por Getty Images, sin licencia.
El CEO de Hackmetrix -startup de certificación y cumplimiento de ciberseguridad-, Adriel Araujo, señaló que el uso de la IA, en muchos casos, “no es necesariamente más sofisticado que las técnicas de espionaje tradicionales”, pero ha revolucionado las prácticas de espionaje industrial al hacerlas “más rápidas”. , más eficiente y accesible”.
Por ejemplo, se utilizan drones equipados con tecnología de visión por ordenador, que pueden entrar en zonas restringidas sin ser detectados. En este caso, las imágenes capturadas se analizan con IA, lo que permite identificar patrones o anomalías y compararlas con registros anteriores. “para detectar cambios sutiles y obtener información clave casi al instante”.
Otra técnica común es la infiltración a través de expertos digitalesdonde, a través de profundoSe simula que los empleados o proveedores con acceso legítimo inserten malware (software malicioso) o robar información confidencial, “sin levantar sospechas”, afirmó.
IA en guerra: armamento automatizado y ética
En noviembre de 2021, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) publicó la “Recomendación sobre la ética de la inteligencia artificial”, el primer marco regulatorio universal sobre la ética de la IA.
El documento, que fue adoptado por los 193 estados miembros, no incluía una defensa por falta de acuerdo entre los países. Una exclusión amparada por potencias militares que tienen industria armamentista y que ha generado discusiones internacionales.
En septiembre se celebró en Corea del Sur la segunda cumbre sobre Inteligencia Artificial Responsable en el Ámbito Militar (Reaim), en la que se abordó el potencial impacto de la IA en la seguridad internacional ante los conflictos, riesgos y beneficios del uso militar de armas. con IA y uso responsable.
La cumbre culminó con la declaración “Plan de Acción”, que contó con el apoyo de 61 de los 90 países que participaron -China no lo firmó- y que establece una hoja de ruta para definir estándares y principios de IA en el ámbito militar, como mantener una adecuada participación humana.
El teniente coronel comandante del Batallón de Ciberdefensa del Ejército de Chile, Juan Pablo del Castillo, dijo que hoy hay varias potencias militares importantes que tienen iniciativas de aplicación de IA en desarrollo, “pero no todas están discutiendo los límites, al menos al menos desde el lado occidental.
Del Castillo señaló que las principales discusiones éticas que suscita la aplicación de esta tecnología están asociadas a sistemas de armas con toma de decisiones autónoma, que clasifican y determinan si un objetivo es o no una amenaza, y pueden tomar la decisión de disparar sin consultar a un humano. .
“Esto es diferente de los procesos de apuntar (selección y respuesta a un objetivo), donde hay un protocolo de decisión, asesoría jurídica, un marco legal, un paso a paso para reducir los daños colaterales, conforme a derecho”, comentó.
La preocupación estaría en la toma de decisiones sin mediación humana, lo que plantea interrogantes: “¿Tendrá fallas la IA? ¿Qué surge de los sesgos de los datos que tienes? Ese es el miedo que existe en la comunidad científica mundial, sobre cuáles son los alcances y límites que se pueden establecer”, dijo del Castillo.
El analista internacional y académico de la Universidad de Valparaíso, Guillermo Holzmann, comentó que ante un conflicto armado, la aplicación de IA hace más eficiente la función de mando, lo que implica “entrar en guerras multidominio donde las operaciones terrestres están siendo controladas a través de satélite.” y naval, utilizando vehículos no tripulados, cambia todos los elementos que definieron la guerra convencional”.
Sin embargo, comentó que hoy en día los vehículos de combate con sistemas de IA son operados en su mayoría de forma remota por humanos y que la transición hacia vehículos totalmente autónomos y con capacidad de decisión en la línea de batalla implica cuestiones de infraestructura tecnológica y riesgos vinculados a sesgos algorítmicos.
“Se requiere necesariamente una infraestructura en el ámbito espacial y cibernético, a nivel satelital y de intercomunicación para compartir datos en tiempo real”, afirmó Holzmann.
Además, la implementación de la IA en vehículos y armas de guerra estará marcada por algoritmos. y los datos biométricos con los que se entrenan los modelos.
“Por ejemplo, si un grupo terrorista islámico radical accede a un vehículo con armas autónomas y tiene IA, los algoritmos que van a poner en marcha son que cualquiera que responda biométricamente a un occidental debe ser asesinado. Entonces ahí hay una cuestión importante”, afirmó.
Según Holzmann, no hay suficiente información pública para determinar qué países están desarrollando prototipos de tanques o vehículos de IA capaces de tomar decisiones de ataque autónomas. Sin embargo, estima que los más avanzados podrían ser Estados Unidos, China, Türkiye y Reino Unido.
En 2022, el Ministerio de Defensa israelí presentó las primeras pruebas de Robust (Robotic Autónoma Sense and Strike), un vehículo de combate totalmente autónomo con inteligencia artificial, desarrollado junto con la empresa Elbit Systems.
El prototipo incorpora conducción autónoma con IA y cuenta con un artillero virtual con capacidad de reconocer y rastrear múltiples objetivos y priorizar ataques en función del contexto.
Para Holzmann, Israel, dada su capacidad tecnológica, “podría tener las condiciones para poder mantener un flujo permanente de transmisión de datos a un tanque autónomo”.






