29.8 C
Mexico
domingo, mayo 4, 2025

Riesgos y amenazas de la inteligencia artificial (AI) en las organizaciones

Por Luis Carlos Bobadilla, Cloud Security Engineer en myCloudDoor.

Actualmente, la inteligencia artificial (IA) está revolucionando diversas industrias, incluyendo el ámbito de la ciberseguridad. Si bien se presentan oportunidades significativas para mejorar los diferentes procesos y seguridad en las organizaciones, también introduce nuevos riesgos y amenazas que deben ser conocidas y gestionados de manera efectiva.

A continuación, se mencionan algunos de los principales riesgos y amenazas de ciberseguridad que surgen de la combinación de IA e ingeniería social en las organizaciones.

Spear phishing personalizado y automatizado

El spear phishing, es una variante altamente dirigida del phishing, se ha vuelto más efectivo con la ayuda de la IA permite a los atacantes analizar grandes cantidades de datos de redes sociales, correos electrónicos y otros medios para generar mensajes de phishing altamente personalizados y convincentes. La IA permite automatizar el proceso de recopilación de datos y personalización de ataques, aumentando las probabilidades de éxito.

Clonación de voz y deepfakes

La IA facilita la creación de deepfakes, videos falsos altamente realistas, y la clonación de voz. Los atacantes pueden utilizar estas tecnologías para hacerse pasar por ejecutivos o empleados de alto rango y engañar a otros empleados para que realicen transferencias de dinero o proporcionen información confidencial. Los deepfakes hacen que los ataques sean extremadamente difíciles de detectar.

Chatbots maliciosos

Los chatbots impulsados por IA, diseñados para interactuar con usuarios de manera natural, pueden ser explotados por ciberdelincuentes para realizar ataques de ingeniería social. Estos chatbots maliciosos pueden recopilar información confidencial haciéndose pasar por representantes de servicio al cliente o soporte técnico. La capacidad de la IA para generar respuestas creíbles y en tiempo real facilita la manipulación de las víctimas.

Automatización del scraping de datos y análisis de patrones

La IA permite a los atacantes recopilar y analizar grandes cantidades de datos en línea, como redes sociales y correos electrónicos, para identificar objetivos clave dentro de una organización. Esta información se puede utilizar para diseñar ataques de ingeniería social altamente personalizados, aprovechando las debilidades específicas de las víctimas.

Ingeniería social basada en emociones manipuladas

La IA puede analizar el comportamiento y lenguaje de las víctimas para identificar vulnerabilidades emocionales, como el miedo, la urgencia o la confianza. Los atacantes pueden usar estos conocimientos para diseñar ataques de phishing que exploten estas emociones, manipulando a las víctimas para que tomen decisiones rápidas e irracionales, como hacer clic en enlaces maliciosos o compartir información confidencial.

Engaño en redes sociales y suplantación de identidad automatizada

La IA puede automatizar la creación de perfiles falsos en redes sociales, haciéndose pasar por empleados o contactos de confianza. Estos perfiles pueden interactuar con empleados reales y, eventualmente, solicitar información confidencial o acceso a sistemas. Además, los atacantes pueden utilizar IA para analizar las estructuras internas de las organizaciones y dirigirse a empleados clave con ataques personalizados.

Una vez enumerados los principales riesgos y amenazas paso a compartir una serie de casos reales en el mundo en la última década:

Caso 1: Fraude de clonación de voz a una empresa energética en el Reino Unido (2019)

En este caso, publicado en el Wall Street Journal, los atacantes utilizaron tecnología de IA para clonar la voz del CEO de una empresa matriz alemana. Llamaron a un directivo de la filial en Reino Unido y lo convencieron de realizar una transferencia de $243,000 a una cuenta fraudulenta. La voz clonada era tan convincente que el fraude se completó antes de que se descubriera. Este tipo de ataques de “vishing” (phishing por voz) demuestra cómo la IA puede facilitar fraudes altamente sofisticados.

Caso 2: Deepfakes en campañas políticas (2020)

Un deepfake del discurso de la primera ministra belga, Sophie Wilmès, sobre el COVID-19 ocupa una de las páginas en The Brussels Times, puesto que fue utilizado por un grupo político para difundir desinformación. Aunque el video fue rápidamente desacreditado, el impacto de este deepfake subrayó cómo la IA puede ser utilizada para manipular la opinión pública y generar confusión en temas críticos como la pandemia.

Caso 3: Suplantación de identidad en LinkedIn (2022)

Los ciberdelincuentes han utilizado perfiles falsos generados por IA en LinkedIn para hacerse pasar por profesionales del sector de ciberseguridad. Estos perfiles engañaban a expertos y lograban conexiones, que luego se explotaban para recopilar información o lanzar ataques más personalizados. Este tipo de ataques muestra cómo la IA puede utilizarse para ganar la confianza de las víctimas y aumentar la efectividad de la ingeniería social.

Caso 4: Ataque deepfake contra el presidente de Ucrania (2022)

En marzo de 2022, durante la invasión rusa a Ucrania, se difundió un video deepfake del presidente de Ucrania, Volodímir Zelenski, pidiendo a los ciudadanos que se rindieran ante Rusia. El video fue rápidamente desmentido, pero su circulación masiva en redes sociales subrayó el peligro de los deepfakes en contextos políticos y de guerra. Este ataque fue especialmente significativo porque ocurrió en medio de una crisis militar y tenía el potencial de influir en la moral del pueblo ucraniano.

El video mostró el poder de las herramientas de IA para manipular a la audiencia de manera extremadamente creíble, lo que podría generar caos y desinformación en situaciones ya de por sí críticas.

Para protegerse frente a los riesgos y amenazas impulsadas por la inteligencia artificial (IA), las organizaciones deben adoptar un enfoque integral de seguridad que combine tecnología avanzada, políticas de ciberseguridad, y la capacitación continua de su personal. A continuación, indico siete recomendaciones clave:

Capacitación en ciberseguridad

La conciencia y formación constante de los empleados son esenciales para que puedan identificar ataques de ingeniería social impulsados por IA, como spear phishing o suplantación de identidad. Los empleados deben ser capaces de reconocer señales sutiles en correos electrónicos, mensajes de texto o incluso llamadas de voz que puedan haber sido manipulados por IA.

Autenticación multifactor (MFA)

El uso de autenticación multifactor es clave para prevenir accesos no autorizados, incluso si los atacantes logran obtener credenciales mediante ingeniería social. MFA añade una capa adicional de seguridad al requerir múltiples formas de verificación.

Políticas de gestión de datos y privacidad

Las organizaciones deben contar con políticas rigurosas de protección de datos, especialmente en lo relacionado con el entrenamiento de modelos de IA. Los datos utilizados para entrenar estos modelos deben ser seguros y auditados para prevenir la manipulación o el envenenamiento de datos.

Monitoreo continuo y análisis de comportamiento

La supervisión proactiva mediante la implementación de herramientas de monitoreo continuo, que detectan patrones inusuales en el comportamiento de usuarios o sistemas, puede ayudar a identificar ataques en tiempo real. Estos sistemas pueden alertar sobre cualquier intento de acceso irregular o comportamientos que sean indicativos de una suplantación de identidad.

Crear una cultura de ciberseguridad

Fomentar una cultura organizacional orientada a la ciberseguridad es esencial. Esto incluye no solo entrenamientos y políticas, sino también la promoción de una mentalidad en la que los empleados actúen como la primera línea de defensa. Fomentar la cultura de reportar incidentes sospechosos puede prevenir ataques a gran escala.

Actualización constante y parches de seguridad

Dado que las amenazas de IA evolucionan rápidamente, es crucial que las organizaciones mantengan sistemas, software y herramientas de ciberseguridad actualizados para cerrar brechas de seguridad que los atacantes podrían aprovechar.

Estas medidas, combinadas con una estrategia de ciberseguridad sólida, pueden ayudar a las organizaciones a protegerse de los riesgos y amenazas de la inteligencia artificial.

Implementar herramientas avanzadas de detección

La adopción de tecnologías como detección de deepfakes y análisis de voz basado en IA puede ayudar a identificar contenido falso, como videos manipulados o voces clonadas. Herramientas como análisis de espectrogramas o algoritmos de detección de anomalías pueden identificar patrones irregulares en imágenes o voces, lo que facilita la identificación de intentos de suplantación.

Las diferentes amenazas impulsadas por la inteligencia artificial, como el spear phishing automatizado, la clonación de voz y los deepfakes entre otras, están transformando el panorama de la ciberseguridad de manera alarmante. Solo a través de una combinación de tecnología avanzada y conciencia humana se podrán mitigar estas nuevas y sofisticadas amenazas. Desde myCloudDoor trabajan para que las organizaciones adopten medidas proactivas, para sensibilizar y capacitar a los usuarios, y poder actuar de manera eficiente frente a estos riesgos.

Artículos Recientes

Te puede interesar