Advierte Microsoft que países adversarios de Estados Unidos usan la IA para operaciones ofensivas

Internacional
/ 23 febrero 2024

Microsoft precisó que adversarios de Estados Unidos, esencialmente Irán y Corea del Norte y, en menor medida, Rusia y China, iniciaron a usar la inteligencia artificial generativa para organizar operaciones cibernéticas ofensivas

BOSTON- El gigante tecnológico y socio comercial OpenAI dieron a conocer que lograron detectar e interrumpido de forma conjunta el uso de sus tecnologías de inteligencia artificial por parte de ciberactores maliciosos, por lo que decidieron cerrar sus cuentas.

Microsoft publicó el pasado 14 de febrero en su blog que las técnicas que fueron empleadas estaban en “etapa temprana”, por lo que no eran “particularmente novedosas o únicas”, sin embargo, sí era importante exponerlas públicamente mientras los adversarios estadounidenses aprovechan modelos de lenguaje con el propósito de lograr expandir su capacidad de violar redes y ejercer influencia. operaciones.

TE PUEDE INTERESAR: Revelan la ‘Madre de todos los hackeos’ con una filtración de 26 mil millones de registros de cuentas robadas de Twitter, LinkedIn y más

El mundo de la ciberseguridad está experimentando una transformación masiva. La IA está a la vanguardia de este cambio y tiene el potencial de empoderar a las organizaciones para derrotar los ciberataques a la velocidad de las máquinas, abordar la escasez de talento cibernético e impulsar la innovación y la eficiencia en la ciberseguridad. Sin embargo, los adversarios pueden utilizar la IA como parte de sus hazañas, y nunca ha sido más importante para nosotros proteger nuestro mundo mediante la IA y proteger la IA para nuestro mundo”, explica Microsoft en su blog

Si bien, las empresas de ciberseguridad llevan mucho tiempo haciendo uso del aprendizaje automático en defensa, primordialmente con el objetivo de detectar comportamientos anómalos en las redes; también es utilizada tanto por los delincuentes como los piratas informáticos y la introducción de modelos de lenguaje liderados por ChatGPT de OpenAI aumentó su uso em ambos bandos.

$!El director ejecutivo de Microsoft, Satya Nadella, habla en un evento en el grupo de expertos Chatham House en Londres.

En respuesta a esta situación Microsoft precisa en su blog “hoy lanzamos la sexta edición de Cyber Signals, destacando cómo protegemos las plataformas de IA de amenazas emergentes relacionadas con actores de ciberamenazas de estados-nación”.

Así mismo, señala el gigante tecnógico que en “colaboración con OpenAI”, comparten la información en relación con “los actores de amenazas afiliados a estados rastreados por Microsoft, como Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon y Salmon Typhoon, que han tratado de utilizar modelos de lenguaje grandes (LLM) para aumentar sus operaciones de ciberataque en curso”. En el blog se resalta que “esta importante investigación expone los primeros movimientos incrementales que observamos que estos actores de amenazas conocidos adoptan en torno a la IA y señala cómo bloqueamos su actividad para proteger las plataformas y los usuarios de la IA”.

TE PUEDE INTERESAR: OMS publica una guía para un uso ético y seguro de la IA en la salud

Así mismo, Microsoft dio a conococer cuáles son “los principios de que guían nuestras acciones para mitigar los riesgos de las amenazas persistentes avanzadas, los manipuladores persistentes avanzados y los sindicatos cibercriminales que utilizan plataformas de inteligencia artificial y API”. Estos incluyen tanto la identificación, así como la acción contra el uso de amenazas maliciosas, además la notificación a otros proveedores de servicios de IA,también la colaboración con otras partes interesadas y la transparencia.

Así también, precisa Microsoft, que la empresa está brindando ayuda a la comunidad de seguridad a que puedan entender y consegir detectar “las perspectivas emergentes de los LLM en la actividad de ataque”. Por lo que, prosigue el ginante tecnológico, continuamos trabajando con MITRE con el fin de añadir “estas tácticas, técnicas y procedimientos (TTP) con temas de LLM en el marco MITRE ATT&CK® o la base de conocimiento MITRE ATLAS™ (Adversarial Threat Landscape for Artificial-Intelligence Systems). Esta expansión estratégica refleja un compromiso no solo de rastrear y neutralizar amenazas, sino también de ser pionero en el desarrollo de contramedidas en el panorama cambiante de las operaciones cibernéticas impulsadas por IA”.

$!Sexta edición de Cyber Signals.

De acuerdo con el blog, en edición de Cyber Signals “comparte información” en referencia en es cómo que los actores de amenazas hacen uso de la IA para mejorar sus ataques y también cómo es que “usamos la IA para proteger a Microsoft”.

Los ciberdelincuentes y los actores patrocinados por el Estado están recurriendo a la IA, incluidos los LLM, para mejorar su productividad y aprovechar plataformas que puedan promover sus objetivos y técnicas de ataque. Aunque los motivos y la sofisticación de los actores de amenazas varían, comparten tareas comunes al implementar ataques. Estos incluyen reconocimiento, como la investigación de industrias, ubicaciones y relaciones de posibles víctimas; codificación, incluida la mejora de scripts de software y desarrollo de malware; y asistencia para aprender y utilizar lenguajes humanos y de máquina. Nuestra investigación con OpenAI no ha identificado ataques significativos que empleen los LLM que monitoreamos de cerca”, explica Microsoft.

Por lo que el gigante tecnológico, para dar una respuesta a esta situación emplea distintos métodos con el propósito de “protegerse de este tipo de ciberamenazas”, incluyendo el lograr detectar las “amenazas habilitada por IA” con el objetivo de poder “detectar cambios en la forma en que se utilizan los recursos o el tráfico en la red”; así mismo lleva a acobo “análisis de comportamiento para detectar inicios de sesión riesgosos y comportamientos anómalos”; además de “modelos de aprendizaje automático para detectar inicios de sesión riesgosos y malware; Zero Trust, donde cada solicitud de acceso debe estar completamente autenticada, autorizada y cifrada; y el estado del dispositivo se verificará antes de que un dispositivo pueda conectarse a la red corporativa”.

Microsof señala que la aportrción de la IA en la ciberseguridad es polifacético y al mismo tiemp impele tanto la innovación como la eficiencia en diversos ámbitos. Ya sea modernizando la detección de amenazas hasta acuciar la respuesta a incidentes, por lo tanto, prosigue el gigante tecnológico, al hacer uso de LLM en ciberseguridad es una muestra del “potencial de la IA”. Estos modelos, continúa explicando Microsoft, son capaces poder hacer una análisis de enormes cantidades de datos con el fin de lograr “descubrir patrones y tendencias en las ciberamenazas, agregando un contexto valioso a la inteligencia sobre amenazas”. Y por otra parte, además auxilian “en tareas técnicas como ingeniería inversa y análisis de malware, proporcionando una nueva capa de defensa contra los ciberataques. Por ejemplo, los usuarios de Microsoft Copilot for Security han mostrado un aumento del 44 % en la precisión en todas las tareas y una tasa de finalización un 26 % más rápida. Estas cifras resaltan los beneficios tangibles de integrar la IA en las prácticas de ciberseguridad”, se indica en el blog.

Microsoft, concluye que conforme se asegura el futuro de la IA, des importante reconocer su “naturaleza dual de la tecnología”, ya que contribuye al desarrollo de nuevas “capacidades y también nuevos riesgos”. Siendo así, que la IA no es solamente una herramienta, además es “un cambio de paradigma en ciberseguridad”, que posibilita poder defenderse de posibles ciberamenazas más complejas y lograr adaptarse “al panorama dinámico de amenazas”. “Al adoptar la IA, podemos ayudar a garantizar un futuro seguro para todos”, asegura el gigante tecnológico.

CIBERSEGURIDAD

En opinión de Jen Easterly, directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos, comentó al Congreso que “hay dos amenazas y desafíos que definen una época. Uno es China y el otro es la inteligencia artificial”.

Asimismo, Easterly, expresó en ese momento que Estados Unidos requiere asegurarse que la IA se vaya desarrollando tomando en cuenta la seguridad.

Por otra parte, los críticos al lanzamiento de ChatGPT en noviembre de 2022, aseguran que este hecho fue imprudentemente apresurado

Por supuesto, los malos actores están utilizando modelos en lenguaje amplio; esa decisión se tomó cuando se abrió la Caja de Pandora”, precisó Amit Yoran, director ejecutivo de la firma de ciberseguridad Tenable a The Associated Preess.

Con información de la Agencia The Associated Pres y Microsoft.

COMENTARIOS

Selección de los editores