Inteligencia artificial y cyber seguridad: hay hackers creando malware con ChatGPT
La inteligencia artificial está en uno de sus momentos más importantes gracias, sobre todo, a ChatGPT, DALL-E y MidJourney. Ahora investigadores mostraron cómo se puede usar el algoritmo conversacional creado por OpenAI para desarrollar malware que se adapta a los entornos que infecta.
Contenido publicado originalmente en Patagonian
Expertos de la empresa de seguridad informática Cyberark explicaron que pudieron usar ChatGPT para crear malware polimórfico, que se trata de un software malicioso que puede alterar su propio código para evitar ser detectado y hacer más compleja su eliminación.
«Una de las capacidades poderosas de ChatGPT es la posibilidad de crear fácilmente y mutar continuamente los inyectores. Al consultar todo el tiempo el chatbot y recibir una pieza de código única cada vez, es posible crear un programa polimórfico que sea altamente evasivo y difícil de detectar”, explicaron en el informe.
¿Cómo lo hicieron? Los investigadores desarrollaron un código que permitía hacer consultas periódicas a ChatGPT en busca de nuevos módulos que ejecuten acciones maliciosas. Y lo lograron. En pocas palabras, lo que significa esto es que los atacantes ni siquiera necesitan actualizar su código cada vez que los descubren. El código puede «editarse» a sí mismo. «El uso de la API de ChatGPT dentro del malware puede presentar retos significativos para los profesionales de la seguridad. Es importante recordar que no se trata de un escenario hipotético, sino de una preocupación muy real», agregaron.
Pero que ahora estén todos subidos al tren de la inteligencia artificial no significa que en el campo de la cyber seguridad no se estén utilizando estos avances hace rato. «Los atacantes siempre se apoyaron en alguna forma de inteligencia artificial para realizar mejores ataques que los que hacían apenas un mes antes o incluso semanas antes. La inteligencia artificial se adapta mucho más rápido que las instituciones que intentan protegerse contra una amenaza», explicó el experto Sreekar Krishna. Él, que trabajó en Microsoft, dijo que la empresa fundada por Bill Gates viene utilizando este tipo de tecnologías para mejorar sus sistemas de seguridad hace, al menos, una década.
Pero hay algo que sí logró ChatGPT y que es clave: lo hace más simple. Lo que antes se hacía a través de varios algoritmos hoy se puede hacer con uno solo.
Lo que hacen las grandes empresas de tecnología como Google o Netflix, según Krishna, es encadenar algoritmos para lograr su cometido. Un modelo genera un output que funciona como input del siguiente y así sucesivamente hasta crear el resultado que desean. Hoy todo es posible solo con ChatGPT que, como si fuera poco, está al alcance de todos.
Pero así como hay criminales que están utilizando estos sistemas para crear novedosas formas de ataque, hay expertos que también la utilizan para mejorar sus métodos. David Cieslak, vicepresidente ejecutivo de RKL eSolutions, comenta que la inteligencia artificial hace años que le hace la vida más fácil a los que trabajan en cyber seguridad. Desde herramientas que pueden parecer simples, como filtros de spam o scanners de virus, hasta otras mucho más complejas.
«¿Se está utilizando la inteligencia artificial para atacar? Sí. ¿Y para defender? También. Esto es similar a la conversación que escucho sobre la computación cuántica. Dicen que podrá romper códigos que hoy son inquebrantables en un instante pero, al mismo tiempo, la computación cuántica puede hacernos potencialmente imposibles de hackear. Ambos equipos están jugando con las mismas municiones», dijo Cieslak.
Comentarios