Miembros de CIBERIA presentan estudios sobre modelos de IA y ciberseguridad en la Conferencia ARES

ARES Conference

Como parte de las acciones de los socios del proyecto CIBERIA, un grupo de investigadores de la Universidade da Beira Interior en Portugal presentaron el artículo "Analysis of the Capability and Training of Chats Bots in the Generation of Rules for Firewall or Intrusion Detection Systems" en la Conferencia ARES, celebrada entre el 30 de julio y el 2 de agosto en Viena, Austria.

Dado el creciente interés y evolución de ChatGPT, este artículo se centra en explorar Big Language Models (modelos de IA entrenados con enormes cantidades de datos que son capaces de comprender y generar lenguaje natural). Estas herramientas muestran cierto potencial para salvar la brecha de conocimiento en diversas áreas técnicas, como la ciberseguridad, proporcionando, en este caso concreto, una forma de convertir instrucciones escritas en lenguaje natural en instrucciones especializadas para sistemas de software, como reglas de cortafuegos.

Este estudio analiza la capacidad de los chatbots utilizados en la actualidad en la generación de reglas para cortafuegos y sistemas de detección de intrusiones. Esta evaluación preliminar, realizada de forma manual debido a las diversas soluciones posibles para un mismo ataque, reveló que los chatbots disponibles tienen una capacidad limitada para generar reglas correctas y eficientes, y puso de relieve la necesidad de ser cuidadosos a la hora de utilizar sus resultados para el fin mencionado.

Para superar esta limitación, se exploraron tres enfoques diferentes de ajuste (el proceso de adaptar un modelo preentrenado a una tarea específica), cada uno con un objetivo diferente y distintos porcentajes de éxito.

El primer enfoque tenía como objetivo probar la capacidad del modelo para utilizar los conocimientos obtenidos del conjunto de datos utilizado para su entrenamiento, cuando la pregunta estaba estructurada de forma diferente, alcanzando una tasa de éxito del 89%.

El segundo enfoque pretendía probar la capacidad del modelo para asociar los conocimientos obtenidos a partir de dos pares pregunta-respuesta diferentes, registrando una tasa de éxito del 61%.

El tercer y último enfoque pretendía probar si el modelo podía crear reglas complejas aprendiendo primero reglas sencillas. A través de esta prueba se obtuvo una tasa de éxito del 79%.

Estos enfoques mostraron una mejora significativa en comparación con el modelo base en el que se realizó el ajuste fino (tasa de éxito del 4%) y demuestran que se trata de un enfoque viable para desarrollar un modelo especializado contra los ciberataques.