El costat fosc dels LLM
15/01/2025
Els LLM (models de llenguatge extens) representen un dels avenços més interessants en intel·ligència artificial en els darrers anys, fins al punt de ser capaços de revolucionar la manera com treballem, ens comuniquem i desenvolupem tecnologia. Però com a qualsevol eina poderosa, també tenen un costat fosc. En els darrers mesos, s’ha descobert que aquestes IA avançades s’estan fent servir per automatitzar l’ofuscació de codi maliciós, dificultant-ne la detecció per part dels sistemes de ciberseguretat.
L’ofuscació és una tècnica comuna en programació que transforma el codi font per fer-ho pràcticament il·legible, sense alterar-ne la funcionalitat. És una estratègia que es fa servir tant en contextos legítims, per exemple per protegir la propietat intel·lectual, com en escenaris maliciosos, on serveix per amagar intencions perilloses. Tradicionalment, l’ofuscació requeria habilitats tècniques especialitzades o eines específiques. Amb els LLM, però, el procés es pot automatitzar i diversificar a un nivell sense precedents.
Per fer servir l’ofuscació, un atacant només ha d’introduir un fragment de codi JavaScript en un model de llenguatge com el GPT-4, i demanar-li que el reescrigui de diferents maneres. El resultat: múltiples variants del mateix codi maliciós que poden arribar a evadir amb més facilitat els sistemes de detecció basats en signatures. Això converteix els LLM en aliats perillosos per als qui busquen sortejar les barreres de seguretat digital, perquè permeten crear patrons únics que confonen els sistemes tradicionals de protecció.
L’impacte per a la ciberseguretat és evident. Si bé les empreses han avançat en la implementació de mesures més sofisticades, aquestes tecnologies exigeixen un replantejament de les estratègies defensives. La detecció estàtica d’amenaces, basada a identificar patrons coneguts, es queda curta davant de la creativitat il·limitada que poden oferir els LLM. Per això, l’enfocament s’ha de centrar en eines més dinàmiques, com l’anàlisi de comportament, que avaluen com s’executa el codi en lloc de com es veu a simple vista.
A la part positiva, això sí, tenim que les mateixes capacitats que generen aquesta amenaça també podrien ser part de la solució. En entrenar models específicament dissenyats per detectar ofuscació automatitzada, les empreses de seguretat poden avançar-se als atacants. A més, aquestes IA podrien col·laborar en la creació d’entorns més segurs i identificar possibles vulnerabilitats abans que siguin explotades.
El dilema ètic també és sobre la taula. Els avenços tecnològics sempre han estat una espasa de doble tall, i els LLM no en són una excepció. Encara que el seu potencial positiu és innegable, com millorar la productivitat i resoldre problemes complexos, també exigeixen un compromís constant per garantir-ne l’ús responsable. La comunitat tecnològica ha de treballar conjuntament per establir pautes ètiques i desenvolupar contramesures efectives davant d’aquests riscos emergents.