Actualitat

OpenAI admet que els ciberdelinqüents usen ChatGPT per donar suport a la creació de codi maliciós (malware)

NOTÍCIES

25/10/2024

L’informe ‘Influència i operacions cibernètiques’ analitza de quina manera els actors maliciosos fan servir els models avançats d’IA.

Els ciberdelinqüents fan servir el model de llenguatge GPT, d’OpenAI, per crear programari maliciós amb el suport de la intel·ligència artificial (IA), malgrat les limitacions integrades per l’empresa tecnològica, com també per crear i difondre continguts a les xarxes socials.

OpenAI ha interromput més de 20 operacions malicioses i xarxes dedicades a l’engany que han intentat fer servir els seus models. A això cal afegir activitats com ara la redacció de publicacions per a xarxes socials i depurar codi maliciós (malware), i que l’empresa recull en l’actualització de l’informe Influència i operacions cibernètiques.

Amb aquesta anàlisi, OpenAI pretén comprendre les diferents maneres en què els actors maliciosos fan servir els models avançats d’IA amb finalitats perilloses, per anticipar-se i planificar adequadament les mesures d’aplicació de la llei.

Abans de desplegar productes acabats

En aquest context, en data d’octubre del 2024, l’empresa ha comprovat que els ciberdelinqüents fan servir els models d’IA «per fer tasques en una fase específica i intermèdia de l’activitat», és a dir, després d’haver adquirit eines bàsiques com ara comptes de xarxes socials i correus electrònics, però abans de «desplegar els productes acabats», com poden ser les publicacions de xarxes socials i els programes maliciosos.

En qualsevol cas, OpenAI indica que encara que els actors maliciosos fan servir els seus models, no han detectat que aquest ús s’hagi traduït en capacitats importants a l’hora d’explotar vulnerabilitats al món real, és a dir, que no ha derivat en «la creació substancial de nou codi maliciós (malware) ni en la creació d’audiències virals».

Sí que han detectat activitat enganyosa a xarxes socials que aconsegueix una audiència de grans dimensions, però en aquests casos, matisa, «l’interès va ser un engany sobre l’ús de la IA, no l’ús de la IA en si».

SweetSpect

Un dels casos analitzats és el de SweetSpect, un grup d’amenaces d’origen xinès que va fer servir els models d’OpenAI «per donar suport a les seves operacions cibernètiques ofensives i alhora fer atacs de pesca» que va dirigir contra els empleats de l’empresa tecnològica, fent-se passar per un usuari de ChatGPT que buscava ajuda del suport tècnic, per infectar els seus equips i controlar-los.

Per part seva, l’actor iranià STORM-0817 va utilitzar els models d’IA per depurar codi i obtenir assistència en la programació d’un nou codi maliciós per a Android encara en desenvolupament i «relativament rudimentari», amb capacitats estàndard de vigilància. També va fer servir el ChatGPT per implementar la infraestructura de comandament i control.

OpenAI també ha assegurat que, en un any en què més de 2.000 milions de persones estan cridades a participar en processos electorals a 50 països de tot el món, no han observat «cap cas d’operacions d’influència relacionades amb les eleccions que atreguin participació viral o construeixin audiències sostingudes» amb l’ús dels models d’IA.

Llegiu la notícia original al seu lloc web oficial fent clic en aquest mateix enllaç