Actualitat

Com es desenvolupen els sistemes capaços d’enganyar els algorismes de la intel·ligència artificial?

NOTÍCIES

11/03/2025

La intel·ligència artificial ha avançat de manera impressionant en els darrers anys, i ha aconseguit resultats sorprenents en àrees com el reconeixement d’imatges, la detecció de fraus i el processament del llenguatge natural.

Tot i això, a mesura que aquestes tecnologies es perfeccionen, també sorgeixen mètodes per enganyar-les. Hi ha sistemes dissenyats específicament per vulnerar algorismes de la IA, ja sigui amb finalitats de seguretat, investigació o, en alguns casos, amb intencions malicioses.

La manipulació de la IA

Un dels mètodes més utilitzats per enganyar els algorismes de la IA és l’atac contradictori. Aquests atacs es basen en la introducció de petites pertorbacions a les dades d’entrada amb l’objectiu de confondre el model i fer-li prendre decisions errònies.

En el cas del reconeixement d’imatges, per exemple, es poden afegir patrons pràcticament imperceptibles a una fotografia, cosa que provoca que l’algorisme identifiqui erròniament un objecte o una persona. Un exemple famós va passar quan uns investigadors van aconseguir que un model de la IA confongués una imatge d’un panda amb un gibó després de l’addició de soroll a la imatge.

Aquests tipus d’atacs també s’apliquen en sistemes de detecció de fraus i en models de processament de text. Mitjançant lleugeres modificacions a les dades, els atacants poden alterar els resultats generats per la IA, i comprometen la seguretat i la confiança d’aquests sistemes.

El desenvolupament dels hipertrucatges i la manipulació audiovisual

Un altre camp on els sistemes per enganyar la IA han evolucionat és en la creació dels hipertrucatges (deepfakes), tecnologia que permet manipular imatges i vídeos amb un alt grau de realisme. Amb l’ús de xarxes neuronals profundes, els hipertrucatges poden generar rostres, modificar expressions i fer que una persona sembli dir o fer alguna cosa que mai va passar.

Els hipertrucatges han esdevingut una eina de gran impacte en la manipulació de la informació. En alguns casos, es fan servir amb finalitats recreatives o educatives, però també han estat emprats per a la difusió de desinformació, suplantació d’identitat i fins i tot cibercrim.

Els sistemes de detecció dels hipertrucatges es basen en models de la IA que analitzen patrons als píxels dels vídeos o imatges, però els desenvolupadors d’aquestes falsificacions treballen constantment per millorar les seves tècniques per burlar aquests detectors. Aquesta carrera entre la IA que detecta hipertrucatges i la que els genera s’ha convertit en un repte constant en l’àmbit de la seguretat digital.

L’evasió de sistemes de seguretat i reconeixement facial

Un dels sectors on s’han desenvolupat més sistemes per enganyar la IA és en el reconeixement facial. Empreses de tecnologia i governs han implementat sistemes d’identificació basats en la IA a aeroports, entitats bancàries i dispositius mòbils, cosa que ha portat a la creació de mètodes per evadir-los.

Hi ha investigadors han demostrat que és possible burlar aquests sistemes amb tècniques com l’ús d’ulleres dissenyades amb patrons específics, màscares hiperrealistes o imatges alterades digitalment. Un cas notable va ser el desenvolupament d’ulleres amb estampats especials, que aconseguien enganyar sistemes de la IA de reconeixement facial fent que una persona semblés ser una altra completament diferent.

Aquests avenços han despertat preocupacions en termes de seguretat i privadesa. Si bé alguns mètodes són desenvolupats per investigadors amb finalitats d’estudi i millora de la tecnologia, també hi ha el risc que siguin aprofitats per delinqüents per eludir mesures de seguretat en accessos restringits o dispositius personals.

Intel·ligència artificial que enganya la intel·ligència artificial

Un fenomen interessant en aquest camp és la IA dissenyada per enganyar una altra IA. En alguns casos, els mateixos desenvolupadors creen sistemes que busquen explotar debilitats en algoritmes de la IA per detectar vulnerabilitats i millorar-ne la seguretat.

Aquest enfocament s’ha fet servir en la detecció de fraus, on algorismes maliciosos intenten evadir sistemes de verificació per obtenir accés a plataformes financeres o bases de dades protegides. Empreses de ciberseguretat han implementat IA contradictòries per simular aquests atacs i enfortir la robustesa dels seus sistemes.

D’altra banda, en l’àmbit de l’aprenentatge profund hi ha models anomenats Xarxes contradictòries generatives (GAN), on dues xarxes neuronals competeixen entre si. Una xarxa intenta generar contingut fals que sembli real, mentre que l’altra intenta detectar la falsificació. Aquest tipus de sistemes han estat claus en el desenvolupament d’imatges hiperrealistes i millores en la síntesi de veu, però també planteja desafiaments en termes de seguretat i autenticitat de la informació.

Ètica i desafiaments de l’engany a la intel·ligència artificial

El desenvolupament de sistemes capaços d’enganyar la IA planteja dilemes ètics i de seguretat importants. D’una banda, aquestes tècniques es poden fer servir per millorar els sistemes de detecció i fer que la IA sigui més resistent a manipulacions externes. De l’altra, hi ha el risc que siguin aprofitades per a finalitats poc ètiques, com la manipulació de la informació, fraus digitals o vulneració de privadesa.

El repte per als investigadors i desenvolupadors de la IA és trobar un equilibri entre l’avenç tecnològic i la protecció davant d’amenaces. Les empreses de tecnologia inverteixen constantment a millorar els seus algorismes per detectar atacs contradictoris, hipertrucatges i evasió de seguretat, però alhora han de considerar com protegir els usuaris d’aquestes mateixes eines quan són utilitzades amb males intencions.

El futur de la intel·ligència artificial davant la seva vulnerabilitat

A mesura que la IA continua evolucionant, també ho fan els mètodes per enganyar-la. Aquesta batalla tecnològica és una constant a la història de la ciberseguretat i continuarà sent un desafiament en el futur.

El desenvolupament d’algorismes més robustos, la integració de sistemes de detecció millorats i l’ús de tècniques avançades de xifratge són algunes de les estratègies que s’estan implementant per fer front a aquests problemes. Tot i això, l’adaptabilitat de la IA i la creativitat dels investigadors fan que aquest sigui un camp en canvi constant.

Llegiu la notícia original al seu lloc web oficial fent clic en aquest mateix enllaç