Article

IA maligna o dades brutes?

ALBA LAMAS

Avui dia, que vivim en un món de dades, i què es fa amb elles pot afectar a milers de persones, és molt important parlar de l’ètica de les dades. Però què és?

Doncs si ens centrem a definir el primer terme, ètica, sabem que és una branca de la filosofia que estudia la conducta humana, el que és correcte i el que no, etc. i sabem que dintre de l’ètica, hi ha diferents branques, com l’ètica normativa (normes d’interès comú), i l’ètica aplicada (normes morals per camps específics).

Ara que sabem que és l’ètica, podem definir que és l’ètica de les dades. És un conjunt de normes, basades en els problemes relacionats amb les dades, algoritmes i corresponents pràctiques. Com aquest camp (l’ús de les dades) és bastant nou, encara avui dia s’estan definint aquestes normes ètiques, però a partir de les normes comunes, en molts casos, ja sabem quan s’estan utilitzant per fer el bé o no les dades.

La intel·ligència artificial (IA) consisteix, en grans trets, a entrenar algoritmes amb dades que ja tenim, per aconseguir-ne de noves com per exemple a través d’imatges, identificar imatges de gatets; que un robot aprengui a caminar i a evitar objectes (les dades aquí seria la informació del seu entorn i les seves possibilitats de moviment); etc.

La intel·ligència artificial pot tenir múltiples aplicacions, algunes bones i d’altres dolentes. Per exemple, la IA pot servir per informar. Alguns exemples de IAs que serveixen per això són BotSentinel, que és un bot de Twitter que detecta perfils falsos, l’algoritme de Facebook, per detectar notícies enganyoses o IA que serveix per detectar quan una imatge està retocada.

Per l’altra banda, la IA també es pot fer servir per desinformar, com amb l’eina deepTweets, que genera tweets falsos, però escrits com la persona que s’ha de fer passar, o Faceswap (l’app d’invertir les cares), que es pot fer servir per fer veure que algú ha dit alguna cosa que no és. Això fa, però, que la IA sigui maligna, com a vegades vol reflectir la societat?

Si fem una cerca a la secció de notícies, per exemple, amb les paraules “Big Data”, “Algoritmes” o “Intel·ligència Artificial”, ens podem trobar titulars com els següents (diferents fonts, de diaris espanyols i internacionals, traduïts al català):

Alba Lamas

Com veiem, en aquests contextos estan personificant les intel·ligències artificials i això fa, per la persona que no té coneixements sobre la matèria, que faci pinta que la culpa és de les màquines, i no dels humans que l’hem entrenat (o sigui, les dades que s’han triat per entrenar-les).

Us convido a fer l’exercici per vosaltres mateixos, a partir d’ara, de què ha pogut passar quan veieu un titular de l’estil i parar-vos a pensar, perquè una intel·ligència artificial ha pogut tenir una resposta poc ètica.

Molts cops, és per qüestions de biaix a les dades. Això passa quant a les dades que tenim, tenim molta representació d’un tipus de cosa, i poca de l’altra. Això ho veurem millor amb un exemple, mirem el següent titular:

Sembla ser, que l’algoritme de traducció de Google és masclista. Però és així? Recordem, que els algoritmes no els podem personificar, no tenen sentiments, així que segurament el problema està a les dades. Anem a veure què està passant:

En aquest cas, si traduïm uns textos en hongarès (sense gènere), cap a l’anglès, veiem com, depenent del context, es tradueix al masculí o al femení. Per què pot estar passant això? Doncs per la representació dels dos gèneres a les dades. Per exemple, segurament, per percentatge, la majoria de policies són homes, per això ho tradueix al masculí, i la majoria d’assistents són dones. Amb els textos amb els quals Google s’ha entrenat, era així la majoria de cops, llavors, amb la poca informació que té en el moment de traduir, i amb les dades que s’ha entrenat, l’algoritme ha après que té més possibilitat d’encertar la traducció fent-la així que amb un altre gènere. Per sort Google, sabent que això estava passant, en molts idiomes, si falta context com per saber el gènere, ens dona les dues opcions:

Com aquests, trobarem mil exemples més.

Hem d’evitar tenir por als algoritmes, i el que hem de fer és, ja que sabem que s’han entrenat malament, intentar entendre què ha pogut passar.

I això us ho deixo com exercici: què creieu que ha pogut passar aquí?

Posts relacionats

Participa

    Accepto que es tractin les meves dades per atendre la sol·licitud d'informació*Accepto que es tractin les meves dades per rebre el butlletí (opcional)

    Missatge enviat correctament.
    Hem enviat una còpia al correu electrònic que ens has facilitat
    Et respondrem tant aviat com sigui possible
    ';