Hi ha el temor que les organitzacions públiques i privades puguin amagar-se de la seva responsabilitat en una presa de decisions cada vegada més mediada per l’ús generalitzat de sistemes d’IA. Però la responsabilitat no tan sols fa referència al retiment de comptes en relació amb les dades, els processos i els resultats d’un sistema d’IA en qualsevol etapa del seu cicle de vida, sinó també a la responsabilitat social en el seu disseny i desplegament.
Sabem que legislació sobre IA de la Unió Europea (coneguda com a AI Act) contemplarà algunes d’aquestes consideracions a través de quatre categories de risc diferenciades:
- aquelles que generen un risc inacceptable, i conseqüentment queden prohibides (e.g. la vigilància biomètrica a temps real, els sistemes de puntuació social administrada pels governs);
- les que generen un alt risc per a la salut, els drets fonamentals i la seguretat de les persones o el medi ambient, i que seran objecte d’una regulació estricta (e.g. requisits de transparència per als sistemes d’IA que classifiquen curriculum vitae, inclosa l’explicació de decisions als usuaris);
- les que es consideren d’un risc limitat, però que es veuran afectades per determinats requisits de transparència (e.g. fomentar l’ús de dades imparcials i mitigar els biaixos per prevenir pràctiques discriminatòries en l’ús de les IA generatives, com ChatGPT, Anthropic, Bard o similar);
- aquelles que en no trobar-se explícitament prohibides o en les anteriors categories no seran objecte de regulació (dins d’aquest grup s’inclouen la majoria de videojocs).
Per tant, la responsabilitat social associada als sistemes d’IA vindria a assenyalar la necessitat de models de desenvolupament que permetin establir eines de comunicació i control entre els sistemes d’IA, els desenvolupadors i la societat. Això és perquè aquesta última és la que finalment viu amb major intensitat les conseqüències de l’aplicació de la IA. Per exemple, entre els aspectes que destaquen sobre la responsabilitat social és el potencial de pèrdua de llocs de treball i, especialment, que hi hagi grups de població que vegin créixer la seva vulnerabilitat degut al desplegament generalitzat de la IA. El que això planteja per a qualsevol protocol d’avaluació de responsabilitat social, és que davant d’un enfocament proactiu real d’adopció d’IA en l’àmbit laboral, també ha d’haver-hi una protecció legítima dels interessos de les persones treballadores, per dos aspectes que estan relacionats.
El primer és que les tecnologies d’IA no funcionen independentment de la supervisió humana i, per tant, la por de la pèrdua de feina de les persones treballadores només projecta unes percepcions de capacitats exagerades dels sistemes d’IA als llocs de treball. La segona és que, malgrat que les persones treballadores poden percebre que perden habilitats específiques amb la IA als seus llocs de treball, conserven habilitats crítiques (humanes i conceptuals) i aquestes en cap cas s’han de menystenir, ja que beneficien la convivència. Però això, forma part del procés d’avaluació dels sistemes d’IA perquè és molt probable i (gairebé) inevitable que les persones treballadores i també les empreses (sempre) tinguin dubtes sobre les respostes, recomanacions i decisions que proporcionen els sistemes d’IA.
De fet, en la darrera onada de sistemes d’IA generativa podem veure com aquests generen unilateralment respostes que apareixen com a infal·libles, segures i fluides sense representacions d’incertesa ni la capacitat de comunicar la seva absència, el que pot provocar una distorsió del coneixement en la comunicació si ho comparem en com ens comuniquem entre persones, que utilitzen constantment expressions com ara “diria” o retards de resposta.
Tenint en compte que les persones ja estan predisposades a confiar en altres persones per sobre de les màquines, això podria generar percepcions negatives de la IA en la comunicació quotidiana, especialment quan aquesta està farcida d’estereotips i biaixos de tota mena (racials, de gènere o de classe) i que són coneguts amb major transparència a partir de les seves dades d’entrenament i d’altres factors estructurals. Malgrat que les persones desenvolupadores de sistemes d’IA reconeixen aquest problema persistent, s’ignoren les seves conseqüències, tant pels grups marginats que són els més afectats negativament per aquests biaixos com per la generació de prejudicis i creences causades per uns resultats dels models d’IA generativa que poden tornar-se tossuts i difícils de revisar un cop generats.
Però en la promoció de sistemes d’IA socialment responsables aquests no són els únics aspectes a considerar. A hores d’ara ja sembla evident que la revelació del material amb drets d’autor i drets de reproducció posaria en evidència una dependència clau, que és que la IA generativa s’ha fet a l’esquena de milers d’artistes que d’una manera ben lícita expressen el seu malestar després de copsar que les noves eines no generen material nou o de l’èter. Malgrat que aquest procés comporta riscos legals, inclosa la infracció de la propietat intel·lectual, el focus continua posat en un tipus d’agència sense intel·ligència que és cada vegada més tècnica i basada en la quantitat de dades i la velocitat de càlcul d’uns sistemes d’IA que poden fer més òptima l’estructura formal dels resultats. Juntament amb aquesta dependència del contingut i dels seus creadors, s’ha de subratllar la segona dependència social que és un gran nombre de persones que etiqueten les dades per entrenar-les perquè el funcionament de les tecnologies d’IA generativa demanda d’una quantitat enorme d’informació i d’anotacions seguida d’actualitzacions. Aquesta s’ha convertit en un dels aspectes més punyents des de la irrupció de la IA generativa respecte al desenvolupament de sistemes d’IA socialment responsables, ja que requereix que les dades que s’etiqueten i s’entrenin amb més precisió per generar contingut original nou, com ara sortides en forma de respostes, text, imatges, àudio, etc. Però aquesta tasca que s’ha accelerat en els darrers mesos depèn en gran manera de la mà d’obra de moltíssimes persones que fan les diverses anotacions i comprovacions amb una compensació de salaris molt baixos i amb conseqüències per a la seva salut mental. Si bé no hi ha estimacions del nombre de persones que treballen en l’anotació, diverses fonts assenyalen que es tracta d’un ordre de magnitud de “milions” i amb el potencial de convertir-se en “milers de milions”.
Tenint en compte aquesta mirada de consideracions ètiques i d’aplicació de l’AI Act, el nou model PIO de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC), inclou preguntes especialment rellevants sobre l’ús de sistemes d’IA socialment responsables com, per exemple, sobre l’impacte de la IA en els drets laborals i/o en la qualitat del treball de les persones1; sobre la millora la qualitat de vida dels usuaris de sistemes d’IA a escala individual i col·lectiu2; sobre l’accés social igualitari i digno en l’ús i implantació de sistemes d’IA3; o sobre els punts cecs dels sistemes d’IA mitjançant la participació de distintes parts interessades rellevants per comprovar les hipòtesis i discutir les implicacions o resultats amb comunitats afectades4.