Article

El model PIO

Observatori d’Ètica en IA de Catalunya

Una autoavaluació per avançar en l’ús ètic de dades i sistemes d’intel·ligència artificial (IA) a través d’un “checklist”.

Mentre les organitzacions del sector públic i privat inverteixen quantitats importants de recursos per adoptar sistemes d’IA de forma generalitzada, encara queda molta feina per fer per augmentar les oportunitats i abordar els reptes que això suposa sense una posada en pràctica de principis ètics i mecanismes de responsabilitat.

La creixent importància dels sistemes d’IA per a nombrosos aspectes de la nostra vida quotidiana ha fet que es demani una major inclusió de consideracions ètiques i socials. I, és clar, per fer-ho hem de tenir clar quins són els aspectes que hem de tenir en compte i aplicar-los d’una manera senzilla i pràctica per tal d’exercir un continu procés de rendició de comptes dels usos de la IA. Això no obstant, són molt poques les orientacions sobre com s’integren les preocupacions ètiques i socials en ecosistemes d’innovació malgrat la seva importància per avançar i obrir el camí per a una IA realment de confiança.

Amb l’objectiu general de demostrar que és possible avançar en aquesta direcció, l’Observatori d’Ètica en intel·ligència artificial de Catalunya (OEIAC) ha presentat una aplicació web i un informe sobre el model PIO (Principis, Indicadors, Observables): Una proposta d’autoavaluació organitzativa sobre l’ús ètic de dades i sistemes d’IA, dissenyat i desenvolupat pel mateix OEIAC. Els objectius específics del model PIO són:

  • Sensibilitzar als diferents agents de la quàdruple hèlix, és a dir, la presència dels quatre pilars clau en qualsevol procés innovador: universitats i centres de recerca, administració pública, teixit empresarial, i ciutadania, que utilitzen dades i sistemes d’IA, sobre la importància d’adoptar principis ètics fonamentals per minimitzar riscos coneguts i desconeguts i maximitzar oportunitats.
  • Identificar accions adequades o inadequades a través d’una proposta d’autoavaluació basada en principis, indicadors i observables per valorar, recomanar i avançar en l’ús ètic de dades i sistemes d’IA.

Aquests objectius parteixen d’un fet incontestable, que és la proliferació de productes i serveis que fan servir sistemes d’IA.

Davant d’això, el públic ha d’assegurar-se que els sistemes d’IA són, entre altres, justos, explicables i segurs, i que les organitzacions que els implementen són transparents i responsables.

Aquests objectius parteixen d’un fet incontestable, que és la proliferació de productes i serveis que fan servir sistemes d’IA. Davant d’això, el públic ha d’assegurar-se que els sistemes d’IA són, entre altres, justos, explicables i segurs, i que les organitzacions que els implementen són transparents i responsables. Així doncs, per fomentar la confiança del públic en les tecnologies d’IA cal un suport creixent a les estratègies d’autoavaluació sistemàtica per ajudar a aconseguir resultats més segurs, més fiables i més justos; per reduir el risc d’impacte negatiu en els afectats per les aplicacions d’IA; i per posar en pràctica generalitzada els estàndards ètics més alts per part d’organitzacions a l’hora de dissenyar, desenvolupar i implementar sistemes d’IA.

El model PIO és un pas més per avançar en aquesta direcció, ja que proporciona una integració de la teoria a la pràctica de principis ètics fonamentals de la IA, i es construeix al voltant de la senzillesa i d’una pregunta clau i efectiva que qualsevol persona que desenvolupa, gestiona o dirigeix un projecte on hi ha dades i sistemes d’IA pot entendre fàcilment: Ho hem fet? En aquest sentit, partint d’una perspectiva de responsabilitat social organitzativa, es proposa la utilització d’un model que es pot utilitzar en qualsevol fase del cicle de vida de les dades i sistemes d’IA. Això significa que és aplicable en el disseny i modelització, incloent-hi planificació, recollida de dades i construcció de models; en el desenvolupament i validació, incloent-hi formació de models i proves; i en el desplegament, seguiment i perfeccionament, incloent-hi en la resolució de problemes.

Específicament, el model PIO permet autoavaluar-se en 7 eixos o principis relacionats amb l’ètica de les dades i dels sistemes d’IA, per obtenir una valoració per a cadascun d’ells i una “insígnia” amb el resultat: Transparència; Justícia i equitat; Seguretat i no maleficència; Responsabilitat i retiment de comptes; Privacitat; Autonomia; i Sostenibilitat. Per fer-ho, el model recull les respostes binàries (Sí/No) de l’organització que du a terme l’autoavaluació a les 70 preguntes sobre cadascun dels 7 principis avaluats, n’obté les mètriques per a cadascun d’ells i genera una insígnia de qualitat per a l’organització. Aquesta insígnia és la imatge gràfica del model d’autoavaluació PIO representant l’adequació de les dades i sistemes d’IA segons els 7 principis ètics del model. En aquest procés s’utilitza un gradient de color per representar d’una manera ràpida, senzilla i efectiva els resultats aconseguits.

En aquest sentit, el model PIO permet a qualsevol organització realitzar una autoavaluació ràpida de posició o bé una autoavaluació de posició completa, que en aquest cas requereix la justificació de les respostes afirmatives o negatives per permetre a l’OEIAC analitzar les respostes qualitatives i poder proporcionar retorn a l’organització que l’hagi realitzat si així ho desitja. D’aquesta manera, a més d’assolir unes mètriques específiques i una insígnia de qualitat, les organitzacions que hagin fet l’autoavaluació completa rebran recomanacions específiques de millora.

Volem deixar clar que el model PIO no proporciona un instrument legal d’autoavaluació, i que les organitzacions tenen la flexibilitat per triar com s’acosten al model. Malgrat això, és clau compartir els mateixos objectius finals de millora a través de la identificació dels reptes per implementar els principis ètics en les dades i sistemes d’IA. És probable que algunes organitzacions ja tinguin marcs d’ètica més o menys formals i, per tant, el model PIO de l’OEIAC pot servir per avaluar les seves pràctiques existents i per identificar similituds i llacunes. També hi ha la possibilitat que algunes organitzacions vulguin avaluar alguns principis ètics tenint en compte aplicacions específiques, com la transparència i explicabilitat, la responsabilitat i retiment de comptes o la privacitat, entre altres, per una qüestió d’interès en una àrea concreta d’actuació de l’organització. Aquest darrer aspecte és clau no tan sols en termes de flexibilitat o especificitat de cadascuna de les organitzacions i aplicacions, sinó també per la millora del model PIO, que no s’entén com un tot i tampoc funciona d’una manera aïllada. En aquest context, és important assenyalar que el model PIO és dinàmic, ja que al marge de proporcionar informació i comentaris sobre àrees que necessiten una major orientació, també pretén integrar coneixements i compartir aprenentatges i consells de les experiències que s’aniran acumulant entre diferents organitzacions a través de casos pràctics.

Finalment, cal subratllar que el model PIO està dirigit a totes les organitzacions públiques o privades que tinguin un interès en el disseny, desenvolupament o desplegament de tecnologies d’IA, i a totes les persones que estiguin utilitzant, comprant o siguin destinatàries d’aquestes tecnologies i plantegin preguntes com: Quins són els riscos i beneficis d’aquestes tecnologies? Qui es veu afectat per elles i com? De quina manera es pot millorar el benestar de les persones amb aquestes tecnologies? Creiem que aquestes i altres preguntes són prou rellevants per interpel·lar a tothom.

El formulari d’autoavaluació, així com l’informe complet del model, estan disponibles en aquest enllaç.

Posts relacionats

Participa

    Accepto que es tractin les meves dades per atendre la sol·licitud d'informació*Accepto que es tractin les meves dades per rebre el butlletí (opcional)

    Missatge enviat correctament.
    Hem enviat una còpia al correu electrònic que ens has facilitat
    Et respondrem tant aviat com sigui possible