Aquests objectius parteixen d’un fet incontestable, que és la proliferació de productes i serveis que fan servir sistemes d’IA. Davant d’això, el públic ha d’assegurar-se que els sistemes d’IA són, entre altres, justos, explicables i segurs, i que les organitzacions que els implementen són transparents i responsables. Així doncs, per fomentar la confiança del públic en les tecnologies d’IA cal un suport creixent a les estratègies d’autoavaluació sistemàtica per ajudar a aconseguir resultats més segurs, més fiables i més justos; per reduir el risc d’impacte negatiu en els afectats per les aplicacions d’IA; i per posar en pràctica generalitzada els estàndards ètics més alts per part d’organitzacions a l’hora de dissenyar, desenvolupar i implementar sistemes d’IA.
El model PIO és un pas més per avançar en aquesta direcció, ja que proporciona una integració de la teoria a la pràctica de principis ètics fonamentals de la IA, i es construeix al voltant de la senzillesa i d’una pregunta clau i efectiva que qualsevol persona que desenvolupa, gestiona o dirigeix un projecte on hi ha dades i sistemes d’IA pot entendre fàcilment: Ho hem fet? En aquest sentit, partint d’una perspectiva de responsabilitat social organitzativa, es proposa la utilització d’un model que es pot utilitzar en qualsevol fase del cicle de vida de les dades i sistemes d’IA. Això significa que és aplicable en el disseny i modelització, incloent-hi planificació, recollida de dades i construcció de models; en el desenvolupament i validació, incloent-hi formació de models i proves; i en el desplegament, seguiment i perfeccionament, incloent-hi en la resolució de problemes.
Específicament, el model PIO permet autoavaluar-se en 7 eixos o principis relacionats amb l’ètica de les dades i dels sistemes d’IA, per obtenir una valoració per a cadascun d’ells i una “insígnia” amb el resultat: Transparència; Justícia i equitat; Seguretat i no maleficència; Responsabilitat i retiment de comptes; Privacitat; Autonomia; i Sostenibilitat. Per fer-ho, el model recull les respostes binàries (Sí/No) de l’organització que du a terme l’autoavaluació a les 70 preguntes sobre cadascun dels 7 principis avaluats, n’obté les mètriques per a cadascun d’ells i genera una insígnia de qualitat per a l’organització. Aquesta insígnia és la imatge gràfica del model d’autoavaluació PIO representant l’adequació de les dades i sistemes d’IA segons els 7 principis ètics del model. En aquest procés s’utilitza un gradient de color per representar d’una manera ràpida, senzilla i efectiva els resultats aconseguits.
En aquest sentit, el model PIO permet a qualsevol organització realitzar una autoavaluació ràpida de posició o bé una autoavaluació de posició completa, que en aquest cas requereix la justificació de les respostes afirmatives o negatives per permetre a l’OEIAC analitzar les respostes qualitatives i poder proporcionar retorn a l’organització que l’hagi realitzat si així ho desitja. D’aquesta manera, a més d’assolir unes mètriques específiques i una insígnia de qualitat, les organitzacions que hagin fet l’autoavaluació completa rebran recomanacions específiques de millora.
Volem deixar clar que el model PIO no proporciona un instrument legal d’autoavaluació, i que les organitzacions tenen la flexibilitat per triar com s’acosten al model. Malgrat això, és clau compartir els mateixos objectius finals de millora a través de la identificació dels reptes per implementar els principis ètics en les dades i sistemes d’IA. És probable que algunes organitzacions ja tinguin marcs d’ètica més o menys formals i, per tant, el model PIO de l’OEIAC pot servir per avaluar les seves pràctiques existents i per identificar similituds i llacunes. També hi ha la possibilitat que algunes organitzacions vulguin avaluar alguns principis ètics tenint en compte aplicacions específiques, com la transparència i explicabilitat, la responsabilitat i retiment de comptes o la privacitat, entre altres, per una qüestió d’interès en una àrea concreta d’actuació de l’organització. Aquest darrer aspecte és clau no tan sols en termes de flexibilitat o especificitat de cadascuna de les organitzacions i aplicacions, sinó també per la millora del model PIO, que no s’entén com un tot i tampoc funciona d’una manera aïllada. En aquest context, és important assenyalar que el model PIO és dinàmic, ja que al marge de proporcionar informació i comentaris sobre àrees que necessiten una major orientació, també pretén integrar coneixements i compartir aprenentatges i consells de les experiències que s’aniran acumulant entre diferents organitzacions a través de casos pràctics.
Finalment, cal subratllar que el model PIO està dirigit a totes les organitzacions públiques o privades que tinguin un interès en el disseny, desenvolupament o desplegament de tecnologies d’IA, i a totes les persones que estiguin utilitzant, comprant o siguin destinatàries d’aquestes tecnologies i plantegin preguntes com: Quins són els riscos i beneficis d’aquestes tecnologies? Qui es veu afectat per elles i com? De quina manera es pot millorar el benestar de les persones amb aquestes tecnologies? Creiem que aquestes i altres preguntes són prou rellevants per interpel·lar a tothom.
El formulari d’autoavaluació, així com l’informe complet del model, estan disponibles en aquest enllaç.