La intel·ligència artificial està canviant radicalment la manera com operen els cossos de seguretat a Europa. Tanmateix, el seu ús no està lliure de perills, especialment quan els algoritmes perpetuen, o fins i tot empitjoren, les discriminacions i els prejudicis que ja estan presents en la societat. Per enfrontar-se a aquest desafiament, l’Innovation Lab de l’Europol ha publicat una guia innovadora, AI bias in law enforcement. A practical guide (febrer de 2025), que analitza com identificar i reduir els biaixos algorítmics en l’àmbit policial.

Aquesta guia es basa en els principis de l’AI Act de la Unió Europea, que estableix normes estrictes per assegurar un ús segur, transparent i no discriminatori de la intel·ligència artificial, especialment en àrees d’alt risc, com la de l’aplicació de la llei. Segons l’Europol, seguir aquests principis és essencial per protegir els drets fonamentals, guanyar la confiança del públic i garantir que la intel·ligència artificial sigui una eina útil i ètica al servei de la seguretat.
Els riscos reals dels biaixos algorítmics
L’ús de la intel·ligència artificial en funcions policials, com són la vigilància predictiva, el reconeixement facial, l’anàlisi de dades o la presa de decisions operatives, pot conduir a decisions esbiaixades si els algoritmes es basen en dades incompletes o històricament carregades de prejudicis. Aquest risc és particularment elevat en grups vulnerables o minoritaris, que poden ser afectats de manera desproporcionada per aquests sistemes.
Estratègies per mitigar el biaix
L’informe proposa diverses recomanacions pràctiques que les agències policials poden adoptar per minimitzar el risc de biaixos:
– Fer auditories independents dels sistemes d’intel·ligència artificial abans i durant el seu ús.
– Mantenir una supervisió humana constant i la capacitat d’intervenir en les decisions automatitzades.
– Analitzar críticament les dades d’entrenament i prestar especial atenció a possibles fonts de discriminació.
– Promoure la diversitat i l’ètica en els equips de desenvolupament i implementació de la intel·ligència artificial.
– Garantir la transparència i fer que les decisions dels sistemes siguin comprensibles tant per als operatius com per a la ciutadania.
– Establir protocols de revisió contínua per avaluar l’impacte de la intel·ligència artificial a llarg termini.
Una aposta per la innovació responsable
Amb aquest document, l’Europol aposta per una intel·ligència artificial ètica i responsable en el camp de la seguretat pública. No es tracta només de complir les normatives europees, sinó d’aprofitar les possibilitats de la intel·ligència artificial sense sacrificar la justícia, la proporcionalitat i el respecte als drets humans.
Des del blog Notes de seguretat, considerem aquesta guia una eina fonamental per a responsables de les polítiques públiques, professionals de la seguretat i desenvolupadors tecnològics. Adoptar aquestes bones pràctiques no només redueix els riscos legals i reputacionals, sinó que també reforça la legitimitat democràtica de les institucions policials en una era de transformació digital.
Referència del document: Europol (2025), AI bias in law enforcement. A practical guide, Europol Innovation Lab observatory report, Publications Office of the European Union, Luxembourg.
_____
Esta entrada en español / This post in English / Post en français