Inteligencia artificial y policía: una cuestión de confianza

La perspectiva del aumento del uso policial de la inteligencia artificial (IA), especialmente en torno a la policía predictiva, ha generado preocupaciones sobre posibles sesgos y la necesidad de transparencia y capacidad de explicación.

El doctor Nick Evans, de la Universidad de Tasmania (Australia), publica un artículo en Policing Insight donde explica que, con las garantías adecuadas, el uso de la IA podría establecer una objetividad integrada para las decisiones policiales y, potencialmente, una mayor confianza en la toma de estas decisiones.

Aunque las aplicaciones de policía predictiva plantean las cuestiones éticas y legales más espinosas y, por lo tanto, merecen una seria consideración, también es importante destacar otras aplicaciones de la IA para la policía.

El informe ASPA de Teagan Westendorf, ‘Inteligencia artificial y policía en Australia’, es un ejemplo reciente. Westendorf argumenta que las políticas y los marcos reguladores del gobierno australiano no recogen lo suficiente las limitaciones actuales de la tecnología de IA y que estas limitaciones pueden comprometer principios de IA y de ética, segura y explicable en el contexto de la policía.

La IA puede ayudar en las investigaciones acelerando la transcripción de las entrevistas y el análisis de las imágenes de CCTV. Los algoritmos de reconocimiento de imágenes también pueden ayudar a detectar y procesar material de explotación infantil y ayudar así a limitar la exposición humana.

Como todos los humanos, los agentes de policía pueden tener sesgos conscientes e inconscientes que pueden influir en la toma de decisiones y en los resultados de la policía. Los algoritmos de policía predictiva a menudo se tienen que entrenar en conjuntos de datos que capturan estos resultados.

Después de todo, una ventaja clave de la IA radica en su capacidad para analizar grandes conjuntos de datos y detectar relaciones demasiado sutiles para que la mente humana las identifique. Hacer que los modelos sean más comprensibles simplificándolos puede requerir compensaciones en sensibilidad y, por lo tanto, también en precisión.

De hecho, la investigación sugiere que cuando los individuos confían en el proceso de toma de decisiones, es más probable que confíen en los resultados en entornos de justicia, incluso si estos resultados son desfavorables.

Tal como señala Westendorf, se pueden tomar medidas para mitigar el sesgo, como codificar preventivamente contra sesgos previsibles e implicar a analistas humanos en los procesos de construcción y aprovechamiento de sistemas de IA.

Investigaciones recientes han encontrado que el nivel de confianza de la gente en la policía (que es relativamente alto en Australia) se correlaciona con su nivel de aceptación de los cambios en las herramientas y la tecnología que utiliza.

Con este tipo de salvaguardias establecidas (así como las revisiones y evaluaciones del despliegue), el uso de la IA puede tener el resultado de establecer la objetividad integrada para las decisiones policiales reduciendo la confianza en las heurísticas y otras prácticas subjetivas de toma de decisiones. Con el tiempo, el uso de la IA puede ayudar a mejorar los resultados de la policía.

No obstante, la necesidad de explicabilidad es solo una consideración para mejorar la responsabilidad y la confianza pública en el uso de los sistemas de IA por parte de la policía, especialmente cuando se trata de la policía predictiva.

En otro estudio, los participantes expuestos a aplicaciones policiales supuestamente exitosas de la tecnología de IA eran más propensos a apoyar un uso policial más amplio de estas tecnologías que aquellos expuestos a usos infructuosos o no expuestos a ejemplos de aplicación de IA.

Eso sugiere que centrarse en una confianza más amplia del público en la policía será vital para mantener la confianza pública en el uso de la IA en la policía, independientemente del grado de transparencia y explicabilidad algorítmica. El objetivo de una IA transparente y explicable no debería dejar de lado este contexto más amplio.

_____

Aquest apunt en català / This post in English / Post en français

Deixa un comentari