Los robotaxis: implicaciones en la seguridad de su expansión

Los robotaxis no son vehículos de prueba experimentales y eso ya no es un simulacro. Muchos de los coches fantasma sin conductor de San Francisco son robotaxis comerciales, que compiten directamente con los taxis, Uber y Lyft , así como con el transporte público. Son parte real, aunque marginal, del sistema de transporte de la ciudad. Y las empresas que los operan, Cruise y Waymo, parecen dispuestas a seguir ampliando sus servicios en San Francisco, Austin, Phoenix y quizás incluso en Los Ángeles en los próximos meses.

Tal y como denunció el investigador Benjamin Schneider en la página web Technology review el pasado mes de julio, existe una falta de urgencia en el discurso público sobre los robotaxis. Considera que la mayoría de la gente, incluidos muchos decisores públicos, no son conscientes de la rapidez con la que avanza esta industria ni de la gravedad que pueden comportar los impactos laborales y de transporte o seguridad a corto plazo.

Agencias designadas como la Comisión de Utilidades Públicas de California toman decisiones muy importantes sobre los robotaxis con relativa oscuridad. Los marcos legales siguen siendo lamentablemente inadecuados: las ciudades carecen de autoridad reguladora sobre los robotaxis que recorren sus calles, y la policía no puede denunciarlos legalmente por infracciones relacionadas con su movimiento.

Desgraciadamente, no existe ningún marco estándar aprobado por el gobierno para evaluar la seguridad de los vehículos autónomos. Los vehículos sin conductor de Cruise, en particular, han mostrado una tendencia alarmante a detenerse inexplicablemente en medio de la carretera, bloqueando el tráfico durante períodos prolongados de tiempo. Los funcionarios policiales de San Francisco han documentado al menos 92 incidentes de este tipo en apenas seis meses, incluidos tres que interrumpieron los servicios de emergencias.

Estas historias críticas, aunque importantes, ensombrecen la tendencia general que se ha ido creando constantemente a favor de la industria del robotaxi. Durante los últimos años, Cruise y Waymo han eliminado varios obstáculos reguladores importantes, se han expandido hacia nuevos mercados y han acumulado más de un millón de millas en funcionamiento relativamente sin sobresaltos importantes, realmente sin conductor en cada una de las principales ciudades norteamericanas.

Los robotaxis son operacionalmente bastante distintos de los vehículos autónomos de propiedad personal y se encuentran en una posición mucho mejor para el despliegue comercial. Se pueden liberar dentro de un área estrictamente limitada, su uso puede ser controlado de cerca por la empresa que los ha diseñado y se pueden sacar inmediatamente de la carretera en caso de mal tiempo o si se da otro problema grave.

El solo hecho de que estos vehículos estén programados para seguir las leyes de tráfico y el límite de velocidad automáticamente les hace parecer conductores más seguros que un gran porcentaje de humanos en carretera.

Habrá que ver si los robotaxis están preparados para su despliegue a una escala significativa, o incluso cuál sería la métrica para determinar la preparación. Pero salvo un cambio significativo en el impulso, como un choque económico o una tragedia horrible, los robotaxis están posicionados para continuar su expansión. Esto es suficiente para garantizar una discusión más amplia sobre cómo cambiarán las ciudades y la sociedad en un futuro inmediato.

Cruise y Waymo están cerca de ser autorizados para ofrecer un servicio de robotaxis comercial durante todo el día en prácticamente todo San Francisco. Esto podría tener de inmediato un impacto económico considerable en los taxistas y los conductores de la ciudad. Lo mismo ocurre con todas las demás ciudades donde Cruise y Waymo se instalan. La perspectiva de automatizar a los conductores profesionales ya no es teórica. Es una posibilidad muy real en un futuro cercano.

A medida que la tecnología se acelera, las políticas públicas deben acelerarse junto con ella. Pero para mantenerse al día, el ciudadano debe tener una visión clara de la rapidez con la que podría llegar el futuro.

_____

Aquest apunt en català / This post in English / Post en français

Cómo aprovechar la inteligencia artificial para fortalecer la ciberseguridad

El pasado mes de junio, el director de seguridad de la información de Crypto.com, Jason Lau, publicó en la web especializada en seguridad ooda.com varias informaciones para utilizar las potencialidades que ofrece la inteligencia artificial (IA) en beneficio de la ciberseguridad.

El autor considera que en el ámbito de la ciberseguridad es necesario establecer una ventaja estratégica respecto a los delincuentes mediante la identificación proactiva y la neutralización de las amenazas antes de que provoquen daños. En este sentido, también cree que el aprendizaje continuo con los incidentes pasados puede mejorar las respuestas futuras, utilizando las herramientas orientadas e impulsadas por IA para identificar, comprender y neutralizar las amenazas. Por eso, propone los siguientes pasos:

• Utilizar una plataforma automatizada de inteligencia de amenazas impulsada por IA que reconozca firmas, tácticas, técnicas y procedimientos externos en tiempo real. Esta plataforma trabaja para ser significativamente más rápida a la hora de identificar y neutralizar el phishing, el software malicioso y otras amenazas de punto final, evolucionando y aprendiendo de los métodos de ataque.

• Implementación de alerta y monitorización automatizada continua de activos sensibles, desde el inventario utilizado en toda la empresa hasta el escaneo de información de identificación personal para detectar casos concretos de exposición de texto sin formato y de alertas en los equipos.

• Realización de revisiones continuas de código basadas en IA, búsqueda de excepciones de código, errores de lenguaje de script entre sitios, inyección de código, desbordamiento de búfer y mucho más, y sustituirlo automáticamente por código seguro manteniendo la integridad funcional del código.

• Involucrar a la IA para detectar la propia IA maliciosa: ataques indirectos de inyección rápida, que destacan las amenazas emergentes en las que los adversarios intentan infiltrarse en los grandes modelos de lenguaje, pasando por la IA que se utiliza para detectar software malicioso y mucho más.

A medida que nos adentramos hacia un futuro cada vez más interconectado, la IA emerge, sin duda, como un potente aliado, una vanguardia en primera línea, que ayuda a predecir, prepararse y prevenir rápidamente las amenazas cibernéticas inminentes.

Sin embargo, también se está volviendo muy claro que poseer una herramienta tan poderosa no es suficiente. Los líderes de la ciberseguridad actuales están llamados a hacer algo más que no solo reaccionar y responder. Tienen que adoptar una postura proactiva, planificando, prediciendo y posicionando constantemente sus defensas, haciendo las gestiones necesarias para mantenerse un paso por delante de la implacable ola de adversarios cibernéticos.

Sin embargo, avanzando demasiado rápido, sin un enfoque pensado y reflexivo, nos arriesgamos a pisar el frágil terreno de la ética. Cómo se utiliza la IA en la ciberseguridad es tan crucial como por qué y dónde elegimos desplegarla. Como líderes, es imprescindible entrelazar el hilo de las consideraciones éticas con nuestras estrategias de IA, estableciendo una fuerte brújula moral que nos guíe por el laberinto de posibilidades tecnológicas.

En este juego de ajedrez de ciberseguridad, los retos de mañana han llegado ya a nuestra puerta. Tener un plan de ciberseguridad no es ya una opción, sino un requisito para la supervivencia. Pero una necesidad crítica a considerar es cómo la IA puede ayudar a capacitar a los equipos de seguridad para que sean más ágiles y se adapten a las amenazas cibernéticas nuevas y emergentes.

_____

Aquest apunt en català / This post in English / Post en français

¿Una pausa en el desarrollo de la IA es la respuesta?

Los espinosos retos que plantean los chatbots y la IA no desaparecerán de repente. Así lo plantea la web especializada en seguridad Oodaloop. Y aunque muchas personas bien informadas y bien intencionadas han firmado una petición pidiendo una pausa de seis meses en la investigación avanzada de IA, hacerlo es poco realista y poco prudente. Los problemas planteados son complejos, enredados y difíciles de resolver porque son increíblemente enrevesados y poliédricos. Implica a tantas partes interesadas, dominios que se entrecruzan e intereses en competencia que dificulta abordarlos. Una pausa en la investigación tecnológica no ayudará a resolver estos enigmas humanos.

Lo que ayudará son los compromisos públicos sistemáticos, metódicos y masivos que informan los proyectos piloto asociados con las implicaciones empresariales y civiles de la inteligencia artificial a nivel nacional y local. Todo el mundo se verá afectado por las promesas y los peligros potenciales del cambio tecnológico en el pensamiento presentado por los avances en IA. Por tanto, todo el mundo debería tener voz, y todo el mundo debería trabajar para garantizar que las sociedades estén bien informadas y preparadas para prosperar en un mundo que cambia rápidamente y que pronto parecerá muy distinto.

A primera vista, detener su desarrollo puede parecer convincente dados los retos que plantean los grandes modelos de lenguaje (LLM), pero existen varias razones por las que este enfoque es defectuoso. Para empezar, es esencial tener en cuenta la competencia global. Incluso si todas las empresas estadounidenses aceptaran una pausa, otros países continuarían su investigación en IA, haciendo que cualquier acuerdo nacional o internacional fuera menos efectivo.

En segundo término, la difusión de la IA está ya en marcha. El experimento Alpaca de la Universidad de Stanford demostró que podría perfeccionarse para que coincidiera con las capacidades de ChatGPT-3 por menos de 600 dólares. Este avance acelera la propagación de la IA haciéndola más accesible para varios actores, incluidos aquellos con mala intención.

En tercer lugar, la historia nos enseña que una pausa en la IA podría conducir a un desarrollo secreto. Detener públicamente la investigación en IA podría impulsar a las naciones a llevar a cabo investigaciones avanzadas en IA en secreto, lo que podría tener consecuencias nefastas para las sociedades abiertas. Este escenario es similar al de la Convención de La Haya de 1899, donde las grandes potencias prohibieron públicamente los proyectiles con veneno, solo para continuar su investigación en secreto, y finalmente desplegaron gases nocivos durante la Primera Guerra Mundial.

De cara al futuro, para abordar con eficacia los retos que surgen de la IA, debería fomentarse un enfoque proactivo, orientado a los resultados y cooperativo con el público. Los laboratorios de ideas o think tanks y las universidades pueden involucrar al público en conversaciones sobre cómo trabajar, vivir, gobernar y convivir con las tecnologías modernas que afectan a toda la sociedad. Mediante la participación de voces diversas en el proceso de toma de decisiones, se puede abordar y resolver mejor los complejos retos que presenta la IA a nivel local y nacional.

Además, habría que animar a los líderes industriales y políticos a participar en la búsqueda de soluciones no partidistas y multisectoriales para que la sociedad civil se mantenga estable. Trabajando juntos, puede superarse la brecha entre los avances tecnológicos y sus implicaciones sociales.

Por último, es esencial poner en marcha planes piloto de IA en varios sectores, como el trabajo, la educación, la salud, el derecho y la sociedad civil. Habría que aprender cómo se pueden crear entornos civiles responsables donde las IA se puedan desarrollar y desplegar de manera responsable. Estas iniciativas pueden ayudar a comprender e integrar mejor la inteligencia artificial en nuestras vidas, asegurándonos de que su potencial se aproveche para el bien general a la vez que se mitigan los riesgos.

_____

Aquest apunt en català / This post in English / Post en français

Agencias policiales de Canadá utilizan una innovadora aplicación para evaluar las llamadas de salud mental

Los jefes de policía de la Columbia Británica han negociado con éxito con el gobierno provincial para obtener la dotación económica y poder desarrollar una aplicación que pueda detectar, documentar y evaluar qué tipo de recursos de salud mental servirían mejor a las personas que se encuentran en peligro.

Esta aplicación está orientada a ayudar a los oficiales que responden a una intervención a evitar conflictos y a determinar qué tipo de ayuda es la mejor para una persona en crisis. Y es que la policía de Columbia calcula que entre el 30 y el 50% de las llamadas para un servicio policial pueden traer involucrados problemas de salud mental. Hasta ahora, a menudo la policía hacía las mismas preguntas que el hospital. De esta forma, antes de que se abandone la escena, los oficiales ya están compartiendo la información con el hospital y los profesionales de la salud.

En una situación urgente, violenta o de alto riesgo, se envía poca información al Surrey Memorial Hospital. Cuando se trata de una llamada no vital, los oficiales de policía completan una lista deverificación –irritabilidad, delirios, alucinaciones, etc.– y la aplicación genera un informe que va destinado a un médico del hospital, que puede recomendar la intervención de esa persona bajo la Ley de salud mental o sugerir una atención alternativa.

Cuando una persona ha sido evaluada previamente con la aplicación HealthIM, existe una línea de base de información disponible para los oficiales, incluidos consejos específicos para reducir la escalada de la intervención y evitar cualquier desencadenante. De esta forma, la información puede ayudar a reducir una situación antes y de forma más segura, lo que se traduce en una mejor atención a la persona afectada.

Como explica en un reportaje Penny Daflos de CTV News Vancouver, la aplicación HealthIM, promocionada como una mejor conexión entre la policía y el sistema de salud, ha sido fruto de un plan largo e integral para abordar uno de los desafíos más problemáticos de la seguridad pública.

Según el superintendente de la Royal Canadian Mounted Police Todd Preston y presidente de la Asociación de Jefes de Policía de Columbia, esta aplicación puede ayudar a determinar si los usuarios de los servicios policiales necesitan realmente algún tipo de asistencia médica . Y esto puede evitar que los oficiales pasen horas ocupados esperando entregar a los pacientes a profesionales de la salud, trámite que a la vez les puede suponer estigmatizar a estas personas.

Actualmente, el Departamento de Policía de Delta es la única agencia que ya utiliza el nuevo sistema, que se estableció por primera vez entre las fuerzas policiales municipales de Ontario, y se ha ido implementando paulatinamente en todas las provincias de Prairie.

Con el funcionamiento de la aplicación, desde el año 2019, se ha reducido el tiempo dedicado al papeleo, se han estandarizado los informes, se ha mejorado el intercambio de información con los trabajadores de la salud y se han reducido las evaluaciones en 331 personas solamente durante el 2021.

_____

Aquest apunt en català / This post in English / Post en français

Estados Unidos activa una línea telefónica exclusiva para crisis de salud mental

Aunque la Línea de Prevención del Suicidio ha sido durante mucho tiempo un valioso recurso, recordar el número de teléfono de 10 dígitos no es nada fácil y menos durante una crisis. En consecuencia, muchas personas marcan la línea de emergencia de la policía 911, con llamadas de ayuda que deberían haberse dirigido a especialistas en salud mental.

Tal y como informa una página web del Departamento de Justicia de Estados Unidos, la puesta en funcionamiento del nuevo servicio telefónico y de emergencia puede suponer un soplo de aire para personas con crisis o enfermedades mentales.

En la actualidad funciona ya un número de tres dígitos que es muy fácil de recordar para llamar, chatear o enviar mensajes de texto para obtener acceso confidencial a especialistas en salud mental las 24 horas: 988.

Esta Línea de Vida de Suicidio y Crisis 988 se ha convertido en un recurso muy necesario y de grandes beneficios, no solo para las personas en riesgo, sino también para los departamentos de policía, desbordados por una creciente cifra de llamadas con problemáticas relacionadas con la salud mental. Actualmente se estima que en algunos departamentos, las llamadas al 911 con trasfondo de salud mental son superiores al 30% del total de reclamaciones de servicios policiales.

Este servicio se ha puesto en funcionamiento porque muchas personas que llamaban al 911 con emergencias de salud mental acababan detenidos, en prisión o arrinconados en departamentos de emergencia de los hospitales esperando horas o incluso días para recibir atención. Y a menudo acababan volviendo a la calle, a la cárcel o al hospital.

Paralelamente al funcionamiento del servicio 988, se ha editado una guía llamada 988 Suicide and Crisis Lifeline de SAMHSA con algunas sugerencias para implementar con éxito la nueva línea:

  • Desarrollar asociaciones entre sistemas que conecten a los profesionales de la salud mental y también de la salud, la policía y los bomberos con la agencia que administra el centro de llamadas y los servicios que se pueden enviar.
  • Involucrar a las partes interesadas clave, incluidos los líderes gubernamentales y comunitarios.
  • Es necesario asegurar que la comunidad tenga los recursos y las infraestructuras para ayudar a los pacientes. Las Pautas Nacionales para la Atención de Crisis de Salud del Comportamiento de SAMHSA pueden utilizarse para identificar qué servicios de crisis existen en el ámbito local, regional o estatal.
  • Hay que revisar las políticas, procedimientos y materiales de capacitación para asegurarse de que el 988 se incorpore de forma efectiva a sus respuestas a las crisis.
  • Tomar medidas para garantizar que las llamadas se pueden transferir sin problemas entre el 988 y el 911 a los oficiales que responden, de qué manera pueden agilizar los servicios del 988 cuando sean requeridos por una persona en crisis.
  • Hay que promover el 988. El público, así como los agentes locales de la ley, tendrán que formarse sobre el funcionamiento del 988 a medida que se vaya desplegando.
  • Coordinarse con las partes interesadas federales para asegurarse de que el departamento y la comunidad tengan la información más actualizada sobre lo que está disponible en cada estado.

_____

Aquest apunt en català / This post in English / Post en français

Identificar las mentiras para mejorar la seguridad

Un grupo de investigadores de RAND Corporation publicaron un informe donde explican que descubrieron que los modelos de aprendizaje automático (ML) pueden identificar signos de engaño durante las entrevistas de verificación de los antecedentes de seguridad nacional. El enfoque más preciso para detectar el engaño es un modelo de ML que cuenta el número de veces que los entrevistados utilizan palabras comunes.

El experimento de los investigadores funcionó de la siguiente manera:

  • Los 103 participantes leyeron una historia sobre Edward Snowden que filtraba información clasificada de la Agencia de Seguridad Nacional en el año 2013.
  • Los participantes fueron asignados aleatoriamente para leer la misma historia, pero esta se presentó como un informe de noticias o como un memorándum con marcas que indicaban que contenía información confidencial.
  • Los participantes fueron asignados a uno de los dos grupos para ser entrevistados. A un grupo se le dijo que mintiera sobre lo que había leído y al otro, que dijera la verdad.
  • Los exagentes de la ley entrevistaron a los participantes a través de videoconferencia y chat basado en texto de orden aleatorio.

Los investigadores de RAND utilizaron las transcripciones de la entrevista y el chat para entrenar diferentes modelos de ML para ver si estos podían distinguir a los mentirosos de los que dicen la verdad.

Estos académicos llegaron a tres grandes conclusiones:

  • No es solo lo que uno dice, sino cómo lo dice: frecuencia de palabras, cadencia del habla, elección de las palabras y de otras señales lingüísticas de potenciales mentiras.
  • Los modelos de ML pueden detectar señales de engaño en la forma en la que las personas se expresan, incluso en chats basados en texto sin la presencia de un entrevistador humano.
  • Los modelos son herramientas que pueden complementar las técnicas de entrevista existentes, pero no pueden reemplazar completamente estas técnicas.

Con respecto a las implicaciones que eso puede tener para la seguridad, los investigadores destacan lo siguiente:

  • Los hombres toman parte en muchas de las investigaciones de antecedentes para autorizaciones de seguridad, y al menos una cuarta parte de los solicitantes de autorización de seguridad son mujeres. Es importante entender cómo el género del entrevistador podría afectar a los resultados del modelado.
  • El uso inapropiado de herramientas de ML podría conducir a desigualdades en las tasas de aceptación y rechazo de los solicitantes de autorizaciones de seguridad.
  • A causa de los posibles sesgos en los resultados del modelo de ML, y en los seres humanos, es importante mantener un sistema de controles y equilibrios que incluya tanto a las personas como a las máquinas.
  • Los modelos encontraron que los hombres y las mujeres utilizaban palabras distintas para engañar. Los hombres eran menos propensos a usar la palabra ‘yo’ cuando mentían y más propensos a utilizarla cuando decían la verdad.

_____

Aquest apunt en català / This post in English / Post en français

Trabajando para la reducción de las muertes bajo custodia policial en Estados Unidos

La página web de investigación sobre ámbitos relacionados con la seguridad rand.org ha publicado un estudio realizado por un grupo de investigadores que han llevado a cabo una investigación con el objetivo de disminuir el número de muertes que se producen en Estados Unidos bajo custodia de las fuerzas del orden.

El grupo de investigadores estadounidenses ─Duren Banks, Michael G. Planty, Madison Fann, Lynn Langton, Dulani Woods, Michael J.D. Vermeer y Brian A. Jackson─ plantearon la investigación con la voluntad de identificar las necesidades altamente prioritarias para el sistema de justicia penal estadounidense, partiendo de algunas cuestiones importantes:

  • ¿Cuáles son las distintas definiciones y métricas de las muertes que se producen en la custodia de las fuerzas del orden?
  • ¿Qué barreras o facilitadores afectan a la comunicación de esta información a escala estatal o nacional?
  • ¿Qué información sobre las muertes que se producen durante la custodia policial es fundamental para apoyar las políticas y prácticas diseñadas para reducir estas muertes?

Por su parte, el Congreso estadounidense en 2013 promulgó la Ley de informes de muerte en custodia (DCRA) para abordar la falta de información fiable sobre las muertes relacionadas con la aplicación de la ley en las instituciones correccionales.

El Departamento de Justicia de Estados Unidos ha llevado a cabo varias actividades diseñadas para responder a las disposiciones especificadas en la legislación de la DCRA, así como en sus propios mandatos federales, para una comprensión integral de la prevalencia y las características de las muertes que se producen en la custodia policial. A pesar de estos esfuerzos, actualmente ningún programa nacional de recogida de datos describe todas las muertes que se producen bajo la custodia uniformada. Estos datos son fundamentales para apoyar las estrategias para reducir estas muertes: promover la seguridad pública a través de respuestas adecuadas a los delitos denunciados, los llamamientos de servicio y los encuentros policía-comunidad, y generar confianza con las comunidades.

Para entender mejor las necesidades sobre el desarrollo y el aprovechamiento de datos de una recopilación de cifras nacionales de muertes relacionadas con la aplicación de la ley, los investigadores consideraron que limitar el alcance de la recogida de datos a los incidentes mortales sería insuficiente para entender y reducir las muertes bajo custodia de las fuerzas del orden.

Entre las recomendaciones de los autores del estudio cabe destacar:

  • Especificar estándares nacionales para una colección más inclusiva que recoja todos los incidentes críticos (incidentes mortales y todos aquellos en los que la policía utiliza la fuerza letal), independientemente de si el incidente provoca una muerte.
  • Apoyar informes más fiables y completos a los sistemas existentes que dependen de la participación de las fuerzas del orden asignando recursos a los proveedores de datos, aprovechando la información que ya recogen estas agencias y, de otra forma, incentivando la participación.
  • Trabajar con la comunidad investigadora, las fuerzas del orden y otras partes interesadas pertinentes para desarrollar indicadores y conjuntos de herramientas adecuados y difundir información sobre el uso adecuado y responsable de estos datos.
  • Desarrollar una taxonomía de muertes o incidentes críticos que se produzcan en la custodia de las fuerzas policiales para proporcionar el contexto necesario para entender el papel de las fuerzas del orden.

_____

Aquest apunt en català / This post in English / Post en français

La dispersión de las personas sin hogar las criminaliza

Una investigación de varios criminólogos realizada en diez ciudades de Inglaterra y Gales descubre que las demandas de espacio público solo acaban reciclando el problema de las personas sin techo. Varios rotativos ingleses se hicieron eco de ello, entre estos, The Guardian.

Los ayuntamientos que utilizan órdenes de protección del espacio público (PSPO – Public Space Protection Orders) para imponer multas de 100 libras destinadas a controlar los llamados ‘comportamientos antisociales’, la única cosa que provocan es simplemente el regreso, una y otra vez, al mismo espacio de las personas sin hogar.

El estudio ha constatado que la dispersión de los indigentes desde los centros de las ciudades no consigue parar este comportamiento antisocial y, en cambio, provoca una criminalización errónea de estas personas.

La investigación de la Universidad de Sheffield Hallam, con recomendaciones finales para un trato más justo para las personas que viven en la calle, ha sido avalada por Crisis, la organización benéfica para personas sin techo. Los ayuntamientos de Inglaterra y Gales que utilizan PSPO para imponer multas de 100 libras para controlar o prohibir comportamientos como beber, montar tiendas de campaña o dormir en el espacio público, simplemente ven que con las personas que viven en la calle, esta problemática no se resuelve.

Las órdenes también se utilizan erróneamente para orientarse a comportamientos que no se podrían considerar antisociales, como pedir limosna o dormir al raso, donde es poco probable un efecto perjudicial. Y en algunos casos las personas sin hogar han descrito, además, abusos físicos y verbales por parte de los funcionarios policiales.

Las PSPO se han utilizado en Inglaterra desde el año 2014 para disuadir comportamientos considerados antisociales, pero el foco en su impacto en los que duermen en la calle se produce en medio del aumento del sinhogarismo causado por el incremento de los desahucios. Cerca de 20.000 hogares en Inglaterra y Gales quedaron vacíos a causa de los desahucios durante el periodo 2021/22, casi 9.000 más respecto al periodo anterior, según cifras anuales publicadas por el Departamento de Vivienda y Comunidades.

En una ciudad costera al este de Inglaterra, por ejemplo, donde la mendicidad, el consumo de drogas, el consumo de bebidas en la calle, la micción y la defecación, dormir en lugares públicos o montar tiendas de campaña están prohibidos, a menudo se puede ver a autóctonos o turistas paseando mientras comen o beben y no se les aplica esta legislación.

Un portavoz del Consejo de Jefes de la Policía Nacional considera que el trabajo que últimamente se ha hecho junto con Crisis ha ayudado a garantizar que los agentes puedan entender por qué las personas acaban durmiendo en la calle, qué apoyo necesitan y, sobre todo, qué se puede hacer para ayudarlos a escapar del sinhogarismo.

Por su parte, desde la junta de comunidades de la Asociación de Gobiernos Locales, Cllr Nesil Caliskan cree que las PSPO se tienen que utilizar como parte de un paquete más amplio de medidas que se unan con servicios de apoyo para ayudar a abordar las causas intrínsecas de las personas sin techo.

De otro modo, los poderes de dispersión asociados a las PSPO han creado círculos viciosos de intimidación, dispersión y desplazamiento que solo reciclan el problema de las personas que viven en la calle en lugar de disuadir, y menos aún prevenir, los problemas asociados al sinhogarismo. Esta sería una de las principales conclusiones del estudio según Peter Squires, profesor emérito de Criminología y Políticas Públicas de la Universidad de Brighton.

_____

Aquest apunt en català / This post in English / Post en français

Inteligencia artificial y policía: una cuestión de confianza

La perspectiva del aumento del uso policial de la inteligencia artificial (IA), especialmente en torno a la policía predictiva, ha generado preocupaciones sobre posibles sesgos y la necesidad de transparencia y capacidad de explicación.

El doctor Nick Evans, de la Universidad de Tasmania (Australia), publica un artículo en Policing Insight donde explica que, con las garantías adecuadas, el uso de la IA podría establecer una objetividad integrada para las decisiones policiales y, potencialmente, una mayor confianza en la toma de estas decisiones.

Aunque las aplicaciones de policía predictiva plantean las cuestiones éticas y legales más espinosas y, por lo tanto, merecen una seria consideración, también es importante destacar otras aplicaciones de la IA para la policía.

El informe ASPA de Teagan Westendorf, ‘Inteligencia artificial y policía en Australia’, es un ejemplo reciente. Westendorf argumenta que las políticas y los marcos reguladores del gobierno australiano no recogen lo suficiente las limitaciones actuales de la tecnología de IA y que estas limitaciones pueden comprometer principios de IA y de ética, segura y explicable en el contexto de la policía.

La IA puede ayudar en las investigaciones acelerando la transcripción de las entrevistas y el análisis de las imágenes de CCTV. Los algoritmos de reconocimiento de imágenes también pueden ayudar a detectar y procesar material de explotación infantil y ayudar así a limitar la exposición humana.

Como todos los humanos, los agentes de policía pueden tener sesgos conscientes e inconscientes que pueden influir en la toma de decisiones y en los resultados de la policía. Los algoritmos de policía predictiva a menudo se tienen que entrenar en conjuntos de datos que capturan estos resultados.

Después de todo, una ventaja clave de la IA radica en su capacidad para analizar grandes conjuntos de datos y detectar relaciones demasiado sutiles para que la mente humana las identifique. Hacer que los modelos sean más comprensibles simplificándolos puede requerir compensaciones en sensibilidad y, por lo tanto, también en precisión.

De hecho, la investigación sugiere que cuando los individuos confían en el proceso de toma de decisiones, es más probable que confíen en los resultados en entornos de justicia, incluso si estos resultados son desfavorables.

Tal como señala Westendorf, se pueden tomar medidas para mitigar el sesgo, como codificar preventivamente contra sesgos previsibles e implicar a analistas humanos en los procesos de construcción y aprovechamiento de sistemas de IA.

Investigaciones recientes han encontrado que el nivel de confianza de la gente en la policía (que es relativamente alto en Australia) se correlaciona con su nivel de aceptación de los cambios en las herramientas y la tecnología que utiliza.

Con este tipo de salvaguardias establecidas (así como las revisiones y evaluaciones del despliegue), el uso de la IA puede tener el resultado de establecer la objetividad integrada para las decisiones policiales reduciendo la confianza en las heurísticas y otras prácticas subjetivas de toma de decisiones. Con el tiempo, el uso de la IA puede ayudar a mejorar los resultados de la policía.

No obstante, la necesidad de explicabilidad es solo una consideración para mejorar la responsabilidad y la confianza pública en el uso de los sistemas de IA por parte de la policía, especialmente cuando se trata de la policía predictiva.

En otro estudio, los participantes expuestos a aplicaciones policiales supuestamente exitosas de la tecnología de IA eran más propensos a apoyar un uso policial más amplio de estas tecnologías que aquellos expuestos a usos infructuosos o no expuestos a ejemplos de aplicación de IA.

Eso sugiere que centrarse en una confianza más amplia del público en la policía será vital para mantener la confianza pública en el uso de la IA en la policía, independientemente del grado de transparencia y explicabilidad algorítmica. El objetivo de una IA transparente y explicable no debería dejar de lado este contexto más amplio.

_____

Aquest apunt en català / This post in English / Post en français

La policía de Escocia insta a desarrollar protocolos para el uso de videocámaras corporales

Una investigación encargada por la policía de Escocia considera que existe un apoyo público generalizado para que los agentes lleven cámaras corporales cuando son requeridos por todo tipo de incidentes, pero también advierte de los inconvenientes que deberían evitarse.

Un equipo del Centro de Investigación en Información, Vigilancia y Privacidad (CRISP) de la Universidad de Stirling ha elaborado un informe sobre el uso de videocámaras corporales (BWV), basado en una revisión de la literatura y entrevistas semiestructuradas con expertos en este tipo de cámaras.

Los investigadores enfatizaron que antes de introducir las BWV, la policía de Escocia debe asegurarse de que existan procesos de gobierno y control efectivos, especialmente respecto al manejo de los datos.

El profesor William Webster, de la Escuela de Gestión de la Universidad de Stirling, que dirigió el trabajo del informe, considera que las videocámaras corporales parecen un concepto sencillo, ya que se trata de una cámara que la policía lleva a todas partes, pero el cómo se utiliza influye en un conjunto complicado de relaciones, empezando por la relación entre el ciudadano y el estado. Es importante entender las consecuencias de este uso y cómo la tecnología modela el comportamiento, para estar seguros de que estas cámaras se utilizan en interés de la sociedad y no solo en interés de la policía.

Webster considera que a la policía le gusta utilizar las BWV porque le ofrece protección durante las intervenciones policiales, y más si estas comportan riesgo, ya que pueden ayudar, por ejemplo, a desescalar la violencia, a la vez que pueden recopilar pruebas en caso de juicio. Con todo, también ponen a la policía bajo vigilancia, ya que se han dado casos en otros cuerpos policiales de grabar a agentes del orden fumando mientras estaban de servicio o hablando por el móvil mientras conducían. Esto también debe tenerse en cuenta, dado que la confianza en las tecnologías y en la policía se puede perder fácilmente. Por lo tanto, habría que establecer protocolos y formación claros sobre el uso de las BWV.

La investigación también considera que tiene que estar claro quién gestiona las grabaciones, puesto que son datos sensibles de los ciudadanos. En esta línea, se pregunta si los oficiales deben descargar las grabaciones al final de los turnos, dónde se tienen que descargar y dónde se tienen que almacenar, quién puede acceder a ellas y qué circunstancias justifican mantener estas grabaciones.

Por lo tanto, se concluye que hace falta un mecanismo de supervisión donde se comprueben las grabaciones aleatoriamente, posiblemente con personas profanas, para controlar cómo se utilizan las BWV.

También destaca que es importante que organizaciones como la policía sigan consultando con la ciudadanía y los académicos la introducción de las nuevas tecnologías.

En esta línea, el superintendente jefe de la policía de Escocia, Matt Richards, se mostró favorable a la introducción de las BWV en el cuerpo policial de Escocia.

Desde instancias institucionales se considera que la introducción de las BWV requiere una importante inversión económica, pero tiene el potencial de mejorar el vínculo vital de confianza entre la policía y los ciudadanos, cosa que sustenta su legitimidad.

En lo que coinciden investigadores y policía es que el despliegue de las BWV debe ser ético y transparente y que debe recibir apoyo y orientación sobre consideraciones éticas, de derechos humanos y libertades civiles.

_____

Aquest apunt en català / This post in English / Post en français