És eficient la tecnologia al servei de la lluita contra la violència domèstica?

La violència domèstica afecta aproximadament un de cada tres adults dels Estats Units en algun moment de la seva vida. Representa més del 40% de tots els assassinats de dones: 856 dones mortes el 2017, segons les darreres xifres oficials.

Les forces de l’ordre tenen un historial poc eficient de resposta al problema. Segons un informe del Departament de Justícia, la violència domèstica genera la categoria més gran de trucades a la policia, però els defensors de les víctimes de la violència domèstica han criticat durant molt de temps la policia pel fet de no prendre’s seriosament les denúncies d’abús o respondre amb un enfocament estret a les ordres de protecció, a les detencions i als processos, i no sempre han ajudat les víctimes.

Tot i això, quan una de les empreses tecnològiques més grans del món, Ring, ofereix càmeres gratuïtes per ajudar a solucionar el problema, aquesta pot ser una proposta atractiva. La policia considera que es tracta d’un sentinella sempre disponible que fa guàrdia davant les cases de les víctimes de delictes reiterats.

Quan els programes pilot de Ring van començar el 2019, aquests eren de dimensió reduïda. El comtat de Bexar va reservar 50 càmeres per protegir víctimes de violència familiar i qualsevol persona amb una ordre de protecció. San Antonio va assignar 171 dispositius a les víctimes de violència familiar i d’agressions sexuals que havien presentat informes policials, i a Cape Coral, on el programa contra aquest tipus de violència havia de durar, inicialment, un any, es van assignar 100 dispositius per a les víctimes de la violència domèstica.

L’excap de la policia de Cape Coral, David Newlan, va tenir la idea d’aplicar el programa en aquesta ciutat després d’un cas del 2017 en què la violència domèstica es va convertir en un assassinat-suïcidi. A l’autor se li havia prohibit apropar-se a la víctima per ordre d’allunyament i se li va exigir que portés una polsera de turmell controlada per una tercera empresa. El dia de l’assassinat, l’empresa de control no va avisar la policia quan va violar la disposició en apropar-se a casa de la víctima.

Els departaments de policia volen saber tot el que legalment poden. Però, serveix a l’interès públic una tecnologia de vigilància cada vegada més gran?

Si més no, avui en dia, més de 1.800 agències policials dels Estats Units fan servir l’aplicació Neighbours, juntament amb més de 360 departaments de bombers. Les associacions Ring, amb moltes forces policials utilitzant-lo, donen als departaments que hi participen un sistema de vigilància molt més ampli del que la mateixa policia podria construir legalment.

No està clara la popularitat d’aquests programes. El programa de San Antonio va distribuir 158 de les seves 171 càmeres. No obstant això, el primer any del programa del comtat de Bexar, no més de 15 víctimes van optar per una de les seves 50 càmeres, segons Rosalinda Hibron-Pineda, especialista en serveis de víctimes de l’oficina del xèrif. I a Cape Coral, on hi havia 100 càmeres disponibles, només se n’havien lliurat 24.

Sense donar a les forces de l’ordre les eines per arrestar i empresonar els agressors, les càmeres no serien efectives.

_____

Esta entrada en español / This post in English / Post en français

Europa busca limitar l’ús de la intel·ligència artificial en la societat

L’ús del reconeixement facial per a la vigilància o d’algoritmes que manipulin el comportament humà quedarà prohibit, segons la proposta de normativa de la Unió Europea sobre intel·ligència artificial.

Les àmplies propostes, que es van filtrar abans de la seva publicació oficial, també prometien noves regles dures per al que consideren intel·ligència artificial d’alt risc. Això inclou algoritmes utilitzats per la policia i el reclutament.

Els experts van dir que les regles eren vagues i contenien llacunes. L’ús de la intel·ligència artificial a l’exèrcit n’està exempt, igual que els sistemes que fan servir les autoritats per salvaguardar la seguretat pública.

La llista suggerida de sistemes d’intel·ligència artificial prohibits inclou:

• Els dissenyats o utilitzats per manipular el comportament, les opinions o les decisions humanes, fent que una persona es comporti, formi una opinió o prengui una decisió en detriment seu.

• Els utilitzats per a la vigilància indiscriminada aplicats de manera generalitzada.

• Els utilitzats per a la puntuació social.

• Els que exploten informació o prediccions i una persona o grup de persones per tal d’orientar les seves vulnerabilitats.

Per a la intel·ligència artificial que es consideri d’alt risc, els estats membres haurien d’aplicar molta més supervisió, inclosa la necessitat de nomenar òrgans d’avaluació per provar, certificar i inspeccionar aquests sistemes.

Així mateix, qualsevol empresa que desenvolupi serveis prohibits o no proporcioni informació correcta sobre aquests podria rebre multes de fins al 4% dels seus ingressos globals.

Entre els exemples d’alt risc d’intel·ligència artificial hi ha:

• Sistemes que estableixen la prioritat en l’enviament de serveis d’emergència

• Sistemes que determinen l’accés o l’assignació de persones a instituts educatius

• Algoritmes de reclutament

• Sistemes que avaluen la solvència creditícia

• Sistemes per fer avaluacions de riscos individuals

• Sistemes de predicció del crim

A més d’exigir que els nous sistemes d’intel·ligència artificial tinguin supervisió humana, la CE també proposa que els sistemes d’intel·ligència artificial d’alt risc disposin de l’anomenat switch, que pot ser un botó d’aturada o algun altre procediment per apagar el sistema a l’instant, si cal.

Amb aquesta legislació, la CE ha hagut de caminar per una difícil línia fina entre assegurar que la intel·ligència artificial es fa servir per a allò que anomena una eina per augmentar el benestar humà i garantir que no impedeixi la competència dels països de la UE, els EUA i la Xina pel que fa a innovacions tecnològiques.

_____

Esta entrada en español / This post in English / Post en français

Les eines de reconeixement facial i la seva aplicació a l’Estat espanyol

Unes desenes d’acadèmics, professionals i activistes de diversos àmbits han demanat al Govern espanyol que fins que no hi hagi una llei que reguli les eines de reconeixement facial, no siguin utilitzades a l’Estat espanyol. La petició arriba en un moment en què ja s’està utilitzant aquest tipus de tècniques, tant en espais públics com en entorns privats.

Els signants de la petició demanen una moratòria en l’ús i comercialització de sistemes de reconeixement i anàlisi facial per part d’empreses públiques i privades i que les institucions legislatives europees debatin quines eines i de quina manera, en quines condicions, amb quines garanties i amb quins objectius s’ha de permetre, si cal, l’ús d’aquests sistemes.

Pels demandants és necessari que el Govern es plantegi regular aquesta tecnologia abans que segueixi expandint-se i es converteixi en un element utilitzat i estès. És a dir, si el reconeixement facial no s’adapta a una llei concreta que asseguri el respecte als drets dels ciutadans, temen que sigui la llei la que s’hagi d’adaptar a les pràctiques que ja existeixen.

Els signants es refereixen al fet que aquesta tecnologia suposa una intromissió en l’esfera privada de la vida de les persones sense el seu consentiment explícit i posa en dubte qüestions fonamentals de justícia social, dignitat humana, equitat, igualtat en el tracte i inclusió.

L’ús de programes d’anàlisi facial pot derivar en problemes en l’àmbit dels drets civils. En concret, expliquen que assimilar una persona a un col·lectiu basant-se en els seus trets o dades biomètriques és altament problemàtic ja que es perpetua l’estereotip, sigui en l’àmbit que sigui. Per exemple, que aquesta persona pugui ser perillosa o morosa perquè altres semblants a ella ho són és una premissa injusta.

Hi ha prou evidències que indiquen que associar postures, gestos, trets facials, colors de pell, pentinats o peces de vestir a possibles comportaments problemàtics, capacitats intel·lectuals o econòmiques pot resultar en classificacions racistes, classistes o sexistes.

El reconeixement facial, a més, ha comportat en diverses ocasions falsos positius i falsos negatius, perquè depèn en gran mesura de com s’entreni la intel·ligència artificial i amb quin tipus d’imatges. Si s’educa amb moltes fotografies d’homes blancs o amb condicions de llum específiques, per esmentar dos exemples, l’anàlisi facial tendirà a ser menys precisa per a les persones negres o amb condicions lumíniques diferents.

Hi ha, així doncs, una variada gamma de raons –tant tècniques com ètiques– que justifiquen la creació d’una comissió per investigar la necessitat d’una moratòria, que es considera imprescindible i urgent. Per concloure, se suggereix que aquesta comissió sigui independent i estigui composta per científics, juristes, experts en ètica i intel·ligència artificial i membres de la societat civil, especialment d’aquells col·lectius que poden veure’s afectats per aquests sistemes.

_____

Esta entrada en español / This post in English / Post en français

El Consell Europeu adopta noves normes sobre la difusió de continguts terroristes en línia

La Unió Europea treballa per evitar que els terroristes facin servir Internet per radicalitzar, reclutar o incitar a la violència. El Consell Europeu ha adoptat un reglament sobre la difusió de contingut terrorista en línia.

L’objectiu de la legislació és eliminar ràpidament el contingut terrorista en línia i establir un instrument comú per a tots els estats membres a aquest efecte. Les normes s’aplicaran als proveïdors de serveis que ofereixen serveis a la UE, tinguin o no el seu establiment principal als estats membres.

La radicalització i la incitació a la violència a través de les xarxes socials i les plataformes de vídeo o la transmissió en directe d’atacs són cada vegada més freqüents en els atacs terroristes recents. Amb les noves normes adoptades pel Consell, les autoritats policials disposaran d’un instrument eficaç per fer front a aquesta amenaça.

La cooperació voluntària amb els proveïdors de serveis continuarà, però la legislació proporcionarà eines addicionals perquè els estats membres puguin aplicar la retirada ràpida de contingut terrorista quan sigui necessari.

Les autoritats competents dels estats membres podran emetre ordres d’eliminació als proveïdors de serveis, eliminar el contingut terrorista o inhabilitar-ne l’accés a tots els estats membres. Els proveïdors de serveis hauran d’eliminar o desactivar l’accés al contingut en un termini d’una hora.

Els proveïdors de serveis exposats a contingut terrorista hauran de prendre mesures específiques per fer front a l’ús indegut dels seus serveis i protegir-los contra la difusió de contingut terrorista. La decisió sobre l’elecció de les mesures correspon al proveïdor de serveis.

La legislació també preveu un abast clar i una definició uniforme i clara del contingut terrorista per tal de respectar plenament els drets fonamentals. Així mateix, inclou solucions efectives tant per als usuaris el contingut dels quals s’hagi eliminat com per als proveïdors de serveis que presentin una reclamació.

L’adopció de la posició del Consell en primera lectura segueix un acord provisional sobre el text assolit entre la presidència del Consell i el Parlament Europeu el 10 de desembre de 2020. L’actuació jurídica ha de ser adoptada pel Parlament Europeu en segona lectura abans de ser publicada al Diari Oficial de la UE. El reglament entrarà en vigor el vintè dia següent a la seva publicació i començarà a aplicar-se un any després.

_____

Esta entrada en español / This post in English / Post en français

Una tecnologia de reconeixement facial es declara il·legal al Canadà

La controvertida pràctica de la companyia Clearview de recollir i vendre milions d’impressions facials va rebre un fort revés per part d’un comissari canadenc.

Clearview, fundada el 2017 per l’empresari australià Hoan Ton-Thatand, treballa en la recopilació d’allò que anomena “empremtes facials”, que són identificadors biomètrics únics similars a les empremtes digitals o al perfil d’ADN d’algú, a partir de fotos que la gent publica en línia.

Les autoritats canadenques han trobat que la recopilació de dades de reconeixement facial per part de Clearview és il·legal perquè infringeix les lleis de privadesa federals i provincials, cosa que suposa un guany per a la privadesa de les persones i pot establir un precedent per a altres desafiaments legals d’aquesta tecnologia.

Una investigació conjunta de les autoritats dirigida per l’Oficina del Comissari del Canadà va arribar a aquesta conclusió, afirmant que la companyia amb seu a Nova York que aplegava milers de milions d’imatges de persones de tot internet representava una vigilància massiva i infringia els drets de privadesa dels canadencs.

A més, la investigació va comprovar que Clearview havia recopilat informació biomètrica altament sensible sense el coneixement ni el consentiment de la gent i, a continuació, va utilitzar i divulgar aquesta informació personal amb finalitats inadequades, que no serien adequades fins i tot si la gent ho hagués consentit.

Des del 2019, l’empresa s’ha enfrontat a desafiaments legals de les seves pràctiques tecnològiques i empresarials, que formen part d’una qüestió més àmplia sobre les tecnologies de reconeixement facial que desenvolupen una infinitat d’empreses, incloses empreses com Microsoft i IBM.

Fins ara, Clearview ha acumulat en una base de dades milers de milions d’aquestes empremtes facials, que ven als seus clients. També proporciona accés a una aplicació per a telèfons intel·ligents que permet als clients penjar una foto d’una persona desconeguda i rebre instantàniament un conjunt de fotos coincidents.

Un dels arguments més importants en defensa de la seva empresa que Ton-Thatand ha presentat en els informes publicats és que hi ha un gran benefici en utilitzar la seva tecnologia per fer complir la llei i la seguretat nacional, que supera les preocupacions de privadesa de les persones. A més, Clearview no té cap culpa si les forces policials fan un mal ús de la seva tecnologia.

La decisió al Canadà probablement ajudarà altres decisions legals no només sobre la tecnologia de Clearview, sinó també sobre el reconeixement facial en general. El mes de maig de 2020, la Unió Americana de Llibertats Civils va demandar Clearview per infraccions de privadesa a Illinois, un cas que està en curs. Fins i tot els legisladors dels Estats Units han proposat la prohibició nacional del reconeixement facial.

La tecnologia també planteja qüestions de biaix racial i la possibilitat de falses acusacions contra persones innocents. Al desembre, dos homes negres van presentar una demanda contra la policia a Michigan, al·ludint que havien estat identificats falsament per la tecnologia de reconeixement facial, específicament pel programari de reconeixement facial DataWorks Plus que utilitza la policia estatal de Michigan.

_____

Esta entrada en español / This post in English / Post en français

Policies dels EUA practiquen amb un gos robot

Diversos departaments de policia dels EUA han desplegat el gos robot ciber-K-9 en diferents situacions, com per exemple en la presa d’ostatges. Els defensors d’utilitzar-lo diuen que els robots poden ajudar a mantenir els agents de policia fora de perill, mentre que els crítics es preocupen per com es podrien fer servir sense que hi hagi directrius polítiques clares.

Es tracta d’un robot equipat amb càmeres, llums i un sistema de comunicació bidireccional que permet al funcionari que el controla veure i escoltar el seu entorn en temps real. El Departament de Policia de Nova York (NYPD) va adquirir el robot al desembre del 2020 i fins ara l’ha utilitzat en servei actiu tres vegades, la darrera de les quals fa pocs dies, quan va pujar les escales d’un apartament del Bronx a la recerca de dos sospitosos en una investigació en curs.

El robot, venut com a “Spot” per la companyia de robòtica Boston Dynamics, costa 74.000 dòlars. Els funcionaris del NYPD han dit que és una nova tecnologia prometedora que podria salvar vides i reduir el risc per als agents de policia, recopilant informació en llocs de risc i eliminant la necessitat d’enviar humans a situacions compromeses. (La tardor passada, per exemple, es va fer servir per enviar menjar a una situació de presa d’ostatges a Queens.)

El NYPD utilitza robots des de la dècada dels 70 per salvar vides en situacions d’ostatges i incidents perjudicials, ha explicat el departament a través de Twitter. Aquest model de robot està sent provat per avaluar les seves capacitats en comparació amb altres models que utilitzen la unitat de servei d’emergències i la plantilla de bombers.

El desplegament de la tecnologia per a la vigilància policial també planteja altres qüestions, va dir Jay Stanley, analista de polítiques sènior de la Unió Americana de Llibertats Civils. El robot podria ser autònom? És una bona inversió en un moment en què les comunitats examinen la relació entre els agents de policia i els ciutadans?

Un interrogant és si la policia serà transparent, tindrà polítiques clares per fer servir aquesta tecnologia i s’assegurarà que el públic formi part de la conversa a cada pas del camí.

Boston Dynamics, el fabricant del robot, va dir que s’havia afegit una clàusula al contracte d’arrendament que impedia que Spot s’utilitzés de cap manera per fer mal físicament o intimidar les persones.

El Departament de Policia d’Honolulu està utilitzant un Spot principalment per prendre mesures en una zona de tendes per a persones sense llar durant la pandèmia de COVID-19. Aquest ús també ha causat enrenou, encara que per diferents motius: el gos robot es va comprar amb prop de 150.000 dòlars en diners d’ajuts federals pel coronavirus, segons va informar Honolulu Civil Beat.

John McCarthy, subdirector del departament, va dir en un comunicat que el robot tenia altres usos relacionats amb la pandèmia, incloses les imatges tèrmiques i el lliurament d’aliments i medicaments.

Actualment, bona part d’aquesta feina la fan agents, a alguns dels quals es paga hores extres. A la llarga, el robot Spot estalviarà diners i mantindrà els agents fora de perill.

_____

Esta entrada en español / This post in English / Post en français

S’implanta el projecte “Policia intel·ligent” a Grècia

La policia de Grècia comptarà amb nous dispositius que els permetran dur a terme el reconeixement facial i la identificació d’empremtes dactilars en temps real mentre estiguin fora dels recintes policials.

El pla de difusió de la nova tecnologia forma part del projecte Policia intel·ligent“, de 4,5 milions d’euros, anunciat l’any 2017, que té com a objectiu identificar i verificar la identitat dels ciutadans quan els atura o els deté la policia. La majoria dels costos del projecte (75%) els cobreix el Fons de Seguretat Interna (ISF) de la Comissió Europea.

Actualment, els ciutadans que no són capaços de proporcionar documents d’identificació quan la policia els atura als carrers de Grècia han de ser traslladats a la comissaria de policia més propera per tal que es comprovi la seva identitat. En permetre la identificació en temps real, els nous dispositius faran que la identificació dels ciutadans sigui més eficient en el temps.

L’objectiu de la policia grega és verificar persones, vehicles i objectes en temps real. En fer-ho, millora la seguretat dels agents de policia, es redueixen les molèsties als ciutadans i s’estalvien recursos humans i materials.

La policia grega repartirà inicialment almenys 1.000 dispositius electrònics, amb l’opció de lliurar-ne 9.000 més aquest estiu, si l’esquema demostra ser efectiu.

Els dispositius, d’aspecte similar als telèfons intel·ligents, estan connectats a 20 bases de dades diferents pertanyents a autoritats nacionals i internacionals, inclosos el Ministeri de Transports grec, el Ministeri d’Afers Exteriors, Europol, l’FBI i la Interpol.

El març de l’any 2020 Homo Digitalis, l’organització grega de defensa dels drets digitals sense ànim de lucre, va presentar una sol·licitud a l’Autoritat grega de protecció de dades (DPA) per expressar la seva preocupació per la legalitat del projecte Policia intel·ligent“.

Homo Digitalis va argumentar que hi ha una forta possibilitat que la policia grega infringeixi les lleis de la UE relatives al tractament de dades personals  establertes a la Constitució grega, a les lleis nacionals vinculades al Reglament general de protecció de dades (GDPR) i a la Carta de Drets Fonamentals de la UE.

_____

Esta entrada en español / This post in English / Post en français

El món està preparat per als drons amb reconeixement facial?

Alguns dels primers drons amb capacitats avançades de reconeixement facial estan sent desenvolupats per empreses de vigilància israelianes, mentre que, per part seva, la policia nord-americana considera ja que aviat afegirà la controvertida tecnologia a les seves màquines voladores sense tripulació.

Com a senyal de l’arribada imminent de la identificació biomètrica des de l’aire, una star-tup israeliana, finançada anteriorment per Microsoft, ha patentat tecnologies per al reconeixement facial basat en drons. AnyVision, amb seu a Tel-Aviv, va presentar una sol·licitud de patent que detallava la tecnologia per ajudar un dron a trobar els millors angles per a un reconeixement facial, abans d’intentar trobar una coincidència amb l’objectiu, fent referència a cares emmagatzemades en una base de dades.

La patent té com a objectiu eliminar algunes de les complexitats d’identificar les cares d’una màquina voladora. Sorgeixen diversos problemes obvis quan s’intenta reconèixer algú des d’un dron: adquirir un angle en què es pugui capturar correctament una cara i poder obtenir imatges de bona qualitat mentre es mou. Tots dos són considerablement més difícils que obtenir un resultat a partir d’imatges estàtiques.

Als EUA, les agències militars han estat intentant trobar solucions, inclòs el projecte de reconeixement facial tàctic avançat a una tecnologia a distància com el Comandament d’Operacions Especials (SOCOM) o la iniciativa de reconeixement i identificació biomètrica i identificació a altitud i abast biomètrics d’Intelligence Advanced Research Projects Activity (IARPA).

Però la indústria privada pot arribar-hi primer. El desembre del 2020, es va revelar que executius d’AnyVision s’havien associat amb el proveïdor de defensa israelià per a una nova empresa conjunta anomenada SightX. A les demostracions proporcionades als mitjans israelians a finals del 2020, els drons petits de SightX no tenien cap capacitat de reconeixement facial, tot i que els executius van dir que aquesta funció arribaria aviat. No està clar si la tecnologia és exclusiva per als militars o si es vendrà a agències de policia.

El que està clar és que la tecnologia està llesta per al llançament. El director general d’AnyVision, Avi Golan, va dir a Forbes que, tot i que AnyVision no tenia cap dron de producció amb reconeixement facial, aviat seria una realitat. Va assenyalar que els drons de lliurament requereixen un reconeixement facial per determinar si han arribat al comprador correcte. Amazon ja ha patentat tecnologia similar, assenyalant els plans potencials per a la seva flota experimental de lliurament amb drons.

Pel que fa a quan els nord-americans poden esperar drons policials amb reconeixement facial, fins i tot si les agències policials no tenen previst enviar-los immediatament al cel, s’espera que arribin aviat d’una manera o altra.

_____

Esta entrada en español / This post in English / Post en français

Sensors i tecnologia portable per als efectius de cossos de seguretat

Fa uns dies parlàvem en aquest blog del creixement dels dispositius en la internet dels cossos arran d’un estudi que n’analitzava les oportunitats, els riscos i la governança. Una part d’aquests dispositius són els anomenats ‘portables’, que fa referència al fet que les persones els porten a sobre i capten determinades dades de la seva salut.

La RAND Corporation ha publicat un informe [1] sobre els usos potencials d’aquests dispositius portables per part de les forces i cossos de seguretat. L’informe és el resultat d’un grup de treball realitzat en nom del National Institute of Justice dels EUA,  en què també va participar, i el Police Executive Research Forum.

El grup de treball estava format per policies, investigadors i desenvolupadors i van debatre partint de quatre preguntes d’investigació:

  • Quin és l’estat actual i en un futur proper de la tecnologia de sensors portables?
  • Quins punts d’intersecció hi ha entre aquestes tecnologies i els interessos dels cossos policials, tant per als agents com per a les organitzacions policials?
  • Quins són els reptes específics que aquestes tecnologies representen per a la privacitat de les dades, els titulars i la ciutadania?
  • Quines són les qüestions destacades associades amb les tecnologies de sensors portables i com s’adrecen de manera específica?

Com a exemple dels dispositius a tenir en compte esmentaven les polseres, les bandes de pit i teixits intel·ligents, amb els quals es poden recollir biomarcadors relacionats amb la salut dels policies, per informar en la presa de decisions operatives.

Entre les principals conclusions a què van arribar destaquem les següents:

  • El desenvolupament actual de les tecnologies de sensors portables més assequibles encara no arriba al nivell d’exactitud i precisió que necessiten les forces i cossos de seguretat perquè siguin útils com a potencials eines de suport a la presa de decisions. Per contra, els dispositius que compleixen aquests requisits són els utilitzats amb finalitats mèdiques i tenen un preu excessiu o no complirien els criteris de portabilitat.
  • Els participants del grup de treball creuen que l’objectiu a curt termini ha de ser preparar les organitzacions policials i els seus efectius per al moment en què les tecnologies siguin més aplicables als rols dels cossos de seguretat.
  • El futur dependrà de com aquestes tecnologies s’adaptin a les tasques diàries dels agents, com s’integren en la tecnologia que ja porten i que els mesuraments que realitzin siguin vàlids i fiables, d’interpretació clara, i les polítiques relacionades amb la gestió i l’anàlisi de les dades. Les tecnologies tenen el potencial de valorar les capacitats d’un agent per treballar i als comandaments per escollir quines tasques assignen als seus agents.
  • Els cossos policials han de participar en el desenvolupament d’aquests dispositius, ja que les necessitats potser no són les mateixes que les dels dispositius comercials.

 [1] Wearable Sensor Technology and Potential uses Within law Enforcement. Identifying High-Priority Needs to Improve Officer Safety, Health, and Wellness Using Wearable Sensor Technology. https://www.rand.org/pubs/research_reports/RRA108-7.html

_____

Esta entrada en español / This post in English / Post en français

Nou informe sobre l’ús de drons per part de la policia als Estats Units

L’Oficina dels serveis de policia comunitària del Departament de Justícia dels Estats Units (COPS Office) va publicar el mes de desembre passat un nou informe amb els seus socis del Fòrum de Recerca Executiva de la Policia (PERF), que és un full de ruta per a la implementació d’un programa d’equips no tripulats efectius (UAS). Els drons, com generalment es coneixen els UAS, presenten una de les intervencions més emocionants en l’aplicació de la llei, oferint als departaments una eina essencial amb la qual recopilar dades situacionals vitals sense posar en perill els professionals de les forces de l’ordre. Aquest informe és una guia per llançar un programa de drons i està disponible al lloc web de l’Oficina COPS.

L’informe sobre l’ús de drons per part de les agències de seguretat pública és un crit d’alarma sobre l’amenaça d’atacs amb drons maliciosos.

L’any passat, l’oficina COPS, el Departament de Seguretat Nacional dels Estats Units (DHS) i el PERF van convocar unes conferències de dos dies per a experts de la comunitat policial sobre drons, el seu ús i implementació i la política d’assistents, així com sobre qüestions operatives. Representants de diferents agències van presentar ponències sobre diversos temes relacionats:

  • Normes, preocupacions comunitàries, assumptes pressupostaris i pràctiques prometedores per establir programes per a l’ús de drons a les forces de l’ordre
  • Recomanacions per a l’execució d’aquest programa, inclosa la formació i la dotació de personal
  • Assumptes de contrautilització, com la tecnologia de detecció i desactivació i l’ús perillós de drons il·legals per part de malfactors

Aquest informe resumeix la informació que es va debatre en aquestes conferències i també presenta lliçons apreses i pràctiques prometedores recollides a partir d’entrevistes, revisions de polítiques i dades d’enquestes. Les presentacions i debats d’aquest esdeveniment han informat de totes les tasques dels drons en el futur.

Aquest informe tracta dues qüestions oposades però relacionades:

  • L’ús de drons per part de les agències de policia per protegir la seguretat pública.
  • L’ús de drons per part d’actors malintencionats per cometre diversos delictes, com ara actes de terrorisme. Per tant, la història dels drons té aproximadament dues cares radicalment diferents d’una mateixa moneda.

Diverses agències locals i federals han començat a explorar estratègies contradrons en esdeveniments importants i reunions massives com la Super Bowl. Però aquest treball encara està en desenvolupament. Els legisladors i funcionaris governamentals federals, estatals i locals, inclosos els oficials de policia, haurien d’accelerar els seus esforços per abordar aquests problemes tan aviat com sigui possible.

Totes les agències d’aplicació de la llei, independentment de si volen iniciar un programa per utilitzar drons per als seus propis propòsits, han de plantejar-se un repte relacionat però molt més difícil: com anticipar-se, prevenir, detectar i respondre a l’ús criminal dels drons, inclòs l’ús per part de terroristes. Per exemple, els terroristes podrien utilitzar drons per llançar una bomba o ruixar un gas tòxic sobre grans multituds de persones en un acte públic. Però els drons també poden ser extremament eficaços en el reconeixement amb finalitats criminals, ja que poden sobrevolar pilars, punts de control i altres mecanismes de seguretat.

_____

Esta entrada en español / This post in English / Post en français