23 nov 2021

Seguridad del mañana. La transformación digital de la policía y el patrullaje

La transformación digital es un fenómeno que está impregnándose en nuestra manera de hacer todo, ya no solo de las industrias convencionales. Recientemente nos hemos dado a la tarea de tratar temáticas ejemplares por medio de los posts que publicamos periódicamente, como lo son los deportes; y es que, viviendo en la era digital, el mundo entero favorece lo remoto, la velocidad, la eficiencia y, por consiguiente, su yuxtaposición: la transformación digital.

El sector “gobierno” resulta ser uno de los 10 usos más frecuentes de tecnologías como Big Data y, sin embargo, uno de los temas menos explorados usualmente en este blog; por esto, en el presente artículo pretende dar a conocer al lector las implementaciones digitales que están revolucionando la manera en que comprendemos un nicho que usualmente no se asociaría con la tecnología: la seguridad. Señalaremos tecnologías de punta que se han utilizado en estos últimos años para la prevención de crímenes, dictamen de sentencias y predicción de actos delictivos a lo largo del globo.

Resulta pertinente destacar que, para la ejecución del artículo, nos limitaremos a enunciar las tecnologías actualmente disponibles y los fines hacia los que se está trabajando, evitando deliberadamente criticar su practicidad, señalar los sesgos inherentes a estos modelos (VER ESPEJISMO) o examinar desde una dimensión ética lo aquí expuesto.

Patrullaje predictivo.

Cuando se trata del ser humano, todo parece a simple vista ser aleatorio; las decisiones que tomamos día tras día pocas veces son suficientemente premeditadas y variables como un enamoramiento, la enfermedad, la salud económica y, entre muchos otros, la ubicación de un crimen, tienden a ser cuestiones dejadas al azar. Generar modelos matemáticos capaces de predecir cuestiones tan etéreas como el amor, la felicidad, el potencial o, como el enfoque del presente artículo, el crimen, resulta ambicioso en demasía y lógicamente susceptible a fallos categóricos en su planteamiento.


En 2013, PredPol, una startup californiana recibió una fuerte inversión para desarrollar un programa que permita a la policía conocer la localización de un crimen antes de que este suceda. El algoritmo para la tarea implementa el historial de cualquier territorio dado para arrojar, mediante zonas de calor, las zonas en las que es más probable que padezcan de un delito tipo I (agresiones físicas de una persona hacia otra); esto, a su vez, le permite a los cuerpos policiales propagar su atención de manera más selectiva, distribuir de manera estratégica sus patrullas y, a la larga, detener a un mayor número de delincuentes.

Tras un año de ser utilizado en Reading, Pennsylvania, el crimen se redujo 23% con respecto a años anteriores, el programa fue considerado un éxito e inclusive vio el nacimiento de propuestas similares en estados vecinos, como CompStat en Nueva York o HunchLab en Philadelphia.

Modelos de reincidencia

¿Cómo es posible que el 13% de los estadounidenses sean afroaméricanos y que, sin embargo, el 40% de sus cárceles sean de esta misma población? En Estados Unidos, un juez es tres veces más probable a sentenciar a muerte a un acusado afroaméricano que a uno caucásico, cifra que asciende a 4 veces de tratarse de un acusado latino. El dictamen de sentencias para delincuentes siempre ha dado mucho que hablar, ya que, si bien se intenta apelar al criterio de un ciudadano que supuestamente guiará su decisión con base en hechos, equidad e inteligencia en la forma de un juez, la sentencia que arroje este sigue siendo, en el mejor de los casos, subjetiva y falaz. ¿Cómo puede mitigarse entonces el impacto, en tanto a sentencias, del racismo, sexismo, temperamentos, corrupción y demás factores?


Con base en todos los estudios previamente mencionados, se decretó en 24 estados desarrollar "modelos de reincidencia", algoritmos capaces de tomar decisiones respecto al tiempo de sentencia de los acusados en lugar de la opinión, sesgos, humores y prejuicios del factor humano, otorgando, en mayor medida, sentencias consistentes y más fiables. Ponderar la sentencia debe imperativamente de contemplar cuestiones como el crimen en cuestión, las circunstancias, si el acusado estaba en pleno uso de su consciencia o no y, entre otros factores, la probabilidad de reincidencia; esto es, la probabilidad de que un criminal vuelva a delinquir en el futuro, por lo que generar un algoritmo capaz de predecir el riesgo inherente a cada persona es una tarea ardua.

Los modelos de reincidencia regulares actualmente consisten de un formulario que se le da a llenar al acusado al ser declarado culpable y donde se le inquiere por cuestiones tales como el número de veces que ha sido detenido en su vida, el número de conocidos que tiene en la cárcel, el vecindario en el que vive, entre otras variables. Los modelos de reincidencia, de hacerse meticulosamente, desembocan en un bien intangible para la toma de decisiones, pero, de permitirlo, solo fungen como camuflaje para el sesgo de la opinión humana, siendo que son cuestiones enteramente subjetivas que permean y resultan perniciosas para el algoritmo.

Conclusión.

Partiendo de objetivos puros y bienintencionados, los usos de big data para determinar cuestiones tan polémicas como el patrullaje, las sentencias y múltiples otros usos dentro del marco de la seguridad pretenden homologar y simplificar la toma de decisiones en cuestiones donde resulta evidente el sesgo de la injerencia humana, pretendiendo ofrecer a todo el mundo igualdad de trato y oportunidades; sin embargo, como bien advierte Cathy O’Neil en su más reciente libro, muchas veces estos logran todo lo contrario al permear sesgos y condiciones lógicas que canalizarán el modelo matemático a perjudicar a un sector dado.

Este artículo, como bien se enuncia en los primeros párrafos pero no está de más recalcar, tiene el propósito principal de exponer los usos del Big Data para un nicho diferente y a un nivel meramente enunciativo; no obstante, sirve para enfatizar la importancia ya no solo de contar con elementos cuantitativos para enaltecer la toma de decisiones, sino cerciorarse de que estos aporten un valor genuino y que ayuden a evitar a toda costa errores de juicio, no a cometerlos. Con KonPaas, Konfront no solo pone a tu disposición un galardonado equipo de desarrolladores especializados en digitalizar tu negocio, sino a un panel de experimentados consultores estratégicos que llevarán de la mano tu proyecto hasta su máximo potencial y prevendrán sobre los errores aquí expuestos. Empieza la conversación y descubre cómo tú puedes ser nuestro siguiente caso de éxito.

 

Bibliografía.

Cathy O’Neil. “Weapons of Math Destruction” (2016)

Consultado el 06/10/2021

Charlie Savage “Facial Scanning Is Making Gains in Surveillance” (21/08/2013)

Consultado el 11/11/2021

https://www.nytimes.com/2013/08/21/us/facial-scanning-is-making-gains-in-surveillance.html

James Vlahos “Can Machines Predict Where Crimes Are about to Happen?” (01/2012)

Consultado el 15/11/2021

https://www.scientificamerican.com/article/the-department-of-pre-crime/

Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin, “How We Analyzed the COMPAS Recidivism Algorithm” (23/05/2016)

Consultado el 15/11/2021

https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm

Comments

Comments