Una cámara corporal capturó cada palabra y ladrido pronunciado mientras el sargento de policía Matt Gilmore y su perro K-9, Gunner, buscaron a un grupo de sospechosos durante casi una hora.
Normalmente, el sargento de policía de la ciudad de Oklahoma tomaba su computadora portátil y dedicaba otros 30 a 45 minutos a redactar un informe sobre la búsqueda. Pero esta vez hizo que la inteligencia artificial escribiera el primer borrador.
A partir de todos los sonidos y conversaciones de radio captados por el micrófono conectado a la cámara corporal de Gilbert, la herramienta de inteligencia artificial produjo un informe en ocho segundos.
Recibe las noticias locales y los pronósticos del tiempo directo a tu email. Inscríbete para recibir newsletters de Telemundo 62 aquí.
“Era un informe mejor que el que jamás podría haber escrito y era 100 % preciso. Fluyó mejor”, dijo Gilbert. Incluso documentó un hecho que no recordaba haber escuchado: la mención de otro oficial sobre el color del auto del que huyeron los sospechosos.
El departamento de policía de la ciudad de Oklahoma es uno de los pocos que experimenta con chatbots de inteligencia artificial para producir los primeros borradores de informes de incidentes. Los agentes de policía que lo han probado están entusiasmados con la tecnología que ahorra tiempo, mientras que algunos fiscales, organismos de control policial y juristas tienen preocupaciones sobre cómo podría alterar un documento fundamental en el sistema de justicia penal que influye en quién es procesado o encarcelado. .
Construido con la misma tecnología que ChatGPT y vendido por Axon, mejor conocido por desarrollar el Taser y como el principal proveedor estadounidense de cámaras corporales, podría convertirse en lo que Gilbert describe como otro “cambio de juego” para el trabajo policial.
"Se convierten en agentes de policía porque quieren hacer trabajo policial, y pasar la mitad del día ingresando datos es sólo una parte tediosa del trabajo que odian", dijo el fundador y director ejecutivo de Axon, Rick Smith, al describir el nuevo producto de inteligencia artificial, llamado Draft. Uno: tener la “reacción más positiva” de cualquier producto que haya introducido la empresa.
"Ahora, ciertamente hay preocupaciones", añadió Smith. En particular, dijo que los fiscales de distrito que procesan un caso penal quieren estar seguros de que los agentes de policía, no sólo un chatbot de inteligencia artificial, sean responsables de redactar sus informes porque es posible que tengan que testificar ante el tribunal. sobre lo que presenciaron.
"Nunca quieren tener a un oficial en el estrado que diga, bueno, 'La IA escribió eso, yo no'", dijo Smith.
AGENCIAS POLICIALES YA HAN UTILIZADO INTELIGENCIA ARTIFICIAL
La tecnología de inteligencia artificial no es nueva para las agencias policiales, que han adoptado herramientas algorítmicas para leer matrículas, reconocer rostros de sospechosos, detectar sonidos de disparos y predecir dónde podrían ocurrir delitos. Muchas de esas solicitudes han venido acompañadas de preocupaciones sobre la privacidad y los derechos civiles e intentos de los legisladores de establecer salvaguardias. Pero la introducción de informes policiales generados por IA es tan nueva que hay pocas barreras de seguridad, si es que hay alguna, que guíen su uso.
Las preocupaciones sobre los prejuicios y prejuicios raciales de la sociedad que se incorporan a la tecnología de inteligencia artificial son solo una parte de lo que el activista comunitario de la ciudad de Oklahoma, Aurelius Francisco, considera “profundamente preocupante” acerca de la nueva herramienta, de la que se enteró a través de The Associated Press.
"El hecho de que la tecnología esté siendo utilizada por la misma empresa que proporciona Tasers al departamento es bastante alarmante", dijo Francisco, cofundador de la Fundación para las Mentes Liberadoras en la ciudad de Oklahoma.
Dijo que automatizar esos informes "facilitará la capacidad de la policía para acosar, vigilar e infligir violencia a los miembros de la comunidad. Si bien facilita el trabajo del policía, dificulta la vida de las personas negras y de color".
Antes de probar la herramienta en la ciudad de Oklahoma, los agentes de policía se la mostraron a los fiscales locales, quienes recomendaron cierta precaución antes de utilizarla en casos penales de alto riesgo. Por ahora, sólo se utiliza para informes de incidentes menores que no dan lugar a que alguien sea arrestado.
“Así que no habrá arrestos, ni delitos graves, ni crímenes violentos”, dijo el capitán de la policía de Oklahoma City Jason Bussert, quien maneja la tecnología de la información para el departamento de 1.170 agentes.
Ese no es el caso en otra ciudad, Lafayette, Indiana, donde el jefe de policía Scott Galloway dijo a la AP que todos sus oficiales pueden usar Draft One en cualquier tipo de caso y que ha sido “increíblemente popular” desde que comenzó el piloto a principios de este año.
O en Fort Collins, Colorado, donde el sargento de policía. Robert Younger dijo que los agentes son libres de usarlo en cualquier tipo de informe, aunque descubrieron que no funciona bien en las patrullas del distrito de bares del centro de la ciudad debido a una "cantidad abrumadora de ruido".
Además de utilizar IA para analizar y resumir la grabación de audio, Axon experimentó con visión por computadora para resumir lo que se "ve" en el video, antes de darse cuenta rápidamente de que la tecnología no estaba lista.
"Dadas todas las sensibilidades en torno a la vigilancia policial, la raza y otras identidades de las personas involucradas, esa es un área en la que creo que vamos a tener que hacer un trabajo real antes de introducirlo", dijo Smith, el director ejecutivo de Axon, describiendo algunos de las respuestas analizadas no fueron “abiertamente racistas” sino insensibles en otros aspectos.
Esos experimentos llevaron a Axon a centrarse directamente en el audio del producto presentado en abril durante su conferencia anual de la empresa para funcionarios de policía.
MODELO DE INTELIGENCIA ARTIFICIAL IMPULSADO POR CHAT GPT
La tecnología se basa en el mismo modelo de IA generativa que impulsa ChatGPT, creado por OpenAI, con sede en San Francisco. OpenAI es un socio comercial cercano de Microsoft, que es el proveedor de computación en la nube de Axon.
"Utilizamos la misma tecnología subyacente que ChatGPT, pero tenemos acceso a más controles y diales de los que tendría un usuario real de ChatGPT", dijo Noah Spitzer-Williams, quien administra los productos de inteligencia artificial de Axon. Bajar el "dial de creatividad" ayuda al modelo a ceñirse a los hechos para que "no embellezca ni alucine de la misma manera que lo encontraría si estuviera usando ChatGPT por sí solo", dijo.
Axon no dirá cuántos departamentos de policía están utilizando la tecnología. No es el único proveedor, ya que empresas emergentes como Policereports.ai y Truleo ofrecen productos similares. Pero dada la profunda relación de Axon con los departamentos de policía que compran sus Tasers y cámaras corporales, los expertos y funcionarios policiales esperan que los informes generados por IA se vuelvan más ubicuos en los próximos meses y años.
Antes de que eso suceda, al jurista Andrew Ferguson le gustaría ver más debates públicos sobre los beneficios y los posibles daños. Por un lado, los grandes modelos de lenguaje detrás de los chatbots de IA son propensos a inventar información falsa, un problema conocido como alucinación que podría agregar falsedades convincentes y difíciles de notar a un informe policial.
"Me preocupa que la automatización y la facilidad de la tecnología hagan que los agentes de policía sean menos cuidadosos con su escritura", dijo Ferguson, profesor de derecho en la American University que trabaja en lo que se espera sea el primer artículo de revisión de leyes sobre los emergentes tecnología.
Ferguson dijo que un informe policial es importante para determinar si la sospecha de un oficial "justifica la pérdida de libertad de alguien". A veces es el único testimonio que ve un juez, especialmente en el caso de delitos menores.
PROBARÁN CUÁL MÉTODO ES EL MÁS CONFIABLE
Los informes policiales generados por humanos también tienen fallas, dijo Ferguson, pero aún queda por ver cuál es más confiable.
Para algunos agentes que lo han probado, ya está cambiando la forma en que responden a un delito denunciado. Están narrando lo que está sucediendo para que la cámara capture mejor lo que les gustaría poner por escrito.
A medida que la tecnología se vaya popularizando, Bussert espera que los agentes se vuelvan “cada vez más verbales” al describir lo que tienen delante.
Después de que Bussert cargó el video de una parada de tráfico en el sistema y presionó un botón, el programa produjo un informe de estilo narrativo en lenguaje conversacional que incluía fechas y horas, tal como lo habría escrito un oficial a partir de sus notas, todo basado en el audio de la cámara corporal.
"Fueron literalmente segundos", dijo Gilmore, "y se hizo hasta el punto en que pensé: 'No tengo nada que cambiar'".
Al final del informe, el oficial debe hacer clic en una casilla que indica que se generó con el uso de IA.