Cómo las cámaras de vigilancia pueden ser armadas con la IA


Una cámara de vigilancia operada por el Departamento de Policía de Nueva Orleans fijada a una farola en la calle Bourbon. CréditoCréditoWilliam Widmer para The New York Times

Los avances en inteligencia artificial podrían sobrecargar las cámaras de vigilancia, permitiendo que las imágenes se monitoricen constantemente y se analicen instantáneamente, advirtió la ACLU en un nuevo informe.

Por Niraj Chokshi 

  • 13 de junio de 2019

Las empresas y el gobierno han pasado años instalando millones de cámaras de vigilancia en los Estados Unidos. Ahora, esa tecnología está a punto de obtener una actualización importante, advierte la American Civil Liberties Union en un nuevo informe.

Los avances en inteligencia artificial podrían sobrecargar la vigilancia, permitiendo a los propietarios de cámaras identificar comportamientos “inusuales”, reconocer acciones como abrazar o besar, buscar fácilmente imágenes embarazosas y estimar la edad de una persona o, posiblemente, incluso su disposición , argumenta el grupo.

“Nos enfrentamos a la posibilidad de colocar un ejército de guardias de seguridad de Amnistía Internacional detrás de esas lentes que, en realidad, nos monitorean, toman decisiones sobre nosotros y nos examinan”, dijo Jay Stanley, analista de políticas de ACLU. Autor del informe , que fue publicado el jueves.

Según varios cálculos, Estados Unidos alberga a decenas de millones de cámaras de vigilancia. Si bien muchos de esos dispositivos han existido durante años, se ha comprendido ampliamente que sería inviable, si no imposible, que cada dispositivo sea monitoreado constantemente y que su material sea cuidadosamente categorizado y documentado, el Sr. Stanley señala en el informe titulado “El amanecer de la vigilancia de robots”. Incluso el Departamento de Justicia ha dicho que ver esas imágenes es “aburrido y fascinante” y que la atención se desvanece después de unos 20 minutos.

Sin embargo, las mejoras en la tecnología creada para monitorear activamente dichas fuentes, conocidas por varios nombres que incluyen “análisis de video”, están preparadas para cambiar eso, asegurando que cada segundo de material de archivo pueda ser analizado.

“Honestamente, tiene tanto beneficios como consecuencias de seguridad”, dijo Carl Vondrick, profesor de ciencias de la computación en la Universidad de Columbia, donde dirige un grupo centrado en la visión por computadora y el aprendizaje automático.

La capacidad de analizar y aprender constantemente de una transmisión de video podría ayudar a los autos que conducen a su propio automóvil a comprender su entorno, las tiendas minoristas rastrean sus productos y los profesionales de la salud monitorean a sus pacientes, dijo. La ACLU advierte que también se puede usar para examinar las rutinas y acciones de los individuos en una escala enorme.

En el informe, la organización imaginó un puñado de usos distópicos para la tecnología. En uno, un político solicita imágenes de sus enemigos besándose en público, junto con las identidades de todos los involucrados. En otra, una compañía de seguros de vida ofrece tasas basadas en la rapidez con que las personas corren mientras hacen ejercicio. Y en otro, un sheriff recibe una lista diaria de personas que parecían estar intoxicadas en público, en función de los cambios en su forma de caminar, habla u otros patrones.

Los analistas han valorado el mercado de análisis de video en hasta $ 3 mil millones, con la expectativa de que crecerá exponencialmente en los próximos años. Los actores importantes incluyen empresas más pequeñas y nombres familiares como Amazon, Cisco, Honeywell, IBM y Microsoft.

+52 1 77 11 87 11 52

En una reciente conferencia de la industria minorista, IBM mostró cómo su software de análisis de video podría usarse para contar a los clientes y estimar sus edades y estado de lealtad, todo en tiempo real. El software podría monitorear la longitud de una línea, identificar a un gerente mientras caminaba a través de una multitud, y marcar a las personas que merodean fuera de la tienda.

El servicio de reconocimiento de Amazon, lanzado en 2016, supuestamente puede identificar y rastrear personas, reconocer a las celebridades y detectar objetos y leer textos. (La compañía generó críticas por lanzar ese servicio a la policía). Después de que los empleados protestaron, Google el año pasado dijo que no renovaría un contrato con el Proyecto Maven del Pentágono, para el cual se utiliza inteligencia artificial para interpretar videos e imágenes, posiblemente para mejorar el El objetivo de los ataques con aviones no tripulados.

Los proveedores de análisis de video cuentan con una variedad de capacidades, de acuerdo con el informe de ACLU, incluida la detección de objetos caídos o dejados atrás; análisis de la dirección, marcha o movimiento de una persona; e incluso la identificación de intentos de ingresar a un área segura al apresurarse cuando otra persona ingresa o sale del espacio. Algunas compañías dicen que sus servicios pueden discernir información demográfica o identificar ropa y otros objetos, también.

El software también se está capacitando para identificar una amplia gama de actividades, como usar un teléfono, dar la mano, golpear algo, beber cerveza y caminar hacia o hacia un objeto. (Amazon afirma que Rekognition ya puede identificar algunas de estas acciones , como “apagar una vela” y “apagar un fuego”.)

Un área de investigación que la ACLU describió con particular preocupación es el movimiento para capacitar al software en “detección de anomalías”, que puede destacar a un individuo por comportamiento inusual, atípico o desviado. Otro es el reconocimiento de emociones, que promete discernir el estado de ánimo de una persona, aunque hay poca evidencia de que las emociones sean universales o que se puedan determinar solo con movimientos faciales.

A medida que la tecnología mejore, los usuarios podrán buscar videos por palabra clave, obteniendo resultados precisos como “auto rojo” o “hombre con sudadera con capucha”, una capacidad que ya existe para las imágenes almacenadas en Google Photos y Apple Photos.

La propagación de esta tecnología tiene varias implicaciones peligrosas, advierte la ACLU.

Primero, los algoritmos pueden entrenarse en conjuntos de datos sesgados, lo que lleva a resultados discriminatorios. Las deficiencias raciales bien documentadas de la tecnología de reconocimiento facial, por ejemplo, se han vinculado a datos de entrenamiento que se ven muy blancos y masculinos .

El software de análisis de video a menudo se entrena en imágenes disponibles públicamente, como los videos de YouTube , pero puede haber sesgos en el tipo de personas que los publican o en lo que muestran dichos videos.

“Hay razones para temer a esta tecnología cuando funciona, y hay razones para temer a esta tecnología cuando no funciona”, dijo Stanley.

El uso de análisis de video también puede tener un efecto escalofriante en la sociedad, advirtió la ACLU. Si los individuos sienten que cada uno de sus movimientos es monitoreado, pueden alterar su comportamiento. También puede llevar a una aplicación excesiva de delitos menores, una práctica que ha afectado de manera desproporcionada a las minorías u otros grupos desfavorecidos.

“Podríamos encontrarnos sujetos a un acoso mezquino constante e ignorar las circunstancias atenuantes del sentido común”, advierte el informe.

Y luego está el potencial de abuso. Aquellos que controlan tales sistemas ejercerían un gran poder. Sin las regulaciones adecuadas, podrían usarlo para fines infames, advirtió el grupo.

Para evitar los peores resultados, ACLU ofreció una serie de recomendaciones que regulan el uso de análisis de video en los sectores público y privado.

No se debe permitir que ninguna entidad gubernamental implemente análisis de video sin la aprobación legislativa, notificación pública y una revisión de los efectos de un sistema en los derechos civiles, dijo. Las personas deben saber qué tipo de información se registra y analiza, tener acceso a los datos recopilados sobre ellos y tener una forma de cuestionar o corregir inexactitudes.

Para evitar los abusos, el análisis de video no debe usarse para recopilar información identificable en masa o simplemente para buscar un comportamiento “sospechoso”, dijo ACLU. El grupo dijo que los datos recopilados también deben manejarse con cuidado y que los sistemas deben tomar decisiones de manera transparente y de manera que no tengan implicaciones legales para aquellos a quienes se realiza el seguimiento.

Las empresas deben regirse por pautas similares y deben ser transparentes en la forma en que usan el análisis de video, dijo el grupo. Los reglamentos que los rigen deben equilibrar las protecciones constitucionales, incluidos los derechos de privacidad y libertad de expresión.

Mientras que la ACLU está sonando las alarmas sobre el uso de análisis de video ahora, nadie puede adivinar qué tan rápido avanzará la tecnología.

“El chiste de la IA es que le preguntas a un grupo de investigadores de la IA: ‘¿Cuándo vamos a lograr la IA?’ y la respuesta siempre ha sido: ‘En 30 años’ “, dijo Vondrick.

Niraj Chokshi es un reportero de asignaciones generales con base en Nueva York. Antes de unirse a The Times en 2016, cubrió los gobiernos estatales para The Washington Post. También ha trabajado en The Atlantic, National Journal y The Recorder, en San Francisco. @nirajc

Fuente: www.nytimes.com

Mario Meneses

Téc. Gestión de Riesgos

mariomeneses@seguridadpersonalyprofesional.com

mario@c2csmartcompliance.com

+52 1 7711871152

Saludos

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios .