SCI-Tech

Ellos sabes quién eres y qué te gusta: Bienvenido a la era del reconocimiento facial

Federico Kukso 02 / Jul / 19
Esta intrusiva tecnología utilizada por gobiernos y empresas se expande por el mundo generando polémica y atentando contra el derecho a la privacidad

En la escuela secundaria número 11 de la ciudad de Hangzhou, en el este de China, los estudiantes tienen prohibido desconcentrarse. Como si fueran autómatas, no hablan entre sí. Ni se animan ya a sacar los celulares de sus bolsillos. Durante horas, los alumnos están obligados a sonreír. “Es como si hubiera un par de ojos misteriosos que me observan constantemente”, dice uno de ellos. “No me atrevo a dejar que mi mente divague”.

El anónimo estudiante no está paranoico. Desde mayo de 2018, a él y a sus compañeros los monitorean constantemente a través de tres cámaras ubicadas sobre el pizarrón. No los observan de la manera tradicional. Los vigilan mediante la polémica y cada vez más ubicua tecnología de reconocimiento facial. “Podemos ver qué alumnos están concentrados en clase y cuáles están distraídos”, asegura con orgullo el director de la escuela, Ni Ziyuan.

El sistema -conocido oficialmente como “Sistema de gestión inteligente del comportamiento en el aula”- funciona mediante la identificación de diferentes expresiones faciales de los estudiantes. El software escanea el salón cada 30 segundos y los clasifica como felices, enojados, temerosos, confundidos o molestos, brindando a los maestros información en tiempo real sobre sus alumnos.

recon.png
El reconocimiento facial  se expande por el mundo generando polémica y atentando contra el derecho a la privacidad | Ilustración: Especial

Privacidad pisoteada

Como el resto de sus compatriotas, estos jóvenes se han resignado a que su privacidad sea pisoteada por el gobierno y las corporaciones. En los últimos años, el país más poblado de la Tierra ha visto un auge en la vigilancia, en especial con el despliegue de nuevas tecnologías para monitorear a una población de 1300 millones de personas de una manera hasta ahora nunca antes vista. 

El plan del presidente Xi Jinping al parecer consiste en contar con uno de los programas de vigilancia masiva más ambiciosos jamás imaginado: un sistema de reconocimiento facial que pueda identificar a cualquier persona en tres segundos, con una tasa de precisión del 90 por ciento.

Cámaras de reconocimiento facial se han desplegado en la estación ferroviaria de alta velocidad de Beijing. También en estadios y en conferencias. Se utilizan ya para ingresar a dormitorios universitarios y en lugares de trabajo, para retirar efectivo de cajeros automáticos e incluso para comprar en locales de KFC.

El anonimato urbano y el derecho a la privacidad están en vías de extinción. No solo en China sino también en el resto del planeta.

Alt
El sistema incorporado por el gobierno chino -conocido oficialmente como “Sistema de gestión inteligente del comportamiento en el aula”- funciona mediante la identificación de diferentes expresiones faciales de los estudiantes | Foto: Cortesía
Alt
En los últimos años, el país más poblado de la Tierra ha visto un auge en la vigilancia, en especial con el despliegue de nuevas tecnologías para monitorear a una población de 1300 millones de personas | Foto: Cortesía

Fuera de control

Como sucede con otras tecnologías, el reconocimiento facial se basa en sucesivos experimentos del pasado por clasificar y organizar el mundo. Durante la década de los noventas -con el auge de la computación y la aceleración de las tecnologías biométricas- la Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos (DARPA) lanzó un proyecto piloto que buscaba crear una base de datos de imágenes faciales conocida como FERET para ayudar al personal de seguridad, inteligencia y de las fuerzas del orden público en el desempeño de sus funciones. De septiembre de 1993 a julio de 1996, recopiló 14.126 imágenes de 1199 individuos.

Fue en el Super Bowl XXXV de 2002 cuando se utilizó por primera vez. Pero sin mucho éxito: si bien se detectaron algunos delincuentes, hubo “falsos positivos” -identificaciones erróneas- y en especial una gran reacción en su contra.

Hubo que esperar a 2010, cuando Facebook convenció a sus usuarios que era para su propio bien: entonces, la compañía de Mark Zuckerberg comenzó a implementar la funcionalidad de reconocimiento facial para identificar los rostros en las fotografías.

Sin grandes oposiciones e hipnotizados en gran medida por la aparente conveniencia, la primera instalación importante de un sistema con esta tecnología se dio en 2011 en el aeropuerto de Tocumen en Panamá. Con la  plataforma de reconocimiento facial FaceFirst, Interpol detuvo a múltiples sospechosos.

Desde entonces, la sistemática detección de rostros en espacios públicos y privados no deja de expandirse, alimentando a su paso la polémica. Invisible y sigiloso, el reconocimiento facial se está adoptando de forma increíblemente rápida. Se le utiliza en puestos de control de pasaportes, para la vigilancia de multitudes, para desbloquear celulares, para la conducción automatizada, en robótica, e incluso para adaptar la publicidad a las emociones de los compradores en las tiendas.

Es hora de regular el reconocimiento facial y el de las emociones”, dice la australiana Kate Crawford, investigadora de Microsoft y cofundadora del instituto AI Now. “La afirmación de 'ver' los estados interiores de las personas no es ni científico ni ético”.

Junto a sus colegas del AI Now Research Institute, un instituto independiente que pretende ayudar a los gobiernos a corregir los sesgos de desigualdad de sus algoritmos, lanzaron una voz de alarma. En su informe anual de 2018, estos investigadores consideran que el reconocimiento facial es uno de los grandes desafíos para la sociedad en las próximas décadas.

Sin regulación, debate público ni supervisión que la frene, esta tecnología despierta grandes dilemas éticos.
 

El software escanea el salón cada 30 segundos y los clasifica como felices, enojados, temerosos, confundidos o molestos, brindando a los maestros información en tiempo real sobre sus alumnos
Foto: Cortesía

Nuevas ideas, viejos fantasmas

El rostro humano es la puerta de entrada en nuestras interacciones con los demás. Tras millones de años, nos hemos adaptado para leer en microsegundos una expresión, para percibir una identidad única, un género, una etnia, una edad aproximada. Podemos recordar miles de caras individuales.

Pero también la lectura facial despertó ataques de xenofobia. Las raíces de una pseudociencia conocida como “fisiognomía” se extienden mucho antes del siglo V a.C.: desde entonces se creía que había una relación directa entre la apariencia externa de una persona -en especial, su cara- con su carácter o personalidad.

Estas ideas antiguas alimentaron en el siglo XIX a la también pseudociencia de la frenología, según la cual las dimensiones de la cabeza revelaban la inteligencia o las tendencias criminales. Los médicos decían poder determinar si alguien era un asesino en potencia con solo palpar el cráneo. Incluso estas supuestas “teorías científicas” se usaron para justificar la esclavitud.

El italiano Cesare Lombroso, considerado la máxima autoridad en la llamada antropología criminal, afirmaba en el libro El hombre delincuente que los pirómanos se reconocían por su piel suave, apariencia infantil y cabellera lacia y gruesa.

Pese a las décadas que pasaron desde el auge de estas ideas, el reconocimiento facial despierta antiguos fantasmas. Lejos de ser imparciales, las tecnologías de reconocimiento, detección y análisis facial cometen demasiados errores: conducen regularmente a identificación errónea y a situaciones de discriminación. Sin importar cuán bien entrenado estén los algoritmos, estos sistemas son mucho menos precisos con algunos grupos demográficos que con otros. En especial, con mujeres, personas trans y afroamericanos.

falsospositivos.jpg
Lejos de ser imparciales, las tecnologías de reconocimiento, detección y análisis facial cometen demasiados errores: conducen regularmente a identificación errónea y a situaciones de discriminación | Foto: Especial

El racismo de los algoritmos

Lo primero que hace este tipo de software biométrico es mapear las características faciales de una persona a partir de análisis de proporciones geométricas, color y textura de la piel. Y luego compara esa información con una base de datos de caras existente.

En los últimos años estas tecnologías se han desarrollado a una gran velocidad impulsadas por lo que se conoce como deep learning, una herramienta por medio de la cual las máquinas aprenden a reconocer patrones con una precisión asombrosa.

El entrenamiento se realiza a partir de cientos de miles de caras. Lo ideal sería que fueran de todas las formas, tamaños, colores, edades y géneros. Pero la realidad es que a menudo los algoritmos de reconocimiento se entrenan con conjuntos de datos sesgados que incluyen un porcentaje mucho menor de imágenes de mujeres y personas con piel oscura.
La Unión Americana de Libertades Civiles de Estados Unidos denunció que un poderoso sistema de reconocimiento y análisis facial creado por Amazon, llamado Rekognition, tiene más probabilidades de identificar erróneamente a las minorías como delincuentes.

Los algoritmos de los sistemas de reconocimiento facial que emplean agencias como el FBI y los departamentos de policía de Estados Unidos, por ejemplo, arrastran sesgos raciales, en especial si los datos de entrenamiento no están bien equilibrados.

En 2015, por ejemplo, el sistema de reconocimiento de imágenes de Google etiquetó a los afroamericanos como “gorilas”.

Según investigaciones realizadas por Alice O´Toole, directora del Face Perception Research Lab de la Universidad de Texas, los algoritmos desarrollados en países occidentales rinden mejor a la hora de reconocer caras caucásicas que asiáticas.

Estos sistemas tienen el potencial de exacerbar las tensiones entre las minorías étnicas y la policía”, asegura William Webster, director del Centro de Investigación en Información, Vigilancia y Privacidad, Universidad de Stirling. 

 

En los últimos años estas tecnologías se han desarrollado a una gran velocidad impulsadas por lo que se conoce como deep learning, una herramienta por medio de la cual las máquinas aprenden a reconocer patrones con una precisión asombrosa. Lo ideal sería que fueran de todas las formas, tamaños, colores, edades y géneros. Pero la realidad es que a menudo los algoritmos de reconocimiento se entrenan con conjuntos de datos sesgados que incluyen un porcentaje mucho menor de imágenes de mujeres y personas con piel oscura
Foto: Pinterest

El nuevo Big Brother

Las fuentes de donde grandes compañías toman las imágenes para entrenar a las máquinas también son polémicas. Sin el consentimiento de los usuarios, IBM usó casi un millón de fotos de Flickr para entrenar programas de reconocimiento facial. Lo mismo hicieron Microsoft, Google y Facebook.

Sus defensores aseguran que es por el bien del orden público, para rastrear delincuentes y mantenernos seguros. Pero olvidan o no advierten que es una tecnología que está muy lejos de ser perfecta. Entre sus limitaciones se encuentran las imágenes tomadas en condiciones de mala iluminación, parcialmente visibles, envueltas en sombras o cubiertas por ropa.

Estudios demostraron que la tecnología de reconocimiento facial usada por la Policía Metropolitana de Londres tiene una tasa del 98 por ciento de falsos positivos. O sea, solo un 2 por ciento de aciertos. En la final de la Champions League, la policía de Gales detectó 173 alertas positivas y 2.297 falsos positivos.

Se sabe que gobiernos y compañías la usan para mucho más que la seguridad. En China, compañías privadas de inteligencia artificial -como el gigante tecnológico Alibaba, Huawei, SenseTime, China Electronics Technology Group Corp. y su filial HikVision- colaboran activamente con agencias gubernamentales. Las fuerzas policiales han usado IA para identificar a delincuentes, periodistas, disidentes y activistas. Según denunció la organización Human Rights Watch, se utiliza el software de escaneo facial para la vigilancia y detención masiva de musulmanes uigures en la región occidental de Xinjiang. La Organización de las Naciones Unidas informó que el gobierno chino ha detenido en masa a miembros de esta minoría para incluirlos en “campamentos de reeducación”.

China tiene alrededor de 200 millones de cámaras de vigilancia que alimentan la plataforma de tecnología de reconocimiento facial más grande del mundo conocida como Face ++: creada por la compañía Megvii, actualmente es utilizada por más de 300.000 desarrolladores en 150 países para identificar caras.

La vigilancia, sin embargo, no se limita a calles, parques, estadios, estaciones de tren. Las autoridades de la ciudad de Chengdu, al suroeste del país, han ordenado la instalación de cámaras incluso en baños públicos, salones de masajes, salones de té, salas de ajedrez y mahjong y cines para combatir el crimen.

¿Cuánto falta para que ingresen también en las casas?
 

IBM usó casi un millón de fotos de Flickr para entrenar programas de reconocimiento facial Sus defensores aseguran que es por el bien del orden público, para rastrear delincuentes y mantenernos seguros. Pero olvidan o no advierten que es una tecnología que está muy lejos de ser perfecta. Entre sus limitaciones se encuentran las imágenes tomadas en condiciones de mala iluminación, parcialmente visibles, envueltas en sombras o cubiertas por ropa
Foto: Cortesía

La ilusión de lo nuevo

Mientras esta tecnología se incrusta en nuestras vidas cotidianas, la polémica crece. A tal punto que a mediados de mayo San Francisco -la Meca high-tech- se convirtió en la primera ciudad en prohibir el uso de la vigilancia facial por parte del gobierno. Oakland y Somerville, en Massachusetts, han propuesto una legislación similar. Y se espera que ciudades como Chicago, Nueva York y Detroit sigan su ejemplo.

Mientras tanto, sin regulación ni debate, esta controvertida tecnología está siendo promovida y adoptada en todas partes, de Toronto a Berlín, de Singapur a Buenos Aires como sinónimo de modernidad, de progreso.

En la capital argentina, el jefe de Gobierno porteño, Horacio Rodríguez Larreta, y la ministra de Seguridad de la Nación, Patricia Bullrich, presentaron el “Sistema de Reconocimiento Facial de Prófugos”. No hubo debates públicos ni consulta a especialistas o defensores de derechos humanos en legislaturas o cámaras de diputados.

“El objetivo es que los vecinos estén más seguros”, aseguraron sobre esta tecnología que permite localizar y detener a personas prófugas mediante la detección de rostros a través de 300 cámaras ubicadas en distintas calles y estaciones de metro. Lo que no dijeron es que día a día se suceden las identificaciones erróneas, las quejas, los malos arrestos, persecuciones infundadas.

En enero se informó que Coahuila será el primer estado en México que instalará cámaras con reconocimiento facial. También se prevé que se instale esta tecnología de videovigilancia en las 22 estaciones más críticas del metro de la Ciudad de México.

Esta tecnología se está implementando sin ningún tipo de supervisión legislativa”, advirtió Charlie Angus, miembro de la Cámara de los Comunes de Canadá. “Tenemos que presionar el botón de pausa”.

vigilancia.jpg
Mientras tanto, sin regulación ni debate, esta controvertida tecnología está siendo promovida y adoptada en todas partes, de Toronto a Berlín, de Singapur a Buenos Aires como sinónimo de modernidad, de progreso | Foto: Especial

El plutonio de la inteligencia artificial

Se sabe que las tecnologías de reconocimiento facial pierden precisión cuando una persona usa anteojos, sombreros, bufandas o peinados que cubren parte del rostro. El maquillaje y el vello facial también pueden plantear problemas.

De ahí que activistas por los derechos civiles promuevan técnicas para engañar la video-vigilancia ya sea ocultando físicamente rasgos faciales para que la cámara simplemente no pueda verlos -con bufandas, gafas, máscaras o pasamontañas- o bien utilizando maquillaje extremo y peinados para desconcertar a los sistemas de visión de computadora, como propone el artista Adam Harvey cuyo trabajo explora los impactos de las tecnologías de vigilancia.

Otra opción es vestir prendas con estampados que crean "caras falsas" como propone el proyecto Hyperface. Aún así, los críticos de esta tecnología invasiva temen que más que beneficios traiga aparejado violaciones a los derechos civiles.

Para Luke Stark, especialista en ética e IA del Berkman Klein Center for Internet & Society en la Universidad de Harvard, el reconocimiento facial es “el plutonio de la inteligencia artificial”:

Es una tecnología intrínsecamente tóxica, independientemente de las intenciones de sus creadores. Deben entenderse por lo que son: amenazas a nivel nuclear que deben manejarse con extraordinario cuidado”.

 

Activistas por los derechos civiles promuevan técnicas para engañar la video-vigilancia ya sea ocultando físicamente rasgos faciales para que la cámara simplemente no pueda verlos -con bufandas, gafas, máscaras o pasamontañas- o bien utilizando maquillaje extremo y peinados para desconcertar a los sistemas de visión de computadora
Foto: PInterest

En especial, se considera que es una amenaza disfrazada de regalo, que la convierte en el mecanismo de vigilancia más peligroso que se haya inventado. Como escribieron Woodrow Hartzog -profesor de derecho y ciencias de la computación en la Northeastern University- y el filósofo Evan Selinger del Rochester Institute of Technology:

La mera existencia de sistemas de reconocimiento facial, que a menudo son invisibles, perjudica las libertades civiles, porque las personas actuarán de manera diferente si sospechan que están siendo vigiladas”.

Autor: Federico Kukso
Periodista científico independiente. 2015-16 Knight Science Journalism Fellow at MIT. Escribe sobre ciencia, tecnología y cultura para publicaciones como La Nación (Argentina), Undark (MIT), Muy Interesante Argentina, Agencia Sinc (España), Scientific American (Estados Unidos), Brando, Le Monde Diplomatique, Suplemento Soy de Página 12 (Argentina), Bank Magazine, entre otras. Fue editor de las secciones de ciencia en diarios como Página 12, diario Crítica de la Argentina y subeditor de la sección Ideas en la Revista Ñ (Clarín). Autor de los libros: Todo lo que necesitás saber sobre Ciencia y Dinosaurios del fin del mundo, entre otros.