Nota por Francisco Cubillo

Amazon puso en perspectiva el progreso de sus expertos el pasado lunes: Su servicio Rekognition -disponible en este momento através de Amazon Web Services- es capaz de leer emociones como el miedo en nuestros rostros a un costo de $0.001 por imagen, o incluso menos si el cliente procesa más de 1 millón de imágenes. Además del servicio de análisis de video (que está pensado para ser enlazado con sistemas CCTV), ofrecen un servicio de almacenamiento para metadatos faciales con una tarifa de $0.01 mensuales cada 1000 rostros.

El lanzamiento del servicio causó especial interés entre los medios especializados, en el contexto de una serie de escándalos sobre privacidad de datos que ha sacudido particularmente a Google, Facebook, Amazon y Apple, colocando la conversación sobre su ética, regulación y exactitud en la agenda.

En el caso de Amazon, su servicio es dirigido a clientes que van desde desarrolladores inmobiliarios hasta departamentos de policía, o quien sea que tenga un equipo de videovigilancia lo suficientemente moderno para transmitir video hacia su API. Rekognition discierne el rostro, género y emociones de los sujetos analizados en las categorías «feliz», «triste», «enojado», «sorpresa», «disgusto», «calma», y «confusión», a las que se agregó «miedo» el lunes pasado.

La documentación de Rekognition advierte que el servicio «no es una determinación del estado emocional interno de las personas», y dice que no debería ser tomado como tal, pero la página oficial del servicio sugiere a las tiendas usar imágenes en vivo de sus consumidores en sus herramientas de análisis facial para rastrear tendencias emocionales y demográficas en diferentes locaciones de una cadena. La posición oficial de Amazon es negar el acceso a detalles sobre las maneras en las que sus clientes están utilizando el reconocimiento de emociones.

Amazon no está sola en el mercado de los algoritmos faciales, Microsoft tiene su propia oferta desde 2015 y Google desde 2016. A pesar de no ofrecer ningún servicio, Facebook es quien se encuentra en problemas, ya que alimentar sus algoritmos de reconocimiento facial con la data de sus usuarios sin su consentimiento le costó una demanda ante la corte federal de los Estados Unidos. ¿Creyeron que los filtros faciales eran gratuitos?

La demanda enfrentada por Facebook fue presentada por usuarios de Illinois, bajo el argumento de violación del Acta de Privacidad Biométrica de su estado. Según el caso, la red social recolectaba estos datos mediante sus sugerencias de etiquetado en las que pedía a los usuarios a identificar a sus amigos en las fotografías en las que su algoritmo lograba predecir sus rostros.

La moralidad del reconocimiento facial es un problema que va más allá de nuestros celulares y redes sociales. En Londres, Argent, una empresa de desarrollo inmobiliario, empezó a utilizar un sistema de reconocimiento facial dentro de 67 acres de desarrollo privado en el distrito de King’s Cross, hogar del nuevo campus de Google en la ciudad. En el Reino Unido, el uso de la tecnología es rampante y en este momento está secretamente integrada en muchísimas calles y centros comerciales.

Según un estudio conjunto de la policía metropolitana de Londres con la Universidad de Essex, en el que estudiaron las pruebas de reconocimiento facial por IA utilizadas por la fuerza policial, sólo en 19% de los 42 casos existía certeza de que la persona correcta había sido identificada.

Además algunos expertos han hecho énfasis en sus preocupaciones sobre el prejuicio racial en la tecnología, que es menos eficiente distinguiendo a personas de tez oscura. Según un investigador del MIT Media Lab el software de tres compañías analizadas presenta errores que van de 21% a 35% identificando mujeres de piel oscura, contra un margen de error de menos de 1% para los hombres blancos.

Según declaraciones de la líder de la industria y directora de IA Responsable en Accenture, Rumman Chowdhurry, la idea de que la riqueza del sentimiento humano pueda ser colapsada por software en unas cuantas categorías no tiene mucho sentido, pero la demanda por el poder de la inteligencia artificial ha guiado a personas dentro y fuera de la industria tecnológica a sobreestimar el poder de las computadoras.

A pesar de que el reconocimiento de emociones no logra colocarse como una idea popular, el mercado se ve muy diferente para el reconocimiento facial, que ha sido ampliamente adoptado por jugadores que van desde el Partido Comunista Chino hasta el FBI.

Según Google el reconocimiento facial no logró pasar su barra ética debido a preocupaciones sobre su potencial papel en infracciones a la privacidad, a pesar de que si ofrecen un servicio en la nube que detecta y analiza rostros, estimando edades, género y cuatro emociones. Google asegura que esta tecnología también fue sometida a un análisis ético, en el que decidieron que está bien utilizarla en las fotografías personales de sus usuarios. Si instalamos Google Photos en nuestro dispositivo, buscar felicidad, sorpresa, enojo o miedo arroja imágenes de dichas expresiones faciales entre nuestras imágenes.

El Dr Brent Mittelstadt, filósofo especializado en datos éticos del Instituto del Internet de la Universidad de Oxford, dijo al periódico inglés The Guardian que la mayoría de ejemplos de estas tecnologías son más acongojantes que positivos, aplicadas para evaluar la honestidad de un individuo o la probabilidad de que represente una amenaza.

A pesar de que esto puede resultar en el arma de represión más efectiva de los peores gobiernos totalitarios, en China, donde el reconocimiento facial es realidad desde hace años, a -casi- nadie le importa, y en Londres una encuesta reciente concluyó que sólo a un 32% de la gente joven le genera preocupaciones, dejando la mayoría de sospechas para personas mayores de 65.

Un par de ejemplos de su impacto en la actualidad son, en el este, el sistema de vigilancia masiva del Partido Comunista Chino, que vigila a sus ciudadanos mediante reconocimiento facial -multándolos por cosas como cruzar una calle de manera ilegal- y tiene un sistema de crédito social alimentado por los datos de los ciudadanos encargado de definir el grado de sus libertades según su «credibilidad», funcionando parecido al sistema que ya todos vimos en Black Mirror. En occidente, iBorderCtrl, ahora en piloto en las fronteras de Grecia, Hungría y Lituania,es un software utilizado para evaluar si un individuo está dando respuestas veraces en los controles de inmigración, reforzados en un contexto de crisis humanitarias en las fronteras europeas.

Por ahora, la respuesta del público es similar a la generada por la videovigilancia, obedeciendo a la lógica de que si no tenemos nada que esconder, tampoco tenemos nada que temer. No es tan descabellado pensar en perder un poco de nuestra privacidad a cambio de tener una sociedad más segura.

Lo que inicialmente parece un argumento sensato termina siendo una distracción de la verdadera amenaza que representa esta tecnología, que no funciona bien con personas de piel oscura, mujeres o niños, representando un riesgo de identificación incorrecta para más de la mitad de la población, que se podría ver en problemas demostrando su inocencia. Además puede resultar como un método de disuación para reprimir libertades de libre organización y expresión, creando un riesgo potencial de creación de listas de vigilancia.

Aunque funcionase de manera perfecta, la implementación de la tecnología deja de ser una buena idea desde que viola la base más sagrada de la justicia en todas las democracias, la inocencia del individuo hasta que se demuestre lo contrario.