El siguiente reporte es realizado por el equipo del newsletter semanal «Machine Intelligence Lab» (MiLab), del área de Inteligencia Artificial del CETyS: Inscripción al newsletter.
De cara al 2021, compartimos un reporte que resume las últimas noticias de este verano sobre reconocimiento facial, sesgos, avances y aplicaciones, ética, gobernanza y control de la IA. ¿Qué hay de nuevo en IA?
Principales noticias de Reconocimiento facial
El reconocimiento facial (RF) sigue siendo uno de los temas candentes, con avances técnicos, nuevas empresas ingresando en el espacio y una creciente tensión entre el uso de estas herramientas y el reclamo por su regulación.
Aplicaciones de RF en aeropuertos
El Servicio de Aduanas y Protección de Fronteras de EE.UU. ha solicitado una importante ampliación de su autoridad para llevar a cabo tareas de reconocimiento facial en aeropuertos. Si bien algunos ya se encontraban operando con reconocimiento biométrico, la nueva propuesta permite a agencias fronterizas expandir el programa a “su propia discreción”, según indica The Verge. Además de identificar personas para prevenir el fraude de visa, se espera que el programa identifique sospechosos de crímenes.
Incluso algunos aeropuertos de EEUU, China y Japón dejan circular personas sin tener que mostrar ningún papel. Aún con el barbijo puesto, algunos sistemas logran identificar la cara con gran precisión (aunque siempre se puede dificultar el reconocimiento si además se agregan unos anteojos). El reconocimiento facial de estos aeropuertos detecta la cara de los viajantes sin aviso previo y las cruza con información de pasaportes, visas y otros documentos proporcionados por el Departamento de Seguridad Nacional. Según Buzzfeed News, si no sos un ciudadano de EEUU se puede retener tu imágenes hasta 75 años después, planteando preocupaciones de privacidad, seguridad y precisión (por ejemplo, hay problemas al identificar personas de color). Sin embargo, es posible optar por la opción de no ser expuesto a reconocimiento facial, demandando métodos alternativos, lo cual no siempre es sencillo.
Reconocimiento facial, tu orientación política y tus datos
Es común que las empresas de tecnología que crean sistemas de reconocimiento facial utilicen vastas cantidades de fotos disponibles en la web (aunque algunos estados como Illinois han impuesto penalidades financieras por utilizar imágenes sin consentimiento). En el 2016, un director de cine subió una foto de su luna de miel a Flickr. Unos 15 años después, utilizó Exposing.AI (un sistema que marca imágenes) y descubrió que la imagen había sido utilizada por múltiples conjuntos de datos que podrían ser utilizados para entrenar sistemas de reconocimiento facial alrededor del mundo.
La falta de implementación de normas, políticas y leyes que prevean la masiva colección de datos es un creciente problema. Aún más cuando los datos pueden ser fácilmente cruzados, por ejemplo, con sistemas capaces de adivinar tu orientación política con tan solo una imagen (con un 70% de precisión).
Mientras, la polémica empresa de reconocimiento facial Clearview AI (con demandas por violaciones a la privacidad y lazos con la extrema derecha) develó una patente con posibles usos de sus sistemas tanto para el ámbito público, identificando personas con problemas de drogas o personas sin hogar, como para el ámbito privado, en apps de citas o dando información de una persona (fecha de nacimiento, nacionalidad, historial de educación, hobbies) en base a una identificación de su cara.
Avances, técnicas y aplicaciones de la IA
La investigación en IA sigue avanzando con nuevos descubrimientos impulsados por el contexto de pandemia.
Fable Studio presenta dos seres virtuales basados en IA como agentes conversacionales
Tras haber presentado a Lucy, una niña de ocho años capaz de mantener conversaciones en un entorno en realidad virtual, el estudio creó dos personajes más: Beck y Charlie.
El estudio utiliza una mezcla de diálogos escritos por autores humanos con aplicaciones de GPT 3 (una IA generadora de texto) para crear seres virtuales convincentes. Según el estudio, los agentes virtuales se convertirán en un enorme mercado a medida que la gente busque compañía y entretenimiento motivado por las restricciones y aislamiento provocado por la pandemia.
Conocé a los MetaHumanos
Epic Games, creadores de Fornite y el motor Unreal, presentaron una herramienta capaz de crear personajes humanos en menos de una hora. MetaHuman Creator es una aplicación en la nube diseñada para crear avatares humanos realistas, a través de extraer ejemplos de una librería de variantes de apariencia y movimiento humano. Más allá de la importancia para la industria de videojuegos, acortando los términos de producción, se avizora que la herramienta tiene aplicación en otras áreas como la de los avatares para asistentes personales o la creación de contenidos para animación.
Avances de la IA en la ciencia
AlphaFold es un nuevo avance de DeepMind (compañía de IA de Google) en la investigación sobre proteínas. El mismo está basado en un juego que desafiaba a gamers a encontrar soluciones para el plegamiento de proteínas. En una entrevista para la BBC, el cofundador de DeepMind explica su inspiración en los juegos, y cómo se relaciona con la búsqueda de la compañía de una inteligencia artificial general y de la aplicación de algoritmos para la solución de problemas reales fuera del laboratorio.
DeepMind es famosa por haber creado AlphaGo que derrotó al campeón mundial de Go, en lo que se considera unos de los hitos actuales de la IA. La nueva evolución de este agente artificial es MuZero que logró conquistar decenas de juegos de Atari, ajedrez y juegos de mesa, pero a diferencia de sus antecesores, tuvo que aprender las reglas por sí mismo.
Esto implica un avance importante en IA y su aplicación en la vida real, en tanto busca emular la capacidad generalizadora de encontrar patrones y formular estrategias que tienen los seres humanos a partir de extraer inferencias sobre el mundo, sin conocimiento previo. Esta técnica se pone en práctica para encontrar una nueva forma de codificar videos, lo que podría reducir los costos de YouTube.
Por su parte, científicos de la Universidad Freie de Berlín desarrollaron un modelo de deep learning capaz de resolver un problema fundamental de química cuántica. El objetivo de la química cuántica es predecir las propiedades químicas y físicas de las moléculas basándose únicamente en la disposición de sus átomos en el espacio. Todo esto para evitar realizar experimentos en laboratorio que son costosos en tiempo y recursos. En teoría, esto se puede lograr resolviendo la ecuación de Schrödinger, pero en la práctica es extremadamente difícil. El paper publicado se puede encontrar aquí.
Gobernanza y ética de la IA
Las preguntas acerca de cómo regular la inteligencia artificial y mitigar sus impactos éticos fueron centrales al 2020 y seguirán siendo fundamentales para la agenda de este nuevo año.
¿Cómo controlar una Inteligencia Artificial?
Expertos de las ciencias de la computación, filosofía y ciencias políticas de Open AI y Stanford discutieron sobre las implicancias de los modelos de generación de lenguaje como GPT-3 o Google y pidieron que se tomen medidas urgentes para solucionar sus prejuicios. Los investigadores encontraron importantes sesgos hacia ciertos grupos étnicos, personas con discapacidades y mujeres. Por ejemplo, es difícil encontrar resultados positivos y sin violencia cuando se introduce la palabra “musulman” al sistema de GPT-3. También, se advirtió sobre su difusión de desinformación y su potencial de reemplazar empleos.
Los investigadores también realizaron una serie de recomendaciones como: i. entrenar modelos separados que actúen como filtro del contenido generado por el sistema, ii. hacer test de sesgos antes de permitir que el sistema sea usado por personas, iii. evitar ciertos usos y, iv. hacer auditorías de los algoritmos por organizaciones independientes.
Sin embargo, en el hipotético caso de que investigadores logren acceder a los algoritmos detrás de la IA, su funcionamiento interno suele ser una “caja negra”, en especial con sistemas de redes neuronales, dado lo difícil que es entender cómo llegan a conclusiones. Por este motivo, hay un creciente interés en desarrollar técnicas que expliquen y examinen los resultados y parámetros aprendidos de las redes neuronales. Un nuevo paper publicado en la revista Nature Machine Intelligence propone una nueva técnica llamada «blanqueo de conceptos» para proporcionar interpretabilidad a las redes neuronales. Esta funciona mediante la introducción de un conjunto de datos “extra” que contengan ejemplos de los conceptos utilizados en la IA. Por ejemplo, si el modelo está entrenando para detectar habitaciones, conceptos relevantes incluyen camas, ventanas, etc. Entonces el modelo funciona con 2 ciclos de entrenamiento paralelos. El “blanqueo de conceptos” se adapta a los procesos de la red neuronal incluyendo datos relevantes.
Mientras, investigadores se preguntan qué guías éticas podrían implementarse a la hora de utilizar sistemas de IA. Technology Review profundizó sobre enseñanzas budistas que podrían servir para trabajar con ética de IA. Por ejemplo, el Budismo enseña que una acción es buena sólo si conduce a liberarse del sufrimiento. Esta declaración podría aplicarse al reconocimiento facial: cuando no se está seguro sobre el impacto de estos sistemas, se debería demostrar que la aplicación concreta de la IA no causa daños. Una “IA-Budista” también debería entender que estos principios requieren autocultivo y claramente, empatía. Esto quiere decir que aquellos involucrados en IA deberían estar continuamente entrenando para alcanzar el objetivo de eliminar el sufrimiento.
¿Cómo lidiar con una super-computadora?
Un nuevo paper del Journal of Artificial Intelligence Research comenta que será imposible controlar las computadoras super-inteligentes. Reglas como “no hacer daño a humanos” no pueden existir si no entendemos el tipo de escenarios que la IA va a plantear: una vez que el sistema trabaja en un nivel más allá del alcance de los programadores, no podemos setear sus límites. Estas computadores son multifacéticas y son capaces de movilizar una variedad de recursos en orden de alcanzar objetivos que son incomprensibles para los humanos. Es imposible, por ejemplo, que un algoritmo simule el comportamiento de otra IA y logre predecir con absoluta certeza que sus acciones no van a llevar a algún daño.
Sin embargo, la llamada General Artificial Intelligence aún no existe. En cambio, sí nos encontramos con la llamada Super Intelligent Narrow AI que realiza ciertas funciones y tareas específicas de forma maravillosa pero, al mismo tiempo, con errores sorprendentemente tontos y con grandes implicancias en nuestras vidas.
Política pública y ética
Luego del despido de la ex-líder del equipo de ética de Google, Timnit Gebru, Google anunció ayer la reestructuración del equipo de Ethical AI a manos de la VP Marian Croak, quien dirigirá un nuevo centro de investigación en ética e ingeniería de IA.
Por su lado, en uno de los últimos actos de la anterior administración de la Casa Blanca en Estados Unidos, se estableció una Oficina Nacional de IA, encargada de coordinar la estrategia nacional de inteligencia artificial y la supervisión del trabajo de investigación entre el gobierno federal y el sector privado.
Sesgos
Los sesgos de la IA siguen siendo uno de los temas más problemáticos en su aplicación cotidiana, con implicancias que son solo observables cuando algo falla.
La IA puede rechazar tu postulación de trabajo
La demanda de IA en los procesos de selección de trabajo ha aumentado exponencialmente desde la pandemia de COVID-19, gracias a su comodidad y a la rapidez de sus resultados. Pymetrics, un software de reclutamiento basado en IA, puede «medir de forma justa y precisa los atributos cognitivos y emocionales en sólo 25 minutos». No obstante, estos sistemas no están libres de fallas. En 2018 se informó que Amazon había desechado su propio sistema, porque mostraba un sesgo contra los solicitantes femeninos. Su sistema se había «enseñado a sí mismo que los candidatos masculinos eran preferibles» porque tenían frecuentemente más experiencia en la industria tecnológica en su CV.
La investigadora de la Universidad de Oxford, Sandra Wachter, señala que: «Todo el aprendizaje automático funciona de la misma manera: se analizan un montón de datos y se encuentran patrones y similitudes”. En un proceso de reclutamiento, los candidatos que fueron seleccionados en el pasado son tus datos e históricamente quienes han ocupado los mejores puestos han sido hombres, por lo que los algoritmos van a seleccionarlos, por encima de mujeres y otras minorías.
Para ayudar a las empresas y otras organizaciones a evitar el sesgo en sus sistemas de IA, no sólo para la contratación, sino para todas sus operaciones comerciales, Wachter escribió un documento sobre el tema. Posteriormente, sus propuestas han sido adoptadas por Amazon.
Los algoritmos se portan mal: edición 2020
Si bien es cierto que la IA está avanzando exponencialmente, se ha demostrado que los algoritmos heredan los prejuicios de sus creadores. Un algoritmo sólo es tan bueno como los datos y los principios que lo entrenan, y las personas se encargan en gran medida de alimentarlo.
Año a año aparecen nuevos ejemplos de algoritmos creados con un propósito cínico, que funcionan para reforzar el racismo o que fracasan estrepitosamente a la hora de solucionar los problemas para los que fueron creados. Sabemos de la mayoría de ellos porque los denunciantes, periodistas, defensores y académicos se tomaron el tiempo de escarbar en la caja negra de la toma de decisiones computacional y encontraron grandes fallas.
El medio The Markup se encargó de recopilar los sesgos de los algoritmos más polémicos del 2020, que van desde el racismo, algoritmos que dificultan la vida de inquilinos y personas con menos ingresos, persecución de personas inocentes y vigilancia en el trabajo.
Invitamos a suscribirse al newsletter del «Machine Intelligence Lab» para recibir resúmenes semanales sobre IA a su casilla de correo.