Por Lex Bustos, Investigadora Asociada del CETyS-UdeSA.
Foto: Google DeepMind
El despliegue masivo de herramientas de IA generativa basadas en Large Language Models (LLM), como el caso de Chat-GPT, ha planteado un escenario de explotación algorítmica generalizada sin suficiente exploración, ni por parte de los diseñadores de los algoritmos ni por parte de sus usuarios. Si no hay garantía de uso responsable de los LLM sin la debida orientación, ¿qué sucedería cuando sus usuarios son funcionarios públicos? Especialmente en el contexto de los procesos de transformación digital en el ámbito público, el despliegue de LLMs obliga a prestar atención al comportamiento de los agentes como tomadores de decisiones institucionales; específicamente, en el sector judicial.
Como coordenadas exploratorias para encuadrar esta reflexión urgente quiero recuperar un par de cuestiones que planteé en el workshop sobre IA y Derecho organizado por la Universidad de San Andrés (UDESA) en mayo de 2023. En rigor, allí retomaba elementos de la investigación colectiva Preparación del sector judicial para la Inteligencia Artificial en América Latina, dirigido desde el CETYS, y realizada entre 2020 y 2021 con el apoyo de la Fundación Tinker. El proyecto, que tuve la oportunidad de co-coordinar, consistió en crear un marco analítico exploratorio original para evaluar la preparación para incorporar IA en la Justicia en la región, y aplicarlo al estudio de cinco países: Argentina, Colombia, México, Uruguay y Chile (Aguerre et al, 2021).
En particular, en el estudio de caso argentino (Bustos y Gorgone, 2021), el cual dirigí (todavía bajo otro nombre de pila), se plantearon dos dinámicas que ahora me gustaría profundizar: i) el rol de las redes y alianzas (judiciales y multisectoriales) en las que se inscribían socialmente lxs funcionarixs que habían incorporado IA basada en aprendizaje de máquinas; y ii) la gravitación de narrativas acerca de la justicia en las que se inscribía conceptualmente la incorporación de IA (como “justicia abierta”, “justicia aumentada” y “justicia federal”) (Bustos y Gorgone, 2021).
El primer aspecto respondía a que, si bien eran muy pocos los casos relevados de uso efectivo de IA en la justicia, todos los actores habían recurrido a la utilización de recursos humanos, técnicos y materiales propios, pero también a la formación de alianzas y/o redes (formales e informales, estrictamente judiciales o más bien multisectoriales). Esto se veía en distintas formas de cooperación: con otro nodo del complejo institucional judicial, como entre el Juzgado 13 y la Oficina de Estadísticas porteña, o entre el sistema de IA Prometea y nodos de la Junta de Cortes federal; o bien mediante colaboraciones con actores del sector cooperativo y la sociedad civil, como el Juzgado 10, la iniciativa Empatía y la cooperativa CAMBA. También con formas de agenciamientos generados en el marco de la Red Internacional de Justicia Abierta. Esta lógica incluso se verificaba en el caso de Colombia, donde de hecho las iniciativas habían surgido a partir de algún tipo de vinculación con Prometea (Aguerre y Bustos, 2021; Castagno, 2021).
El segundo aspecto del caso argentino (Bustos y Gorgone, 2021) ponía el foco en las narrativas sobre justicia, a partir del supuesto de que ninguna idea acerca de la incorporación de la IA se produce en el vacío. Importan las ideas que usamos para pensar otras ideas, como advierten Isabelle Stengers y Donna Haraway (2016). Entonces, ¿cómo narramos la incorporación de IA a la práctica judicial? Al inscribir las iniciativas basadas en IA en una visión más amplia acerca de sus ideas sobre justicia, dos caracterizaciones surgieron con frecuencia y cierta centralidad discursiva en los testimonios de los informantes clave consultados: las de justicia aumentada y de justicia abierta. A su vez, otra noción en juego fue la de justicia federal, si bien develando contrastes o matices sobre la idea del federalismo, como en el caso de la gobernanza nacional de datos. El reporte cerraba interrogándose cómo profundizar esta distinción más allá de la clásica y valiosa distinción entre la lógica de los fines y la lógica de lo apropiado (March y Olsen, 1998).
Volvamos al presente, y a la coyuntura crítica abierta por los LLM. Manteniendo el enfoque exploratorio, la propuesta consiste en incorporar elementos de tres fuentes. En primer lugar, complementar teóricamente el planteo con elementos conceptuales introducidos por Michael Kearns y Aaron Roth en su libro acerca del diseño ético y socialmente consciente de algoritmos de IA (2020); en segundo lugar, poner el foco específicamente en los desafíos emergentes para la gobernanza de los procesos de transformación en el ámbito público a partir de la creciente complejización de la IA, para lo cual remito al artículo co-escrito con Carolina Aguerre sobre “Inteligencia Artificial y transformación digital del sector judicial en la Argentina”, publicado en el marco de una publicación colectiva de NIC.ar (2022); y en tercer lugar, poner en consideración la evidencia empírica reciente respecto al uso de Chat-GPT3 en juzgados de Colombia, Perú y México, para lo cual apelamos a los artículos recientes de Maia Levy Daniel y Juan David Gutiérrez.
Sobre estas bases, la pregunta es ¿qué rol tienen las redes de las que forman parte los agentes de transformación digital y las narrativas sobre la justicia en sus estructuras de incentivos para procurar y acaso diseñar los usos responsables de la IA y de los LLM en el ámbito público judicial?
Por empezar, las redes entre pares y partes interesadas parecen menos necesarias para lograr el acceso a las herramientas de IA. No eran suficientes para un uso responsable, pero ya no parecen siquiera necesarias para un uso material. Aquí la “aceleración” técnica no la ofrece una red de pares o múltiples partes interesadas sino una plataforma digital privada, y se aprende más bien individualmente a relacionarse con los sistemas de IA, lo que ha de incentivar una lógica más “free-rider” que una alineada o estándares comunes o una línea de base compartida.
En cuanto a las narrativas acerca de la justicia que sirven como marcos referenciales para la incorporación de IA, las dos narrativas estilizadas que hemos mencionado (justicia aumentada y justicia abierta) suponen ciertas herramientas conceptuales como puntos de partida. Pero además de estas, ¿qué otras narrativas estarían en juego en el uso de LLMs? Esbocemos algunas: las ideas de justicia en tanto problema a resolver tecnológicamente, y la de justicia como servicio comoditizado y sub-contratable. Como señala Levy Daniel (2023), en definitiva, la narrativa ordenadora es “tecnosolucionista”. Aquí, muy superficialmente, puede decirse que el cálculo en juego parece ser una combinación entre el costo marginal decreciente de herramientas de IA generativa y la simplicidad de sus interfaces vis a vis las demoras acumuladas en resolución de causas y el costo creciente del talento humano dedicado a (y capacitado para) crear valor público en el ámbito judicial.
En síntesis, quizá las redes judiciales/multisectoriales y las nociones estilizadas sobre la justicia (en general cultivadas en el marco de redes) no sean garantía suficiente para una transformación digital responsable, pero es probable que disminuyan el riesgo de alimentar dinámicas de improvisación, fragmentación e incluso opacidad en el uso de LLMs.
En este punto, me interesa considerar ciertos elementos teóricos del libro de Kearns y Roth (2020). En particular, su distinción entre modelos “razonables” y “malos” modelos en el uso de algoritmos de “machine learning” (ML). “Siempre habrá compensaciones que debemos gestionar”, advierten. La clave está en cómo se definen y combinan diversos objetivos; algunos más alineados con la eficiencia y la reducción de la tasa de error estadístico, y otros más alineados con restricciones de carácter ético y con la reducción de resultados injustos para ciertas poblaciones vulnerables o que por el motivo que fuera queremos proteger. Así las cosas, los modelos razonables son los que están sobre la frontera de Pareto. Los malos, los que quedan fuera (Kearns y Roth, 2020).
Cuando no hay redes que cumplan roles de aceleración tecnológica ni de socialización en clave axiológica, y cuando las nociones de justicia en juego (sea “abierta” o “aumentada” o “federal” u otras) no se explicitan, identifican, precisan o gestionan con ciertas líneas de base comunes, es más probable que se incentiven comportamientos fragmentados y oportunistas, acaso enmarcados en nociones menos ricas de la justicia, como una justicia comoditizada o tecnológicamente determinada. A su vez, es probable que, ceteris paribus, se incrementen los incentivos para una generalizada explotación sin suficiente o con nula exploración acerca de qué constituye un modelo algorítmico justificado y razonable, donde no se tienda a estandarizar prácticas de uso consciente, controlado y trazable de la IA generativa, sino a una “carrera a la baja” en materia de estándares.
Una respuesta (cosa distinta de una reacción) es poner el foco en desarrollar herramientas prácticas para facilitar e incentivar los usos responsables por parte de los funcionarios judiciales, como directrices éticas o marcos analíticos y axiológicos integrados y situados, y no meros modelos de maduración tecno-céntricos y genéricos. Además del proyecto con Tinker Foundation, remito a otros antecedentes del CETyS, como el Proyecto GuIA (2020 y 2021) y el Documento de Trabajo No Soy un Robot (Mantegna, 2022). Otra referencia es la obra en torno a los principios ROAM-X de la UNESCO y su aplicabilidad para evaluaciones éticas de las transformaciones digitales en el ámbito público, como planteó Elsa Estévez (CONICET-Universidad Nacional del Sur) durante la última conferencia ICEGOV en Guimarães, Portugal (2022). También en esta línea de trabajo el CETyS viene explorando junto con múltiples partes interesadas, a partir de aplicar el marco ROAM-X al análisis de la Universalidad de Internet en Argentina, informe de pronta publicación.
Si bien el impacto global y sistémico de los LLM ha dejado en evidencia el carácter ilegítimo de las narrativas sobre la autorregulación de las empresas privadas, también ha aumentado el riesgo de normalizar un tipo diferente de narrativa acerca de la de autorregulación del comportamiento: ahora por parte de los usuarios de estas herramientas. La mayor disponibilidad de herramientas de IA generativa en principio podría favorecer una práctica de exploración consciente de la transformación digital en el ámbito público en general, y en el judicial en particular, aunque en los hechos (como advierten Levy Daniel y Gutiérrez, respectivamente) ya está generando prácticas fragmentarias donde no se identifican, miden, justifican ni gestionan los objetivos, límites y sesgos inherentes de estos sistemas. Ante el riesgo de que el desarrollo de capacidades se reduzca a tutoriales acerca de “cómo hacer los mejores prompts”, debemos pensar a la gobernanza de la IA y de los procesos de transformación digital de forma conjunta, y apostar a diseñar usos responsables de la IA generativa, considerando mentados balances entre objetivos en tensión.
– – –
Lex Bustos es especialista en gobernanza de Internet y de la economía política digital, diplomacia tecnológica, políticas públicas y cooperación regional. Es Licenciada en Ciencia Política y Magíster en Procesos de Integración Regional de la Universidad de Buenos Aires, donde actualmente cursa el doctorado en Ciencias Sociales. Se desempeña como Investigadora Asociada del Centro de Estudios en Tecnología y Sociedad de la Universidad de San Andrés (CETyS-UdeSA), y como docente en dicha casa de estudios, así como en el área de relaciones internacionales de FLACSO Argentina y en el Instituto de Capacitación Parlamentaria de la Cámara de Diputados de la Nación, donde a su vez trabaja como asesora legislativa.