Cetys

Categorías
Blog CETyS Novedades

Ética, Inteligencia Artificial y Estado*

Por Carolina Aguerre

¿Por qué el paradigma de la ética ha sido tan relevante en la inteligencia artificial (IA) en la última década? No existe una única definición de la IA y esto en sí mismo es problemático, a pesar de que hay algunos consensos, sobre todo cuando hablamos de regular y generar normas para la IA. Actualmente esta discusión está tratando de saldarse con legislación que entiende que la responsabilidad la tiene la persona humana y no la entidad ciberfísica, que puede ser un sistema de IA.  Este breve artículo explora los orígenes del debate en materia de ética e IA y su vínculo con los mecanismos actuales que buscan regular los usos de esta tecnología.

La IA que conocemos hoy es muy distinta a la que fue acuñada con ese término en la década de 1950, y que está en permanente evolución. Es una tecnología que es de características tan abiertas y complejas que hasta su propia definición resulta un ejercicio en sí mismo. El punto de partida del debate ético en torno a la IA nace en la década del 60 y se vincula con un la noción de agencia de estos sistemas, es decir, qué capacidad tienen de tomar acciones y decisiones con impactos. Los temas de delegación de autoridad y responsabilidad fueron los problemas fundacionales de este debate que se estructuraron en torno a nociones como ¿es la máquina o el sistema de IA el responsable de un accidente, el responsable de una acción maliciosa? ¿Dónde se encuentra el sujeto responsable?  ¿Quién define estos parámetros?

Este debate ha tenido grandes implicancias en términos de la discusión sobre hasta dónde puede llegar la IA en términos de su uso, de su aplicación y hasta de su propio avance. Si se piensa —y acá estoy poniendo en juego el hecho de traer al Estado como usuario de esta tecnología—, por ejemplo, en el ámbito de la rama judicial utilizando inteligencia artificial para facilitar la tarea de resolución de sentencias de los y las jueces y juezas, ¿esto qué implica?, ¿hay una delegación de autoridad?, este sistema de IA, ¿para qué se usa?, ¿para suplantar al juez o se usa para asistir al juez? Se trata de un debate que se ha dado con bastante fuerza desde 2015. Encontramos, de hecho, en investigaciones realizadas en cinco países de América Latina (Argentina, Chile, Colombia, México y Uruguay) en una investigación del CETYS que en realidad en la región no se está avanzando en esa dirección y, de hecho, se ve como muy problemática la idea de suplantación de la función de un juez por sistemas de IA. Sí encontramos, por ejemplo, que la inteligencia artificial empieza a ser utilizada con mayor frecuencia en ámbitos judiciales en lo que tiene que ver con la automatización de ciertas respuestas a los usuarios ante consultas de los trámites del expediente. Esto en sí mismo puede ser considerado una mejor capacidad de respuesta del sistema judicial ante el colapso que enfrentan muchos de estos espacios estatales que están inundados de datos.

¿Cuáles son los problemas éticos fundamentales y la consistencia entre estos principios éticos que deben estar en la base de cualquier desarrollo de un sistema de IA?

Existe un centenar de documentos y guías que buscan responder el interrogante sobre cómo navegamos esta incertidumbre que generan estos sistemas de IA desarrollados y distribuidos cada vez a mayor escala. Estos principios identificados son la justicia y no discriminación; la promoción de valores humanos; la responsabilidad profesional; el control humano de la tecnología; la transparencia y explicabilidad; la seguridad; la rendición de cuentas y privacidad (Fjeld et al, 2019).

Esto es interesante porque retrata un interés extendido sobre una tecnología, como lo es la IA, que es transformadora y que, a su vez, es de propósito general, es decir, no están predeterminados sus usos y aplicaciones futuras.

Aparece entonces un primer tipo de problema ético, que es identificado en la literatura a partir del uso de la IA, que se puede considerar como preocupaciones de carácter epistémico o epistemológico de conocimiento. Los sistemas de IA, con el avance del tiempo y de la tecnología, van volviéndose más precisos y certeros que el humano, pero hay muchas investigaciones que presentan preocupaciones epistémicas asociadas a evidencia que es inconclusa, que no es posible refutar (es decir no hay posibilidad de encontrar si es o no refutable), o evidencia directamente errónea, los llamados datos basura: bases de datos que agregan y agregan cosas pero en realidad la curaduría de esas bases de datos y de la calidad de esos datos implica en sí mismo un trabajo muy grande que muchas veces no se hace. Se toma a la IA como un principio de reglamentación superior: como está basado en datos entonces es científico y es bueno, hay una adjetivación o una mirada positiva siempre que existan datos, sin importar su calidad o auditoría. Esta perspectiva ética y sus preocupaciones epistemológicas y normativas, que surgen de la evidencia de la aplicación de estos sistemas de IA, empiezan justamente a cuestionar esto.

Pero luego nos encontramos con preocupaciones de carácter normativo: los sistemas de IA, en la literatura y en los casos que han salido en la prensa los últimos años en diversos contextos del mundo, han mostrado los resultados injustos que generan prejuicios basados en género, raza, etnias, perfil socioeconómico, etcétera. Este tipo de problemas ha sido ampliamente tratado así como aquellos que generan en términos de una potencial consolidación de distintas sociedades en el mundo actual. Si bien es cierto que los sesgos y prejuicios, lamentablemente, son inherentes al ser humano, la IA lo que hace es potenciarlos. Un aspecto positivo de esto es justamente que, como sociedades, nos encontramos más conscientes de estos sesgos sistémicos que han estado ocupando nuestro debate, y de cómo podemos hacer para transformar y mejorar el potencial para que las comunidades más desfavorecidas, marginalizadas u oprimidas por los sesgos sociales existentes tengan un espacio en la IA. Todavía esto no ha sucedido pero el trabajo que se puede hacer es justamente intentar corregir, darle más margen a esas minorías para que participen.

Y por último, el tema de la trazabilidad o caja negra de datos que también ha sido ampliamente trabajado.

El documento publicado por la UNESCO, Recomendación sobre la Ética de la IA, trabaja sobre valores, principios y ámbitos de acción política. O sea que no es un documento declarativo, sino que se avanza en trabajar sobre valores, principios y arenas donde esto efectivamente debe llevarse a una consolidación práctica, con instrumentos concretos de seguimiento como el Readiness Assessment Methodology (desarrollado en 2023) y el Ethical Impact Assessment.

Si hay algo que ha tenido cierta crítica en relación con los marcos éticos de la IA es lo que respecta a los derechos humanos: ¿por qué si ya tenemos principios y derechos humanos internacionales que garantizan una posición digna del ser humano ante estos problemas no los tomamos y los asumimos como parte fundamental? Es decir, no solo hablar de ética sino retomar el trabajo realizado desde la perspectiva de los derechos humanos. Esto lo estamos viendo, por ejemplo, en la normativa europea sobre la IA, la presencia constante del respeto por los DD. HH. fundamentales y aquellos que se encuentran delimitados, en el caso de Europa en sus propios instrumentos jurídicos pero en América Latina tenemos los nuestros. Esto aparece cada vez con más fuerza en los discursos vinculados con el avance, la regulación y la aplicación de sistemas de IA.

Trabajar sobre sistemas de gobernanza y administración éticas, tener una política de datos que va más allá de solo tener leyes nacionales de protección de datos personales, esto es el piso mínimo, tener leyes comprensivas pero ser, a su vez, mucho más proactivos en el desarrollo de estas políticas de datos. Se lanzó la semana pasada la segunda edición de una evaluación de lo abarcativas que son las políticas de datos en más de 60 países en el mundo, y hay conclusiones interesantes en términos de que los países que están pensando más en innovación pero en protección tienen una mirada mucho más proactiva en trabajar con datos en relación no solo con su protección si no también con su capacidad de uso.

El desarrollo y la cooperación internacional son fundamentales tanto para el sector privado, pero también para los Estados, para la sociedad civil, resulta fundamental. “Cortarse solo” sería un mensaje poco apropiado respecto de un uso ético responsable pero a su vez innovador y que genere crecimiento económico y desarrollo.

¿Qué ha sucedido en los últimos años? La ética como el principal instrumento para gobernar una IA que ya no es abstracta, sino que en concreto se aplica en ámbitos del Estado, en vehículos autónomos que generan muertes, accidentes, mecanismos que generan que personas ingresen o no a un sistema de seguro de salud o puedan acceder a un trabajo determinado, empezó a ser cuestionado porque se consideraba insuficiente en sí mismo si no se le aplican medidas adicionales. Esta sola consideración de los derechos humanos, una perspectiva de gobernanza de los sistemas de inteligencia artificial que incluya la gobernanza de datos, y una perspectiva de poder. La dimensión geopolítica de la discusión en torno al desarrollo de la inteligencia artificial es ineludible y la están desarrollando prácticamente todos los países, sobre todo las grandes potencias. Siempre queda la pregunta de qué se hace desde América Latina, estamos observando unas batallas en el ámbito digital entre China, Estados Unidos y Europa que se fortalecen en términos de sus capacidades regulatorias, y nosotros tenemos una visión que puede estar alineada con Europa en el tema de los derechos humanos pero sin las mismas capacidades regulatorias. Lo ideal sería, justamente, poder avanzar en tener y desarrollar esas capacidades pero también en entender la idiosincrasia y las necesidades propias presentes en un contexto como el de América Latina.

Entonces, ¿Cómo es la propuesta europea de IA y qué implica para quienes la intentan implementar?, sean Estados, entidades privadas, etc.

La ley tiene cuatro objetivos específicos:

  1. Garantizar que los sistemas de IA comercializados y utilizados sean seguros y respeten la legislación vigente sobre derechos fundamentales y los valores de la Unión;
  2. Garantizar la seguridad jurídica para facilitar la inversión y la innovación en IA;
  3. Mejorar la gobernanza y la aplicación efectiva de la legislación vigente en materia de derechos fundamentales;
  4. Facilitar el desarrollo de un mercado único de aplicaciones legales seguras y fiables así como evitar la fragmentación del mercado.

La propuesta de ley de IA de Europa propugna un sistema de regulación basado en riesgos: los sistemas que se reconocen como de riesgo inaceptable, y por ende están prohibidos (por ejemplo, los sistemas de crédito social), de aquellos que son de alto riesgo y que deben ser monitoreados permanentemente. A comienzos de 2023 con la emergencia pública de la IA generativa a escala masiva, no son sólo los Estados de altos ingresos quienes están interesados en avanzar en regulaciones específicas de la IA, sino también los Estados de la región. Es de esperar que el panorama de abordajes éticos, regulatorios y de políticas públicas sobre la temática se vuelva más complejo y profundo. ¿Estamos preparados?

*Extracto adaptado del capítulo «Instituciones estatales contemporáneas e inteligencia artificial», en «Inteligencia artificial y política: los desafíos de una tecnología acelerada en las instituciones contemporáneas», de Editorial Teseo. Disponible en https://www.editorialteseo.com/archivos/22837/.

– – –

Carolina Aguerre

Doctora en Ciencias Sociales por la Universidad de Buenos Aires y máster en Comunicación y Cultura por el Goldsmiths College de la Universidad de Londres. Es codirectora del Centro de Estudios en Tecnología y Sociedad (CETYS) de la Universidad de San Andrés e investigadora asociada del Centro de Estudios para la Cooperación Global (GCR21) de la Universidad de Duisburg-Essen. Es directora académica y fundadora del Diploma en Gobernanza de Internet (DiGI desde 2017) y fundadora de la iniciativa GUIA.ai para la promoción del conocimiento sobre ética y gobernanza de la IA desde la región. Tiene experiencia en el desempeño de diferentes funciones de asesoramiento en políticas internacionales en materia de IA e Internet, como la Global Partnership on AI (GPAI) (2020-2022), InTouchAI de la Comisión Europea (2022), el Grupo de Expertos Ad Hoc de la UNESCO sobre Recomendaciones Éticas para la Inteligencia Artificial (2020) y el Grupo Asesor de Múltiples Partes Interesadas para el FGI designado por el secretario general de la ONU (2012-2014), así como el Consejo Asesor Internacional del Centro de Comercio Digital y Gobernanza de Datos de la Escuela Elliott de Asuntos Internacionales (Universidad George Washington).