Categorías
CETyS Laboratorio de Infraestructura Digital

Neutralidad de la Red y Responsabilidad de Intermediarios: Entre las elecciones democráticas y las elecciones corporativas

Segundo semestre del inolvidable 2020, se acercaban las elecciones en los EEUU y el concepto de “neutralidad de la red” resonaba en distintos contextos. En un marco de acusaciones cruzadas, por parte de candidatos, medios y electores, la neutralidad de la red fue extraída de su habitual status y de ser objeto de análisis esencialmente en los ámbitos académicos y tecnológicos, para pasar a ser parte del “mainstream” de los medios y parte de la opinión pública.

¿Qué es la Neutralidad de la Red?

La neutralidad de la red carece de definiciones aceptadas universalmente. No obstante ello, creo que puede definirse como un principio de no discriminación. Este principio funciona en distintos niveles.

El primero es que la red Internet es técnicamente neutral, es decir, no discrimina respecto de las aplicaciones y/o servicios que se transmiten por ella (puede ser telefonía IP, televisión IP, etc. en una única red neutral y no en distintas redes como pasaba con la telefonía o televisión tradicional donde cada servicio tenía su propia red) ni por los equipos necesarios para acceder a la misma. 

El segundo nivel de neutralidad refiere a la posibilidad de desarrollar y/o ofrecer información, aplicaciones y/o servicios (no ilegales) a través de la red sin restricciones por parte de ningún particular ni del Estado. Este segundo nivel no quiere decir que para ofrecer servicios utilizando el conjunto de protocolos TCP/IP no se deba cumplir con las leyes de fondo aplicables a todo negocio, sino, que si se cumple con éstas, se debería poder desarrollar y/o ofrecer información, aplicaciones y/o servicios sin tener que pedir permisos. Desde su génesis la Red de Redes procuró ser una «Red Abierta» o «Internet Abierta». 

Finalmente, el tercer nivel refiere a la no discriminación de la información, aplicaciones y/o servicios que se transmiten por la red, sin justa causa. El principio hace alusión a la discriminación que puede realizarse por parte de los «intermediarios de Internet» o del gobierno.

Como casi todo principio siempre tuvo sus excepciones. Se pueden encontrar excepciones a distintos niveles, desde el manejo técnico del tráfico (idealmente siguiendo criterios neutrales) hasta criterios relacionados a lo jurídico y lo sensato, por ejemplo, es difícil encontrar un intermediario que no haya invertido en evitar el tráfico de imágenes o videos con contenido de explotación sexual de menores dado que carecen de tutela al ser resultado de un delito en el que no subyace una expresión alguna.

Audiencia ante Comisión del Congreso de EEUU

Demorada, en virtud de una orden judicial sobre la hora, la resolución al “TIKTOK gate”, una problemática con impacto en la neutralidad y con efectos sin precedentes, y con apenas unos días de anterioridad a las elecciones, los CEOs de tres de los más importantes intermediarios de Internet (Alphabet, Facebook y Twitter) fueron interrogados por una comisión del Congreso de los EE.UU. La intención era interrogar sobre las acciones de moderación de las empresas citadas.

A lo largo de los interrogatorios de forma conexa, y por momentos directa, subyacían otros temas, en particular, si el artículo 230 de la Communications Decency Act (CDA) sigue siendo apropiado o si las protecciones del mismo marco normativo “crearon un monstruo” –sic Donald Trump-. No obstante había más temas destacables como innovación y defensa de la competencia, capacidad de influencia en las elecciones, etc.

¿Qué está cambiando?

A lo largo de muchos años, los intermediarios de Internet de los EE.UU. encontraron en el art. 230, en el ejercicio (enforcement) de sus términos y condiciones y la moderación moderada una razonable tranquilidad. Es decir, dentro del marco de una norma institucional la autorregulación, no del todo transparente, de las corporaciones resultó suficiente. 

En otros países hay normas similares, no siendo este el caso de la Argentina, que estuvo cerca con la media sanción del proyecto impulsado por el presidente provisional del Senado Federico Pinedo, pero que terminó sin salir aprobado. En la argentina el tema sigue dando espacio a múltiples reclamos judiciales entre los que se destacó “María Belén Rodríguez” en el que la CSJN, entre otras cuestiones, estableció la aplicación del factor de atribución para la responsabilidad civil “subjetivo” y la falta de obligatoriedad de monitoreo por parte de las plataformas.

A mayor abundamiento, en la resolución del caso “María Belén Rodríguez”,  se puede destacar que se califica de “llamativa insustancialidad” a la pretensión de aplicar la responsabilidad objetiva en un caso contra unos motores de búsqueda.  Otro punto a considerar es que se ejemplificó como “contenidos de ilicitud manifiesta”

«…pornografía infantil, datos que faciliten la comisión de delitos, que instruyan acerca de éstos, que pongan en peligro la vida o la integridad física de alguna o muchas personas, que hagan apología del genocidio, del racismo o de otra discriminación con manifiesta perversidad o incitación a la violencia, que desbaraten o adviertan acerca de investigaciones judiciales en curso y que deban quedar secretas, como también los que importen lesiones contumeliosas al honor, montajes de imágenes notoriamente falsos o que, en forma clara e indiscutible, importen violaciones graves a la privacidad exhibiendo imágenes de actos que por su naturaleza deben ser incuestionablemente privados, aunque no sean necesariamente de contenido sexual.»

Ni en el listado, ni en su espíritu, se podría sostener que podrían entrar noticias falsas sobre política.

No obstante lo resuelto judicialmente, ahora nos encontramos con una realidad en la que parecería que la sociedad y sus representantes exigen más y con mucha vehemencia. Esas exigencias no deberían desentenderse de preguntas profundas como ¿Puede el congreso legislar sobre contenido en la forma que se está exigiendo sin afectar la libertad de expresión? ¿Pueden los intermediarios fijar sus propias políticas libremente sin límites? ¿Qué es lo mejor para la sociedad en la era de la información?   

Los intermediarios empezaron a tomar medidas. En muchos casos se los atacó por ello. Es así que quedaron en una situación en la que si eran neutrales eran “un monstruo” que atentaban contra las democracias; y si tomaban medidas se los acusaba de censuradores, antidemocráticos, etc… Tal como le “preguntó” un senador de los EE.UU al CEO de Twitter “¿Quién diablos los eligió y puso a cargo de los que los medios pueden reportar y los Americanos pueden escuchar”?

Un posible camino: Autorregulación informada

Tal vez la solución venga de la mano de la transparencia. Transparencia en la autorregulación en general y en las reglas de moderación y su ejecución en particular. Incluso el Estado y la sociedad civil podrían colaborar en ofrecer guías para reglas de moderación y controlar su enforcement.

La autorregulación informada obligaría y generaría derechos. Asimismo, podría ayudar a los ciudadanos a valorar el contenido en las plataformas. No sería lo mismo un sitio con normas claras y transparentes de “Fact Checking” y un evidente enforcement de una buena autorregulación que un sitio que simplemente deja pasar todo o se expresa de forma transparente como partidario.

El incumplimiento con las propias normas de moderación podría dar lugar a reclamos por parte de sus afectados. Había en la industria un chiste interno que decía “está la verdad y está lo que está en Internet”. Ahora las plataformas competirían de forma transparente en ser intermediarios de mejor información. 

Los Intermediarios deben colaborar en la búsqueda y difusión de la verdad a la que se deben apegar las democracias para no ser la simple tiranía de las mayorías o de los poderes de turno. En este sentido la competencia transparente también favorecería a la sociedad en general.

Escrito por Santiago Gini, del Laboratorio de Infraestructura Digital (InDi Lab)