ALGORITMOS, ÉTICA Y TRANSPARENCIA

 

portada_datanomics_paloma-llaneza_201811261531

“Los modelos son opiniones embebidas en matemáticas” (Paloma Llaneza)

“La segunda idea relevante tiene que ver con la forma de incluir valores a la superinteligencia (artificial). Con diferencia, este es el punto más delicado (José Ignacio Latorre)

Cuando se publicó la Ley de Transparencia (diciembre 2013), los problemas relativos a la ética pasaron de puntillas (el título II de la Ley fue un fiasco absoluto). Asimismo, en aquel momento el algoritmo apenas inquietaba, ya que la automatización aún no se hacía presente y la Inteligencia artificial estaba muy lejana todavía.

Prueba de que los acontecimientos se aceleran es que esa triada que enuncia esta entrada va tomando cuerpo cada día que pasa con más intensidad; también en el sector público, siempre renuente a cambios, adaptaciones y transformaciones. Conforme la revolución tecnológica vaya ocupando espacios cada vez mayores en la actuación de los poderes públicos, también administrativos, las preguntas se irán acumulando y la trazabilidad de los algoritmos será más necesaria para identificar responsabilidades de todo tipo. Un tema en nada menor.

Harari, en su reciente libro 21 lecciones para el siglo XXI (Debate, 2018), ya nos advierte de uno de los riesgos que presentan los algoritmos en su constante tendencia a hackear a los humanos, dado que “podrán manipular nuestras emociones con asimétrica precisión”. Si lo primero es preocupante, no lo es menos lo segundo: su asimetría.

Pero lo realmente grave de este fenómeno, ya imparable, es la tendencia de los algoritmos a transformarse en auténticas “cajas negras”, algo que adquiere particular relieve en el tratamiento masivo de datos o Big Data, así como en el emergente Internet de las cosas.

Hace ya algunos años Mayer-Schönberger y Cukier ponían el acento en que los datos masivos, eran auténticas “cajas negras”, que “no ofrecen ninguna rendición de cuentas, trazabilidad o confianza”. Eso es algo que también nos ha recordado recientemente el sugerente libro de Paloma Llaneza titulado Datanomics (Todos los datos personales que das sin darte cuenta y todo lo que las empresas hacen con ellos, Deusto 2019), en donde ya sin ambages se hace eco de que los modelos matemáticos sobre los que se sustentan los algoritmos no son neutros, pues al fin y a la postre tales modelos, en determinadas circunstancias, pueden llegar a convertirse, tal como expuso en su día O’Neil, en “matemáticas de destrucción masiva”. En efecto, según nos recuerda en el libro indicado, “algunos algoritmos informáticos ya han exhibido prejuicios, como el racismo y el sexismo, basados en el aprendizaje de registros públicos y otros datos generados por humanos”. De ahí que deduzca su autora que nos encontramos de nuevo ante verdaderas “cajas negras”. Pero con la cualidad agravada de que en no pocos casos se cierra el acceso a sus contenidos alegando razones tan peregrinas como el secreto empresarial o la propiedad intelectual, como ahora veremos. Unos pretendidos límites al acceso a esa información que, de no interpretarse correctamente y con fuerte carácter restrictivo, pueden actuar como freno al acceso a la información pública recogida en la Ley de Transparencia antes citada. Y con consecuencias demoledoras.

Por eso, concluye Paloma Llaneza, “la transparencia algorítmica es tan importante”. Y, efectivamente, desde el punto de vista de garantías de los derechos y libertades que asientan el Estado Constitucional Democrático, esos modelos matemáticos que sustentan los algoritmos no pueden ser “cajas negras inescrutables”, pues ello conllevaría desapoderar a la transparencia como instrumento central de control del ejercicio del poder y dejar sin protección los derechos de la ciudadanía. Conforme la automatización de las Administraciones Públicas vaya creciendo exponencialmente, los problemas de control de los programas que se apliquen los tratamientos automatizados serán cada vez mayores y requerirán un escrutinio cada vez más intenso que sea capaz de definir su trazabilidad. La transparencia pública se juega su futuro en esta intensa y desigual batalla, pues la Administración apenas dispone de conocimiento interno para hacerla efectiva. Está, al menos hoy en día, totalmente en manos del mercado.

Hace algunos meses CIVIO hizo pública la impugnación ante la jurisdicción contencioso-administrativa de una denegación de acceso a la información pública que tenía como base la mala aplicación de un sistema automatizado de adjudicación del bono social eléctrico (Ver: https://bit.ly/326pxNp), porque la citada entidad tras algunos análisis efectuados tenía fundadas sospechas de que el programa llevaba a cabo decisiones erróneas con perjuicios para determinadas personas. Solicitaban, así, tener acceso al “código fuente” (a la “caja negra” del programa) para identificar su diseño y detectar, en su caso, su trazado. Tanto la Administración del Estado como el Consejo de Transparencia y Buen Gobierno, en este caso en una polénica resolución CTBG-CODIGO FUENTE-R-0701-2018,  denegaron ese acceso a tal información (código fuente) basándose en el límite de que tal acceso afectaba a la propiedad intelectual, lo que así expuesto puede tener unas consecuencias letales para los derechos de la ciudadanía (en este caso de un colectivo especialmente vulnerable). La voz ahora la tienen los tribunales de justicia. Una decisión judicial que, sin duda, será de enorme trascendencia futura.

La batalla no ha hecho más que empezar y será larga, así como cruenta, pues las resistencias “culturales” (organizativas y empresariales) son enormes y la legislación muestra una inadaptación brutal a una revolución tecnológica que se está colando de rondón silenciosamente en los procedimientos administrativos y en las resoluciones que los ultiman. Es la actuación silente y letal del algoritmo en la vida y derechos de los ciudadanos. También en la Administración Pública, como el Derecho Administrativo comienza a percibir recientemente. Si, como reconoció Lassalle (Ciberleviatán, 2019), “el algoritmo se ha convertido en la práctica en el sustituto de la Ley”, algo habrá que idear para que el Estado de Derecho no se quiebre como consecuencia del reinado del algoritmo. La lucha por su transparencia y trazabilidad es, así, una tarea pendiente e inaplazable. Aunque, en no pocos casos, con la llegada del Internet de las cosas (5 G) el problema se acreciente y conforme se avance en ese proceso sea más complejo determinar esa trazabilidad hasta determinar su origen. Algo habrá que inventar para evitar ese borrado fáctico. Todo por hacer.

Este es un problema que analizó con rigor José Ignacio Latorre en su excelente libro Ética para las máquinas (Ariel, 2018). Pues si bien es cierto que la transparencia es un presupuesto inevitable para paliar en la medida de lo posible la afectación directa o lateral a los derechos de la ciudadanía, también sobre aquellos derechos que tienen carácter de prestación, no lo es menos la imperiosa necesidad de “iniciar un proceso de legislación sobre el uso de los robots”. Como reconoce este autor, “la inteligencia artificial avanzada plantea problemas legales y éticos que requieren la colaboración de todas las visiones de la sociedad”. Tal como concluye: “La inteligencia artificial debe ser programada con ciertos principios plasmados en su código”. Es lo que se llama como “carga de valores” de un programa artificial.

Tales declaraciones de principios ya han sido incluso codificadas en algunos casos y han terminado influyendo en determinados ámbitos normativos. También el Grupo Europeo de Ética de la Ciencia y de las Nuevas Tecnologías ha formulado una serie de principios que debería inspirar las legislaciones de los diferentes Estados. Allí no solo se ahonda en la dignidad humana y en otros principios eje del Estado constitucional democrático, sino que se sitúa el acento en ámbitos clave como “la seguridad emocional con respecto a la interacción humano-máquina”, tal como expone Latorre.

La Unión Europea dio luz asimismo en 2017 a la Declaración de Tallin, que muy colateralmente todavía aborda esta cuestión (y que se analiza por Concepción Campos Acuña en un reciente trabajo: https://bit.ly/31QIaUP). Y, en fin, el documento de la Comisión Europea Inteligencia Artificial para Europa [COM (2018) 237 final], muy preocupado por los impactos económicos de tal proceso en los países miembros, también se hace eco tibiamente de esta problemática en su apartado “Garantizar un marco ético y jurídico adecuado”. Pero aún se dista mucho de sentar bases efectivas para afrontar ese enorme reto, tal como lo enunciara el profesor José Ignacio Latorre. Por su parte, Carles Ramió, en su libro Inteligencia artificial y Administración Pública (Catarata, 2019), también se hace eco de algunos retos que en materia de ética se plantean en ese ámbito.

En fin, por lo que a nosotros compete, solo hace falta que ese legislador durmiente acunado por el eterno gobierno en funciones despierte de su largo letargo y comience a asumir la transcendencia que los temas de ética y transparencia tienen en los procesos de automatización administrativa para el común de los mortales que nos relacionamos con los poderes públicos, articulando una verdadera protección de sus derechos frente a actuaciones que se basan en códigos fuente configurados como auténticas cajas negras y que han sido confeccionados habitualmente por empresas tecnológicas externas a las Administraciones Públicas sin un previo establecimiento de exigencias éticas, así como sin prever ningún tipo de medidas de acceso efectivo al diseño y ejecución de los programas informáticos. Cabe defender, en todo caso, que el propio RGPD puede dar algunos elementos en esa línea de defensa vinculada con la transparencia, cuando obliga a facilitar –al menos a los interesados- toda la información relativa a decisiones automatizadas y, en particular, “la información significativa sobre la lógica aplicada”. Esto es algo que se debería objetivar preservando, sin duda, los datos personales de los afectados, con la finalidad de conocer a ciencia cierta la “cara oculta” de tales tratamientos automatizados, si la hubiere, y qué consecuencias o efectos tiene en las decisiones administrativas.

Así pues, la lucha por la integridad y transparencia en la actuación de las Administraciones Públicas tiene un enorme desafío, al que se deberá hacer frente, con un conjunto articulado y plural de medidas normativas y de otro carácter, que cuanto antes se pongan en marcha mejor. Por el bien de todos y por el bien del Estado Democrático. El control del poder en un futuro inmediato se dirimirá en buena parte en ese terreno de los datos y del tratamiento automatizado de estos, cuando no de la propia Inteligencia Artificial.

Al fin y a la postre, como dice con acierto Paloma Llaneza, los algoritmos son algo así como “recetas de cocina”. Y es muy importante conocer qué ingredientes llevan, cómo se mezclan y quién es la persona que los “ha cocinado”, así como con qué principios culinarios se tratan. La salud democrática y los derechos más báscios de las personas están en juego.

 

Anuncios

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s