La digitalización de todos los sectores lleva años consolidándose. Aunque existen ejemplos, el sector público ha retrasado su digitalización en comparación con otros.
Sin embargo, la pandemia ha señalado la necesidad de que gobiernos y administraciones cuenten con herramientas digitales para la gestión y la respuesta.
La digitalización en las políticas públicas ha comenzado y es un proceso seguramente irreversible. Por tanto, requiere de nuestra máxima atención y de transmitir el conocimiento crítico para que se aseguren los derechos y beneficios de todos los ciudadanos.
Uno de estos procesos de digitalización consiste en el desarrollo de aplicaciones de smartphone para el rastreo de contactos digital, con el objetivo de luchar contra la COVID-19 como complemento de medidas integrales que combinen distanciamiento y rastreo de brotes o eventos supercontagiadores. Esto es especialmente relevante para el control de la epidemia, reduciendo brotes locales para evitar que aumenten o gestionar y frenar segundas olas.
La idea de estas aplicaciones es que, cuando una persona es diagnosticada con el nuevo coronavirus, toda la gente que haya estado en contacto pueda ser notificada para hacerse el test. De este modo, en caso de dar positivo, podrán aislarse para ayudar a contener la infección.
Se han creado algunas falacias en torno a este tipo de innovaciones, quizás por lo sugerente del debate ético asociado. Una de las más notables es que las personas tenemos que renunciar a derechos o a nuestra privacidad para garantizar nuestra seguridad sanitaria, por ejemplo, mediante el uso de apps.
La primera motivación de la innovación digital para políticas públicas debe ser el empoderamiento de la sociedad y sus derechos, de tal manera que se encuentren soluciones efectivas a problemas concretos. El futuro de la digitalización implica que hagamos un análisis de riesgos éticos y técnicos de las soluciones para valorar su aceptabilidad.
En esta reciente publicación se propone un marco de evaluación de apps de rastreo de contactos útil para este propósito. Por ejemplo, la arquitectura descentralizada del rastreo de contactos evita que se pueda hacer un uso invasivo o secundario de esta información. En este estudio se consideran criterios relacionados con la libertad de los individuos, la propia solución tecnológica y la gobernanza de las apps. Esta última categoría es extremadamente importante.
La pandemia nos genera una situación de anomalía social que cambia nuestros hábitos de comportamiento y que, debido a la necesidad de medidas no farmacológicas de control, puede incluso afectar a nuestros derechos fundamentales (como sucede en los confinamientos y cierres de escuelas).
Tecnología centrada en las personas
La pregunta debe ser si las tecnologías digitales nos permiten crear mecanismos de inteligencia colectiva que nos ayuden a luchar contra la pandemia minimizando el impacto en nuestra vida cotidiana. A partir de ahí, podremos realizar un diseño que sea centrado en las personas y respetuoso con los derechos. En este sentido la información, las predicciones y otras herramientas, usadas de forma adecuada, pueden ayudarnos a tomar mejores decisiones individuales y colectivas que ayuden a proteger a toda la sociedad.
La digitalización para políticas públicas tiene que evaluarse en términos individuales (derechos, protección, privacidad) y también colectivos (educación, economía, movilidad, cultura). Adoptar la digitalización tiene que venir motivado por beneficios en estos términos. Por ejemplo, el impacto en el sector laboral de la pandemia es extremadamente severo y si la tecnología puede mitigarlo, es un deber explorar soluciones para ello.
La movilidad también está viéndose seriamente alterada, afectando a algunos sectores y la comunicación e intercambio internacional. Las medidas nacionales deben ser sólo un primer paso a sistemas de coordinación internacional apoyados por soluciones digitales como las apps o los modelos digitales basados en datos.
Es vital considerar que la solución tecnológica o el propio algoritmo deben ser una parte de estrategias integrales contra la COVID-19, además de otras medidas de higiene, distanciamiento y test masivos.
Respecto a la gestión de estas apps, no es deseable ni adecuado que se establezca un control unilateral por parte de un solo organismo que imponga medidas. Una interacción orgánica entre la sociedad y las soluciones digitales es vital, la parte humana (colectiva) es la clave del sistema, incluyendo las diversas complejidades contextuales. Hay que tener en cuenta que, aunque los estudios académicos basados en modelos indican que es necesaria una penetración de alrededor de un 60 %, es necesario investigar el nivel de penetración necesario para obtener un efecto epidemiológico positivo.
Hacen falta confianza y transparencia
Por supuesto, para llegar a esta integración entre lo digital y lo humano, la confianza y la transparencia son fundamentales. Los sistemas digitales para políticas públicas deben basarse en la confianza. Por ello es importante que las iniciativas se impulsen de forma colaborativa, asegurando la neutralidad de intereses particulares y también el rigor científico-técnico.
Además, las soluciones deben ser abiertas y auditables, no solo en su funcionamiento, sino también en su impacto, que debe ser evaluable y público. Por ejemplo, las apps de rastreo de contactos tendrán que superar la prueba de reducir la propagación epidemiológica para poder justificar su utilización en casos futuros.
En definitiva, nos encontramos en un momento en que debemos promover una democratización de las tecnologías digitales y los datos en la esfera de lo público. Esto implica la transparencia (códigos abiertos y repositorios de datos e indicadores por parte de las administración) y también asegurarse de que la tecnología se diseña para todos considerando la diversidad, desigualdades y asimetrías de las relaciones entre las personas y la tecnología.
Con seguridad necesitamos nuevas apps, algoritmos y herramientas, pero también organismos, mecanismos de protección y de juicio que aglutinen los intereses de los ciudadanos frente a los controladores de la tecnología (tanto del sector privado como público) en los posibles conflictos éticos, legales o científicos que puedan surgir en el uso de la inteligencia artificial y otras tecnologías digitales.
Manuela Battaglini Manrique de Lara, CEO de Transparent Internet, es coautora en la elaboración de este artículo.
Ricardo Vinuesa receives funding from the Swedish Research Council, the Swedish e-Science Research Centre and the Göran Gustafsson Foundation. He is affiliated with KTH Royal Institute of Technology and he is also an affiliated researcher at the AI Sustainability Center.
David Pastor Escuredo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.
Fuente: The Conversation (Creative Commons)
Author: David Pastor Escuredo, Investigador en Inteligencia Artificial y Data para el Desarrollo @dpastoresc, Universidad Politécnica de Madrid (UPM)