El uso y gestión ética de los datos personales preocupa cada vez más a los ciudadanos y existe un sentimiento de urgencia sobre la necesidad de proteger la seguridad y privacidad de los datos usados ¿Qué medidas se pueden tomar y cuál es el riesgo de no tomarlas? ¿Cómo puede el sector público o privado gestionar los datos de forma responsable?
Actualmente vivimos en un universo poblado de datos. Nuestra huella digital va dejando rastro sobre lo que hacemos, dónde lo hacemos, adónde vamos, a quiénes conocemos, qué tenemos, qué nos gusta o cómo nos sentimos. Generamos esta información mientras trabajamos, caminamos, interactuamos, hablamos, protestamos o buscamos información en línea.
Las actividades que llevamos a cabo generan datos, y toda esta información es útil para definir los servicios, los productos o la manera cómo funcionan las ciudades. La importancia y alcance de estos datos han sido ampliamente explorados por el sector privado, sobre todo en los ámbitos del cálculo y análisis de riesgos, y en la personalización de los servicios comerciales.
Actualmente los datos sirven para mejorar la eficiencia y los diagnósticos en el sector público. Pero su uso y proliferación también están permitiendo mejorar la transparencia de la acción gubernamental a través de los datos abiertos. Un número creciente de gobiernos está publicando datos en sus portales de internet con el objeto de mejorar su transparencia, pero también con la esperanza de que esa disponibilidad estimule el desarrollo de aplicaciones útiles para la ciudadanía, ya sea por parte de las entidades gubernamentales o de los propios ciudadanos.
Uno de estos proyectos actualmente en marcha es “Mejora tu escuela” en México. La plataforma, creada por el Instituto Mexicano para la Competitividad en 2013, busca ayudar a los padres a elegir la mejor opción de educación para sus hijos, lo que a su vez crea incentivos para que las escuelas tengan un mejor desempeño. La información de la plataforma sobre los planteles educativos combina datos públicos abiertos con otros proporcionados por la ciudadanía a través de reseñas y puntajes.
Los riesgos y desafíos que entraña la sociedad de los datos no afectan solo al sector público. El lema de Silicon Valley, “muévete rápido y rompe cosas” sonaría catastrófico si lo que se rompe son las estructuras sociales o las garantías legales consolidadas en entornos por fuera del ciberespacio. Empresas globales intensivas en el uso de datos como Uber y Airbnb han sufrido crisis cíclicas de confianza por la manera como gestionan los datos personales de sus clientes.
En el sector de la educación, donde se manejan datos sensibles de personas menores de edad, la preocupación por la privacidad llevó a la administración Obama a promulgar en 2015 una Ley de Privacidad Digital para los Estudiantes. Entre tanto, empresas como Google, Apple y Microsoft, así como otras grandes proveedoras de tecnologías vinculadas al aprendizaje, han firmado el Compromiso con la
Privacidad de los Estudiantes para abordar específicamente estos temas.
En Estados Unidos, la preocupación por la manera como se recolectan y gestionan los datos del estudiantado se puso de manifiesto en 2014 cuando InBloom, una de las empresas jóvenes más destacadas de la era digital, terminó en la quiebra después de que se la acusara de vulnerar la privacidad tanto de los alumnos como de las escuelas.
El primer riesgo –y el más evidente– al que se enfrentan quienes manejan datos personales es el de la protección de estos y, en un sentido más amplio, el de la privacidad.
El RGPD establece seis principios básicos sobre el manejo de los datos personales:
1.- deben ser tratados de forma lícita, leal y transparente;
2.- se deben recolectar con fines determinados explícitos y legítimos;
3.- deben ser adecuados, pertinentes y limitados a lo necesario dependiendo del uso;
4.- deben ser exactos y estar siempre actualizados;
5.- deben mantenerse de forma tal que se permita la identificación de los interesados durante no más tiempo del necesario para los fines del tratamiento; y
6.- deben ser tratados de tal manera que se garantice su seguridad.
La discriminación es un trato diferente y perjudicial que se da a una persona debido a categorizaciones arbitrarias o irrelevantes. Se la califica de “algorítmica” porque lo que permite que la discriminación se instale y prolifere en los sistemas informáticos es el uso del aprendizaje automatizado y de la inteligencia artificial. La discriminación algorítmica refiere entonces a aquellos procesos a través de los cuales los distintos tipos de discriminación que ocurren en el mundo real son reproducidos en entornos de datos, o a los que surgen exclusivamente en ellos, como cuando los sistemas de reconocimiento facial producen más errores al procesar rostros no caucásicos.
Esta discriminación no es más que la consecuencia de reproducir algorítmicamente procesos discriminatorios que ocurren en el mundo real, sin subsanar sus impactos en el momento de programar los algoritmos.
Los algoritmos en la transformación digital de las empresas
Junto a los errores y riesgos de los sistemas, una de las exigencias más generalizadas es la transparencia. Esta última noción, así como la evaluación y la rendición de cuentas, se encuentran íntimamente ligadas, dado que para que los ciudadanos logren formarse un juicio sobre un determinado aspecto relativo a la acción gubernamental o pública, es necesario que la información pertinente se encuentre disponible.
Es por eso que la falta de transparencia en los sistemas de datos (qué clase de información recogen, cómo la gestionan, cómo la analizan, con quién la comparten, qué decisiones se toman a partir de ella y con base en qué factores) supone un problema de gran calado para la calidad de la democracia y la posibilidad de que la ciudadanía acceda a información valiosa sobre cómo se toman las decisiones que la afectan.
En el ámbito tecnológico, este riesgo se acentúa debido a que los sistemas informáticos son percibidos por la mayoría de la población como “cajas negras”, es decir, como mecanismos incomprensibles que a menudo bordean lo mágico.
Esta información pertenece al informe «LA GESTIÓN ÉTICA DE LOS DATOS. Por qué importa y cómo hacer un uso justo de los datos en un mundo digital» del Banco Interamericano de Desarrollo
Conoce el cómic de esta publicación en: Miranda Ventura y el big data
Psicólogo. Coach Ejecutivo. Fundador y CEO de SoyDigital Network, empresa especializada Digital Business Solutions. Profesor MBA en la Universidad Europea de Canarias. Online desde 1996.
Todo lo que hago es porque creo sinceramente que puede aportar valor a la vida o los negocios de otros.
Resumen de mi cuarto libro "Transformación digital. Cómo los líderes de hoy redefinen el futuro".…
OKR es la mejor estrategia para lograr objetivos, tanto en las empresas, sean del tamaño…
Hay mucho mito y falsas creencias en torno a la innovación y el proceso innovador.…
Esta es la hoja de ruta que puedes seguir para empezar la transformación digital de…
El miedo a emprender es transversal a todos los emprendedores. Pero hay algo que tú…
Design thinking, agile y lean startup son tres conceptos clave para entender y llevar a…