La gestión ética de los datos en un mundo digital

por | Ene 15, 2020 | Economía, Sociedad, Transformación Digital

El uso y gestión ética de los datos personales preocupa cada vez más a los ciudadanos y existe un sentimiento de urgencia sobre la necesidad de proteger la seguridad y privacidad de los datos usados ¿Qué medidas se pueden tomar y cuál es el riesgo de no tomarlas? ¿Cómo puede el sector público o privado gestionar los datos de forma responsable?

gestion etica de los datos

Gestión ética de los datos

Actualmente vivimos en un universo poblado de datos. Nuestra huella digital va dejando rastro sobre lo que hacemos, dónde lo hacemos, adónde vamos, a quiénes conocemos, qué tenemos, qué nos gusta o cómo nos sentimos. Generamos esta información mientras trabajamos, caminamos, interactuamos, hablamos, protestamos o buscamos información en línea.

Las actividades que llevamos a cabo generan datos, y toda esta información es útil para definir los servicios, los productos o la manera cómo funcionan las ciudades. La importancia y alcance de estos datos han sido ampliamente explorados por el sector privado, sobre todo en los ámbitos del cálculo y análisis de riesgos, y en la personalización de los servicios comerciales.

Actualmente los datos sirven para mejorar la eficiencia y los diagnósticos en el sector público. Pero su uso y proliferación también están permitiendo mejorar la transparencia de la acción gubernamental a través de los datos abiertos. Un número creciente de gobiernos está publicando datos en sus portales de internet con el objeto de mejorar su transparencia, pero también con la esperanza de que esa disponibilidad estimule el desarrollo de aplicaciones útiles para la ciudadanía, ya sea por parte de las entidades gubernamentales o de los propios ciudadanos.

Uno de estos proyectos actualmente en marcha es “Mejora tu escuela” en México. La plataforma, creada por el Instituto Mexicano para la Competitividad en 2013, busca ayudar a los padres a elegir la mejor opción de educación para sus hijos, lo que a su vez crea incentivos para que las escuelas tengan un mejor desempeño. La información de la plataforma sobre los planteles educativos combina datos públicos abiertos con otros proporcionados por la ciudadanía a través de reseñas y puntajes.

Riesgos éticos

Los riesgos y desafíos que entraña la sociedad de los datos no afectan solo al sector público. El lema de Silicon Valley, “muévete rápido y rompe cosas” sonaría catastrófico si lo que se rompe son las estructuras sociales o las garantías legales consolidadas en entornos por fuera del ciberespacio. Empresas globales intensivas en el uso de datos como Uber y Airbnb han sufrido crisis cíclicas de confianza por la manera como gestionan los datos personales de sus clientes.

Te interesa:   Diccionario para emprender / 2: B2B, B2C, Balance, Big Data y Blog

En el sector de la educación, donde se manejan datos sensibles de personas menores de edad, la preocupación por la privacidad llevó a la administración Obama a promulgar en 2015 una Ley de Privacidad Digital para los Estudiantes. Entre tanto, empresas como Google, Apple y Microsoft, así como otras grandes proveedoras de tecnologías vinculadas al aprendizaje, han firmado el Compromiso con la
Privacidad de los Estudiantes para abordar específicamente estos temas.

En Estados Unidos, la preocupación por la manera como se recolectan y gestionan los datos del estudiantado se puso de manifiesto en 2014 cuando InBloom, una de las empresas jóvenes más destacadas de la era digital, terminó en la quiebra después de que se la acusara de vulnerar la privacidad tanto de los alumnos como de las escuelas.

Privacidad

El primer riesgo –y el más evidente– al que se enfrentan quienes manejan datos personales es el de la protección de estos y, en un sentido más amplio, el de la privacidad.

El RGPD establece seis principios básicos sobre el manejo de los datos personales:
1.- deben ser tratados de forma lícita, leal y transparente;

2.- se deben recolectar con fines determinados explícitos y legítimos;

3.- deben ser adecuados, pertinentes y limitados a lo necesario dependiendo del uso;

4.- deben ser exactos y estar siempre actualizados;

5.- deben mantenerse de forma tal que se permita la identificación de los interesados durante no más tiempo del necesario para los fines del tratamiento; y

6.- deben ser tratados de tal manera que se garantice su seguridad.

Discriminación algorítmica

La discriminación es un trato diferente y perjudicial que se da a una persona debido a categorizaciones arbitrarias o irrelevantes. Se la califica de “algorítmica” porque lo que permite que la discriminación se instale y prolifere en los sistemas informáticos es el uso del aprendizaje automatizado y de la inteligencia artificial. La discriminación algorítmica refiere entonces a aquellos procesos a través de los cuales los distintos tipos de discriminación que ocurren en el mundo real son reproducidos en entornos de datos, o a los que surgen exclusivamente en ellos, como cuando los sistemas de reconocimiento facial producen más errores al procesar rostros no caucásicos.

Te interesa:   Del Bit...al Big Data. Una guía para aprender a sacarle provecho

Esta discriminación no es más que la consecuencia de reproducir algorítmicamente procesos discriminatorios que ocurren en el mundo real, sin subsanar sus impactos en el momento de programar los algoritmos.

Los algoritmos en la transformación digital de las empresas

Opacidad

Junto a los errores y riesgos de los sistemas, una de las exigencias más generalizadas es la transparencia. Esta última noción, así como la evaluación y la rendición de cuentas, se encuentran íntimamente ligadas, dado que para que los ciudadanos logren formarse un juicio sobre un determinado aspecto relativo a la acción gubernamental o pública, es necesario que la información pertinente se encuentre disponible.

Es por eso que la falta de transparencia en los sistemas de datos (qué clase de información recogen, cómo la gestionan, cómo la analizan, con quién la comparten, qué decisiones se toman a partir de ella y con base en qué factores) supone un problema de gran calado para la calidad de la democracia y la posibilidad de que la ciudadanía acceda a información valiosa sobre cómo se toman las decisiones que la afectan.

En el ámbito tecnológico, este riesgo se acentúa debido a que los sistemas informáticos son percibidos por la mayoría de la población como “cajas negras”, es decir, como mecanismos incomprensibles que a menudo bordean lo mágico.

Propuestas para la gestión ética de los datos

  • La gestión ética de datos se debe realizar a lo largo de todo su ciclo de vida, definidas desde la creación y captura, pasando por el almacenamiento, la transmisión y el análisis, hasta el archivo o eliminación.
  • Una de las condiciones para que un proyecto sea ético es que los beneficios superen los costos. Por ejemplo, en Nueva Zelanda se definieron las tres preguntas a las que una organización debe responder para determinar si el uso de datos genera valor: ¿para qué se van a usar los datos? ¿cuáles son los beneficios y quién se beneficiará? y ¿quién estará usando los datos?
  • En cada proyecto en el que se pretenda usar datos personales se debe tener claro cuáles son las personas que se verán beneficiadas o afectadas y cuáles las inequidades que se pueden producir, prestando especial atención a los grupos minoritarios o vulnerables.
  • Con el fin de realizar un diagnóstico correcto de los datos requeridos para un determinado proyecto es necesario mapear primero los ya disponibles y los deseables, para posteriormente identificar sesgos posibles. Con esto se obtendrá idealmente el conjunto de datos necesarios.
  • La privacidad debe incorporarse en cada etapa del ciclo de vida de los datos, y es en la fase de planificación cuando se deben diseñar las acciones relevantes para lograrlo, a la luz de los estándares que hacen parte del reglamento general de protección de datos de la Unión Europea. Si el proyecto contempla datos personales o sensibles, se deben incorporar las medidas para cumplir con la normativa nacional de protección de datos personales.
  • Se deben realizar medidas para combatir la opacidad a la hora de usar los datos. Esto es particularmente relevante en un escenario de profunda desconfianza de la ciudadanía frente a la labor gubernamental.
  • Considerando que el uso de estos avances tecnológicos para abordar los problemas
    del sector social –y en general aquellos de interés público– son relativamente recientes, es recomendable identificar a aquellos que ya estén desarrollando este tipo de iniciativas de manera exitosa para incorporar sus aprendizajes.
  • El uso de datos no debe ser relegado a las áreas de tecnología de la institución. Se requiere entonces definir una gobernanza del proyecto que incorpore a un equipo diverso y multidisciplinario en donde participen activamente los profesionales del área de gestión correspondiente, cuya experiencia y sensibilidades temáticas les permitan determinar los efectos que este pueda tener en los usuarios.
  • Una parte esencial de los procesos de innovación es la iteración, en la medida en esta permite incorporar aprendizajes y mejorar procesos. Para que así sea, es necesario ensayar el proyecto en pequeña escala con el fin de garantizar que su despliegue masivo se pueda realizar de la mejor manera posible.
Te interesa:   Relación entre los actores de las telecomunicaciones

Esta información pertenece al informe «LA GESTIÓN ÉTICA DE LOS DATOS. Por qué importa y cómo hacer un uso justo de los datos en un mundo digital» del Banco Interamericano de Desarrollo

Conoce el cómic de esta publicación en: Miranda Ventura y el big data

Entradas más recientes

Pin It on Pinterest

Shares
Share This