Definiendo una inteligencia artificial más ética
El desarrollo acelerado de nuevas tecnologías digitales plantea dudas éticas en torno a su implementación: la privacidad, la formación de la propia identidad, la atribución de responsabilidad o los sesgos en el procesamiento de datos
El desarrollo acelerado de nuevas tecnologías digitales plantea dudas éticas en torno a su implementación: la privacidad, la formación de la propia identidad, la atribución de responsabilidad o los sesgos en el procesamiento de datos
“Alexa, pasa la aspiradora”. Y la asistente artificial ordenará al robot aspiradora que limpie el suelo de nuestra casa. Un gesto tan cotidiano era impensable hace apenas una década, tan inimaginable como lo fue en su momento la irrupción de las redes sociales.
“Las tecnologías digitales están en nuestras vidas más tiempo del que pensamos”, indica Carme Torras, investigadora del CSIC experta en inteligencia artificial (IA), “se han estado usando para mecanizar trabajos pesados y repetitivos o para liberar a las personas de ciertas tareas domésticas, pero la revolución que estamos viviendo de las tecnologías digitales en general y de la inteligencia artificial en particular supone que estas nuevas tecnologías se introduzcan en nuestro círculo social, en nuestras relaciones; que entren, al fin y al cabo, en la esfera humana, en las emociones y en los sentimientos, esto hace necesario la introducción de una perspectiva ética en múltiples fases del desarrollo tecnológico”.
La inteligencia artificial está compuesta de una gran variedad de artefactos e instrumentos interconectados que recogen cantidades enormes de información; procesa, cruza y reutiliza este gran número de datos mediante algoritmos, unas listas de instrucciones de tamaño variable que pueden emplearse para resolver problemas, buscar conexiones y alcanzar decisiones. Así, un tratamiento correcto y respetuoso de los datos que maneja la IA ofrece oportunidades para la investigación biomédica, la salud pública, la gestión administrativa, los servicios sociales, la atención a colectivos desfavorecidos, el desarrollo económico, la innovación social, el tratamiento de residuos, la contaminación ambiental, la educación, el transporte o la agricultura y la industria.
El internet de las cosas conecta dispositivos y aplicaciones cotidianas que suministran grandes cantidades de datos. / ISTOCK
“Sin embargo, es necesario recordar que la tecnología no es neutra, sino que juega un papel constitutivo en nuestra vida diaria. Las tecnologías constituyen formas de vida y reconfiguran, reestructuran y modulan las actividades humanas, ofrecen posibilidades, pero también amenazas”, plantea Txetxu Ausín, filósofo del CSIC. Algunas cuestiones éticas son compartidas con otras tecnologías, como la seguridad y la protección, promover la inclusión y la justicia, maximizar los beneficios de un modo sostenible (la IA consume grandes cantidades de energía y de minerales para su desarrollo y mantenimiento). No obstante, la privacidad y la identidad, la llamada dictadura de los datos, que genera sesgos y prejuicios, o la cuestión de la atribución de responsabilidades son retos específicos para la ética aplicada a la inteligencia artificial.
“Urge pensar éticamente nuestra convivencia con la IA. La práctica del uso de una tecnología está estrechamente relacionada con los principios éticos que incorpora y es la condición básica para su apropiación y aceptación por parte de la comunidad, lo que contribuirá al empoderamiento tecnológico de la ciudadanía”, expresa Ausín.
Privacidad al descubierto
La IA permite encontrar patrones estadísticos recurrentes que pueden ser usados para predecir y entender el comportamiento de las personas y modificar adaptativamente el cerebro, lo que puede transformar la experiencia subjetiva del usuario y su forma de entender y percibir la realidad. De esta forma, un mal uso de la IA afecta al propio sentido de autonomía e identidad y, en última instancia, a la forma en que nos entendemos a nosotros mismos y a nuestras relaciones con los demás. “Resulta crucial, por un lado, proteger los datos de carácter personal, la fuga de datos y la falta de transparencia en la recogida de los mismos, así como salvaguardar a los individuos contra el uso coercitivo de la IA, que puedan afectar a la identidad, a la libertad cognitiva y a la continuidad del comportamiento personal”, expone Ausín.
Estas cuestiones son a las que los filósofos denominan neuroderechos humanos, y son una punta de lanza en la colaboración entre equipos técnicos y los departamentos de ética en el desarrollo de las nuevas tecnologías digitales. Y es que actualmente estar presente en redes sociales supone dejar constancia de nuestros pensamientos, estados de ánimo o comportamiento. Además, cada vez se implementan más gadgets conectados a internet que nos hacen la vida más sencilla, pero que también registran los datos de actos esenciales de la vida como el sueño, la actividad física, la presión sanguínea o la respiración. “Si no pensamos de manera ética el desarrollo de la IA y las tecnologías digitales corremos el riesgo de convertirnos en un yo cuantificado”, concluye el investigador.
La dictadura de los datos
Cuando los individuos se convierten en identidades cuantificadas, la sociedad corre el peligro de convertirse en una dictadura sujeta a los datos. “Las predicciones y decisiones de organismos, instituciones y empresas se basan cada vez más en los datos proporcionados por algoritmos, lo que significa que ya no somos juzgados en base a nuestras acciones reales sino sobre la base que IA indica que serán nuestras acciones probables. Esto puede afectar a la decisión de instituciones de conceder o no una ayuda social, de partir como supuesto sospechoso de actos de delincuencia o, en el caso de otros países, de denegar un seguro de salud por las posibles patologías futuras del paciente”, advierte Ausín.
Además, los datos que alimentan la IA pueden incorporar sesgos o prejuicios de modo que podrían reproducir o incluso empeorar errores y discriminaciones por razón de género, raza, estatus económico o condición social. Esto consolida estereotipos y refuerza la exclusión social. “Existen varios ejemplos que nos indican que el tratamiento de los datos no puede mirarse solo desde una perspectiva técnica. Pienso, por ejemplo, en el Departamento de Justicia de Estados Unidos que, para pronosticar la reincidencia de presos, etiqueta doblemente peor a los acusados afroamericanas que a los blancos”, explica el investigador.
Precisamente por el peligro de caer en discriminación al etiquetar y tratar los datos, cada vez se promueven más estudios y grupos de trabajo interdisciplinares que integren una visión humanística en el desarrollo de herramientas de IA. “El programador no tiene conocimientos de historia o filosofía, por lo que no puede interpretar los sesgos de los datos que introduce para dar instrucciones al algoritmo que está educando y entrenando”, explica Sara Degli-Esposti, filósofa en el Instituto de Filosofía del CSIC (IFS) y experta en ciberseguridad. “La automatización del aprendizaje siempre empieza por la formación del componente humano. Igual que un niño criado en un ambiente racista crecerá con un sesgo de discriminación racial, un algoritmo alimentado con datos sesgados sesgará la información que proporcione”, explica la investigadora, “la IA no es racista, racista han sido las sociedades a lo largo de la historia”.
Que los sesgos que manifiesta la IA tengan un componente humano abre el debate sobre la responsabilidad de las acciones de estas inteligencias artificiales. Esto ya no es solo una cuestión ética, sino política y jurídica. Txetxu Ausín plantea el caso de los coches autónomos. “Si hay un accidente con un vehículo monitorizado, ¿quién es el responsable: el programador, la empresa distribuidora, el encargado de mantenimiento o el conductor? Hay que pararse a pensar en estas cuestiones, tener unas bases éticas y jurídicas o nos encontraremos ante artefactos fuera de la ley y de las cuestiones morales que regulan la sociedad”, expone el investigador, “la interacción de los seres humanos con la IA está acelerando nuestra configuración y autocomprensión como entornos socio-técnicos, donde se difuminan las fronteras entre los sujetos humanos y la tecnología y donde las personas trabajamos con los artefactos en una suerte de simbiosis entre la inteligencia humana y la artificial; ya no podemos dejar la ética fuera del avance tecnológico”.
Nace AI Hub, la red del CSIC para investigar en inteligencia artificial
¿Cómo conseguir que en una vida mediada por la inteligencia artificial se mantengan los valores humanos? ¿Cómo desarrollar tecnologías inteligentes que respeten principios éticos? Este es el punto de partida de la mayoría de los proyectos de inteligencia artificial (IA) con un enfoque human-in-the-loop, una metodología que busca la interacción más efectiva y humana con la máquina, y que las necesidades de las personas influyan y optimicen el desarrollo de la IA.
Con esta perspectiva en mente nace la Conexión Aihub.csic, la primera red de colaboración científico-técnica que aglutina las actividades realizadas por los centros del CSIC en torno a la inteligencia artificial, una línea estratégica prioritaria para el organismo
“El objetivo del Aihub es consolidarse como una red de colaboración científica capaz de desarrollar una IA socialmente aceptable y con un fuerte componente humano. A través de la investigación, y las actividades de transferencia, formación y comunicación, buscamos abordar los retos de la inteligencia artificial hacia el 2030 y responder a las estrategias expuestas en el Libro Blanco de la IA, origen de esta Conexión”, explica Carles Sierra, investigador del CSIC en el Instituto de Investigación en Inteligencia Artificial (IIIA-CSIC) y coordinador de Aihub junto a Carme Torras, investigadora del CSIC en el Instituto de Robótica e Informática Industrial (IRI-CSIC-UPC).
Esther M. García Pastor / CSIC Comunicación
Noticias relacionadas
Un equipo de investigación del Instituto de Ciencias del Mar (…
Los arrozales, además de ser una fuente de alimento esencial y una…
Un grupo de investigación del Instituto de Biomedicina de Valencia (…