La ética de la IA para escenarios reales deja la ciencia ficción para las películas

10 feb. 2021

“Nuestras democracias son vulnerables y están amenazadas; si queremos mantener y hacer realidad nuestros valores éticos y políticos, debemos analizar de cerca el papel político de las tecnologías digitales ahora, no en el futuroafirma el filósofo de la tecnología Mark Coeckelbergh .

Expertos STI

Coeckelbergh habló con STI sobre su reciente libro AI Ethics (MIT Press) y su nuevo trabajo sobre la filosofía política de la tecnología . 

STI: En su nuevo libro, AI Ethicsparece que rechaza los escenarios de ciencia ficción para pensar en Inteligencia Artificial. ¿Por qué?
MC: Creo que la ciencia ficción puede ser un gran punto de partida para que los filósofos reflexionen sobre la inteligencia artificial y el futuro de la humanidad, pero la discusión sobre los aspectos éticos de la IA suele estar dominada por escenarios de un futuro lejano que distraen la atención de los problemas éticos presentes y urgentes, tales como vigilancia, amenazas a la privacidad, problemas de responsabilidad y rendición de cuentas, y prejuicios. En el libro sostengo que deberíamos tomar distancia de las narrativas al estilo de Frankenstein o las fantasías transhumanistas sobre superinteligencias para abordar los problemas mediante la reflexión ética y marcos de políticas eficaces.

STI : Un tema que menciona en su libro es la responsabilidad, un tema recurrente en su trabajo. ¿Por qué es este un tema tan importante hoy en día?
MC: La IA es parte de una gama de tecnologías de automatización. Impulsadas por el aprendizaje automático, estas tecnologías se están desarrollando rápidamente. Piense en automóviles autónomos, programas que pueden escribir textos o crear videos falsos y tecnología militar autónoma como drones. Aparte de los muchos otros desafíos que plantean estas nuevas tecnologías, una cuestión es crucial: ¿quién es el responsable de lo que hacen estos agentes artificiales, dado que les delegamos estas tareas?

STI: ¿Y cuál es su respuesta?
MC: En mi opinión, que está en consonancia con muchas recomendaciones de los consejos consultivos nacionales, como el Grupo de expertos de alto nivel sobre IA de la Comisión Europea y el Consejo Austriaco de Robótica e Inteligencia Artificial del que soy miembro, la responsabilidad siempre debería estar en los humanos. Sin embargo, esa es la parte fácil de la respuesta. En mi libro también pregunto: ¿qué humanos? La acción tecnológica suele involucrar a muchas personas. Considere la creación de softwarepor ejemplo, que abarca un largo período de tiempo. La atribución y distribución de responsabilidades resultan difíciles.    

STI: En su artículo reciente sobre el tematambién habla de responsabilidad “relacional”. ¿Qué quiere decir? 
MC: Así esDebemos preguntarnos no solo quién es responsable, sino también: ante quién somos responsables. Defiendo una concepción relacional de responsabilidad, que afirma que lo que importa para la responsabilidad va más allá de la existencia de un agente que sabe lo que hace, para incluir lo que yo llamo “paciente de responsabilidad ”: las personas que son impactadas por nuestra acciones y a quién debemos una explicación de lo que hacemos. Ejercer esa responsabilidad es un problema cuando la decisión se delega en una máquina. ¿Cómo se le explica a alguien que está condenado a prisión o se le ha negado un préstamo? ¿Que la máquina lo decidió? Estos ejemplos no son ciencia ficción. Ya ocurren en los Estados Unidos, cuando se utiliza la inteligencia artificial para hacer recomendaciones sobre estas decisiones.   

STI : Otro tema sobre el que escribe es el cambio climático. ¿Qué tiene eso que ver con la IA?
MC: Para mí es importante que hablemos de problemas globales en lo que respecta a la IA y, preferiblemente, encontremos soluciones globales. Por ejemplo, en una opinión reciente, yo argumenté a favor de la gobernabilidad global con respecto a la crisis de la covid-19. Hay muy poca coordinación, incluso dentro de la Unión Europea, y creo firmemente que los problemas globales requieren soluciones globales. El cambio climático (a menudo la gente habla de una crisis climática o una emergencia climática) es por supuesto uno de los desafíos globales que enfrentamos. En el último capítulo del libro, critíco la locura espacial entre los multimillonarios de la tecnología, como los planes de Elon Musk para colonizar la tierra y otros planes similares que surgen directamente de un libro de juegos transhumanistaTambién sueño con ir al espacio. Sin embargo, creo que en este caso estamos hablando de grandes inversiones en tecnologías que hacen poco por resolver los problemas que tenemos en la tierra, problemas que también difieren para las personas acomodadas del Oeste/Norte y las del sur de Gl obal. Noté esto cuando me dirigí a una audiencia en la UNESCO hace unos años.  

STI: ¿Puede la IA ayudar a resolver esos problemas en la tierra?
MC: Claro, la IA puede ayudar. Por ejemplo, la inteligencia artificial y la ciencia de datos pueden ayudarnos a abordar el cambio climático. Por ejemplopuede ayudar a predecir los fenómenos meteorológicos y gestionar mejor el consumo de energía. Hay oportunidades. Sin embargo, en un artículo reciente también advierto que la IA crea nuevos problemas, incluidos algunos para el clima y el medio ambiente. Por ejemplo, algunos tipos de aprendizaje automático y centros de datos requieren mucha energía y, al igual que muchos riesgos y problemas, la vulnerabilidad al cambio climático no se distribuye por igual en todo el mundo. Por ejemplo, las personas que viven en áreas que tienen inundaciones regulares van a sufrir más de cambio climático que otras. Este es un problema de justicia. También debemos considerar cómo las tecnologías que pueden empujarnos hacia estilos de vida más ecológicos también podrían amenazar la autonomía humana: es posible influir en las personas de manera subconsciente, pero al hacerlo se las trata como cosas más que como seres humanos. Preferiría un mundo en el que podamos tener una discusión razonable sobre cómo queremos lidiar con ese futuro, en lugar de uno donde las personas sean tratadas como ratas de laboratorio. 

STI: ¿En qué está trabajando actualmente? ¿Cuáles son sus planes?
MC: Ahora estoy trabajando en lo que llamo una "filosofía política" de la tecnología, en particular para la inteligencia artificial y la robótica. Como expliqué el año pasado en otra entrevista con STI , me preocupa mucho que arrojemos algunos de nuestros valores políticos por la ventana para hacer frente a nuestras crisis actuales. Luego, me concentré en las restricciones de libertad debido a COVID-19, pero hay otros ejemplos. En Estados Unidos, las libertades también están restringidas en nombre de proteger la esfera pública de la desinformación y el discurso de odio. No digo que esto sea malo, en absoluto. está muy bien intencionado. Sin embargo, debemos reconocer que hay un valor político - la libertad - que se daña en el proceso. No soy un gran admirador de la censura, y en una democracia liberalnadie debería serlo. Desafortunadamentetodavía hay demasiados ejemplos de autoritarismo a nuestro alrededor.

STI : ¿Le interesan principalmente los problemas de libertad?
MC: No, mi próximo libro, que saldrá a finales de este año, se refiere a ese tema. Creo que el cambio climático y la IA realmente desafían la base de nuestros sistemas de valores políticos y, en el librotrato de desarrollar una concepción de la libertad que debería ayudar a que estén más aptos para la era digital y la era del cambio climático. Uno que no sea autoritario, por supuesto, pero tampoco libertario. Aquí están también otras cuestiones políticas en juego: la injusticia, las desigualdades, las diferencias de poder, y la erosión de la democracia. Esto se debe en parte al auge del populismo y la política extremistaPero las tecnologías digitales como la IA también intervienen en esto, a través de sus consecuencias no deseadas. Por ejemplo, pueden aumentar los prejuicios existentes en la sociedad y ayudar a difundir información errónea, contaminando así la esfera pública de una manera que dificulta tener un debate razonable e inclusivo. Nuestras democracias son vulnerables y están amenazadas; Si queremos mantener y hacer realidad nuestros valores éticos y políticos, debemos examinar de cerca el papel político de las tecnologías digitales, ahora, no en el futuro. 

STI: ¡Espero su próximo libro y gracias por su tiempo!
MC: ¡Fue un placer!