En sus trabajos de filosofía de la historia decía Kant que la invención del puñal precedió a la conciencia del imperativo categórico (“no matarás”), es decir, que los avances técnicos se anticiparon a las orientaciones morales sobre cómo hacer uso de ellos. Y sigue siendo cierto que el exponencial progreso de lo que hoy llamamos ya “tecnociencias” plantea una gran cantidad de preguntas éticas para las que es necesario ir encontrando respuestas. Precisamente porque lo moral no consiste en mapas de carreteras, ya cerrados, sino en una brújula que señala el norte, es posible y necesario encontrar mejores caminos ante los nuevos descubrimientos tecnocientíficos. De intentar encontrar orientaciones éticas acerca de cómo habérnoslas con la inteligencia artificial tratará esta intervención, que empezará con una anécdota para transitar después a la categoría o a las categorías.

     Sin duda este nuevo mundo plantea cuestiones éticas de gran calado, pero la primera de ellas, que será el punto de partida de la intervención, consistirá en poner sobre el tapete la diferencia abismal que existe entre hacer uso de sistemas inteligentes (sean máquinas, algoritmos, robots) a la hora de tomar decisiones  y delegar en esos sistemas inteligentes decisiones significativas para la vida de las personas y de la naturaleza.

     En cuanto a la inteligencia artificial, nace en 1955, en un congreso en Los Ángeles sobre máquinas que aprenden. John McCarthy introduce la expresión “inteligencia artificial” en 1956 y se refiere con ella a la creación de máquinas que pueden tenerse por inteligentes porque interactúan con los seres humanos hasta el punto de que una persona ya no sabe si está hablando con una máquina o con otra persona humana. Es lo que recibe el nombre de “test de Turing”.

     Sergún el texto del High-Level Expert Group on Artificial Intelligence, creado por la Comisión Europea, en sus Orientaciones Éticas para una IA confiable, publicadas en 2019, los sistemas de IA son sistemas de software (y posiblemente también de hardware), diseñados por humanos que, dada una meta compleja, actúan en la dimensión física o digital percibiendo su entorno mediante la adquisición de datos, interpretando los datos recogidos, estructurados o no estructurados, razonando sobre el conocimiento o procesando la información derivada de estos datos y decidiendo las mejores acciones que hay que realizar para alcanzar la meta. Los sistemas IA pueden utilizar reglas simbólicas o aprender un modelo numérico, y pueden también adaptar su conducta analizando cómo el entorno es afectado por las acciones previas.

     En este ámbito de la inteligencia artificial pueden distinguirse tres modalidades que plantean problemas éticos diferenciados: 1) La inteligencia superior o superinteligencia, que da lugar a las propuestas transhumanistas y posthumanistas con la idea de la “singularidad”. 2) La inteligencia general, aquella que puede resolver problemas generales y es la forma de inteligencia típicamente humana. 3) La inteligencia especial lleva a cabo trabajos específicos, es la propia de sistemas inteligentes capaces de realizar tareas concretas de forma muy superior a la inteligencia humana.

     Es en este tipo de IA en el que actualmente nos encontramos. No se trata, pues, por el momento de una ética de los sistemas inteligentes, sino de cómo orientar el uso humano de estos sistemas de forma ética.

A continuación la intervención ofrece algunas orientaciones éticas para el uso de sistemas inteligentes Un buen marco es el que ofrece el AI4People del Atomium European Institute, que cuenta con cuatro principios clásicos, aplicados a entornos digitales, a los que añadiría un quinto: la explicabilidad y la rendición de cuentas. Los principios clásicos serían el de beneficencia, que exigiría ahora poner los progresos al servicio de todos los seres humanos y la sostenibilidad del planeta; el de no-maleficencia, que ordenaría evitar los daños posibles, protegiendo a las personas en cuestiones de privacidad, mal uso de los datos, en la posible sumisión a decisiones tomadas por máquinas y no supervisadas por seres humanos; pero también el principio de autonomía de las personas, que puede fortalecerse con el uso de sistemas inteligentes, y en cuyas manos deben ponerse tanto el control como las decisiones significativas; y, por supuesto, el principio de justicia, que exige distribuir equitativamente los beneficios. A ellos se añadiría un principio de explicabilidad y accountability, porque los afectados por el mundo digital tienen que poder comprenderlo.

     Dada la centralidad de los principios de autonomía y explicabilidad en el diseño del marco, la intervención finaliza con una profundización en ellos.