Revista Economía Hispano-Alemana 03-2020

66 economía HISPANO - ALEMANA Nº 3/2020 El progreso en el desarrollo de nuevas tecnologías nunca había avanzado tan rápido como en los últimos decenios. Algunos pueden pensar que con las nuevas tecnologías se solucionan muchos de los problemas que acucian a la humanidad. Y, aunque pueda ser cierto que los avances tecnológicos sirven para encontrar soluciones a problemas existentes, también lo es que plantean otros nuevos. Por eso, cuánto más progreso tecnológico, más necesidad hay de reflexionar sobre las implicaciones éticas y sociales de ese progreso. La Inteligencia Artificial abre la puerta a grandes oportunidades en muchos ámbitos de la vida humana: salud y bienestar, educación, movilidad, consumo eficiente de los recursos naturales, etc. Pero también plantea grandes incógnitas que hasta el momento eran solo elucubraciones teóricas, y que ahora se plantean como una posibilidad real: ¿pueden las máquinas llegar a ser autosuficientes?, ¿qué pasa si cometen errores?, ¿quién se hace responsable?, ¿pueden volverse malas?, ¿pueden tomar decisiones contra los seres humanos?, ¿pueden volverse más listas que nosotros?, ¿qué estatus moral o legal les damos?, ¿tienen derechos?, ¿nos interesa que tengan autonomía para funcionar en un mundo imperfecto e impredecible como el nuestro? Como se ve, no se trata de preguntas técnicas, sino de preguntas éticas. La ética se pregunta por la bondad y por la rectitud de las acciones humanas. Sus reflexiones -en tanto que disciplina filosófica- se mueven en el plano del para qué, de las preguntas últimas sobre la realidad y el sentido de la vida. El conocimiento técnico, en cambio, se mueve en el plano del cómo hacer las cosas. Son dos mundos que están en planos distintos, y que se complementan: los “para qué” de la ética se hacen realidad a través de los “cómo” de la técnica; y los “cómo” de la técnica encuentran su sentido según “para qué” se utilicen. Las técnicas nos dicen cuando algo es posible; la ética nos dice si eso que es técnicamente posible es éticamente aceptable. No todo lo que es técnicamente posible es éticamente aceptable, y la respuesta a esta disyuntiva no le corresponde darla a la técnica, sino a la ética. Para responder a los interrogantes que se abren con el desarrollo de la IA, la ética nos propone tres puntos de referencia. Primero, nos podemos preguntar por qué cosas buenas, qué bienes, qué valores están en juego. Segundo nos podemos preguntar por qué normas o principios de conducta se pueden establecer para proteger esos bienes. Por último, nos podemos preguntar por qué rasgos del carácter es necesario desarrollar en las personas para que sepan aplicar estos principios de la forma más conveniente en cada caso concreto. Respecto a los bienes que están en juego, podemos pensar en los derechos humanos y libertades fundamentales que hay que proteger. Estos serían algunos de ellos: el respeto a la dignidad humana; la libertad individual y los derechos ciudadanos frente a un excesivo control o manipulación; el respeto al estado de derecho, frente a tentaciones autoritarias; la igualdad y la no discriminación; la solidaridad y una especial atención a los grupos más vulnerables. Para proteger estos bienes es necesario pensar en unos principios de conducta, algunos de los cuales puede ser conveniente que se plasmen en alguna regulación o marco legal. En un documento de la Unión Europea sobre guías éticas para una IA confiable se mencionan cuatro principios: respeto a la autonomía humana, garantizando la subordinación de los sistemas de IA a la decisión de los seres humanos; la prevención de daños; la equidad en el desarrollo, uso y regulación de los sistemas de IA; y la explicabilidad de los sistemas, de modo que sean comprensibles y auditables. A partir de estos principios se podrá asegurar el desarrollo de sistemas de IA robustos, seguros, equitativos y fiables. Por último, es necesario que los que estén implicados en el desarrollo y uso de los sistemas de IA, adquieran junto con los conocimientos técnicos necesarios, una serie de competencias éticas que les permita aplicar estos principios generales a las decisiones concretas que tengan que dilucidar. Por ejemplo, el sentido de responsabilidad para garantizar el correcto desarrollo y funcionamiento de los sistemas de IA de acuerdo con los mencionados principios; la precaución para actuar con cautela ante los riesgos plausibles que se puedan plantear; un sentido de justicia para solucionar los conflictos que necesariamente surgirán. Pensemos, por ejemplo, en el conflicto que genera la conveniencia de utilizar datos por razones de seguridad o de salud pública frente al derecho a la privacidad. Poniendo en juego todos estos elementos (bienes a proteger, normas para protegerlos, y competencias morales para gestionarlos) aseguraremos que la reflexión ética se incorpore a los avances de la IA, para que estos avances se orienten al bienestar de las personas y de las sociedades. Joan Fontrodona Profesor y director del Departamento de Ética Empresarial, Titular de la Cátedra CaixaBank de RSC, IESE Business School INTELIGENCIA ARTIFICIAL SOCIEDAD Y EMPRESA NUEVOS MODELOS DE NEGOCIO ESTRATEGIAS E IMPLEMENTACIÓN IMPLICACIONES ÉTICAS IV ENCUENTRO EMPRESARIAL HISPANO-ALEMÁN 12 NOV 2020 ENCEMP 2020 M A D R I D PREVIO ENCEMP 2020 Ética e IA: dos mundos que se encuentran

RkJQdWJsaXNoZXIy NjIyODI=