martes, 5 de febrero de 2019

Ética e inteligencia artificial


Francesca Rossi 

Francesca Rossi

Directora de Ética e Inteligencia Artificial en IBM
La ética está considerada como la rama de la filosofía que reflexiona acerca de los comportamientos humanos (sus causas, sus aciertos o errores) desde un punto de vista moral, es decir, desde la bondad o maldad de las conductas. Esta valoración, que supone además la libertad de las personas para elegir sus actos, convierte la ética en una cualidad exclusivamente humana, por lo que resulta paradójico hablar de una ética de las máquinas. Y, sin embargo, se trata de una disciplina necesaria a medida que ponemos cada vez más decisiones en sus manos. En un artículo sobre el tema de Núria Bigas Fortmagé publicado por la Universidad Oberta de Catalunya, el profesor de Filosofía del Derecho de la UOC David Martínez señalaba que “no solo es aconsejable, sino también indispensable, que los algoritmos incluyan parámetros éticos”. Uno de los ejemplos clásicos que se utilizan para argumentar la necesidad de que las futuras inteligencias artificiales tengan una base moral es el de los coches autónomos. Porque aunque existen informes que aseguran que los vehículos sin conductor terminarán por resultar más seguros que los actuales, no es menos cierto que se verán obligados a tomar decisiones en las que habrá en juego vidas humanas. Y, puesto que la ética es una característica de nuestra especie, solo nosotros podemos tratar de enseñársela a las máquinas. De ahí surgen ideas como el proyecto Máquina de la Moral puesto en marcha por el MIT, en el que a través de un juego web se están recogiendo datos para ver cómo reaccionamos ante distintos escenarios con posibles víctimas en un accidente automovilístico.
Francesca Rossi, directora de Ética en Inteligencia Artificial de IBM, cree que, aunque se han hecho muchos avances, todavía tenemos que ser pacientes: “la gente debe entender que la IA es una disciplina que existe desde hace 70 años, pero que todavía se está desarrollando. Tenemos muchos desafíos por delante y muchas cosas que no sabemos hacer”. La mayor capacidad para procesar información de las máquinas, junto con la abrumadora cantidad de datos que generamos en nuestra actividad diaria, hace que los algoritmos sean cada vez más precisos. Pero eso no quiere decir que sean también más éticos, puesto que aprenden de lo que reciben. Hace un par de años, una inteligencia artificial programada por Microsoft, comenzó a mostrar comportamientos racistas, homófobos y antisemitas después de pasar tan solo un día en Twitter. Y un estudio publicado en 2017 en la revista Science aseguraba que muchas inteligencias artificiales se volvían machistas cuando aprendían a comunicarse por palabras, puesto que ese sesgo está implícito en muchos idiomas.
Enfrentar el peligro de que los modelos de aprendizaje basados en comportamientos humanos a gran escala reproduzcan estereotipos y prejuicios existentes en la población, es una de las tareas de Francesca Rossi. “Entender estos temas y tratar de resolverlos sólo puede hacerse de forma multidisciplinar y con una aproximación en la que se tengan en cuenta varios escenarios” asegura Rossi. Una labor en la que deben implicarse en conjunto compañías tecnológicas, gobiernos e instituciones como Naciones Unidas, puesto que nos dirigimos hacia un futuro en el que las máquinas tendrán cada vez mayor importancia en sus relaciones con los humanos.

¿Por qué puede ser necesaria la ética en 4º ESO?