Aunque la inteligencia artificial se empezó a desarrollar desde la segunda guerra mundial, solamente durante los años recientes, hemos tenido un auge en su uso cotidiano. Desde los asistentes virtuales en nuestros teléfonos inteligentes, hasta el apoyo en la detención temprana de enfermedades, pasando por infinidad de tareas que realizamos a diario en diferentes industrias. Todo esto se ha dado principalmente por el desarrollo en la capacidad de computo que tenemos hoy en día, ya que para la utilización de este tipo de tecnologías es necesario el uso de grandes volúmenes de datos.
De la mano con la inteligencia artificial aparece un reto muy importante para la humanidad. Bajo qué principios éticos vamos a programar nuestros algoritmos de IA cuando se enfrenten a dilemas complicados. Por ejemplo, si un carro autónomo se enfrenta a una situación en la cual una persona está cruzando la calle y las únicas opciones posibles son: atropellar al peatón causándole la muerte o desviar el carro y estrellarse contra una pared originando la muerte del pasajero, ¿Qué decisión debe tomar? ¿Qué pasa si el peatón está cruzando la calle y el semáforo está en rojo? ¿Qué pasa si quien viaja en el carro es una persona de edad avanzada y quien cruza la calle es joven? ¿Qué pasa si el que va en el carro tiene familia y quien está cruzando no? Estas, y muchas más preguntas deben ser resueltas con el fin de programar adecuadamente los algoritmos de IA que estamos construyendo para los carros autónomos; así como para infinidad de situaciones, que se pueden presentar cuando se va a hacer uso de la inteligencia artificial. ¿O acaso lo que debemos hacer es dejar que el algoritmo decida por si solo?
Principios éticos
Aparece entonces un campo de acción muy importante en los desarrollos actuales que se están haciendo frente a la inteligencia artificial: La ética en la creación de esta. Hace poco más de un año, la Unión Europea adoptó los 7 principios éticos que tienen como objetivo buscar beneficios para toda la sociedad, respetar la privacidad de los datos y protegernos frente a previsibles errores y ataques. Algunos de esos son:
1. Supervisión humana: los sistemas de inteligencia artificial deben permitir sociedades equitativas apoyando los derechos fundamentales de los humanos, y no disminuir, limitar o desviar la autonomía de estos.
2. Robustez y seguridad: la inteligencia artificial requiere que los algoritmos sean lo suficientemente seguros, confiables y sólidos como para enfrentar errores o inconsistencias durante todas las fases del ciclo de vida de sus sistemas.
3. Bienestar social y ambiental: los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo, la sostenibilidad y la responsabilidad ecológica.
Bajo este análisis, la ética toma una nueva dimensión e importancia en el mundo actual. No solamente necesitamos más científicos de datos sino personas formadas en ética para que hagan buen uso de la tecnología, pensando en el bien de la sociedad. Recuerdo en mis años de Universidad en la facultad de ingeniería cuando tuve que tomar una clase de ética. No entendía en ese momento porque esa debía ser una materia en el pensum de mi carrera. Rápidamente entendí la importancia de esta en la carrera, en los negocios y en la vida en general. Hoy más que nunca debemos formar a nuestros ingenieros en estos temas y reforzar nuestros valores para que los desarrollos que estamos haciendo en la actualidad, realmente beneficien a la humanidad y al medio ambiente. Recordemos que la ética es la que sostiene las organizaciones.