Compartir

“El potencial de la inteligencia artificial es enorme. Nuestro deber es reducir al máximo sus aspectos negativos”
El CSIC reunió a seis expertos en inteligencia artificial para abordar los retos que plantea su desarrollo y aplicación.

“El potencial y los aspectos positivos de la inteligencia artificial son enormes, pero debemos reducir al máximo sus aspectos negativos”, aseguraba ayer, jueves, 5 de junio, el investigador del CSIC Ramón López de Mántaras al cierre de su primera intervención en un debate celebrado en la sede central del Consejo Superior de Investigaciones Científicas (CSIC). Este investigador y otros cinco ponentes debatieron durante unas dos horas sobre algunos de los mayores desafíos que plantea este campo.

En el debate, titulado “El impacto de la Inteligencia Artificial en nuestra sociedad. Retos y oportunidades”, participaron, además de Ramón López de Mántaras, profesor de investigación del Instituto de Investigación en Inteligencia Artificial, Óscar Cordón, investigador de la Universidad de Granada; Asunción Gómez, investigadora de la Universidad Politécnica de Madrid; Ángela Ribeiro, investigadora del Centro de Automática y Robótica; Amparo Alonso-Betanzos, investigadora de la Universidad de La Coruña; y Daniel Villatoro, directivo de datos de Openbank. Moderó la discusión Carles Sierra, director del Instituto de Investigación en Inteligencia Artificial del CSIC.

Uno de los mayores retos científicos

La inteligencia artificial es uno de los mayores retos de la ciencia: lograr que una máquina tenga una inteligencia de tipo general similar a la humana. El desafío es tan ambicioso como explicar el origen de la vida, el origen del universo o conocer la estructura de la materia. Un objetivo más asequible es la inteligencia artificial específica, centrada en tareas concretas, que está impulsando una revolución tecnológica que abarca desde sistemas de aprendizaje hasta nuevos modos de producción que impactarán en el mercado de trabajo y en el modelo económico.

Algunos de los desafíos que plantea este campo son: su impacto el mercado de trabajo, lograr que las máquinas aprendan a partir de pocos ejemplos (small data), en contraste con el aprendizaje por acumulación de grandes cantidades de datos (big data), y que incorporen valores humanos en sus decisiones.

Sierra arrancó el debate haciendo un repaso histórico a las distintas etapas de la inteligencia artificial, desde las primeras teorías del matemático Alan Turing hasta la aparición de internet. “La inteligencia artificial está actualmente en efervescencia y la percepción pública de esta tecnología es enorme”, destacó el director del Instituto de Investigación en Inteligencia Artificial (CSIC) antes de dar paso a un vídeo elaborado por la empresa estadounidense de robótica Boston Dynamics. En él es posible ver uno de sus robots bípedos humanoides, Atlas, andando por diferentes terrenos, levantando cajas o incorporándose tras haber sido tirado al suelo por un hombre.

La investigadora Ángela Ribeiro, del Centro de Automática y Robótica y vicepresidenta adjunta de Transferencia del Conocimiento del CSIC, habló del concepto de autonomía y destacó que el proyecto Atlas evoluciona “a una velocidad que es casi exponencial”. “La autonomía energética determina por ahora el trabajo de los robots. Esta depende de la tarea a realizar. A mayor complejidad, más cantidad de energía necesita. A mayor adaptabilidad, también mayor consumo de energía. Esto hace que sea especialmente complejo llegar a la completa autonomía”, subrayó Ribeiro.

Para Amparo Alonso-Betanzos, investigadora en inteligencia artificial experta en big data de la Universidad de La Coruña y presidenta de la Asociación Española de Inteligencia Artificial, la verdadera revolución de los robots como Atlas vendrá cuando sean capaces de aprender con pocos datos, tal y como hacemos los humanos. “Las denominadas redes profundas de aprendizaje son modelos exactos, pero poco transparentes. El verdadero reto científico es crear sistemas y modelos cada vez más seguros”, destacó esta investigadora.

Según el investigador Óscar Cordón, catedrático de la Universidad de Granada, el origen y objetivo de la inteligencia artificial era crear sistemas y máquinas que pudieran desarrollar tareas con un comportamiento inteligente. “Atlas está programado para tareas específicas dirigidas por humanos, pero no tiene capacidad para crear, no tiene creatividad computacional. Este robot sí parece tener inteligencia artificial simbólica clásica, ya que imita el funcionamiento lógico del ser humano, pero hay partes planificadas”, indicó este investigador.

Para Asunción Gómez, vicerrectora de Investigación, Innovación y Doctorado de la Universidad Politécnica de Madrid y experta en ingeniería ontológica y web semántica, hay que preguntarse por la capacidad de análisis semántico de Atlas. “Si el robot hubiera tenido algo de inteligencia, hubiera cambiado su conducta al darse cuenta de que el humano le estaba perjudicando”, afirmó esta experta antes de resaltar “la importancia de que todos los actores hablen el mismo idioma computacional”. Y añadió: “El proceso que se sigue para crear esa inteligencia general que permite distinguir peras de manzanas requiere su tiempo”.

Implicaciones éticas

Las posibles aplicaciones militares de la inteligencia artificial también fueron muy debatidas en el evento. ¿Cómo es la relación de la inteligencia artificial con la ética? Según López de Mántaras, Premio Nacional de Investigación 2018, las aplicaciones que se desarrollen deben ser evaluadas y certificadas. “Actualmente existe una confusión sobre la inteligencia artificial. Por poner un ejemplo, los actuales sistemas de reconocimiento facial no funcionan, ya que tienen un 90% de falsos positivos, algo preocupante porque existen ciertos sectores que sí defienden su uso”, enfatizó el investigador del CSIC.

“Lo que más me preocupa es la inteligencia artificial en manos de la estupidez humana. En concreto, en el caso de las armas autónomas, hay que tener en cuenta que el principio de proporcionalidad en el uso de la fuerza es imposible de discernir por parte de un sistema autónomo”, aseguró López de Mántaras, que abogó por instar a los diseñadores y usuarios a “tener valores y certificar los algoritmos para que no estén sesgados”.

Sobre los aspectos éticos de la inteligencia artificial enfocados a la empresa habló Daniel Villatoro, jefe científico de datos de OpenBank y experto en Inteligencia Artificial distribuida. Las técnicas de aprendizaje computacional, o machine learning, aplicadas al sector financiero y empresarial están a la orden del día y actualmente se están creando nuevos perfiles profesionales. “La automatización de tareas es posible, pero es cierto que cada vez son más valorados los profesionales que saben, por ejemplo, de big data porque hay muchas empresas que están apostando por la inteligencia artificial”, recalcó Villatoro.

“Si hay un denominador común en inteligencia artificial es que debe ser una ayuda para que los humanos tomemos decisiones. Su futuro, además, pasará por que sea cada vez más interdisciplinar”, recalcó López de Mántaras al finalizar el debate.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.