Ciencia y Tecnología
«El problema de la Inteligencia Artificial es el sentido común»
El director del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramón López Mantaras, pide reflexionar sobre las limitaciones éticas en este campo.
El director del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramón López Mantaras, pide reflexionar sobre las limitaciones éticas en este campo.
–¿Qué es la Inteligencia Artificial? ¿Cualquier robot puede ser considerado como tal, por ejemplo?
–La Inteligencia Artificial (IA) es una colección de componentes computacionales para construir sistemas que emulan las funciones cognitivas llevadas a cabo por el cerebro humano. Es decir que cuando, mediante un programa informático conseguimos que un ordenador, o un robot, realice tareas que requieren inteligencia para ser llevadas a cabo decimos que tenemos un sistema de IA.
-¿La Inteligencia Artificial ha de imitar por definición al ser humano?
-No es estrictamente necesario, y de hecho la gran mayoría de realizaciones de la IA son programas que implementan actividades de tipo cognitivo -como por ejemplo razonar deductivamente, aprender mediante ejemplos, planificar, procesar lenguaje, etcétera- de forma muy distinta a como esto se lleva a cabo en el cerebro humano. De la misma forma que un avión no se propulsa moviendo las alas como los pájaros y sin embargo vuela. La naturaleza ha encontrado soluciones que no tienen porque ser necesariamente únicas. Si bien es cierto que, visto desde un nivel macroscópico, sí que la inteligencia humana es el referente más importante y por lo tanto es el referente a imitar, sobre todo a nivel funcional.
– ¿Cómo ha evolucionado?
– A finales de los años 50 y hasta finales de los 70, los primeros programas de IA intentaron emular la inteligencia humana mediante métodos generales de resolución de problemas pero fracasaron debido a que solamente funcionaban bien para problemas «juguete», es decir bastante sencillos, pero no podían ampliarse a problemas complejos del mundo real que requerían un enorme cantidad de conocimientos. Ello dio lugar a lo que se conoce como «el invierno de lA», es decir un periodo de unos 10 años durante los cuales era difícil conseguir financiación para llevar a cabo proyectos de investigación en IA. A principios de los 80 se cambió el enfoque de la IA hacia lo que se llamaron Sistemas Expertos lo cual implicaba dejar de intentar encontrar métodos generales de resolución de problemas para pasar a desarrollar sistemas muy especializados o específicos que eran, y son, muy buenos llevando a cabo tareas muy bien acotadas y definidas como por ejemplo jugar al ajedrez, diagnosticar tipos muy concretos de enfermedades, etc. Actualmente las últimas tendencias en IA consisten en desarrollar sistemas capaces de aprender a encontrar soluciones a problemas no resueltos, pero también muy especializados, en base a entrenarlos con una enorme cantidad de ejemplos de soluciones ya conocidas de otros problemas similares. Posiblemente la lección más importante que hemos aprendido a lo largo de los 60 años de existencia de la Inteligencia Artificial es que lo que parecía más difícil -diagnosticar enfermedades, jugar al ajedrez, etcétera- ha resultado ser relativamente fácil y lo que parecía más fácil ha resultado ser tan difícil que todavía no lo hemos conseguido. Las capacidades más complicadas de alcanzar son aquellas que requieren interaccionar con entornos no restringidos: percepción visual, comprensión del lenguaje, razonar con sentido común y tomar decisiones con información incompleta. Diseñar sistemas que tengan estas capacidades requiere progresos en muchas áreas de la IA.
–¿Llegará a igualar o superar en inteligencia a los humanos?
– A pesar de los impresionantes éxitos recientes de la Inteligencia Artificial, actualmente todavía nos encontramos con importantes dificultades para que una máquina comprenda realmente frases relativamente sencillas o sepa interpretar el significado de lo que ve. La comprensión profunda del lenguaje y de las escenas que observamos solamente es posible si, entre otras cosas, poseemos conocimientos de sentido común. La adquisición de conocimientos de sentido común es el principal problema al que se enfrenta la Inteligencia Artificial. Poseer sentido común es el requerimiento fundamental para que las máquinas actuales hagan el salto cualitativo de tener inteligencias artificiales especializadas y empiecen a tener inteligencia artificial de tipo general, similar a la inteligencia humana. En cualquier caso, por muy inteligentes que lleguen a ser las futuras inteligencias artificiales, de hecho siempre serán distintas a las inteligencias humanas ya que las inteligencias dependen de los cuerpos en los que están situadas. Esto es así debido a que el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno y estas interacciones dependen a su vez del cuerpo, en particular del sistema perceptivo y del sistema motor. Ello junto el hecho de que las máquinas muy probablemente seguirán procesos de socialización y culturización distintos a los nuestros incide todavía más en el hecho de que, por muy sofisticadas que lleguen a ser, serán inteligencias distintas a las nuestras. El hecho de ser inteligencias ajenas a la humana y por lo tanto ajenas a los valores y necesidades humanas nos debería hacer reflexionar sobre posibles limitaciones éticas al desarrollo de la IA.
– ¿Se está trabajando para que tengan sentido común?
–Sí, una aproximación a la adquisición de conocimiento de sentido común es la denominada «cognición situada». Es decir, situar a la máquina en entornos reales, como ocurre con los seres humanos, con el fin de que tengan «vivencias» y experiencias que les doten de sentido común mediante un mecanismo de aprendizaje basado en el desarrollo mental en el sentido de Piaget. Esta cognición situada requiere que la IA forme parte de un cuerpo con el que interactuar con el entorno. Esta aproximación se conoce como «Developmental Robotics» y estamos todavía en los inicios debido a su gran dificultad. Actualmente los robots basados en esta aproximación empiezan a aprender relaciones causa-efecto analizando las consecuencias que tienen algunas de sus acciones en su entorno, como por ejemplo llegar a aprender que para mover un objeto atado a una cuerda hay que tirar de dicha cuerda en lugar de empujarla. Está pues casi todo por hacer para resolver este problema del sentido común, tan crucial para conseguir IA de tipo general.
–¿Hacia dónde va la investigación?
– La investigación está muy enfocada, quizá demasiado, en el desarrollo de sistemas capaces de aprender en base a enormes cantidades de datos de actividad humana, que se procesan con algoritmos estadísticos de aprendizaje automático a fin de extraer patrones que se pueden emplear para hacer predicciones, completar datos o imitar el comportamiento basado en comportamiento humano en condiciones similares en el pasado. Posiblemente a corto plazo veremos que la investigación en IA se basará en sistemas que combinarán las técnicas de IA basada en el análisis de grandes cantidades de datos con técnicas de IA basada en el conocimiento y llegaremos a desarrollar sistemas de IA de tipo bastante general aunque serán inteligencias distintas a la humana.
✕
Accede a tu cuenta para comentar