"Un asistente personal como Siri en realidad no entiende nada"

La inteligencia artificial, área de la informática que emula el comportamiento inteligente mediante métodos computacionales, es sin duda uno de esos ‘Inventos y avances científicos que están cambiando el mundo’, como se titula el ciclo de conferencias en el que participó hace unos días Ramón López de Mántaras. La comprensión profunda de la semántica del lenguaje es para él uno de los retos pendientes, al igual que dotar de sentido común a las máquinas.

Ramón López de Mántaras ofreció una conferencia sobre inteligencia artificial en Ibercaja Patio de la Infanta
Oliver Duch

  • Dirige el Instituto de Investigación en Inteligencia Artificial del CSIC.
  • Es uno de los pioneros de la inteligencia artificial (IA) en España.
  • Trabaja en aprendizaje automático para robots autónomos, IA colaborativa, simulación de sociedades, ayuda a la resolución de conflictos mediante mediación automatizada, diseño de sistemas de IA para redes sociales basados en valores, aplicaciones a la logística y la planificación en tiempo real,  aplicación a la rehabilitación de habilidades motoras y de lenguaje en pacientes con deterioro cognitivo o pacientes que han sufrido accidentes cerebro-vasculares...
Teléfono inteligente, coche inteligente... ¿Utilizamos este término con demasiada alegría?

A veces sí. No tanto en el caso de los coches inteligentes ya que los coches autónomos llevarán incorporada mucha inteligencia artificial (IA). Actualmente algunos fabricantes de ‘smart phones’ ya incorporan el reconocimiento de la cara de su usuario para permitir el acceso. Para dispositivos como los electrodomésticos se usa el término ‘inteligente’ de forma menos adecuada, aunque en un futuro la conjunción de las comunicaciones 5G, el internet de las cosas y la IA añadirán más funcionalidades ‘inteligentes’ en muchos dispositivos.

¿Qué es realmente la inteligencia artificial?

Área de la informática que estudia el comportamiento inteligente emulándolo mediante métodos computacionales.

Seguro que en nuestra vida hay ya inteligencia artificial que apenas percibimos.

Cuando usamos asistentes personales como Siri, por ejemplo, o cuando navegamos por internet, cuando compramos a través de Amazon, cuando estamos jugando con un juego de ordenador o al ajedrez contra un programa... También hay IA en sistemas que usan otros, pero para tomar decisiones que nos afectan, como cuando pedimos un préstamo a un banco. Se usa la inteligencia artificial para detectar usos fraudulentos de tarjetas de crédito. También algunos médicos pueden usar sistemas de inteligencia artificial de ayuda al diagnóstico.

¿Y dónde la veremos en un futuro próximo?

Prácticamente estará en todas partes, desde las fábricas (con robots cada vez más sofisticados y autónomos) hasta nuestras casas con los futuros robots autónomos (ya muchos tenemos robots aspiradores, pero en un futuro más lejano habrá robots mucho más versátiles capaces de hacer varias tareas domésticas), pasando por hospitales (robots asistentes del personal médico) y ocio (planificadores de viajes personalizados, recomendación de música, películas, etc.).

Incorporada a la toma de decisiones, da vértigo pensar en una autonomía tal que escape de todo control. ¿Es sensato plantear sistemas completamente autónomos?

No, no lo es. Excepto quizá en algunos casos muy concretos como por ejemplo los coches autónomos donde, gracias a la autonomía, seguramente se reducirán drásticamente los accidentes de tráfico. Pero, en general, dotar de autonomía absoluta a las máquinas no es buena idea. Hay casos clarísimos, como por ejemplo las armas autónomas o los ‘bots’ que operan en bolsa tomando decisiones de compra y venta de acciones a gran velocidad, provocando comportamientos caóticos (y si no los provocan, los amplifican) de las bolsas.

Si en el futuro las máquinas hacen las cosas por nosotros: desde conducir a traducir, ¿perderemos libertad?, ¿nos volveremos dependientes?

No debería ser necesariamente así. En mi opinión las máquinas, por muy sofisticadas que sean, deberían ser en general herramientas de ayuda y no de sustitución. En realidad potencialmente podrían darnos precisamente más libertad y mejorar nuestra capacidad de tomar decisiones. El binomio persona-máquina es mucho mejor que cualquiera de los dos por separado, eso ya lo hemos visto por ejemplo en medicina, donde el diagnóstico llevado a cabo trabajando en equipo el médico y el sistema de inteligencia artificial disminuye significativamente los diagnósticos erróneos.

¿Las máquinas aprenden?

Aprenden de forma muy distinta a como aprendemos nosotros. De hecho no aprenden realmente ya que no aprenden incrementalmente. El ejemplo más claro lo tenemos en lo que se conoce como el problema del olvido catastrófico. Significa que por ejemplo si entrenamos a un sistema de IA para que reconozca caras en imágenes, aunque llegue a aprender a realizar este reconocimiento de forma impecable, si a continuación enseñamos a este mismo sistema para que juegue al ajedrez, aprenderá a jugar muy bien pero, automáticamente, será incapaz de volver a reconocer caras. Es decir, que cuando aprenden a llevar a cabo una tarea nueva, se olvidan completamente de cómo llevar a cabo la tarea que anteriormente había aprendido.

¿Podrá una máquina aprender a tener sentido común?

Nadie lo sabe. La adquisición de conocimientos de sentido común es probablemente el reto más importante y difícil de la IA.

¿Y creatividad? ¿Hay máquinas artistas?

Hay máquinas que han demostrado algún grado de creatividad, por ejemplo componiendo música excelente e incluso pintando cuadros estéticamente interesantes, ya que en IA sabemos diseñar software capaz de combinar de forma novedosa elementos existentes (notas, acordes, elementos rítmicos, etc. en música o colores, formas, etc en el caso de la pintura) pero para alcanzar elevados grados de creatividad no es suficiente tener la capacidad de combinar lo existente sino que es necesario ampliar el espacio de reglas de combinación y para ello a menudo hace falta cambiar o romper dichas reglas, es lo que hicieron genios como Schoenberg con la música atonal o John Coltrane y Miles Davis con el jazz, o Dalí y Picasso con la pintura y muchos otros genios creadores. Este nivel de creatividad no está al alcance de las máquinas y dudo que lo esté ni a medio ni quizá a largo plazo.

¿Qué habilidades o talentos humanos son inaccesibles para una máquina?

Romper reglas y, en general, todo aquello que requiere tener experiencias vitales, haber amado, haber sufrido, sufrir desengaños, tener alegrías… es decir, todo aquello que nos hace ser y sentir humanos.

¿De su laboratorio han salido varios robots? ¿Se les coge cariño?

Yo no diría tanto, en cualquier caso, no más ‘cariño’ que el que puedas tener por tu ordenador, tu móvil o tu coche. Un ejemplo interesante son unos robots en forma de perro (los llamados Aibo de la empresa Sony), que programamos para que fueran capaces de jugar a fútbol de forma colaborativa. No eran jugadores individuales, sino que se pasaban el balón si veían a un compañero de equipo desmarcado.

Cuanto más humano parece un robot, más nos inquieta, ¿qué ocurre?

Es el fenómeno conocido como ‘Uncanny Valley’ (valle inquietante). Si se parece bastante a nosotros pero todavía vemos claramente que no es algo humano, entonces nos inquieta. Si se parece poco, no nos inquieta y, obviamente, si es completamente indistinguible de un humano tampoco.

¿Qué asignaturas pendientes tiene la interacción humano-máquina?

La comunicación en lenguaje natural pero con comprensión profunda de la semántica del lenguaje y no lo que tenemos ahora, con sistemas como Siri que en realidad no entienden nada y a menudo, sin que lo sepamos, quien responde en realidad es una persona, y también la comunicación gestual.

<div class="tit_blue">"Que la inteligencia artificial supere a la humana no es la amenaza"</div>El recientemente desaparecido Stephen Hawking percibía la inteligencia artificial como una amenaza. Para López de Mántaras, "con todo mi respeto y admiración hacia Hawking, creo que no conocía la realidad del estado del arte de la IA y, obviamente, no estaba en ‘la cocina’ de la inteligencia artificial y, por consiguiente, su visión acerca del futuro de la IA no es válida". "No es que no sea una amenaza, lo es, pero no en el sentido que le daba Hawking, que creía que era una amenaza porque llegaría a superar a la inteligencia humana (lo que algunos llaman la ‘singularidad’) y a controlar el mundo como lo que vemos en las pelis de ciencia ficción. Es una amenaza por motivos mucho más reales: amenaza a la privacidad, amenaza a amplificar el problema del desempleo y la amenaza resultante de dotar de autonomía absoluta a las máquinas que actualmente ya está aquí como vemos con el ‘high frequency trading’ (negociación de alta frecuencia en los circuitos financieros) y en las potenciales armas autónomas". En este último aspecto, transmite su preocupación por que "la principal universidad de Corea del Sur (Kaist: Korean Advanced Institute for Science and Technology) haya fundado un centro de investigación sobre IA y Armas (de hecho, para despistar, lo llaman Research Center for the Convergence of National Defense and Artificial Intelligence) en colaboración con la empresa armamentística Coreana Hanwah. Esta empresa tiene muy mala reputación, ya que fabrica bombas de racimo y está en la lista negra de empresas no éticas del Norway’s Future Fund. A nivel internacional ya hay una respuesta por parte de la comunidad de investigadores en IA. Se está redactando una carta abierta de protesta, de la que yo soy firmante, dirigida al presidente de Kaist en la que decimos que estamos dispuestos a boicotear a Kaist (por ejemplo no la visitaremos, no aceptaremos visitantes de Kaist en nuestros centros y no colaboraremos con investigadores suyos en proyectos de investigación)".

Etiquetas