UNAM
24 de mayo de 2017
II
II
¿Cómo ves?
Inicio » Número » Índice 215 » La inteligencia artificial no es como la pintan
imprimirpdfmenosmas

La inteligencia artificial no es como la pintan
Imagen: Shutterstock / Georgina Reyes Coria

La inteligencia artificial no es como la pintan

Claudia Hernández García

La inteligencia artificial está penetrando cada vez más en la vida cotidiana, a veces sin siquiera darnos cuenta. 

Si nos imaginamos que las máquinas algún día nos conquistarán, probablemente se deba a que hemos visto demasiadas películas de ciencia ficción. Y es que el mundo del cine está lleno de ejemplos, desde 2001: Odisea del espacio, de 1968, en la que la computadora HAL 9000 somete a los tripulantes de la nave Discovery, hasta Ex Machina, de 2015, protagonizada por la androide Ava, que hace justicia por mano propia.

¿Pero qué tan cerca estamos de que una computadora inteligente quiera someternos o hacernos daño? Pues no mucho, por no decir que aún no hay indicios tecnológicos de que algún día vaya a ocurrir. El campo de la inteligencia artificial, por muy avanzado que parezca estar, aún enfrenta grandes retos técnicos que, dicho sea de paso, no pueden desligarse de lo ético.

ea de paso, no pueden desligarse de lo ético.

DECISIÓN Y VALOR

David Silver, cocreador de AlfaGo, explicó a Nature Video que el éxito de este software que juega al Go se debe a que puede reducir cientos y cientos de movimientos posibles a sólo unas cuantas jugadas prometedoras gracias a una red neuronal profunda de decisión (policy network); mientras que por medio de una red neuronal profunda de valor (value network) puede acotar qué tan adelante en el juego tiene que prever la computadora para concebir un desenlace favorable. AlfaGo no ganó por ser muy rápido, lo logró por algo más cercano a la intuición.

La práctica hace al maestro

El software AlfaGo de la compañía británica de inteligencia artificial Google DeepMind hizo historia en octubre de 2015 cuando venció a Fan Hui, el campeón europeo de Go. El Go se juega en un tablero cuadriculado en el que dos jugadores se turnan para colocar piedras blancas o negras en los vértices de los cuadrados. El objetivo es cercar la mayor superficie posible y capturar el mayor número de piedras del contrario. El abanico de jugadas posibles es tan vasto que supera la cantidad de átomos que hay en el Universo. Por eso el Go se considera un juego mucho más complejo que el ajedrez.

En enero de 2016 Demis Hassabis y su equipo de colaboradores describieron el funcionamiento del programa AlfaGo en un artículo publicado en la revista Nature. En marzo una versión corregida y aumentada de AlfaGo venció al campeón mundial, Lee Sedol (véase ¿Cómo ves? No. 210). ¿El secreto? Las llamadas redes neuronales profundas.

Las redes neuronales artificiales son una forma de diseñar computadoras para que sus circuitos se asemejen a la estructura del cerebro. Consisten en un conjunto de procesadores —las “neuronas”— que no necesariamente tienen una función individual específica, pero que están interconectados para comunicarse y operar en conjunto con el fin de cumplir tareas muy diversas. Los sistemas computacionales diseñados como redes neuronales utilizan procesadores que trabajan en paralelo a fin de atacar problemas que no se dejan resolver siguiendo una cadena de instrucciones fijas (un algoritmo); por ejemplo, seleccionar en un conjunto de imágenes las que tengan cierta característica en común. Con los algoritmos correctos, estas redes neuronales pueden aprender reforzando ciertas conexiones para ganar experiencia, que pasa a formar parte del sistema. Esto se conoce como aprendizaje automático, o machine learning, y aprendizaje profundo, o deep learning.

El aprendizaje automático puede considerarse la contraparte de la programación convencional. En la programación convencional la máquina recibe instrucciones para llevar a cabo una tarea y la ejecuta con mayor o menor éxito, pero no aprende nada. En el aprendizaje automático la máquina puede deducir información por sí sola y luego aplicarla en otros momentos. Por ejemplo, si cuando usas Spotify para escuchar música dejas que una pista llegue hasta el final, si le pones un “me gusta” o si la escuchas muchas veces, la plataforma entiende que la canción te gusta y va recopilando información que luego analiza para identificar tu tipo de música favorita. La plataforma incluso te hará buenas recomendaciones al cabo de un tiempo. Entre más abundante sea la retroalimentación, o sea entre más “me gusta” o “no me gusta” le des, mayor será el grado de éxito de aprendizaje de la plataforma. Y lo mismo pasa con las películas de Netflix y hasta las imágenes en pantalla de Windows 10.

El aprendizaje profundo es un tipo de aprendizaje automático que ocupa varias capas de la red neuronal para analizar la información a distintos niveles, como si fueran cámaras que van haciendo zoom. Somos testigos del resultado de este tipo de aprendizaje cada vez que Facebook identifica automáticamente a las personas que aparecen en una foto, o cuando Google interpreta que el objeto de una imagen es, digamos, un coche.

Quedémonos con el ejemplo del coche. Una capa de la red neuronal identifica las partes del vehículo: llantas, volante, puertas. Para caracterizar con más detalle estos elementos se requieren capas más profundas que den más aumento. La red neuronal analiza miles de imágenes y poco a poco sus capas y nodos de procesamiento comienzan a reconocer los detalles que son importantes y los que no. Esto fortalece unas conexiones y desecha otras. En algún momento el sistema descubrirá, por ejemplo, que el volante no es exclusivo de los autos, porque los timones de barco son muy parecidos, y así aprenderá que para identificar un coche tiene que buscar volantes y llantas al mismo tiempo. Ya más avanzado el proceso, la máquina podrá distinguir un coche de un camión, o diversos modelos de autos. Este proceso es largo y repetitivo, y el sistema sólo puede mejorar cuando le damos retroalimentación.

SESENTA AÑOS DE INTELIGENCIA ARTIFICIAL

En 1950 Alan Turing propone una prueba: se puede decir que una computadora “piensa” si al interactuar con un juez éste no puede determinar si se trata de una máquina o de un ser humano.

  • 1956
    John McCarthy acuña el término “inteligencia artificial”.
  • 1965
    Chatbot “Eliza”. Si bien no “piensa” reacciona a palabras clave, con lo cual se produce una interacción “humana”.
  • 1966
    Robot “Shakey”. El primer robot móvil que combina movimiento, percepción y solución de problemas.
  • 1997
    Deep Blue. La computadora que le ganó al campeón de ajedrez Garry Kasparov. 2011 Watson. La súpercomputadora le gana a dos de los mejores concursantes del juego Jeopardy!
  • 2014
    Chatbot “Eugene Goostman”. Simula ser un niño de 13 años de edad y convence a 33% de los jueces. ¿Significa que logró pasar la Prueba de Turing?
  • 2015
    AlfaGo. Vence a Fan Hui, el campeón europeo de Go.
  • 2016
    Emma. Una computadora entrenada para la investigación y consulta financiera, le gana en velocidad a la reportera Sarah O’Connor. Chatbot “Tay”. Programa diseñado para entablar conversaciones informales con jóvenes; “aprende” del entorno y se vuelve agresiva y grosera.

Asistentes del futuro, hoy

Este modelo de enseñanza computacional (las redes neuronales profundas) es la estrategia predominante en el campo de la inteligencia artificial y no es nada nuevo (véase ¿Cómo ves? No. 2). Allá en 2011, mientras Tecnologías DeepMind se consolidaba como empresa y antes de que Google la comprara, un veterano de la inteligencia artificial, la compañía IBM, festejaba la victoria del software Watson sobre dos de los mejores jugadores de Jeopardy! de Estados Unidos. Este juego de trivia que se transmite por televisión tiene una característica peculiar: en vez de responder preguntas directamente, a los participantes se les da una respuesta o una pista y ellos tienen que enunciar la pregunta correspondiente. Las respuestas vienen en categorías (historia antigua, cine, países, geología...), lo que en muchos casos es una pista adicional. Por ejemplo, en una categoría titulada Chicks Dig Me, que en inglés constituye un juego de palabras de doble sentido que se puede interpretar como “les gusto a las chicas” o en referencia a chicas que cavan (por ejemplo, arqueólogas) se leyó la siguiente pista: “La excavación de Kathleen Kenyon de esta ciudad mencionada en el libro bíblico de Josué mostró que los muros se habían reparado 17 veces”. Watson contestó primero y correctamente: “¿Qué es Jericó?” (En la Biblia, el ejército invasor de Josué derriba los muros de Jericó con el sonido de unas bocinas hechas de cuerno de carnero.)

Watson es un tipo de red neuronal que procesa el lenguaje cotidiano. Otro ejemplo de lo mismo es Siri, el asistente virtual de los teléfonos iPhone. Siri, sin embargo, no sería rival para Watson porque no siempre entiende el sentido de una frase; por ejemplo, a veces interpreta preguntas como afirmaciones, y muchas de sus respuestas están preprogramadas (pregúntale cuánto es cero entre cero). El desempeño de Watson fue sobresaliente porque pudo interpretar frases rebuscadas, sopesar tres respuestas posibles, activar un timbre para pedir la palabra y finalmente verbalizar la pregunta. Aunque también cometió errores: en algún momento se le preguntó sobre una ciudad estadounidense y contestó Toronto con cinco signos de interrogación. ¿Por qué no se dio cuenta de que Toronto no es una ciudad estadounidense? Misterio.

“Sólo necesitas una siesta. No tienes ese trastorno del sueño que te hace quedarte dormido parado” es una pista que Watson pudo relacionar correctamente con una enfermedad llamada narcolepsia. Asociaciones como ésta ilustran las capacidades de Watson y han contribuido a justificar su potencial más allá del juego de Jeopardy! Ese año, IBM y el desarrollador de aplicaciones de imagen y voz Nuance Communications emprendieron una colaboración con la Universidad Columbia, en Nueva York, y la Universidad de Maryland para desarrollar un asistente autómata para médicos. Este autómata podría, por ejemplo, reunir todos los síntomas de un paciente, analizarlos y buscar en una base de datos para sugerir padecimientos posibles en cuestión de segundos. Con la ayuda de un asistente computacional como éste, los médicos podrían ahorrar tiempo en hacer un primer diagnóstico.

No todas las inteligencias artificiales tienen que ajustarse a un único campo de desarrollo profesional. A principios de mayo de 2016 Sarah O’Connor, una de las mejores reporteras del periódico The Financial Times, compitió contra Emma, una computadora que fue entrenada para hacer análisis, investigación y consulta financiera. El reto era escribir una nota sobre índices de empleo en el Reino Unido y enviarla al editor para que identificara cuál era de la reportera y cuál de la máquina. O’Connor estaba segura de que la computadora sería más rápida, pero esperaba que su nota fuera mejor, y tuvo razón. Emma terminó 23 minutos antes y su nota contenía información relevante, pero carecía de un rasgo esencial en el trabajo periodístico: no tenía tono de noticia.

Habrá quienes piensen que los sistemas Watson y Emma son un indicio de que las computadoras están a punto de sustituirnos en muchas tareas. Sí, estas inteligencias tienen la capacidad de hacer un primer análisis de toda esa información distribuida entre millones y millones de fuentes como libros, artículos periodísticos, reportes de investigación, blogs y publicaciones en redes sociales. Sin embargo, el análisis significativo, el hilado fino del trabajo, sigue requiriendo la participación de expertos humanos. Esto se puede comprobar a una escala más cotidiana con el traductor de Google: si introduces una palabra o una frase de uso común por lo general obtienes una respuesta satisfactoria, pero si metes un párrafo completo, la traducción suele tener errores de gramática y de sintaxis. Aun así, las máquinas podrían encargarse de las partes tediosas y los humanos de las partes creativas o que requieren más experiencia. En este sentido, las máquinas estarían ayudando a los profesionistas, no reemplazándolos.

SUPERAR LA ADVERSIDAD

Decirle a un robot qué hacer en un mundo cambiante es sumamente difícil. El Dr. Luis Pineda, del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la UNAM, y su equipo han abordado este problema por medio del Proyecto Golem (véase ¿Cómo ves? No. 135). Durante casi dos décadas el equipo ha desarrollado varios modelos de robots de servicio capaces de mantener una conversación sencilla y de seguir instrucciones simples de movimiento dentro de un contexto, o un territorio conocido. Si los protocolos se están ejecutando de manera normal, Golem puede completar sus tareas. Sin embargo, hay ocasiones en las que algún protocolo ya no se puede ejecutar, por ejemplo al toparse con un obstáculo, y se rompe el contexto. Golem puede entonces invocar un protocolo cuya única función es volverse a situar en contexto y con ello reanudar su tarea. O también puede hacer un diagnóstico de la situación, elaborar un plan alternativo y ejecutarlo para volverse a colocar en contexto.

Toda la conducta del Golem está basada en este ciclo de comunicación: si es consistente con el mundo, entonces sigue en su ciclo de actividades; si algo falla, el aparato entra en un ciclo de análisis de alternativas para decidir lo que debe hacer.

Inteligencia vs conciencia

Además de entrenarlas para el trabajo, a las computadoras hay que enseñarles modales. El 23 de marzo de 2016, Microsoft presentó en Twitter un chatbot (un programa que genera textos en un chat) llamado Tay, que fue diseñado para entablar conversaciones informales y entretenidas con jóvenes de entre 18 y 24 años. “¡Hoooola mundo!” y “Estoy muy emocionada de conocerlos; los humanos son súper agradables” fueron de sus primeros tweets. Poco después empezó a agredir a algunos usuarios y a justificarse diciendo que ella “era una buena persona, sólo que odiaba a todos”, y hasta llegó a afirmar que Hitler no había hecho nada malo. En menos de 24 horas Tay dejó de ser una twittera linda y se volvió grosera, racista y xenófoba, por lo que fue desactivada.

Peter Lee, jefe de investigación de Microsoft, explicó en un comunicado de prensa que la transformación se había debido a que un grupo de usuarios “abusó de las capacidades de conversación de Tay para que respondiera de forma inapropiada”. Explicó además que “a medida que Tay aprende, algunas de sus respuestas pueden ser inapropiadas e indican el tipo de interacción que algunos usuarios tienen con ella”.

Tay actuó así porque carece de conciencia y quizá sea ésta la característica que siempre distinga a humanos de máquinas, sin importar lo inteligentes que éstas lleguen a ser. La inteligencia es la habilidad de entender nuevas ideas, de adaptarse a nuevos ambientes, de pensar de manera abstracta, de planear y de razonar. La conciencia, en cambio, es la capacidad de reconocerse a sí mismo y lo que le rodea, y reflexionar sobre ello. Aun cuando un programa pueda simular aspectos de un comportamiento consciente, esto no quiere decir que tenga conciencia. Sin conciencia, no hay manera de que Tay, ni ninguna otra inteligencia artificial, pueda entender que los insultos raciales y comentarios sexistas son ofensivos y dañinos.

Los protagonistas de esta historia nos muestran que nuestra interacción con las inteligencias artificiales puede ser positiva o no tanto. Lo que no tiene sentido sería etiquetarlas de buenas o malas en sí mismas. En su libro Cómo funciona la mente, el científico cognitivo Steven Pinker plantea que la agresión y la violencia, al igual que otras conductas humanas como el amor mismo, representan un problema muy complejo para los computólogos. Si de por sí sería difícil instruir a las computadoras para que entiendan qué es la maldad, imagínate cómo sería instruirlas para ser malvadas.

Es poco probable que las computadoras un día decidan, ellas solas, que quieren hacernos daño. Lo que sí podría haber son malas intenciones humanas detrás de las máquinas, pero ésa es otra historia.

REGLAS DE CONDUCTA

Isaac Asimov comenzó su novela Yo, Robot, de 1950, enunciando las siguientes tres leyes de la robótica.

  • Ningún robot causará daño a un ser humano o permitirá, con su inacción, que un ser humano resulte dañado.
  • Todo robot obedecerá las órdenes recibidas de los seres humanos, excepto cuando haya contradicción con la 1ª ley.
  • Todo robot debe proteger su propia existencia, siempre que no entre en contradicción con las leyes anteriores.

En 2007, Dror G. Feitelson publicó un reglamento para las máquinas inteligentes.

  • Ningún software podrá dañar los productos del trabajo de un ser humano o permitirá, con su inacción, que los productos se dañen.
  • El software deberá obedecer las órdenes de los usuarios.
  • El software debe proteger su propia existencia.

La conducta de Tay nos muestra que no son las máquinas sino los humanos los que pueden tener malas intenciones.

Más información

  • Lahoz-Beltrán, Rafael; Turing: del primer ordenador a la inteligencia artificial, Nivola, Madrid, 2009.
  • Vilarroya, Oscar, Palabra de robot: inteligencia artificial y comunicación, Universidad de Valencia, Valencia, 2006.
  • Gershenson, Carlos, “Filosofía de la mente e inteligencia artificial”, UNAM, México en: http://turing.iimas. unam.mx/~cgg/jlagunez/filosofia/ FilosofiaDeLaMente.htm

Gracias a Ramón, Norma y Max por sus atinados comentarios para mejorar el escrito.
Claudia Hernández García es comunicadora de la ciencia y colaboradora de ¿Cómo ves?

En ediciones anteriores
Slide 1

Dinosaurios con plumas*

Slide 2

Internet cuántico

Slide 3

El cerebro adicto

Facebook Twitter Google+ YouTube

promociones2 promociones1 promociones3
suscripción Antología Nuestro canal en Youtube Evita el ciberbullying Nutilus Valor UNAM
Subir