lunes, 20 de marzo de 2017

Psicoreflexión: La Prueba de Turing, la inteligencia artificial y la moral humana.

La prueba de Turing, traducida muchas veces como test de Turing, tiene como fin determinar si una inteligencia artificial es capaz de comportarse como humano, y por tanto de poseer una inteligencia similar a la de nuestra especie. Fue diseñada por Alan Turing, un genio polifacético del cual quizás hable otro día, pues bien lo merece.

La prueba que propone Turing consiste en que un evaluador humano mantenga durante unos minutos una conversación con la inteligencia artificial a evaluar y con otro ser humano, pero sin saber cuál es cuál. La idea es que si la máquina es capaz de imitar el comportamiento humano hasta el punto de engañar al juez, estaría manifestando una conducta humana, y presumiblemente una inteligencia también humana. En su planteamiento original, y para mantener el anonimato de cada individuo garantizando así que la máquina no juegue con desventaja, el evaluador únicamente tendría acceso al diálogo en forma escrita.


La susodicha prueba, que parece sacada de una historia de ciencia ficción y de hecho ha sido usada en muchas de ellas, apareció publicada por primera vez en la obra "Computing machinery and intelligence" en el año 1950, surgiendo como un intento para responder a la pregunta de si puede o no ser inteligente una máquina. Desde el punto de vista de la psicología esta prueba es muy interesante, pues no solo nos plantea esta pregunta sino que a su vez implica otras igualmente importantes: ¿Cómo pensamos? ¿Cómo definimos el pensamiento? ¿Qué es el pensamiento? Por lo tanto nos encontramos ante una prueba que, aunque ha recibido bastantes críticas, nos sirve para reflexionar acerca de nuestra inteligencia, la inteligencia artificial y las diferencias que pueden haber entre ambas.

Estas preguntas son clásicas en el ámbito filosófico. Alfred Ayer, por ejemplo, se preguntaba si había alguna forma de saber si cada uno de nosotros experimenta la consciencia de igual manera. Alguno podría pensar que es una pregunta banal ya que es evidente que todos somos conscientes de la misma manera pero, ¿hay realmente una forma de saber esto a ciencia cierta? Decía Ortega y Gasset que cada individuo vive en su propio mundo, encerrado en sus propias experiencias y percepciones y que por mucho que nos demos a conocer a los demás estos jamás sabrán lo que es ser nosotros. En cierto sentido estamos solos, aunque quizás lo más interesante de la vida es precisamente buscar y encontrar a alguien que pese a no ser nosotros nos entienda igualmente.

Turing como hemos visto, se hizo preguntas similares pero respecto a las inteligencias artificiales. Asumió que si algo parece inteligente y se comporta nteligentemente, debe ser inteligente. En base a este razonamiento creó Turing varias versiones de su prueba, siempre con idéntico objetivo y similar funcionamiento.

Con el tiempo, la Prueba de Turing ha llegado a considerarse un requisito, que no el único, que debería cumplir una inteligencia artificial para ser considerada como verdaderamente inteligente. El lector se podría preguntar si a día de hoy alguna máquina ha superado el test, pero difícil decirlo ya que varias inteligencias parecen haber superado la prueba original, pero se ha demostrado que esta depende en gran medida del evaluador escogido. Un ejemplo sería ELIZA, creado en 1966, que fue capaz de engañar temporalmente a algunas personas en una conversación, y otro el Dr. Abuse, una versión mejorada del anterior.



Posteriormente se crearían otros programas similares, cada uno con sus características, cada vez más avanzados y sofisticados y por tanto más capaces de hacerse pasar por humanos, pero nunca alcanzando la perfección en ello y por tanto no llegando a engañar a la mayoría de evaluadores.

Ahora bien, quizás la prueba padece de un problema más importante pues cabría preguntarse si realmente demuestra si una inteligencia artificial se comporta inteligentemente o solo si lo aparenta. Varias han sido las críticas recibidas por la prueba, siendo un buen ejemplo la argumentación de John Searle al respecto, quién decía que programas como ELIZA podía imitar la conversación humana aun sin entenderla, por lo que no se les podría clasificar como inteligentes en el sentido estrictor del término. Esta argumentación fue desarrollada en un experimento mental llamado la habitación china, y gracias a ello se inauguró un interesante debate acerca de la naturaleza real de la inteligencia, sobre si una máquina puede ser inteligente y cómo podríamos averiguar si lo es en caso afirmativo.

Con lo rápido que avanza la tecnología, puede resultar sorprendente que este tipo de programas no hayan alcanzado la capacidad para simular la naturaleza humana, aunque sea durante los pocos minutos que exige la Prueba de Turing. A día de hoy resulta inimaginable una máquina que pueda realizar tal proeza, y es que al final siempre se delatan ellas solas al carecer de esas pequeñas cosas que hacen humano al humano: manías, costumbres, expresiones, faltas de ortografía y una forma de expresarse particular.

¿Alguna vez os ha pasado que vamos a hablar con alguien mediante Whatsapp o similar, y nos responde otra persona que ha tomado el control de ese móvil de forma inesperada, sea para hacer una broma, por maldad o por la razón que sea? ¿Quizás un familiar para decirnos que quién buscamos esta ocupado o se ha dejado el móvil en casa? ¿O la pareja de esa persona respondiendo en su nombre ya que tienen suficiente confianza para ello?

Si alguna vez os ha pasado, seguramente os basten pocas palabras para daros cuenta  de que no se trata de la persona esperada. En este caso hablamos de gente conocida, gente a la que conocemos suficiente para reconocer sus patrones de expresión, pero el mismo razonamiento se puede aplicar para detectar cuando hablamos con un humano o con un mecanismo que pretende ser inteligente.

Un mensaje totalmente humano y muy de fiar, por supuesto que sí

La prueba de Turing se podría extrapolar a tres niveles: escrito, oral y aural. La prueba escrita es la estándar y mide la capacidad de la máquina para imitar la escritura humana, mientras que la oral, imposible por ahora, sería una prueba idéntica pero en su versión hablada. La forma aural es más complicada todavía y se refiere a que la máquina sería capaz de imitar a un humano completo, de librarse de ese aire a robot, de esa aura mecánica, y disfrazarse de ser humano totalmente. Aún queda mucho para ello, y además la máquina debería superar el fenómeno conocido como el Valle Inquietante, lo cual podría ser imposible a nivel técnico. Un ejemplo reciente en la ficción, aunque se toma bastantes licencias, lo encontraríamos en la película Ex Machina.

El fenómeno del Valle Inquietante estipula que cuando un ser artificial imita al humano y lo hace demasiado bien, nos causa un rechazo natural. Llegados a este punto cabe preguntarse, si una máquina es suficiente inteligente como para pasar por humana, y es en apariencia humana, ¿qué la distingue de nosotros? ¿Es realmente un ser diferenciado o deberíamos tratarlo como un igual?

Esta disertación, que parece más propia de Isaac Asimov que del mundo real, necesita cada vez más de una respuesta. Sin que nos demos cuenta la tecnología avanza cada vez más deprisa, tanto en su faceta de robótica como de inteligencias artificiales y aunque todavía existen multitud de limitaciones técnicas al respecto, el día menos esperado tendremos que afrontar este tipo de problemáticas y otras de tipo moral. Por ejemplo, habría que plantearse si la mera capacidad cognitiva hace inteligente a la máquina o debería considerarse algún elemento más. El propio Turing ya indicaba que para pasar por humano el programa debería tener cierto sentido de la estética y capacidad empática. En efecto, la inteligencia emocional es un rasgo muy propio de nuestra especie.

Se puede argumentar que existen seres humanos con total ausencia de empatía, incluso hay otros que nacen con una capacidad intelectual escasa, pero no dudaríamos nunca de que son seres humanos. Por tanto, ¿le podemos exigir estas capacidades a un máquina?

Weakness of Turing test 1.svgUna vez más, vemos que existe un"factor humano" muy difícil de definir, que todos reconocemos pero que cuesta delimitar. Y es que los humanos somos inteligentes, pero no siempre. Si a mitad de una prueba de Turing insultamos al interlocutor, lo normal es que el humano se ofenda, nos devuelva el insulto, se extrañe, se disculpe por si ha habido algún equívoco, o abandone la conversación. Una máquina seguramente no entenderá lo que le decimos, ignorará lo dicho o responderá de forma genérica.

Otros actos típicamente humanos son el mentir, o como ya dijimos, los errores tipográficos o de ortografía. Yo por ejemplo, pese a conocer la norma ortográfica que rige el uso del porque y por qué, suelo equivocarme cuando escribo textos largos, pues tengo esa costumbre, manía, vicio, llámese como quieran, pero el caso es que un lector asiduo de este blog podría reconocer mi escritura al momento por este y otros defectos similares. Esto le sucederá incluso a un académico de la lengua, pues nadie está a salvo de los errores tipográficos, excepto una máquina que debería ser programada a propósito para cometer fallos de forma arbitraria, pero entonces nos encontramos con que no serían auténticos errores.

Pero esto no es todo, también existen comportamientos que demuestran inteligencia pero que no suelen considerarse propios de nuestra especie. Este tema está de moda ahora que empieza a contemplarse la fabricación de coches inteligentes que se autopiloten. Y es que sus diseñadores tal vez creyeron que la mayor dificultad estribaría en que un coche supiera pilotar, pero no, el mayor reto para este invento será saber decidir en casos de ambigüedad moral.

Imaginemos que un coche inteligente circula por su carril a velocidad normal, y en su interior va un pasajero, pero recordemos que este no conduce pues ya lo hace el coche por él. Imaginemos que una niña se cruza en el camino del coche inesperadamente, y que la única opción para salvarla es girar bruscamente y estamparse contra la pared, posiblemente matando al pasajero. Esta situación sería solventada en milésimas de segundo por el ordenador del coche, pero ¿con qué resultados? Se llevaría por delante a la niña salvando al tripulante? ¿U optaría por salvarla a costa de la vida de este? y si ese es el caso, ¿quién comprará un coche que puede optar por autodestruirse y acabar con la vida del propietario en cualquier momento?

La cosa además se puede complicar hasta el infinito con variaciones de este mismo problema, por ejemplo añadiendo varios peatones a salvar y también varios pasajeros. De este modo la máquina debería decidir si ha de minimizar la cantidad de víctimas posibles, tener en cuenta la esperanza de vida del total, las probabilidad de salvar a cada uno y en cada caso la responsabilidad atribuible al propietario del vehículo. Y es que a pesar de que el coche se conduce solo, si nosotros compramos el vehículo sabiendo que, por ejemplo, decidirá salvarnos a nosotros pues así estaba programado al comprarlo (y lo sabíamos) ¿seríamos en parte responsables del resultado? ¿lo será el fabricante?


Algo similar pasaría con un robot de cocina inteligente. ¿Cómo le decimos al robot que nos prepare un guiso con carne pero que no queremos comernos a nuestro gato? Es más, y si en mi paella pongo conejo pero mis niños tienen un conejo de mascota? Porqué unos animales sí y otros no, ¿qué sentido lógico tiene todo esto y cómo se le explica a la máquina? Quizás cuando los robots deambulen por nuestras casas seamos todos vegetarianos, quién sabe, pero la duda sigue ahí. Una vez más, el cine ofrece un interesante ejemplo de este tipo de dilemas en la película Yo robot.


Turing predijo que las máquinas conseguirían superar su prueba a partir del año 2000, y aunque actualmente algunos programas se puede considerar que lo lograron, no todos los expertos en la materia consideran que esto haya sucedido todavía. La realidad es que a día de hoy las inteligencias artificiales aún no han logrado imitarnos a la perfección, pero hay que tener en cuenta que el desarrollo tecnológico es exponencial y cada día se avanza más rápido en la creación de este tipo de ingenios. Cada vez tenemos más dudas sobre la psicología y ética artificiales, pero no tantas respuestas como nos gustaría.

Fuentes:
Turing-like indistinguishability tests for the validation of a computer simulation of paranoid processes, de Colby, K. M.; Hilf, F. D.; Weber, S.; Kraemer, H.
Ai: The Tumultuous History of the Search for Artificial Intelligence, de Daniel Crevier
The Turing Test: The Elusive Standard of Artificial Intelligence, Dordrecht: Kluwer Academic Publishers,de J.H. Moor.
La Prueba de Turing.
¿Deben los vehículos autónomos ser programados para matar? Publicado en Technologyreview.com
El dilema social de los vehículos autónomos, por Jean-François Bonnefon, Azim Shariff, Iyad Rahwan.
El Valle inquietante.



No hay comentarios:

Publicar un comentario