robots podrían hackear la prueba de Turing manteniendo el silencio

robots podrían hackear la prueba de Turing manteniendo el silencio

robots podrían hackear la prueba de Turing manteniendo el silencio

Robots podrían hackear la prueba Turing manteniendo el silencio

La nueva investigación sugiere que la prueba de Turing, la evaluación por excelencia diseñada para determinar si algo es una computadora o un ser humano, puede tener un error fatal.

La prueba actualmente no puede determinar si una persona está hablando con otro ser humano o con un robot si la persona que está siendo interrogada simplemente elige permanecer en silencio, según muestra una investigación reciente.

Si bien no es una noticia que la prueba de Turing tenga fallas, el nuevo estudio destaca cuán limitada es la prueba para responder preguntas más profundas sobre inteligencia artificial, dijo el coautor del estudio Kevin Warwick, científico informático de la Universidad de Coventry en Inglaterra.

«A medida que las máquinas se están volviendo cada vez más inteligentes, tanto si están pensando realmente como si tenemos que darles responsabilidades, están empezando a convertirse en preguntas muy serias», dijo Warwick a Live Science. «Obviamente, la prueba de Turing no es la que puede explicarlos».

Juego de imitación

La famosa prueba de Turing fue descrita por primera vez por el científico británico de computación Alan Turing en 1950 para abordar cuestiones de cuándo y cómo determinar si las máquinas son sensibles. La pregunta de si las máquinas pueden pensar, argumentó, es errónea: si pueden hacerse pasar por humanos en lo que denominó el juego de la imitación, eso es suficiente.

La prueba es simple: ponga una máquina en una habitación, un interrogador humano en otra, y haga que hablen entre sí a través de una conversación basada en texto. Si el interrogador puede identificar la máquina como no humana, el dispositivo falla; De lo contrario, pasa.

La prueba simple e intuitiva se ha convertido en una gran influencia en la filosofía de la inteligencia artificial . Pero desde el principio, los investigadores encontraron fallas en la prueba. Por un lado, el juego se enfoca en el engaño y se enfoca demasiado en la conversación como la métrica de la inteligencia.

Por ejemplo, en la década de 1970, un programa temprano de procesamiento de lenguaje llamado ELIZA dio a los jueces de prueba de Turing una carrera por su dinero al imitar el truco de un psiquiatra de reflejar las preguntas al interrogador. Y en 2014, los investigadores engañaron a un interrogador humano utilizando un «chatbot» llamado Eugene Goostman que fue diseñado para hacerse pasar por un niño ucraniano de 13 años.

Derecho a guardar silencio

Warwick estaba organizando las pruebas de Turing para el 60 aniversario de la muerte de Turing cuando él y su colega Huma Shah, también científico informático en la Universidad de Coventry, notaron algo curioso: de vez en cuando, algunos de los chats de AI se rompieron y permanecieron en silencio, confundiendo a los interrogadores.

«Cuando lo hicieron, el juez, en todas las ocasiones, no pudo decir que era una máquina», dijo Warwick a Live Science. [ Los 6 robots más extraños jamás creados ]

Según las reglas de la prueba, si el juez no puede identificar definitivamente la máquina, la máquina pasa la prueba. Según esta medida, un robot silencioso o incluso una roca podrían pasar la prueba de Turing, dijo Warwick.

En el otro lado, muchos humanos son marcados injustamente como IA, dijo Warwick.

«Muy a menudo, los humanos se clasifican como una máquina, porque algunos humanos dicen cosas tontas», dijo Warwick. En ese escenario, si el competidor de la máquina simplemente permanecía en silencio, ganaría por defecto, agregó.

Mejores pruebas

Los hallazgos apuntan a la necesidad de una alternativa a la prueba de Turing , dijo Hector Levesque, un profesor emérito de informática en la Universidad de Toronto en Canadá, que no participó en la nueva investigación.

«La mayoría de la gente reconoce que, en realidad, es una prueba para ver si se puede engañar a un interrogador», dijo Levesque a Live Science. «No es demasiado sorprendente que haya diferentes maneras de engañar a los interrogadores que no tienen mucho que ver con la inteligencia artificial o la inteligencia».

Levesque ha desarrollado una prueba alternativa, que denominó el esquema de Winograd (que lleva el nombre del investigador informático Terry Winograd, al que se le ocurrieron algunas de las preguntas involucradas en la prueba).

El esquema de Winograd le hace a AI una serie de preguntas que tienen respuestas claramente correctas. Por ejemplo, podría preguntar: «El trofeo no cabría en la maleta marrón porque era demasiado grande (pequeño). ¿Qué era demasiado grande (pequeño)?»

Estas consultas están muy lejos de las ricas discusiones sobre los sonetos de Shakespeare que Turing imaginó que tendrían lugar entre la IA y los humanos.

«Son mundanos y ciertamente no son tan llamativos como tener una conversación real con alguien», dijo Levesque.

Sin embargo, responder correctamente requiere una comprensión del lenguaje, el razonamiento espacial y el contexto para descubrir que los trofeos caben en las maletas.

Y aún otras alternativas propuestas a la prueba de Turing se han centrado en diferentes aspectos de la inteligencia humana, como la creatividad.

La prueba de Lovelace para medir la creatividad requiere que un robot cree una obra artística en un género particular que cumpla con las restricciones dadas por un juez humano. Pero incluso en este dominio, los robots se están ganando a los simples mortales: a principios de este año, los investigadores crearon una pintura » nueva de Rembrandt » al estilo del maestro holandés, utilizando inteligencia artificial y pintores de robots.

Leave a Reply