Steve Hamm, un investigador de IBM, publicó su hipótesis (http://asmarterplanet.com/blog/2…) sobre por qué Watson estaba tan fuera de lugar con su respuesta de peligro final , y cree que todo estaba en la redacción de pregunta. Watson había aprendido que la categoría a veces tenía poco que ver con la respuesta esperada, por lo que le daba menos importancia al tema “ciudades de EE. UU.”, En comparación con el peso que le daba a las palabras en la pregunta en sí. El investigador también dijo que hay varias ciudades en los Estados Unidos llamadas Toronto que pueden haber confundido aún más a Watson.
A principios de esta semana, el Dr. Gerald Tesauro (otro investigador de IBM) explicó cómo Watson decide cuánto apostar por las preguntas de Final Jeopardy y Daily Double (http: //ibmresearchnews.blogspot….). Para explicar la apuesta baja, Watson toma en cuenta sus experiencias pasadas con ciertas categorías de temas para determinar qué tan seguro puede estar sobre una pregunta en particular. También analiza los puntajes de sus oponentes y debe haber determinado que, dado que estaba tan por delante, no necesitaba apostar demasiado.
- ¿Por qué es tan difícil enseñar a las computadoras a pensar como los humanos?
- ¿Por qué se supone que la inteligencia artificial tendrá una intención maliciosa?
- Cómo entrenar una red neuronal para generar XML desde una imagen
- ¿Cuál es el futuro de la lingüística?
- ¿Cuál es la mejor definición de Inteligencia Artificial?