Lo dudo. Por cierto, 20Q.net Inc. no pudo identificar lo que estaba pensando: glicerina. De todos modos, primero aquí hay algunos comentarios sobre su pregunta, y segundo, aquí hay algunas correcciones de curso que sugiero.
Comentarios sobre su concepto de “20 preguntas”:
- La gente ha respondido preguntas para computadoras desde la década de 1980 o más … Cycorp tiene millones de datos codificados en triples RDF, incluidos 2 millones de código abierto, hasta 2006 obtuvo todos sus datos de aportes humanos. En algún momento recuerdo que Cycorp tenía una página web que hacía preguntas a las personas y yo respondía algunas de ellas. Finalmente, decidieron extraer datos de la World Wide Web. Ver empresarios Ver una web guiada por el sentido común. Incluso hoy, 2 millones no son suficientes. Los sistemas de lenguaje natural son difíciles de desarrollar.
- “Tamaño Watson”. Hasta donde yo sé, la implementación de 2 Tbyte DRAM de Watson que ganó Jeopardy en 2011 nunca ha sido vista ni escuchada de nuevo. Watson ahora es el nombre de una unidad de negocios en IBM, no el nombre de una computadora. No me sorprendería saber que la computadora a la que te refieres fue desmantelada, al igual que IBM desmanteló Deep Blue, aparentemente poco después de derrotar al maestro de ajedrez Gary Kasparov en 1997.
- Los lenguajes naturales no se ajustan a la taxonomía jerárquica, linnnaen o de otro tipo.
Correcciones del curso que sugiero:
- Cómo usar vl_nnbnorm en mi propia implementación de una red neuronal
- La IA debe ser creada por un ser inteligente consciente y ser capaz de comprender lo que está haciendo. Sin conciencia y libre albedrío, la inteligencia no es posible. ¿Por qué hay histeria colectiva sobre el peligro de la IA que realmente no existe?
- Estoy planeando obtener una maestría en CS con especialización en inteligencia artificial de buenas universidades de EE. UU. ¿Cómo escribo un SOP para eso?
- ¿Cuál es la mejor herramienta gratuita para editar y simular redes neuronales (preferiblemente algo con GUI)?
- ¿Cuál es la diferencia entre el valor umbral y el sesgo en la red neuronal artificial?
1. Siri y OK Google necesitan hacer preguntas aclaratorias en lugar de pretender ser sabelotodos y luego volver a actuar indefensos. Por ejemplo, en OK Google, debería ser “¿te refieres a Kansas City en Kansas o Kansas City en Missouri?” En lugar de “di el que quieres” o “No puedo ayudarte con …”, etc.
2. Aprendizaje activo, una forma de aprendizaje semi-supervisado que se complementa con el aprendizaje de refuerzo. Un sistema de aprendizaje activo crea modelos procesando en su mayoría datos de entrenamiento no etiquetados, pero en algunos casos un punto de referencia de aprendizaje de refuerzo (por ejemplo, una función de condición física, variable económica, puntaje del juego …) impulsa la decisión del sistema de pedir una etiqueta a un humano. Vea, por ejemplo, estos informes de la Universidad de Texas en el Grupo de Investigación de Aprendizaje Automático de Austin
Me parece que el aprendizaje activo está pasado de moda, pero las posibilidades de participación del usuario final podrían recuperarlo. (“¿Kanye West es músico?” “OK, déjame intentar explicarte …”). Podría estar equivocado, pero mi impresión es que los desarrolladores de “asistente inteligente” parecen ser alérgicos a las preguntas aclaratorias del lenguaje natural. En particular, OK “Toca el que quieras” de Google no cumple con el propósito del reconocimiento de voz.