Sí, porque un subcampo de IA es la respuesta a preguntas en lenguaje natural y el rendimiento de Watson fue muy impresionante en ese campo.
No, porque no se sigue que esto nos acerque significativamente a hacer una IA.
Tal vez porque el desarrollo de la arquitectura y las habilidades necesarias para crear DeepQA (el sistema en el que se basa Watson) puede facilitar significativamente la creación de una IA en el futuro.
La existencia de DeepQA nos mostró que con suficientes recursos, podemos construir sistemas muy complejos para la extracción de conocimiento y la clasificación de confianza. Nuestros sistemas expertos, clasificadores y heurísticas lingüísticas se están volviendo lo suficientemente maduros como para abordar preguntas complejas de dominio cruzado. Pero es posible que esto no nos acerque mucho a poder crear algo que piense y razone como un ser humano.
Las páginas 67-75 de https://www.stanford.edu/class/c… describen la arquitectura de DeepQA. La estructura básica de los extractores probabilísticos de conocimiento y los evaluadores de evidencia parecen grandes bloques de construcción para una IA. Pero para cumplir con nuestra noción de una IA, DeepQA necesitará poder aprender a aprender.
- ¿Podría una IA alguna vez tener una oficina?
- ¿Cuáles son las principales máquinas para hacer gari?
- ¿Cuál será el impacto de la IA en la industria del marketing?
- ¿Qué computadora portátil debo comprar para una EM donde mis asignaturas incluyen aprendizaje automático y redes neuronales? ¿Hará un MacBook Air de 8GB? Yo soy de India.
- ¿Cómo se compila un sistema de inteligencia artificial, se prueba las características adicionales y cómo se libera a sí mismo con comportamientos estables, puede un sistema Ai depurarse?
DeepQA actualmente tiene cientos de algoritmos codificados para extraer y evaluar varios tipos de datos. Gran parte de la innovación de DeepQA está en los sistemas que combinan estos algoritmos y eligen entre ellos. Es posible que esto sea suficiente, que los humanos solo tengan algunos algoritmos preestablecidos que se combinan y ajustan según sea necesario para aprender en diferentes dominios. Pero mi intuición y conocimiento actuales de la ciencia cognitiva e informática sugieren que los humanos están haciendo más que eso. A medida que aprendemos, desarrollamos nuevos ‘algoritmos’ que nos permiten aprender de nuevas maneras.
Ese tipo de habilidad no era necesaria para ganar en Jeopardy, por lo que el éxito de Watson allí no implica directamente que estemos más cerca de crear una IA.
Mi intuición es que construir DeepQA nos enseñó algunas cosas muy importantes sobre la ingeniería de software para inteligencia artificial, pero que el código y los conceptos reales de Watson solo estarían relacionados tangencialmente con el código y los conceptos involucrados en la construcción de una verdadera IA.