Cuando comencé en 1980, AI quería decir esto: una estudiante graduada escribe los hechos en un lenguaje declarativo, y juega con los hechos y el mecanismo de inferencia hasta que obtiene buenos resultados en un puñado de ejemplos cuidadosamente seleccionados, y luego escribe un artículo al respecto.
Aunque acepté y trabajé dentro de este marco, hasta mi doctorado, vi tres problemas con el enfoque:
- Escribir los hechos fue demasiado lento.
- No teníamos una buena manera de lidiar con las excepciones a los hechos, o con la vaguedad.
- El proceso no fue científico, incluso si logramos que funcione en los ejemplos elegidos, ¿qué tan bien funcionaría en otros ejemplos?
El campo en su conjunto ha evolucionado para responder a los tres problemas:
- ¿Existe una medida objetiva de los asistentes de IA?
- ¿Cómo impactan el envejecimiento de la población y el aumento de la inteligencia artificial y la automatización en la economía y la experiencia de la generación milenaria?
- ¿Por qué la gente no cree en la inteligencia artificial que se apodera de la humanidad solo porque simular el cerebro es imposible?
- ¿AI / ML tiene que ver con las matemáticas? Si saca la infraestructura requerida para manejar la computación, creo que la IA es principalmente matemática computacional. ¿Se aplican aquí cosas como algoritmos codiciosos, clasificación y otras cosas geniales de CS?
- ¿Cuál es la diferencia entre un sistema experto y la inteligencia artificial?
- Dependemos del aprendizaje automático en lugar de la sangre, el sudor y las lágrimas de los estudiantes de posgrado.
- Utilizamos el razonamiento probabilístico en lugar de la lógica booleana.
- Esperamos rigor científico; Tenemos la noción de entrenamiento y datos de prueba, y tenemos competencias para comparar diferentes sistemas en problemas estándar.
En 1950, Alan Turing escribió: “Solo podemos ver una corta distancia por delante, pero podemos ver muchas cosas que hay que hacer”. Hemos evolucionado y hecho mucho desde 1950, pero las palabras de Turing aún son ciertas.