¿Ha habido alguna vez un intento exitoso de enseñarle a una IA el concepto de números y matemáticas?

El problema es que la lógica / los números existen en lo que se denomina inteligencia artificial simbólica (AI), el enfoque de “inteligencia artificial anticuada” (GOFAI). Las reglas necesarias para comprender las manipulaciones numéricas son puramente lógicas y tales sistemas son difíciles de entrenar porque el objetivo normalmente no es diferenciable, es “difícil”.

La dirección actual de la investigación de tendencias se centra principalmente en enfoques estadísticos y sistemas de aprendizaje profundo (DL) con objetivos diferenciables en su mayoría suaves. Estos sistemas no son muy buenos para aprender reglas simbólicas solo de los datos de entrenamiento por sí solos. Esta tendencia de aprendizaje de extremo a extremo seguramente ha topado con una barrera aquí, a veces es importante que el investigador / ingeniero infunda conocimiento de nivel de dominio en el modelo. No todo se puede aprender de principio a fin.

Es por eso que siento que necesitamos sistemas híbridos, la computadora neuronal diferenciable (DNC) al menos es como un puente entre el GOFAI y las tendencias actuales de aprendizaje profundo. Un DNC probablemente puede aprender algo de manipulación numérica y algunas reglas básicas de matemáticas. Las redes neuronales recurrentes (RNN) típicas pueden aprender a agregar números largos arbitrariamente, pero las divisiones y multiplicaciones son difíciles para ellos.

Es por eso que hay una gran investigación para encontrar algoritmos de aprendizaje de propósito general para lograr la inteligencia general artificial (AGI).

Espero que esto ayude.

Sí, por supuesto. Y eso también, hace mucho tiempo que te imaginas. ¡Hace tanto tiempo que el término “Inteligencia Artificial” aún no se había acuñado!

En el año 1955, los informáticos Allen Newell, Herbert A. Simon y Cliff Shaw construyeron un programa informático llamado Logic Theorist , que pasaría a la historia como el primer programa de IA. Logic Theorist pudo probar 38 de los primeros 52 teoremas en Whitehead y Russell’s Principia Mathematica . De hecho, para uno de los teoremas, el teórico lógico dio una prueba que era mucho más elegante que la que dieron Whitehead y Russell. Fue un momento histórico en la historia de la IA, desacreditando la noción de que las máquinas solo podrían ser ‘calculadoras sin sentido’.

Allen Newell y Herbert Simon, creadores de Logic Theorist

Entonces, ¿qué pasó desde 1955? Bueno, la prueba de teorema automatizado se ha convertido en un subcampo bien estudiado de la informática tanto que hay muchos libros de texto sobre él. Hoy, incluso tenemos softwares que pueden probarnos teoremas, y son utilizados ampliamente para la verificación de hardware por compañías como Intel.

Si aún no está convencido del poder de la inteligencia artificial para comprender las matemáticas (no solo el cálculo numérico), considere este ejemplo clásico: la Conjetura de Robbin, un problema que ha eludido a los mejores matemáticos durante 60 años, finalmente se resolvió en 1997 utilizando un comprobador de teoremas automatizado, muy parecido al teórico lógico. [Fuente]