¿AI / ML tiene que ver con las matemáticas? Si saca la infraestructura requerida para manejar la computación, creo que la IA es principalmente matemática computacional. ¿Se aplican aquí cosas como algoritmos codiciosos, clasificación y otras cosas geniales de CS?

AI espera imitar la inteligencia. ¿Y qué es eso?

La búsqueda ha sido durante mucho tiempo un aspecto del tema, así como la computación simbólica. Algoritmos codiciosos como la primera búsqueda de amplitud y la primera búsqueda de profundidad serían límites en la búsqueda que podrían ocurrir si de alguna manera se utilizara la información global. Profundidad primero, dice que el siguiente mejor lugar para buscar es el primer hijo generado de un estado, mientras que la amplitud dice que el hermano será el próximo mejor lugar más rentable. A * elige el mejor nodo sucesor en función de una función heurística, que con suerte utiliza información global sobre su espacio de estado problemático. Puede producirse cierto paralelismo en la búsqueda de rutas.

En el caso de búsqueda, la función heurística puede usar cualquier información, simbólica, numérica (difusa o estadística), etc. para establecer el valor heurístico.

Las representaciones de problemas simbólicos (mundiales) no prohíben el comportamiento inteligente del programa. Muchos programas han trabajado para resolver problemas simbólicos, como aumentar el conjunto de teoremas en un modelo simbólico. Un cierto número de sistemas han funcionado sin asignar pesos preferenciales a las reglas. Los sistemas de planificación de robots, los programas de análisis del lenguaje, los sistemas expertos, los marcos lógicos han funcionado sin pesos probabilísticos, entradas físicas o un sentido del tiempo. Pero, la gente entendió (aunque sea intuitivamente) que los sistemas simbólicos puros carecían de la sensación del mundo real.

La IA ha utilizado desde el principio la incertidumbre. El programa de corrector de Samuels utilizó el aprendizaje por diferencia temporal y de memoria. Las funciones ponderadas para la evaluación del estado formaron la parte métrica de alfa-beta. Los sistemas expertos se escribieron en aplicaciones de reglas simbólicas de encadenamiento hacia adelante y / o hacia atrás. Pero, muy pronto, los sistemas expertos utilizaron la prominencia (por ejemplo, la mejor regla de encadenamiento hacia adelante para el ciclo como un desempate) o métricas de apoyo a la inferencia (por ejemplo, inducción bayesiana). Algunos productos para el hogar (por ejemplo, lavadoras) eligieron modos operativos basados ​​en lógica difusa.

Las construcciones de IA no pueden garantizar un mundo simbólico en el que operen los mejores. Y, los modelos mentales, asociados con las personificaciones computacionales, no pueden ser absolutamente discretos.

Los humanos se reifican. Si me siento en una mesa con una computadora, creo que la mesa es un objeto sólido. Quizás algún aspecto de mi ser sabe que no lo es, es una colección (grupo) de átomos que interactúan libremente. Esta imagen se ofrece solo para ayudar a ilustrar la naturaleza de la mente. Creamos símbolos o conceptos reificados, palabras o imágenes. “Libertad”, un concepto, o “Fido”, un perro. Ninguno de estos grupos de pensamiento identificados simbólicamente es puramente simbólico. La formación de sus ideas no es una sola imagen estática, incluso cuando aceptamos una imagen particular como un conjunto que protege un mar de conceptos enredados. De hecho, pensamos en estas cosas dinámicamente, e incluso nuestros pensamientos asociados con ellas son dinámicos, sensibles al tiempo y al contexto.

Dado que cualquier símbolo que tenga formas y desvanecimientos, podemos ver que el símbolo en sí no es discreto. Tenemos que aceptar algún tipo de realización difusa del símbolo. Las mejores herramientas que tenemos para la representación no discreta del símbolo o las herramientas numéricas. Dado que puede existir un símbolo dentro de una vecindad de alguna representación ideal de un elemento atómico de un modelo semántico, podríamos considerarlo como una buena o mala semejanza del ideal. Podríamos proporcionar una medida de certeza de que el símbolo representa un ideal que está en juego en un proceso continuo de toma de decisiones, en tiempo real, por supuesto (donde los cálculos como los juegos de ajedrez o los sistemas expertos son procesos que se mueven muy lentamente y permiten pasos de tiempo infinitos en los casos del programa colgado). En algunos procesos, el mundo físico podría estar cambiando un estado mundial (problema) a tal velocidad, que los símbolos requeridos en la toma de decisiones no pueden evaluarse tan cerca de ningún ideal. Por lo tanto, los procesos matemáticos (y los algoritmos) necesarios para la hipótesis y la selección de emparejamiento, seguimiento y trayectoria tendrían que ser bastante sofisticados y / o bien ajustados.

Al considerar la IA en el mundo real, uno podría verse tentado a ver el seguimiento del estado como una extensión del tipo de filtrado de Kalman que podría usar un misil de búsqueda de calor. Pero, en última instancia, la IA requiere una conciencia del contexto. Y así, el seguimiento sin sentido de la medición individual no es el plan para la IA. Más bien, se basa en ensamblajes simbólicos anteriores, recuerdos borrosos, para identificar el conjunto simbólico borroso que vive durante un proceso particular seguido para la toma de decisiones dentro del contexto del proceso. Por lo tanto, la IA se trata más de los objetivos de desplazamiento de misiles que buscan calor dada la información táctica y algunos análisis de amenazas de una colección de posibles objetivos. (Por ejemplo, suponga que un grupo de aviones vuela en formación, pero un avión es el líder del grupo. El grupo puede ser rastreado siguiendo cualquier plano y luego cambiando al líder en el momento apropiado).

No me gustan los ejemplos de la guerra, pero funcionó. Quizás pueda haber alguna decisión sobre cómo moverse durante la cirugía a corazón abierto.

Entonces, la IA requiere procesos simbólicos y numéricos u otros procesos, que podrían ser el resultado de transformaciones físicas que a su vez podrían modelarse numéricamente. La IA puede exhibirse en sistemas puramente simbólicos, pero esos sistemas se han limitado a contextos puramente simbólicos. El mundo real no es un proceso simbólico (o lugar) y la mente, orientada hacia la formación simbólica, no forma símbolos exactos, sino difusos. Muchas implementaciones útiles han funcionado modelando un refinamiento computacional del proceso simbólico humano. Pero, se está desarrollando un trabajo más emocionante que acepta la imposibilidad de conceptos discretos, y recurre a modelos matemáticos de los conceptos difusos. En particular, se está desarrollando IA en el contexto de procesos en tiempo real. Y, los procesos en tiempo real en el mundo físico no pueden esperar a que los conceptos difusos se vuelvan discretos (formación de conceptos en tiempo real). Pero, la IA con modelos simbólicos discretos de aproximaciones de toma de decisiones en tiempo real (conceptos modelados almacenados) puede ser más apta para ejecutarse a las velocidades requeridas en contextos físicos en tiempo real.

Las matemáticas de hoy para la IA podrían no ser las matemáticas de mañana para la IA. Pero, el modelado numérico y el modelado simbólico trabajando juntos probablemente siempre tendrán alguna parte en la IA.

Sí, hay muchas matemáticas, deberías estudiar matemáticas si planeas convertirte en competente en ML, pero las aplicaciones más interesantes generalmente son casi inútiles sin los otros algoritmos más simples en CS (como buscar y ordenar, como mencionas) .

Por ejemplo, un auto sin conductor fue el tema motivador discutido en una clase de IA que vi en 2004 (antes de que un auto ganara el Gran Reto DARPA). Pero un automóvil autónomo no es un algoritmo de ML único: en realidad es una colección de componentes de ML e IA: existen algoritmos para tomar la salida de sensores de profundidad y convertir nubes de puntos en automóviles. Hay sensores en los costados del automóvil con filtros de partículas para determinar en qué parte del carril se encuentra. Hay algoritmos de visión por computadora que intentan averiguar el color de la luz de la calle. En el auto ganador del DARPA GC, Stanley, había algoritmos ejecutados al comienzo del programa para calcular una ruta suave a lo largo de la ruta utilizando splines. Esos son todos los subproblemas de ML / AI que requieren comprender una buena cantidad de matemáticas.

Pero también se necesitan desafíos de planificación de nivel superior, y estas tareas pueden usar algoritmos que necesitan un poco menos de matemática. Por ejemplo, en el automóvil autónomo, existe un algoritmo de búsqueda que se ejecuta constantemente y que busca la ruta más eficiente entre la posición actual del automóvil y la posición objetivo del automóvil. Hay una máquina de estado para realizar un seguimiento del estado del automóvil para determinar en qué estado se encuentra, útil cuando necesita saber si se supone que debe conducir por la carretera, esperar en una intersección o realizar un giro de tres puntos. . Las máquinas de estado son fáciles de entender y razonar, pero (como el algoritmo de detección de semáforos) son inútiles de forma aislada.

Algoritmos como el motor de búsqueda de Google también son combinaciones de AI / ML y heurísticas de nivel superior. ¿Qué haces con cien páginas web puntuadas? Los clasificas.

Incluso en AlphaGo, en última instancia, se está llevando a cabo una búsqueda básica, con ML utilizado para priorizar ramas a medida que busca a través del árbol.

Por lo tanto, para construir estos sistemas “inteligentes” (motores de búsqueda, automóviles o AlphaGo), debe utilizar el conocimiento de todas las otras partes de un programa académico típico de CS, incluidos hardware, redes, compiladores y estructuras y algoritmos de datos estándar. Pero para los componentes de ML por sí solos, es necesario utilizar las matemáticas (aunque no suele ser mucho más que probabilidad, cálculo y álgebra lineal).

He descubierto que en ML / AI, la mayor parte de los algoritmos son álgebra lineal y estadística, y menos de los conceptos estándar de CS que se enseñan en un plan de estudios tradicional de CS. De hecho, es por eso que a menudo encontrarás muchos graduados que no son CS, pero cuantitativos, que entran en el campo.

Si tuviera que desglosarlo más, realmente AI / ML se trata de saber cómo manipular datos, extraer las características correctas (a menos que sea un aprendizaje profundo) y entrenar algoritmos para que funcionen de la manera que desea (es decir, para satisfacer la función objetivo) ) Dependiendo de la aplicación del algoritmo (ya sea para investigación o producción), puede o no pasar la mayor parte de su tiempo manipulando datos y haciendo que funcionen para su modelo en particular. Aquí es donde entran en juego los algoritmos CS tradicionales que incluyen algoritmos codiciosos, clasificación, etc., y donde una buena comprensión de la complejidad del tiempo del algoritmo puede ahorrarle MUCHO tiempo, especialmente cuando se trata de grandes datos.

Cuando llegué a ML, pensé que sería realmente fácil, solo aprender sobre los casos de uso para cada algoritmo, métodos de optimización y eso es todo.

Eso fue realmente tonto de mi parte.

Mi mayor arrepentimiento es que no aprendí más matemáticas antes. Matemáticas más discretas, más álgebra lineal, análisis funcional, análisis real, métodos numéricos, lo que sea. Los algoritmos no son algunas recetas del libro que traduces a C o Python sin pensarlo. Detrás de cada algoritmo hay un teorema y varias implicaciones. Es fácil engañarse y pensar que ML y la programación en general hacen que las matemáticas sean irrelevantes para usted cuando está en los primeros años de la universidad. No lo hace.

Si no me crees, aquí hay un ejercicio. Vaya a Procedimientos de NIPS 2015 e implemente algo desde cero. En el proceso, realiza un seguimiento de cuántas veces dijiste “¿cómo diablos funciona esto?”, Este número será realmente impresionante al final.

“Cosas geniales de CS” es pura matemática si no eres un mono código. ML es una mezcla loca de todo lo que su estudiante de matemáticas de la universidad tenía para ofrecer y luego algunas “cosas geniales de CS”. La IA va más allá de eso, requiere un poco de neurociencia, un poco de biología y algunas cosas impías de los procesos estocásticos, dependiendo de cómo lo haga.

No puedes aprender demasiadas matemáticas para ML.

Bueno, antes que nada, mi énfasis principal en el estudio es el aprendizaje automático específicamente; No he estudiado otras formas de IA. Pero desde mi comprensión del aprendizaje automático, las matemáticas (álgebra lineal, estadística, cálculo vectorial, etc.) es una herramienta utilizada para el aprendizaje automático, pero no se trata “todo acerca de las matemáticas” como usted dice en su pregunta. Básicamente, creo que el aprendizaje automático se trata fundamentalmente de comprender el método de cálculo del cerebro humano y tratar de imitar ese método. Continuando con esta idea, creo que el Aprendizaje automático se trata de comprender cómo el cerebro humano desarrolla un modelo que representa datos y predice el uso de ese modelo, y luego entender cómo hacer que una computadora tenga una capacidad similar. En este sentido, el aprendizaje automático en su núcleo es más un estudio biológico que matemático. Por supuesto, dado que el método de cálculo de nuestras máquinas actuales es diferente del que tenemos en nuestro cerebro, necesitamos un método de traducción para convertir el cálculo que nuestro cerebro hace al cálculo que una computadora puede hacer. Nuestro cerebro tiene la capacidad de hacer cálculos utilizando un conjunto de neuronas que calculan activaciones basadas en los pesos de las activaciones de entrada, que modelamos matemáticamente como productos de punto de vectores de peso y vectores de entrada, que luego pasan a una función no lineal. Sin embargo, hizo que el cerebro humano calculara en una forma diferente (que de hecho lo hace) Cambios en el aprendizaje automático. De hecho, Machine Learning experimentó tal cambio con las redes convolucionales. Cuando se comprobó que las neuronas de la corteza visual humana tienen un campo receptivo, esta idea se trasladó al aprendizaje automático en el diseño de ConvNets y la idea de redes neuronales invariantes espaciales. Por lo tanto, las matemáticas son una guía para traducir nuestra comprensión biológica de cómo funciona el cerebro humano a nuestras máquinas actuales. ML es todo sobre el cerebro humano, no las matemáticas.

En los últimos 20 años, el aprendizaje automático se ha convertido en aprendizaje automático estadístico. En los primeros días, ML no era completamente sobre matemáticas. Los tiempos han cambiado y ahora lo es. La IA, por otro lado, al menos la IA estrecha, en particular, se trata de resolver algunos problemas muy específicos con algoritmos creativos. En su mayoría, los problemas involucran clasificación, agrupamiento, satisfacción de restricciones, planificación y programación. La IA general (AGI) se trata de encontrar buenas arquitecturas para integrar los métodos de IA estrechos para que puedan trabajar juntos sinérgicamente para producir el fenómeno de la inteligencia, o encontrar los algoritmos correctos que capturan la inteligencia. Las matemáticas están involucradas en todos estos enfoques en mayor o menor medida.

Mi enfoque de AGI, Construyendo mentes con patrones, se centra más en la integración de métodos de IA estrecha que en centrarse en las matemáticas puras.

No, no todo se trata de matemáticas. Pero necesitará algunos conceptos matemáticos básicos para implementar su lógica. Sin eso no puedes hacer algunas tareas en Algorithm.

Por ejemplo, desea implementar un algoritmo que incluya la entrada del usuario. Para esa probabilidad de todos los posibles aportes es importante. Para eso, debe calcular la probabilidad mediante algunas fórmulas y luego deducir sus resultados en su código. De todos modos, eso fue solo un ejemplo.

Creo que escribir Algoritmos necesita tus habilidades matemáticas. Si las matemáticas son importantes o no, pero debes aprenderlas, para deducir otras aplicaciones en tus Algoritmos m

Las matemáticas nos enseñan cómo pensar algorítmicamente. Para implementar un algoritmo lo necesitas.

Espero que entiendas mi punto de vista. Si no solo comentalo.

Todo lo mejor….!! Para producir un nuevo algoritmo.

Que tengas un buen día.

Te encontrarás con un enfoque basado en las matemáticas y no hay forma de evitarlo cuando utilices el aprendizaje automático tradicional. Es por eso que aquí en useAIble, creamos el motor Ryskamp Learning Machine (RLM) que tiene un enfoque lógico en lugar de uno matemático.

Si está interesado, puede visitar nuestro sitio en useAIble ™. Allí verá los 7 avances de RLM que explican los beneficios de usarlo contra el aprendizaje automático tradicional. Además, puede obtener el código fuente (alojado en Github, los enlaces deben estar en el enlace useAIble anterior) y comenzar a jugar y aplicar el RLM en sus próximos esfuerzos de AI / ML.

Si lo encuentra útil, ¿podría darnos una estrella en nuestro Github para que podamos correr la voz y ayudar a más personas?

Gracias

Hola amigos, este es Abhijit. Soy analista de datos de profesión y entusiasta del aprendizaje automático, me encanta resolver problemas del mundo real con la ayuda de algoritmos de ML.

Y, recientemente, también comencé un canal de YouTube: ” ANALYTICS MANTRA “.

Un destino completo para todos los entusiastas de la ciencia de datos y el aprendizaje automático. Estamos creciendo este canal de día y de noche.

Solicito a todos los lectores aquí, que vayan al enlace, exploren los videos y si les gustan esos videos, SUSCRÍBASE . B’coz nos motiva !!!

Aunque esta no es realmente una pregunta de investigación, porque mi trabajo es una mezcla de aprendizaje automático y matemática aplicada, pensé que podría valer la pena mencionar algunas conexiones útiles aquí; aparentemente, el mismo consejo se aplica a casi cualquier otra disciplina que haga uso de las matemáticas!

  1. Todas las matemáticas que necesita para hacer estadísticas serán útiles de una forma u otra para el aprendizaje automático.
  2. Álgebra lineal: sin lugar a dudas, la materia más comúnmente necesaria dentro del aprendizaje automático; Algunas partes críticas están más cerca del álgebra lineal numérica, como las descomposiciones de vectores propios, las descomposiciones de vectores singulares, los sistemas lineales dispersos, etc.
  3. Análisis funcional: ¡no es sorpresa aquí! Análisis armónico, funciones del núcleo, teoremas de representación
  4. Teoría de la probabilidad: desigualdades de concentración, procesos estocásticos, etc.
  5. Teoría de la información
  6. Análisis convexo: principalmente para construir los fundamentos para hacer la optimización, ya que la mayor parte del trabajo algorítmico pesado que ocurre en ML se basa en la optimización.
  7. Combinatoria: muchos datos se representan como gráficos, la teoría de gráficos espectrales es muy útil, pero cada vez son más interesantes los métodos combinatorios y los modelos matemáticos combinatorios (p. Ej., Submodularidad)
  8. Economía / teoría de juegos
  9. Geometría algebraica: un poco hasta ahora, pero sobre todo la “geometría algebraica convexa” y la “suma de cuadrados” parte del juego
  10. Geometría diferencial: nuevamente, principalmente para modelos y trabajos relacionados con la optimización sobre múltiples especiales.
  11. Topología: sobre todo, consulte el subcampo “análisis de datos topológicos”
  12. Geometría métrica: una parte fundamental de ML es la idea de “similitud” o “disimilitud”, por lo que estudiar espacios métricos, sus interrelaciones, incrustaciones, etc. puede ser bastante interesante.
  13. y muchos más, …

No, no se trata solo de matemáticas. Pero sí necesita una base sólida en matemáticas para comprender adecuadamente los algoritmos de ML y aplicarlos correctamente a los datos. Los algoritmos codiciosos están por todas partes en los algoritmos de ML, al igual que otras técnicas de la informática. Echa un vistazo a la creencia profunda y las redes bayesianas: Hinton, GE, Osindero, S. y Teh, YW (2006). Un algoritmo de aprendizaje rápido para redes de creencias profundas. Cálculo neuronal, 18 (7), 1527-1554. O aumento de gradiente: Friedman, JH (2001). Aproximación de la función codiciosa: una máquina de aumento de gradiente. Anales de estadísticas, 1189-1232.

ML aplicado a problemas del mundo real requiere una mezcla ecléctica de datos, algoritmos, conocimiento de dominio e ingeniería. Sin ninguno de estos, no vas a llegar muy lejos (esto significa que generalmente es un deporte de equipo).

  • Datos: mejores datos = mejores resultados de LA. En mi opinión, los datos avanzados (de calidad) con matemática básica le darán un mejor resultado que los datos básicos con matemática avanzada. Todo comienza con los datos.
  • Conocimiento del dominio: si no comprende los datos que está viendo y cuáles son los valiosos problemas para resolver, está muerto en el agua. A veces es de conocimiento común, pero generalmente requiere experiencia especializada. La selección de características se relaciona con los datos y el conocimiento del dominio: son características que alimentan los algoritmos y la selección de las características correctas es un paso crítico.
  • Algoritmos: el cerebro de ML y ciertamente está fuertemente ligado a núcleos matemáticos y estadísticos. Pero también es un área que ha sido, y sigue siendo, democratizada. Ahora puede aplicar de manera bastante efectiva varias técnicas de ML de bibliotecas de terceros sin necesidad de tener una comprensión profunda de cómo funcionan estas bibliotecas.
  • Ingeniería: para hacer todo esto necesita buenos datos, obtenidos de manera oportuna, limpios, transformados, fusionados y presentados en un formato digerible. También debe ser escalable, de lo contrario su capacidad para aprender de ella de manera útil será limitada. Y por otro lado, una vez que haya construido modelos, estos deben aplicarse en algún lugar para darse cuenta del potencial. La producción de los resultados de ML es, y nuevamente, hacer que esto sea adecuadamente escalable es un conjunto completo de desafíos por sí solo. Por supuesto, todo esto necesita código, generalmente una combinación de base de datos (SQL), ML (python, R, algo más), aplicación (C #, Java, python, algo más), etc.

Entonces para responder a tu pregunta. Si tuviera que elegir un aspecto de ML como su característica definitoria que lo hace diferente a cualquier otra cosa en CS, entonces sí, supongo que las matemáticas son de lo que se trata. ¿Pero se aplica ML todo sobre las matemáticas? En este caso, argumentaría que las matemáticas comparten el centro de atención con los datos y la ingeniería requerida para hacerlo posible.

Creo que si parece matemática o no, depende del tipo de algoritmo que esté viendo. Hay algunas áreas que son muy matemáticas (creo que el aprendizaje de refuerzo es uno en el que pienso), mientras que hay varios algoritmos con los que puede salirse con solo conocer algunos CS fundamentales y no estar profundamente involucrado en las matemáticas / estadísticas aplicadas.

Un enfoque de CS que se me ocurre es utilizar KD Trees para fines de clasificación. En este caso, puede pasar más o menos un vector y hacer que el árbol KD lo clasifique encontrando su vecino más cercano o su clasificación más probable al observar el promedio de sus vecinos M más cercanos, etc. Este algoritmo es algo muy normal estudiante en CS podría hacer después de una clase de estructuras de datos.

Sin embargo, obviamente hay algoritmos que tienen un poco más de sabor matemático / estadístico. El área moderna del aprendizaje profundo, por ejemplo, se beneficia de las áreas de estadística y optimización numérica, pero también toma analogías de la neurociencia en la construcción de nuevas topologías y otras cosas. El área de Aprendizaje por refuerzo toma de las estadísticas, en particular sobre los procesos de decisión de Markov y temas similares. Una vez que empiece a intentar sumergirse en el aprendizaje por refuerzo para problemas continuos (dado que los usos típicos son para problemas discretos), entonces elige comenzar a tratar con ecuaciones diferenciales parciales junto con los diversos procesos estadísticos y la optimización numérica. Estas son áreas en las que necesita tener al menos un fondo matemático y de algoritmos bastante sólido para que pueda avanzar.

Por el tipo de problemas que me interesan, veo muchas matemáticas, por lo que recomendaría que cualquiera se involucre con AI / ML para asegurarse de que desarrollen su conjunto de habilidades en esa área. Sin embargo, estoy seguro de que hay otras áreas en la IA en las que no necesita tanta matemática computacional como veo que se usa.

Mi primer trabajo fue piratear / construir sistemas de reconocimiento de voz / altavoz y naturalizar la voz de un sistema de texto a voz. Lo que significaba sumergirse en el mundo del procesamiento de señales (transformadas de Fourier rápidas, análisis cepstral, wavelets, etc.) y estadísticas (modelos de Markov, etc.) al mismo tiempo. A lo largo de los años tuve que aprender modelos de espacio de estado (filtros de Kalman, etc.), análisis convexo (optimización) y no olvidar las técnicas / algoritmos fundamentales del aprendizaje automático. Entonces, sí, no hay forma de escapar aprendiendo las matemáticas involucradas y seguramente ayuda haber tomado un curso de matemáticas avanzadas (que a menudo lamento no haber hecho). Como mínimo, la exposición al álgebra lineal, el modelado estadístico, el análisis convexo y las técnicas de optimización, la coincidencia de patrones y la teoría de gráficos es imprescindible (viva Internet, el omnipresente gurú). Y a medida que uno se sumerge más en el fascinante mundo de ML / AI / DeepLearning, no hay escapatoria de las matemáticas involucradas si se desea hacer / construir / resolver algo significativo.

Matemáticas es para AI y ML lo que las leyes naturales son para la vida; qué idioma es significado y conversación.

Uno puede mirar un libro y decir que no es más que letras, pero no todo lo que se compone de letras es un libro.

Aunque ciertamente se pueden usar los bloques de construcción y las herramientas de las matemáticas y los algoritmos para construir sistemas efectivos de ML e IA, pero las tácticas y estrategias empleadas se parecerán mucho más a la experimentación, replicación, prueba y error e iteraciones. Incluso si se utilizan los componentes correctos, sus relaciones y calibraciones pueden marcar la diferencia entre salidas y operaciones sin sentido y significativas.

Es por eso que digo que AI y ML no se trata solo de matemáticas. Creo que es más exacto decir que AI y ML tienen que ver con la ingeniería de sistemas utilizando componentes de matemáticas y algoritmos.

Hay muchas cosas que suceden junto con el aprendizaje automático mientras se escribe un código. Se debe hacer mucho análisis con la salida del algoritmo ML y también con los conjuntos de datos de entrada. Todos los demás algoritmos son igualmente necesarios para realizar el trabajo por completo. Cuando está creando un producto, ML es solo una parte de él. A veces es una parte importante. Y la clasificación es una de esas cosas que se usa ampliamente en todas partes, incluso en algoritmos de ML.