Bueno … si y no. Supongo que hay dos construcciones aquí.
- No comprende la propagación hacia atrás y algunos fundamentos, pero sí comprende la investigación actual.
- No entiendes nada sobre el espacio.
Si es el número 1, sin duda sería posible hacer una gran contribución al campo. Sería un poco extraño, pero cada uno tiene su propio proceso de aprendizaje y si, por ejemplo, está sugiriendo un nuevo método de propagación de errores, no necesariamente necesita comprender la propagación inversa. Solo necesita poder comparar su trabajo con él para saber que su enfoque es mejor.
Sin embargo, hay otra construcción que es la siguiente: “No sé nada sobre este campo, pero las redes neuronales parecen tener algo que ver con el pensamiento humano en general y leí un par de publicaciones en el blog y creo que tengo una nueva y radical idea sobre cómo abordar el problema que será una gran contribución al campo ”.
- ¿Cómo cambiará la inteligencia artificial la seguridad cibernética?
- ¿Cómo cambiará la inteligencia artificial la atención médica?
- ¿Qué pasos debo seguir para aprender la inteligencia artificial?
- ¿Cuáles son algunos juegos de palabras de inteligencia artificial?
- Si alguien ha leído The Society of Mind, o el artículo de Minsky, ¿puede decirme si un agente puede participar en solo una K-Line o múltiples K-Lines?
La segunda forma de pensar es absolutamente ridícula y venenosa para usted y el resto del campo. El problema principal es que, a menos que comprenda la investigación actual como mínimo, no tiene idea de cuál sería una gran contribución. Si crees que puedes sacar una obra filosófica y llamar a eso una “gran contribución” al campo que estás bromeando.
El problema es que el aprendizaje automático es un campo de la ciencia. Eso significa que para hacer cualquier contribución lo que necesita son resultados experimentales. Tienes que poner tu dinero donde está tu boca y demostrar que tu enfoque es mejor que otros enfoques. No puede hacer esto teniendo una discusión de alto nivel sobre por qué el enfoque se siente mejor. Hay un millón de personas haciendo eso, pero no es ciencia .
Si no comprende el campo, está haciendo una gran cantidad de suposiciones ignorantes sobre cómo funciona el campo y cómo funcionan los modelos de red. Desafortunadamente, debido a que un idiota hace mucho tiempo agregó la palabra “neuronal” frente al modelo de red, se ha convertido en un semillero para las personas que creen que los pensamientos genéricos sobre la naturaleza de la conciencia son “contribuciones” al campo. No son.
Los modelos de red modernos no están (con muy pocas excepciones) inspirados biológicamente. Son un enfoque algorítmico como cualquier otro, y solo porque alguien dio a entender que tiene algo que ver con el cerebro y que tienes un cerebro no te hace competente en este campo. Hay un área de investigación muy interesante en la que las personas intentan usar modelos de red para explorar y modelar arquitecturas neuronales biológicas, pero se basa en un profundo conocimiento de la neurociencia, el modelado y el aprendizaje automático.
Pero hay buenas noticias: la propagación hacia atrás es muy simple. Muchas personas miran las matemáticas y se confunden mucho, pero cualquiera con experiencia en cálculo básico y álgebra es capaz de entenderlo con un poco de trabajo. Es solo una aplicación especial de la regla de la cadena. Si se preocupa lo suficiente como para trabajar hacia una “gran contribución”, entonces ciertamente debería poder trabajar hacia la comprensión de los conceptos básicos que subyacen en este campo.
Sin una formación básica en matemáticas, específicamente cálculo, álgebra lineal y algunas estadísticas, no podrá describir las grandes ideas que tiene para el campo. No podrá comprender el estado actual del campo, y ciertamente no podrá contribuir a ello.