Lo que has descrito se llama aprendizaje de refuerzo. Dado que el modelo es probabilístico, es probable que los métodos bayesianos sean lo que está buscando.
En resumen: antes de la manipulación, o antes de la medición, la probabilidad es del 70%. Después, o después de la medición, la probabilidad es del 0% porque la evidencia del manipulador no mostró una copa, y la probabilidad de que el manipulador sea correcto es del 100%. Lea más en http://en.wikipedia.org/wiki/Bay…
En términos más generales, actualizar dicho modelo en función de nueva información … depende del modelo. Podría ser tan simple como eliminar la copa del modelo mundial. Pero es posible que no pueda (o desee) cambiar el modelo; en su lugar, es posible que desee considerar la información del modelo y del manipulador por separado, y combinarlos de diferentes maneras.
- ¿Cuál es la diferencia entre tagger, chunker y NER?
- ¿Puede haber mejoras en el tiempo de ejecución al usar GPU para la red neuronal incluso si el conjunto de datos es de baja dimensión?
- ¿Cree en los resultados producidos por el análisis de control metabólico (modelado matemático utilizando parámetros cinéticos)?
- ¿Cuáles son los tipos de problemas que se pueden resolver con las redes neuronales?
- ¿Hay conjuntos de datos abiertos que contengan textos y calificaciones de los usuarios para ellos?
No es posible afirmar categóricamente que es más fácil o más difícil enseñarle al robot lo que está bien o lo que está mal. Depende de muchas cosas: entre ellas, el problema de clasificación (“copa” frente a “no copa” es un problema diferente a “copa” o “gato” o “cactus”), el tipo de enseñanza (retroalimentación positiva / negativa, y el tipo, tamaño y orden del conjunto de entrenamiento), y el tipo de aprendizaje involucrado (red neuronal, SVM, …)
Si está interesado en aprender más sobre el aprendizaje automático, hay varios recursos en línea excelentes. Puede probar las conferencias de Yaser Abu-Mostafa en http://work.caltech.edu/telecour…