Desafortunadamente, no existe una solución de forma cerrada para maximizar la probabilidad logarítmica (o minimizar el inverso, la función de costo logístico); al menos no se ha encontrado, todavía.
Existe la excepción mencionada por el usuario 13189252085764635660, donde solo tiene 2 observaciones, y hay este documento
- Lipovetsky, Stan. “Solución analítica de forma cerrada para la regresión logit binaria por predictores categóricos”. Journal of Applied Statistics 42.1 (2015): 37-49. (Solución analítica de forma cerrada para la regresión logit binaria por predictores categóricos)
que “muestra que para las variables explicativas categóricas, es posible presentar la solución en las fórmulas analíticas de forma cerrada”.
- Cómo crear e implementar un modelo de aprendizaje en un robot
- ¿Qué quiso decir exactamente Elon Musk al decir que la cámara de inteligencia artificial de Google no parece inocente?
- ¿Qué es el aprendizaje por refuerzo y por qué es difícil?
- ¿Cómo comenzar con la IA y el aprendizaje automático? ¿Cuáles son los fundamentos de la lógica?
- ¿De qué manera pueden los robots ayudar a mejorar el medio ambiente?
El problema es que el sigmoide logístico no es lineal; en caso de regresión lineal, se supone un ruido gaussiano independiente.
Editar: Como el usuario 13189252085764635660 menciona en el comentario a continuación, los principales problemas son los altos puntos de apalancamiento y la separación.
De todos modos, la buena propiedad de la función de costo logístico es que es convexa con un mínimo global, por lo que no deberíamos tener ningún problema para adaptar el modelo a través de la optimización iterativa como el descenso de gradiente, Newton-CG, etc.