¿Se ha realizado algún trabajo para hacer que la regresión lineal sea amigable para el laico?

Como otros han mencionado, los programas estadísticos son relativamente fáciles de usar y también están abiertos al abuso. Solo tengo un punto adicional que hacer;

Cada usuario debe considerar cada problema en su totalidad. El enfoque para resolver el problema puede ser similar (incorporar los datos y modelarlo) pero los problemas que cada conjunto de datos trae serán diferentes entre sí. Así que asegúrese de ejecutar las pruebas de diagnóstico y luego continúe. Una vez que alguien entiende lo que implica el parámetro de regresión o lo que significan los valores de p, poco cambiará de un software a otro (por supuesto, la metodología cambiaría).

O bien, los programas como R hacen que frotar las regresiones sea más fácil para usted y el resultado es similar a lo que produce Excel. Además, hay mucha documentación sobre estos temas que están disponibles en línea.

Buena suerte

Se ha hecho demasiado trabajo a este respecto.

Ya es fácil (en Excel, SPSS u otros programas) hacer regresión. Esto lo hace “amigable” pero es un amigo de dos caras.

Los programas de estadísticas son demasiado fáciles de usar y abusan. En particular, los métodos de apuntar y hacer clic permiten a cualquier persona hacer cualquier cosa.

Es cierto que algunos supuestos se pueden verificar, pero ¿qué hacer si se violan? ¿Y qué hay del modelo con sentido? ¿Y qué hay de todas las alternativas a la regresión “regular” que podrían ser mejores?

More Interesting

¿Cómo podemos hacer una buena predicción usando el aprendizaje profundo MXNet R?

¿Un pequeño porcentaje de datos incorrectos (digamos entre 1% y 5%) en el conjunto de datos de entrenamiento impacta significativamente la efectividad del entrenamiento de una red neuronal?

¿Por qué tenemos que convertir el valor categórico en factor (en R) o variables ficticias antes de aplicar algoritmos de aprendizaje automático (especialmente regresión lineal)? ¿Afecta nuestros resultados?

¿Son útiles los procesos jerárquicos de Dirichlet en la práctica?

¿Cuál es la relación entre IA, aprendizaje automático y ciencias de la computación? ¿Hay especializaciones en IA o aprendizaje automático, o son especializaciones en informática?

Como proyecto de graduación, elegimos hacerlo en el análisis de sentimientos de Twitter, tenemos algunos conceptos básicos de ML obtenidos de los MOOC, ¿a dónde deberíamos ir después?

¿Cuál es el mejor blog / sitio para mantenerse actualizado sobre las últimas tecnologías y herramientas de big data, aprendizaje automático?

¿Qué significan las hipótesis finita e infinita en el aprendizaje automático? Cuáles son las diferencias entre ellos?

En reconocimiento facial, ¿son las huellas faciales y los vectores de características lo mismo? Si no, ¿en qué se diferencian?

¿La red neuronal convolucional es básicamente un procesamiento previo de datos a través del núcleo más las redes neuronales? ¿Acaso Deep Learning no es solo redes neuronales con preprocesamiento para las selecciones de funciones automatizadas?

¿Cuáles son los problemas de investigación abiertos en el aprendizaje automático para la detección de intrusos?

¿Qué campos necesitan NLP (procesamiento del lenguaje natural) o técnicas de minería de texto?

Al aplicar redes neuronales para la clasificación binaria, ¿hay algún beneficio para el conjunto de entrenamiento que tiene un número igual de 0 y 1?

¿Qué modelo / algoritmo de ML utilizo?

¿Cuáles son algunas buenas ideas de proyectos en el área de análisis / predicción del mercado de valores utilizando Bayes ingenuo?