Estoy realmente sorprendido de que nadie haya mencionado KDD todavía. Aquí están mis categorías:
Conferencias principales:
ICML
KDD
NIPS
En mi opinión, estas tres son las conferencias emblemáticas de aprendizaje automático. Son los más grandes por asistencia, atraen investigadores de prácticamente todas las áreas del aprendizaje automático y tienen una alta visibilidad en la industria y otros campos computacionales.
- ¿Una máquina de máquina virtual de big data ayuda a analizar archivos grandes?
- ¿Cuáles son las mejores medidas al validar de forma cruzada un modelo para determinar qué tan bueno es el modelo y cómo funcionará en situaciones reales?
- ¿Qué tipo de servicio suele ofrecer el inicio del procesamiento del lenguaje natural?
- ¿Cuál es la diferencia intuitiva entre un modelo estocástico y un modelo determinista?
- ¿Cuál es la importancia del análisis de componentes principales (PCA) en el modelado predictivo?
En comparación con ICML y NIPS, KDD está un poco más centrado en nuevas aplicaciones y menos centrado en la metodología básica, pero muchas personas consideran que KDD es la conferencia de aprendizaje automático más completa. Y recuerda, antes de que existiera Kaggle, estaba la Copa KDD.
Conferencias más pequeñas:
AISTATS
UAI
Estas dos conferencias generalmente abarcan una amplia gama de temas en aprendizaje automático, aunque no tan amplias como las tres mencionadas anteriormente. También son significativamente más pequeños que los 3 principales, lo que los hace menos visibles para los investigadores fuera de la comunidad de aprendizaje automático. Sin embargo, en términos de difusión dentro de la comunidad de aprendizaje automático, estas conferencias son tan buenas como las 3 principales. Por ejemplo, reviso regularmente los documentos que provienen de estas conferencias. Pero nunca asistiría físicamente a estas conferencias si no tuviera un documento para presentar; no son los mejores eventos de redes debido a su escala limitada.
Conferencias de nicho:
ICLR
POTRO
Llamo a estas dos conferencias conferencias de nicho porque se centran en un conjunto muy limitado de temas (desde una perspectiva de aprendizaje automático). ICLR es una conferencia de reciente creación organizada por personas de aprendizaje profundo. El objetivo de ICLR es estudiar cómo aprender representaciones de datos, que es básicamente lo que hace el aprendizaje profundo. COLT es la conferencia sobre teoría del aprendizaje, por lo que se centra principalmente en los aspectos teóricos del aprendizaje automático. Ambas conferencias son excelentes para sus respectivos temas, y obtienes una audiencia más enfocada para tu trabajo.
Conferencias regionales:
ECML
ACML
También hay algunas conferencias regionales. Asistiría a ECML o ACML si quisiera específicamente establecer contactos con europeos o asiáticos, respectivamente.
Otras conferencias
Muchas conferencias de otros campos tienen documentos de aprendizaje automático o incluso una pista de aprendizaje automático. Por ejemplo, las conferencias que se centran en la visión, el procesamiento del lenguaje natural o la recuperación de información tienen la mayoría de sus documentos utilizando el aprendizaje automático de alguna manera, y también tienen muchos documentos que proponen nuevas técnicas de aprendizaje automático.
Por lo tanto, a menudo hojeo las actas de las siguientes conferencias desde otros campos computacionales:
CVPR
ICCV
ECCV
SEÑORA
CIKM
WSDM
ACL
EMNLP
SDM
ICDM
WWW
Finalmente, hay conferencias que son tan amplias que incluso podría llamarlas desenfocadas. Pero tienen una buena cantidad de documentos de aprendizaje automático.
AAAI
IJCAI
Revistas:
Las dos principales revistas de aprendizaje automático son Machine Learning y JMLR. Ambos contienen contenido de alta calidad. Otras revistas que son más amplias que el aprendizaje automático son TKDE y JAIR. Ambos también contienen excelentes documentos de aprendizaje automático.
Tenga en cuenta que JMLR y JAIR son de acceso completamente abierto, por lo que son libres de navegar. TKDE y Machine Learning están detrás de los muros de pago, sin embargo, los autores conservan ciertos derechos de autor, por lo que generalmente puede encontrar los documentos en Google Scholar o en las páginas de inicio de los autores.