¿Se pueden usar las colecciones LETOR para una recuperación ad hoc?

Bueno. La respuesta simple es sí.

LETOR2.0-LETOR4.0 están construidos con colecciones trec.

La Conferencia de Recuperación de Texto ( TREC ) es una serie continua de talleres que se enfocan de manera diferente en una lista de áreas o pistas de investigación de recuperación de información (IR) . Está copatrocinado por el Instituto Nacional de Estándares y Tecnología (NIST) y la Actividad de Proyectos de Investigación Avanzada de Inteligencia (parte de la oficina del Director de Inteligencia Nacional), y comenzó en 1992 como parte del programa TIPSTER Text. Su propósito es apoyar y alentar la investigación dentro de la comunidad de recuperación de información al proporcionar la infraestructura necesaria para la evaluación a gran escala de las metodologías de recuperación de texto – Wikipedia, y para aumentar la velocidad de transferencia de tecnología de laboratorio a producto.

Conferencia de recuperación de texto – Wikipedia

LETOR3.0 estaba usando la pista web 2003 y 2004:

Conferencia web de Text Retrieval Conference (TREC) 2003

Conferencia de recuperación de texto (TREC) 2004 Web Track

La colección de documentos es.: Gov

Acceso a las colecciones de investigación web WT2G / WT10G / GOV / GOV2 / Blog06 / Blog08

Del mismo modo, LETOR4.0 usó el millón de pistas de consulta:

Million Track de consultas

More Interesting

¿Cuáles son las ventajas y desventajas de utilizar una combinación de impulso + árboles de decisión frente a algún otro enfoque en un problema de clasificación?

¿Por qué no podemos hacer una puerta XOR con 1 neurona?

¿Qué es la agrupación promedio global?

¿Cuál es el proceso de modelado?

¿Se pueden usar las redes de confrontación generativas para casos no supervisados?

¿Cuáles son las principales innovaciones y hallazgos del documento 'Diseño químico automático utilizando una representación continua de moléculas basada en datos'?

¿Qué curso se sugiere para el aprendizaje automático que sea más un curso basado en proyectos?

¿Cómo se puede utilizar el aprendizaje automático en el análisis de tendencias?

¿Cuáles son las ventajas de aprender Apache Spark?

¿Cuál es el estándar de JMLR contra documentos en ICML y NIPS?

¿Cuál es una mejor manera de comenzar a aprender Ciencia de Datos, a través de cursos en línea o en un Instituto de capacitación?

¿Debería haber una relación específica entre el número de características y el número de clases? Si tengo 15 funciones pero 50 clases con 1000 datos de entrenamiento, ¿tendré un problema de sobreajuste? ¿Y cuál es la mejor técnica de clasificación para esta relación?

¿Qué estrategia usaste para resolver el juego 2048? ¿Por qué?

Estoy muy interesado en el aprendizaje automático y quiero trabajar en algunos proyectos de código abierto. ¿Qué proyectos puedes sugerir?

¿Cómo se deriva la fórmula lagrangiana para resolver la máquina de vectores de soporte?