¿Cuál es el alcance del aprendizaje automático en la verificación?

Los algoritmos de Machine Learning encuentran aplicaciones en áreas donde hay un gran conjunto de datos disponible y los algoritmos pueden explorar y estudiar a partir de estos datos y hacer mejores predicciones.

Si observa de cerca la Verificación, puede ver las siguientes áreas que podrían ser buenos candidatos para la aplicación de la misma.

  1. Regresiones y depuración : la mayoría de los proyectos de verificación deben abordar el problema de la gestión de regresiones y depuración: qué pruebas ejecutar, con qué frecuencia ejecutar, cuántas semillas, cómo clasificar y depurar fallas y hacer un progreso continuo. Muchos de estos se realizan utilizando algún tipo de scripts de automatización con alguna intervención manual. Ciertamente, siento que hay cierto margen para tener algoritmos que puedan aprender y administrar esto mejor desde el inicio del proyecto hasta el final.
  2. Clasificación de la prueba: un problema con grandes proyectos que pueden tener una gran base de datos de pruebas: pruebas transferidas del proyecto heredado, pruebas duplicadas que fueron desarrolladas por diferentes personas y llevadas a cabo, pruebas aleatorias desarrolladas para ayudar al cierre de la cobertura pero no desarrolladas con buen pensamiento, etc. La mayoría de las veces se pierde mucho tiempo de simulación al ejecutar pruebas duplicadas que cubren el mismo escenario y pruebas que pasan continuamente sin agregar ningún valor. Algunas herramientas de la industria proporcionan formas de clasificar las pruebas en función de la cobertura, pero, por lo que sé, no se utilizan de manera efectiva. Definitivamente, hay cierto alcance en esto para desarrollar algoritmos que puedan aprender de los datos disponibles y hacer una mejor clasificación de las pruebas.
  3. Cierre de cobertura y restricciones aleatorias: uno de los polos más largos hacia la finalización de la verificación en bancos de pruebas de verificación aleatoria restringida es desarrollar restricciones correctas que ayuden a un cierre de cobertura funcional más rápido. Muchas veces, el estímulo se realiza con una amplia variedad de restricciones aleatorias y ejecutamos un número bastante elevado de semillas para alcanzar el cierre de cobertura funcional. Algunos algoritmos que pueden usar el conjunto de datos de cobertura y hacer una mejor predicción de restricciones aleatorias serían un buen enfoque

No sé si alguna compañía está haciendo activamente alguno de estos. Sin embargo, soy consciente de que algunos estudiantes han intentado (o han intentado) este tipo de algoritmos como parte de proyectos académicos.

También me encontré con el mejor artículo de este año en DVCon 2017 realizado en los EE. UU. Que tenía un tema similar (Optimización de restricciones de pruebas aleatorias utilizando algoritmos de aprendizaje automático -Stan Sokorac – ARM, Inc.)

Así que creo que veremos algunos avances en esto durante los próximos años.

More Interesting

El lenguaje de máquina se ha mencionado en todas partes. ¿Qué es en realidad?

¿Cuáles son algunas arquitecturas de redes neuronales?

En la clasificación binaria, ¿es una buena práctica siempre sobre / submuestrear su conjunto de datos para tener un número idéntico de muestras de las dos clases?

¿Qué son las medidas completamente aleatorias y cómo / cuándo son útiles?

Quiero extraer acciones del texto y la entidad que actuó y sobre la que se actúa. Cómo proceder ?

Cómo detectar y eliminar valores atípicos de ese conjunto de datos

Cómo derivar la propagación hacia atrás desde la segunda capa de convolución

Los algoritmos de ML escritos en Java funcionan bien para un conjunto de datos más pequeño. Para un conjunto de datos grande, ¿cómo podemos escalar estos algoritmos? ¿Necesitamos buscar algoritmos distribuidos / mapas distribuidos en memoria / NOSQL / archivos para leer y escribir grandes conjuntos de datos o hay alguna buena API?

¿Por qué utilizamos el agrupamiento en el análisis estadístico? ¿Puedes dar una explicación intuitiva o ejemplos intuitivos?

Si planeo obtener un doctorado en aprendizaje de refuerzo teórico, ¿qué profesores y universidades debería considerar?

¿Qué algoritmos son los mejores para el filtrado de spam? ¿Cómo deberían implementarse?

¿Cómo debo proceder para implementar un analizador probabilístico de lenguaje natural?

¿Existe alguna posibilidad de que la química del aprendizaje automático pueda correlacionarse con la nanotecnología?

¿Cuáles son algunos buenos métodos para explorar datos de alta dimensión?

¿Las imágenes captcha perderían su importancia si las técnicas de procesamiento de imágenes pudieran reconocer a los personajes automáticamente?