¿Alguien ha desarrollado una IA que pueda codificar contra el desarrollo impulsado por pruebas?

No es que haya oído hablar alguna vez.

Creo que la ciencia de la IA tiene objetivos más ambiciosos que la generación de código, especialmente la generación de código de prueba, dado que la IA en sí misma se basa en la combinación de prueba, error y algoritmo para dar forma al comportamiento, la parte “impulsada por la prueba” es algo intrínseca.

Además, el pensamiento basado en pruebas y el desarrollo general es propenso a la paradoja objetiva: lea Stanley [1], un desafío importante para los enfoques de desarrollo tradicionales.

Los sistemas evolutivos (IA) superan esto al abordar los problemas desde la perspectiva del comportamiento caótico puro que se filtra hacia una solución adaptativa a través de miles, si no millones de generaciones, a través de la causalidad. Esto no se relaciona directamente con TDD, pero aquellos involucrados en TDD generalmente se acercan a las soluciones en la creencia de que no solo ‘conocen’ el problema a resolver, sino que entienden las métricas requeridas para probar la solución.

Las dos culturas del pensamiento son muy diferentes.

Notas al pie

[1] Deja de intentar ser creativo

More Interesting

Si una inteligencia artificial se volviera físicamente independiente, ¿en qué hábitat elegiría quedarse en la Tierra?

¿Cuál sería el incentivo económico para producir una IA peligrosa?

Si tuviera una aplicación móvil (con tecnología de IA) que permitiera a los fanáticos del deporte debatir sobre un tema, ¿sería algo interesante?

¿Podemos aprender el aprendizaje automático en el entrenamiento TCS?

En el futuro, ¿será posible que la inteligencia artificial lidere una empresa como la inteligencia ejecutiva detrás de la estrategia?

¿Cómo se beneficiaría una sociedad de una IA que pasa la prueba de Turing?

Como humanos, aprendemos de las experiencias. ¿Es posible construir una máquina que aprenda de tus experiencias y luego te reemplace después de tu muerte?

Después de que AI comenzó a escribir su propio código, tuve dudas sobre si debía estudiar Ciencias de la Computación en la universidad. ¿Debo dejar que AI haga su trabajo?

¿Puede AI tocar el piano como un pianista?

¿Pueden los modelos supervisados ​​de aprendizaje automático aprender características de los datos de entrenamiento?

¿Por qué los científicos están obsesionados con construir robots y desarrollar inteligencia artificial?

¿Por qué la optimización de colonias de hormigas es una técnica metaheurística?

En el contexto del aprendizaje automático, ¿qué tan fuerte es la siguiente suposición: algún dato proviene de alguna distribución subyacente?

¿Qué es la intuición del filtro de partículas?

¿Se puede diseñar la IA para imitar comportamientos humanos específicos, como tomar decisiones irracionales, ser subóptimos y cometer errores como las personas?