¿Cuáles son las fallas en el modelo teórico que sugieren un vínculo entre Inteligencia y Entropía?

En general, el documento parece sólido, pero no podría respaldarlo sin un análisis mucho más cuidadoso y lento. En particular, tengo tres reservas:

– Las integrales de ruta son notoriamente difíciles de manipular rigurosamente. Todas las definiciones son razonables siempre que pueda definir una medida adecuada en el espacio de trayectorias que se originan en un punto dado en el espacio de fase, y no estoy seguro de qué supuestos serían necesarios tanto para la transición de un conjunto estadístico al conjunto de trayectorias y luego la evolución del conjunto de trayectoria en sí.

– Las fuerzas entrópicas son una analogía útil en física estadística para determinar la evolución de un conjunto, pero aquí los autores van más allá de la aplicación habitual e intentan usar fuerzas entrópicas en un conjunto de trayectorias de espacio de fases. Entonces, en lugar de usar la entropía para determinar las expectativas de equilibrio, la están usando para determinar la dinámica de no equilibrio (de ahí el uso de “causal”), lo que me parece un poco circular: ¿cómo pueden determinarse las dinámicas ahora por trayectorias en el futuro? ?

– Los ejemplos son sorprendentes, pero también parecen cuidadosamente elegidos. En ambos casos, los sistemas evolucionan para maximizar las configuraciones posibles (y, por lo tanto, la entropía) y los autores afirman que esto es indicativo de inteligencia. Pero en estos ejemplos, su definición de inteligencia corresponde a maximizar la entropía (un sistema está restringido, luego evoluciona para no estar restringido; no hay nada nuevo en eso). Lo que me gustaría ver son ejemplos en los que se espera que una “inteligencia” canónica disminuya la entropía.

Si bien las afirmaciones me parecen un poco extremas, obviamente no hay nada malo en el papel. Quizás solo la interpretación de los resultados.

La idea de que una medida similar a la entropía sirva para proporcionar una medida de inteligencia parece ser una idea cuyo momento ha llegado. Aparentemente, el artículo que cita fue uno de los primeros. Max Tegmark en TEDxCambridge 2014 “El video en TEDxTalks (en youtube) ofrece una exposición fascinante de la idea. Tononi (página en nyu.edu) aparentemente merece crédito por su bien recibido artículo.
[1004.1999] Hacia una teoría matemática de la comunicación significativa propone una formulación extendida de la medida similar a la entropía. El artículo comienza con la premisa de que la entropía en sí misma es una medida de aleatoriedad. El documento sugiere una forma de contabilizar el entendimiento entre dos partes involucradas en cualquier intercambio de información. El libro reciente de Tegmark ( https://www.google.com/webhp?sourceid=chrome-instant&rlz=1C1CHWA_enUS615US615&ion=1&espv=2&ie=UTF-8#q=tegmark%20book ) hace referencia a esta idea usando la analogía con una computadora personal donde el contenido involucra mucha más información útil de la que se mide por la medida obvia del tamaño de la memoria. Si compro una computadora portátil de $ 500, qué medida de información ajustaría su contenido de información de 5 gigabytes para tener en cuenta el software adicional instalado. ¿Cuánto contenido adicional resulta después de usarlo durante algunos años?

Ver también la respuesta de Curt Tigges a ¿Cuál es la forma más alta de inteligencia? y enlaces a críticas en los comentarios.

El artículo trata realmente sobre un concepto muy generalizado de inteligencia. No está claro que en realidad se asigne a todas las cosas que queremos decir con ‘inteligencia’ o solo a las cosas que queremos decir con ‘inteligencia’. O que incluso se correlaciona con un núcleo central dentro de la gran y sujeta a muchos argumentos de rango de lo que la gente llama inteligencia.

Aún así, es un punto de partida interesante para pensar en formas adicionales en que podemos actuar de manera inteligente. Y podría ser un enfoque útil para preguntas sobre cómo mejorar su suerte. (Vea la respuesta de Ed Caruthers a ¿Es realmente posible hacer su propia suerte? Y todas las demás respuestas, y las preguntas relacionadas que verá a la derecha).

Primero debes ser bueno para elegir entre las opciones. Luego, más opciones pueden permitirle mejorar su vida.

En segundo lugar, más opciones solo te ayudan si son opciones para ti. Es decir, tener una opción entre 100 oportunidades de inversión puede ser mejor que tener solo 10 opciones. Pero enfrentar un ejército de 1000 hombres que intentan matarte no puede ser mejor que un ejército de 100.

Por lo tanto, puede ser inteligente que busque formas de aumentar la cantidad de posibilidades que puede elegir.

Es un periódico interesante para leer, diría.

En resumen, el documento básicamente dice lo siguiente: si se agrega manualmente una fuerza impulsora para maximizar las posibilidades de las trayectorias en el futuro (cuando esta fuerza está ausente) dentro de una duración fija, entonces un comportamiento interesante que parece “inteligente” o “adaptativo” se puede encontrar.

Suponiendo que los autores realizaron correctamente los cálculos que describieron, esta conclusión es ciertamente válida. La verdadera pregunta es qué significa esto.

Lamentablemente no creo que esto signifique mucho. Tal como está, todas las leyes físicas conocidas son markovian; es decir, dependen solo de la información actual, a pesar de que pueden emitirse en una forma de minimizar una “acción” durante un período de tiempo. Tal “fuerza entrópica causal”, tal como se propone, probablemente no pueda convertirse en una forma que dependa solo del instante. Por lo tanto, a pesar de que se demuestra que esta fuerza entrópica causal puede dar lugar a un comportamiento interesante, no es obvio (y probablemente no probable) cómo las leyes físicas de la naturaleza realmente pueden generar tal fuerza.

Al final, lo que veo son solo algunos ejemplos que se muestran para validar tales afirmaciones de que maximizar las posibilidades futuras puede conducir a un comportamiento adaptativo interesante. Pero si esto contiene inteligencia de todo tipo (en mi opinión obviamente no), o aún más importante, cómo este tipo de optimización puede aparecer como consecuencia de leyes físicas conocidas aún está por verse.

More Interesting

¿Qué se entiende por reconocimiento de patrones y aprendizaje automático?

¿Qué pasaría si construimos una IA superinteligente amigable y nos diga que un mundo mejor es imposible?

¿Cuáles son las mejores bibliotecas de aprendizaje automático?

Tenemos teorías sobre cómo construir naves estelares interestelares, incluso para la unidad 'warp'. ¿Tenemos una teoría para construir IA de propósito general?

He oído que hay muchas aplicaciones (CV, PNL, etc.) de aprendizaje automático. ¿Cuál elegiste y cuál fue la razón para elegirlo?

¿Cuál es el caso más infame, desde el punto de vista financiero y de reputación, de que un algoritmo de aprendizaje automático falla debido a una fuga objetivo?

¿Puede una educación formal en física teórica y matemática ser útil para la ingeniería de software en el sector de IA?

Cómo usar la red neuronal entrenada

¿Es posible entrenar a una IA en datos sísmicos para predecir efectivamente los terremotos?

¿Cuál es la relación de las redes de creencias profundas con el aprendizaje profundo, si existe?

¿Cuál es el trabajo de la red neuronal en el procesamiento de imágenes?

¿Cómo funciona la IA en los juegos?

¿Cuáles son las perspectivas laborales después de obtener una maestría en ciencias de la computación con una especialización de inteligencia artificial de KU Leuven, Bélgica?

Si una IA comete asalto / infringe un delito, ¿se hace responsable a la IA o al desarrollador?

¿Deep Learning anuncia el comienzo de la singularidad tecnológica?