¿Las computadoras se volverán limitadas en conocimiento y complejidad?

La Ley de Moore, en su formulación original, tiene entre 4 y 6 años. Las densidades todavía se duplican a tiempo. Lo que no se duplica es la utilización, porque la mayoría de los programadores simplemente no son tan buenos en la programación concurrente.

La complejidad es un poco de arenque rojo. La mayoría de los problemas se pueden dividir en problemas de caos (donde las dinámicas de gobierno relativamente simples definen formas pero nunca se pueden obtener suficientes puntos de datos para predecir con precisión), problemas en el espacio algorítmico (soluciones en tiempo polinómico), problemas en el espacio heurístico (soluciones en tiempo polinómico) y metaproblemas (cómo se conectan estos problemas, que normalmente es una expresión regular).

Estos subproblemas involucran diferentes complejidades de tiempo y complejidad de espacio, donde no hay relación entre los diferentes tipos. El problema general no es fácil de cuantificar porque no hay forma de relacionar cómo interactúan las complejidades. Las interacciones pueden describirse mediante el análisis de ruta crítica, pero eso básicamente solo modela las operaciones de barrera. No todas las comunicaciones pueden representarse con barreras.

Esa es una cara de esta moneda de tres caras.

El segundo lado es la computabilidad. Un problema no computable nunca puede ser resuelto por una computadora, requiere tiempo infinito, espacio infinito o una acción que no puede representarse en la notación filosófico-matemática llamada lógica. No hay nada que pueda hacer sobre la no computabilidad. Ninguna computadora, por rápida y poderosa que sea, puede realizar una tarea no computable.

La tercera parte es que no necesitas (o no quieres) Big Data. De esa manera yace la locura.

Piensa en el ajedrez. El número de piezas principales es esencialmente 24, ya que debe incluir peones promocionables. Esos pueden ser capturados o no ocupados en el tablero, ignorando la regla de que los reyes no pueden ser adyacentes. Todos los peones deben contarse para cualquier casilla alcanzable, lo que promediará 20 casillas posibles por peón. Un máximo de 8 peones puede ocupar cualquiera de las 8 posiciones adicionales.

Eso es absolutamente imposible de procesar, utilizando datos. El número de puestos en el consejo legal es simplemente demasiado grande porque tiene explosiones combinatorias dentro de explosiones combinatorias.

Una perspectiva más lógica es decir que usted sabe, de antemano, con certeza, que uno de los lados, si jugó perfectamente, ganará o empatará, no puede perder si juega correctamente. Por lo tanto, en el gran pantano de la gráfica ordenada que es el ajedrez, existe una secuencia que, independientemente de lo que haga el oponente, nunca puede producir una pérdida. Exactamente el mismo conjunto de movimientos, independientemente de cómo juegue el oponente. Incluyendo los movimientos del oponente, esto significa que existe un árbol de expansión donde se arregla el peor resultado. Todo lo que tienes que hacer es encontrar la siguiente posición del tablero en el árbol. No necesita ninguno de los otros, no necesita mirar hacia adelante, se decide el resultado.

Es razonable suponer que la función para decidir el árbol de expansión no depende de las posiciones iniciales. Solo el siguiente movimiento importa, después de todo, el pasado no cambia nada *. Por lo tanto, la función es igual de válida para absolutamente todas las victorias identificables contra cualquier defensa, cualquier combinación establecida, etc. Nada le impide usar algoritmos genéticos o heurísticos para establecer la forma y las constantes. Ajústalo con juegos contra sí mismo.

* No ser capaz de atacar con un rey y una torre que se hayan movido previamente puede manejarse imaginando las posiciones iniciales como diferentes casillas que simplemente se superponen. Entonces nunca puede volver al cuadrado inicial, solo a la posición inicial de la cuadrícula. No necesitas pasado.

No es necesario tener una gran cantidad de datos, 5000 tableros no relacionados que, cuando son evaluados por la función, deben satisfacer algún conjunto de desigualdades, de modo que estén dentro del árbol de expansión para esa posición inicial. Es muy poco probable que necesite más que eso. Simplemente no hay suficientes movimientos posibles (una mirada por delante de 1 es todo lo que necesita) para crear suficientes incógnitas para que sea imposible resolver adecuadamente las incógnitas.

Luego tiras todos los datos que has usado, el evaluador es lo que importa. El evaluador no codifica los datos, los datos eran una ilustración de un evaluador que tenía que estar allí.

Una pequeña cantidad de datos más una pequeña cantidad de pruebas le brinda una función minúscula. Siempre hervir, hervir es una mala idea.

Esto es cierto de la economía. Sabemos por la Geometría Fractal de la Naturaleza de Mandelbrot que los precios de los productos básicos, la actividad económica, incluso el clima, son construcciones auto-similares con un conjunto idéntico de atractores extraños. Es por eso que varias personas mostraban gráficos similares.

Tenemos un muy buen modelo para el clima, ahora es realmente confiable en el rango de 2-3 días. Si es una máquina similar, con exactamente el mismo software (recuerde que son los atractores extraños que desea) pero con datos de existencias en lugar de temperatura, presión y similares, debe obtener pronósticos precisos para las próximas 2-3 décadas, pasando por los diferentes escalas Mandelbrot informó.

Es muy probable que encuentre, muy rápidamente, que menos es más. No necesitaría muestras cada pocas décimas de segundo, una vez cada media hora o tal vez incluso una vez al día estaría bien. Tampoco necesitaría todos los valores de stock, puede ignorar los valores dependientes ya que los derivará. No dicen nada y solo confunden la entrada.

Una vez que haya llegado a los datos que significan algo, se parecerá mucho al escenario de ajedrez. Simplemente haciendo búsquedas simples en los datos que importan.

Nadie ha ganado nunca una guerra contra la información. Cada intento ha terminado en un desastre humillante. Las batallas se pueden ganar por información, pero solo si eres muy bueno y no estás sobrecargado. Ese es un problema común para todo esto, mucha atención a lo poco importante porque es emocionante, pero no es donde está la acción, solo el ruido.

La clave es la señal para excluir el ruido, los patrones en lugar de las efímeras. Ajustar las teorías a las observaciones, imploró al ficticio Sherlock Holmes, en lugar de al revés.

Encuentro esta pregunta extraña …

Claro, las cosas que procesan el conocimiento están limitadas (en parte) por lo que saben.

Claro, la formulación original de la Ley de Moore (con respecto a los transistores) golpeará / ha chocado contra una pared.

¿Y qué? Una forma generalizada de la Ley de Moore todavía está vigente: aunque la densidad del transistor está limitada por restricciones físicas, no siempre se trata de eso; en general, los sistemas de información todavía se comportan de manera similar. Esto se debe a las sucesivas generaciones de tecnología que se está construyendo (y solo es posible debido a) los avances ofrecidos por las generaciones anteriores. Curiosamente, al acercarnos a un límite estricto en el tamaño de los transistores en un IC, podemos ramificarnos en sistemas paralelos de estos IC, expandiéndonos en una dirección diferente. En otras palabras, no siempre se trata de la miniaturización de un tipo de cosas … los nuevos poderes permiten nuevos diseños.

El concepto de “puntos de datos” es demasiado simplista. Digamos que tenemos una cuadrícula, de tamaño 800 por 600, y la llenamos con cosas llamadas ‘elementos de imagen’ … nuevamente, ¿y qué? En algún lugar hay una copia baja (ish) de la Mona Lisa … parte del texto de Frankenstein … y así sucesivamente. Si bien esto puede ser otra simplificación excesiva, no se trata solo de los “puntos de datos”, se trata de las relaciones entre estas cosas, o cómo se interpretan, qué significan y cómo se procesa ese significado.

Los datos no son necesariamente conocimientos. Quiero decir, probablemente podría darte 10 ^ 15 líneas de código que logran lograr menos de 10 ^ 12 .. o 10 ^ 9 .. o bien, ya sabes 🙂