¿Se detiene la tecnología informática?

Bueno, no podemos estar seguros de ninguna manera …

Ver: problema de detención

El problema de detención es un problema de decisión sobre las propiedades de los programas de computadora en un modelo fijo de cómputo de Turing completo, es decir, todos los programas que se pueden escribir en algún lenguaje de programación dado que sea lo suficientemente general como para ser equivalente a una máquina de Turing. El problema es determinar, dado un programa y una entrada al programa, si el programa finalmente se detendrá cuando se ejecute con esa entrada. En este marco abstracto, no hay limitaciones de recursos en la cantidad de memoria o tiempo requerido para la ejecución del programa; puede tomar mucho tiempo y usar arbitrariamente mucho espacio de almacenamiento antes de detenerse. La pregunta es simplemente si el programa dado alguna vez se detendrá en una entrada particular.

Por ejemplo, en pseudocódigo, el programa:

mientras (verdadero) continúe

no se detiene; más bien, continúa para siempre en un bucle infinito. Por otro lado, el programa

imprimir “¡Hola, mundo!”

se detiene

Si bien decidir si estos programas se detienen es simple, los programas más complejos resultan problemáticos.

Un enfoque para el problema podría ser ejecutar el programa durante un cierto número de pasos y verificar si se detiene. Pero si el programa no se detiene, se desconoce si el programa finalmente se detendrá o se ejecutará para siempre.
Turing demostró que no puede existir un algoritmo que siempre decida correctamente si, para un programa arbitrario dado y su entrada, el programa se detiene cuando se ejecuta con esa entrada; La esencia de la prueba de Turing es que cualquier algoritmo de este tipo puede contradecirse y, por lo tanto, no puede ser correcto.

Por el contrario, Computer Technology (CT) ha llegado a una rampa de velocidad que lo impulsará más rápido que nunca. Anteriormente, CT progresaba reduciendo los transistores, pero ahora realmente estamos haciendo las cosas de manera diferente.

Solo por lo que puedo recordar:

-Las computadoras Quantum reales se están fabricando y probando, este es un cambio de paradigma de cómo funciona la computadora actual.

-El aprendizaje automático o la Inteligencia Artificial (IA) está permitiendo que las computadoras se entrenen para jugar juegos humanos y superando a los jugadores maestros del mundo real.

-La realidad virtual está aquí para el mercado de consumo y despega a lo grande.

-La memoria no volátil barata cambiará pronto la forma en que diseñamos nuestros sistemas operativos y software.

-Internet of Things (IoT) está cambiando la forma en que implementamos nuestros dispositivos comunes.

-Data Mining está cambiando la forma en que trabajan las empresas y su eficiencia.

-La virtualización ha cambiado y sigue cambiando la forma en que los servidores y la red son implementados e incluso compartidos por las empresas.

-La tecnología informática es la piedra angular de los vehículos autónomos y los drones y robots automáticos, y se está construyendo uno sobre el otro.

-Internet, las redes y la telefonía se están consolidando más, y pronto comenzaremos a escuchar 5G.

Estamos en el meollo del gran cambio tecnológico, muchas de ellas posibles gracias a Computer Technology; y por lo tanto, la CT en sí misma también está cambiando mucho.

Cualquiera que espere que la ley de Moore se mantenga hasta el final de los tiempos es un idiota. Es una buena aproximación de dónde podría estar la tecnología, pero no tiene en cuenta los componentes no ideales de la ecuación. De la misma manera que PV = nRT, la ley del gas ideal, no es aplicable a nada más que a un … gas ideal.

Los transistores se encogen. Seguro. Pero solo pueden reducirse hasta ahora.

Debe haber, y muy probablemente habrá, un cambio de paradigma. Algo así como el cambio de bits almacenados horizontalmente a bits almacenados verticalmente en medios magnéticos. La grabación perpendicular tomó más de 20 años desde los primeros principios hasta su uso real.

A2A. Es cierto que las velocidades del procesador han dejado de aumentar. Pero un orador en una de las conversaciones programadas de mi departamento el año pasado argumentó que podríamos lograr un mejor rendimiento al aumentar el número de procesadores y explotar el paralelismo.

Desafortunadamente, he olvidado el resto de lo que se dijo. Pero si tienes curiosidad, encontré su artículo aquí: http://cseweb.ucsd.edu/~tullsen/

More Interesting

¿Cómo se ve tu i3wm?

¿Por qué instala Fedora 22 actualizaciones cuando reinicio mi máquina?

¿Se puede hacer una Inteligencia Artificial que pueda reescribir su propio código?

Si P = NP para que las clases colapsen en una sola, ¿debería cambiarse el nombre de la clase solo por 'P'?

¿Cuál es la diferencia entre profundidad-primera-búsqueda y amplitud-primera-búsqueda? ¿Por qué DFS visita el nodo después de eliminarlo de una pila mientras que BFS visita el nodo antes de agregarlo a la cola?

¿Pueden los gerentes ser reemplazados por inteligencia artificial?

¿Cuáles son los límites teóricos del poder computacional dictados por las leyes conocidas de la física?

Tengo un plan de 400 días para aprender sobre el aprendizaje automático. Espero construir mi propio bot de juegos que pueda jugar al menos 2 juegos. ¿Qué tan plausible es esto?

¿Cuáles son las próximas tendencias en informática de alto rendimiento? ¿Es necesario el conocimiento de IA para un experto en HPC?

¿Cómo se beneficiaría el mundo de la inteligencia artificial?

¿Qué significan los datos estacionarios en el aprendizaje automático y la ciencia de datos?

¿Cuál es la mejor respuesta de columna o línea tabular que daría para diferenciar y explicar varias licencias de software?

Cómo limpiar mi computadora de todo

Cómo comenzar a participar en la investigación de interacción humano-computadora como estudiante universitario

Cómo alcanzar el nivel de matemáticas requerido para participar en el Concurso Internacional de Programación Colegiada