¿Cuál es el futuro de la informática? ¿Qué puedo hacer además de mejorar y fortalecer mis habilidades?

FUTURO DE LA CIENCIA INFORMATICA

2 D’s que van a gobernar el mundo

Hoy en día hay más dispositivos informáticos en el mundo que humanos. Todos hemos visto la evolución de las computadoras desde el momento en que una o dos computadoras sirven al mundo, hasta más de un dispositivo que sirve a cada persona en esta tierra hoy. La informática ha estado expandiendo sus alas con más y más procesos automatizados. A partir de este gráfico de evolución, ¿alguna vez has intentado extrapolar la tendencia futura de esta rama de la tecnología? ¿Cuál sería la forma de los roles en el desarrollo de software en el futuro? ¿Será necesario que los desarrolladores de software escriban código?

En esta respuesta, vamos a tener la respuesta a estas preguntas de extractos de una discusión reciente con el Sr. Perraju Bendapudi , Vicepresidente de Ingeniería en Adobe.

“Esta rama de la ciencia que había surgido junto con el nacimiento de mi generación parece terminar para el final de nuestra generación”, dijo. “Explicándolo en un sentido más amplio, con un número creciente de desarrolladores de software involucrados en el desarrollo de software sofisticado, pronto llegaríamos a un punto de saturación. Esto se debe a la tendencia actual de desarrollar módulos plug-and-play, que hacen que el proceso de desarrollo sea más flexible y más fácil que el proceso de hace una década ”. Esto significa que, desde el futuro cercano, habrá una caída drástica en el requisito para que los desarrolladores de software codifiquen manualmente todo por sí mismos. Sin embargo, esto no se quedaría por mucho más tiempo. “Con todo el software escrito en el campo de la tecnología de la información, sería una tarea gigantesca procesar esos enormes fragmentos de datos que se generan”, explicó.

Ciencia de los datos

Fuente de la imagen: https://www.flickr.com/photos/no…

La ciencia de datos sacaría un gran avance para cumplir con el requisito de analizar los datos. Todos los roles actuales de los desarrolladores de software serían reemplazados por los roles de analista de datos y científico de datos. “Los datos que se analizan ayudarían a tomar decisiones con mayor precisión. El valor de una organización o un producto se evaluará en función de la precisión de las decisiones que tomen. Un futuro empleado vendría a la oficina, evalúa los datos a analizar del tráfico de información, hace algunos cálculos y predice el resultado. Incluso, los datos de este resultado, en caso de predicción correcta, se sumarían al valor de la capacidad de predicción y toma de decisiones. No necesitan escribir ningún fragmento de código, solo han cambiado los parámetros disponibles en la pantalla con la estimación correcta en una interfaz de usuario que será muy similar en un entorno de mercado de valores. Tendrán un corte en su valor, por cada predicción incorrecta que hagan ”, imaginó.

Cuando se le preguntó si la computación cuántica tomaría la delantera en la creación de nuevas oportunidades en ciencias de la computación, respondió: “Al menos tomaría una década, para que la Computación Cuántica tenga un impacto significativo en la vida cotidiana”. Incluso, entonces sería desarrollado para ser manejado por datos en contraste con el modelo actual de computadora impulsada por software. La computadora de hoy tuvo que enfrentar esta evolución, ya que se desarrollaron a partir de las máquinas de Von Newmann ”.

Dispositivos

Fuente de la imagen: https://pixabay.com/en/network-i…

“En el otro extremo, los dispositivos jugarían un papel instrumental en la generación y transmisión de estos datos. Los sistemas operativos en tiempo real nos permitirían obtener las actualizaciones en tiempo real de todas y cada una de las mediciones posibles. Habría grandes oportunidades para desarrollar dispositivos que puedan comunicarse y actuar en tiempo real. Los sistemas eficientes de monitoreo y control de energía pronto reemplazarían a los sistemas de intervención humana de hoy. Estos sistemas informáticos tomarán las decisiones en tiempo real para eliminar los errores en la mayor medida posible “.

“Solo los trabajos relacionados con la ciencia de datos y los dispositivos en el dominio de la informática prevalecerán en el futuro, haciendo que todos los trabajos intermedios desaparezcan debido a la automatización en su lugar. Hay muchas oportunidades disponibles hoy para que los estudiantes aprendan y mejoren sus habilidades en estos dominios ”.

“Hoy en día, cada nueva idea de pila completa ha terminado creando el núcleo de la idea muy rápidamente, ya que los servidores centrales / lógica de pegamento y las bibliotecas básicas están disponibles. La nube causó algunas interrupciones en la escala, pero el núcleo sigue siendo el mismo. Lo que veo ahora (definitivamente sucederá en los próximos 5 años) es una tendencia a usar datos y hacer que el negocio funcione. Amazon y Flipkart contratan cada vez más ingenieros para el análisis de datos. Las compañías de plataformas centrales están contratando para crear plataformas que faciliten ese aprendizaje / inteligencia. Gracias a Google, que demostró con la búsqueda, podemos resolver problemas de IA. La esperanza de la ciencia de datos en un problema de tan gran escala restauró la confianza para aplicar a muchos de esos problemas. El otro aspecto que veo son las experiencias. Si ve dónde están invirtiendo las compañías de dispositivos, es cómo facilitar la vida del usuario final, ya sea movimientos de voz, dedos, ojos y, lentamente, verá que se les agregarán más sentidos. Pero estamos muy lejos. No sé por qué tengo que ir y seleccionar el 90% de los mismos artículos en la tienda de comestibles cada mes. Estamos en las etapas iniciales de la aplicación de inferencias de datos. Muy pronto veremos casos de uso más avanzados. El mundo será muy diferente en 2030. El CSE básico para dispositivos y ciencias de datos es hacia donde se dirigen las aplicaciones y los negocios ”, concluyó el Sr. Perraju, quien también es cofundador y maestro en Mission R&D (una organización sin fines de lucro dirigida por expertos de la industria para enseñar los fundamentos de la informática a estudiantes apasionados).

1. Máquinas masivamente paralelas. A medida que alcancemos los límites físicos muy reales para la reducción de tamaño de las máquinas electrónicas convencionales, la mejor manera de mejorar el rendimiento será simplemente agregando más procesadores. El desafío más importante aquí no está en el hardware (que ya está muy avanzado) sino en el software: la programación paralela es mucho más difícil que la programación en serie.

2. Computación química. Las reacciones químicas, particularmente en moléculas orgánicas como el ARN, pueden realizar cálculos, generalmente también de una naturaleza paralela masiva (tiene millones de moléculas experimentando una reacción similar).

3. Computación biológica. La forma más antigua de computadora. Ya es posible vincular un cerebro a una computadora. Llevado a su conclusión lógica, ahora tiene una nueva forma de computadora.

4. Computación cuántica. No se mucho sobre esto. Sigo teniendo la intención de aprender. Según mi conocimiento limitado, la idea parece ser que dos ‘qubits’ no solo tienen cuatro estados, sino que pueden estar en una superposición de los cuatro estados posibles (incluidos los estados mixtos). Debido a este rápido crecimiento en el número de estados posibles con cada qubit adicional, la implicación es que los problemas de NP ahora pueden resolverse en N tiempo. ¿Es posible una computadora cuántica práctica? Sigo escuchando sobre avances, en realidad máquinas con varios ‘qubits’, pero supongo que solo el tiempo lo dirá.

5. IA fuerte. No me importa lo que digan, viene. Una vez que está aquí, creo que todas las apuestas están apagadas. Las computadoras ahora están en control. Piensa en lo rápido que las computadoras se convirtieron en los jugadores de ajedrez dominantes. Nadie dice más que los humanos son aún mejores: no hay argumentos para tener. Una vez que una computadora vence a un jugador de ajedrez de alto nivel, incluso una vez, sabes que no pasará mucho tiempo antes de que se convierta en algo normal porque en el caso de la computadora, puedes arrojarle más hardware, puedes jugar con el software y todos estos cambios son persistentes. Los humanos no son tan manipulables. Ahora hay potencia informática más que suficiente para simular un cerebro humano.

Por extraño que parezca, el futuro de la informática puede no ser demasiado brillante. Las computadoras se han convertido en una tecnología tan generalizada que creo que el estudio de la computación pronto puede ser subsumido por otras materias académicas y CS puede perder su independencia como materia académica. No me sorprendería que en 20 años los departamentos de CS murieran.

La informática ya ha generado varios departamentos académicos como Tecnología de la Información, Ingeniería de Software e Ingeniería de Computación, que rara vez se integran con el plan de estudios del departamento de Ciencias de la Computación. Recientemente se han derivado otras subdisciplinas informáticas, como la informática científica / ciencia computacional, la ciencia de gestión, las artes gráficas digitales y los juegos de computadora / realidad virtual.

Es probable que pronto surjan más estudios de CS para ser sujetos independientes. El trío de la ciencia de datos, la inteligencia artificial y el reconocimiento de patrones son un ejemplo. El éxito meteórico de estos tres en los últimos 5 años y su probable convergencia en una sola disciplina probablemente causará un cisma en CS que pueden romper por sí mismos en un nuevo grado académico. (La forma en que el CD surgió de EE en la década de 1970). Esto parece especialmente probable ya que los tres se beneficiarían enormemente de una redefinición total en el conjunto de cursos básicos requeridos para el título, lejos de los de CS. La teoría matemática avanzada, las matemáticas discretas, la probabilidad, las estadísticas, el cálculo de ingeniería, el procesamiento de señales, el diseño experimental y otros fundamentos son esenciales, pero están ausentes en el entrenamiento de CS para esta disciplina explosiva. En cambio, estos incipientes Watson deben tomar la arquitectura de la computadora, la teoría del lenguaje de programación, la organización de la computadora, los sistemas operativos, los compiladores, etc. No es bueno.

Otro spin-off de CS puede ser gráficos por computadora o diseño de juegos de computadora, en los cuales adquirir un nivel profesional de competencia requiere más gráficos o cursos de arte de los que están disponibles en la mayoría de los programas de CS de pregrado.

Y al igual que la TI (informática empresarial), el desarrollo web ha evolucionado lo suficientemente diferente de la CS convencional que también puede garantizar la independencia del departamento de CS tradicional.

Peor aún, muchos empleadores están descubriendo que el grado de CS no satisface sus necesidades especialmente bien. En muchos casos buscan empleados con un conjunto de habilidades muy diferente, a menudo un pequeño subconjunto que es suficiente para satisfacer sus necesidades. Requerir a los estudiantes que completen cursos exigentes pero irrelevantes en teoría, cálculo, hardware o ingeniería con frecuencia complican demasiado e impiden la adquisición de las habilidades que necesitan (por ejemplo, diseño y programación web, análisis empresarial y creación rápida de prototipos, desarrollo ágil de proyectos, etc.). Para muchas empresas, un plan de estudios de CS puede ser una responsabilidad, especialmente si disuade a más estudiantes de seguir una carrera en software porque lo esencial obstruyó o expulsó a muchos en el camino para completar el título.

Por supuesto, es posible que CS no balcanice; que los currículos académicos de CS se modernizarán generando subgrados a medida que refactorice sus cursos básicos para servir mejor el núcleo común a la nueva multitud de necesidades informáticas modernas. Pero lo dudo.

Un contraejemplo deslumbrante para una adaptación tan elegante es la insistencia de casi todos los departamentos de CS para mantener su dependencia central anticuada e irrelevante del hardware de la computadora, lo que requiere de cada estudiante de CS múltiples cursos en lógica digital, organización de hardware y, a menudo, cursos avanzados en el diseño de CPU o SoCs. Estos cursos desplazan material básico alternativo que ha adquirido una relevancia mucho mayor a través de desarrollos recientes en informática. Los ejemplos incluyen el desarrollo de proyectos de software, aprendizaje automático, tecnologías web, redes, bases de datos, computación científica, modelado y dimulación, algoritmos probabilísticos, etc., todos los cuales ofrecen una mayor utilidad al 99% de los titulados de CS (ya sean profesionales o académicos).

Hasta que vea que los departamentos de CS actualizan sus currículos básicos cada vez menos relevantes, en particular, desechando su énfasis arcaico en el hardware de la computadora (devolviéndolo a EE de donde vino), continuaré teniendo dudas sobre la saludable evolución de la informática y su vitalidad. como disciplina académica

  1. Web semántica (algoritmos potentes para gráfico de relaciones, resultados de búsqueda más personalizados, recuperación de información y reconocimiento de entidades).
  2. Aumento inteligente.
  3. Inteligencia artificial para hacer robots o sistemas humanoides.
  4. Búsqueda geoespacial.
  5. Computación cuántica.
  6. Internet de bajo costo para todos con retraso mínimo y ancho de banda alto.
  7. Sistemas poderosamente concurrentes, paralelos y distribuidos sin fallas.
  8. Informática de salud (mapeo de la información biológica de todos).
  9. Hacer gráficos por computadora lo más rápido posible.
  10. Algoritmos y estructuras de datos más eficientes según las necesidades y muchos más.

No podía imaginar cuán impresionante es el desarrollo y la arquitectura de software en estos días desde hace 30 años. Para imaginar la informática en el futuro, supongo que continuará con el IoT de hoy pero un billón de veces más interactivo y la ciencia detrás de cómo debería funcionar todo eso y el ciclo de vida sin colapsar sobre sí mismo.

Estoy seguro de que habrá un millón más de teorías sobre seguridad, autorización y autenticación, más datos biométricos. Los datos serán mucho más información que los datos sin procesar, y habrá una gran cantidad de soluciones similares a la IA para utilizarlos. Mi mayor temor es que la intuición humana se vuelva secundaria a los “resultados” presentados por los sistemas informáticos. Con suerte, como humanos, arrojaremos esas libras no deseadas de tiempo y energía desperdiciados y utilizaremos los resultados limpios del sistema informático de manera efectiva.

Ahhh, tal vez debería comenzar a escribir mi libro distópico de informática … 😉

No es absolutamente necesario decir la importancia de la informática en el mundo moderno. La informática ha estado aquí por más o menos 40 años, a diferencia de otras tecnologías que usamos hoy en día. Muchos piensan que acaba de comenzar y tiene un largo camino por recorrer.

Yo también pienso lo mismo. Teniendo en cuenta la revolución disruptiva que ha traído al mundo en las últimas 2-3 décadas, creo que solo hemos descubierto una fracción muy pequeña de su potencial como el cerebro humano.

Todavía tenemos muy poco éxito en el campo de la inteligencia artificial y el aprendizaje automático. Por eso, se está convirtiendo en una de las materias más interesadas entre estudiantes y científicos. Necesitamos más velocidad y más almacenamiento para hacer frente a la gran cantidad de datos que fluyen rápidamente cada segundo. Como resultado de esto, necesitamos más algoritmos de potencia para la seguridad de estos datos. Queremos más y más abstracción entre las interfaces digitales para hacernos la vida más fácil.

Claramente, hemos recorrido un largo camino, pero todavía tenemos un largo camino por recorrer. Mientras haya humanos, hay ciencias de la computación.

Algunos de los temas para el futuro serán:

  • Seguimiento del flujo de ideas en la literatura científica.
  • Seguimiento de la evolución de las comunidades en las redes sociales.
  • Extraer información de fuentes de datos no estructurados
  • Procesamiento de conjuntos de datos y flujos masivos
  • Extrayendo señales del ruido
  • Manejo de datos de alta dimensión y reducción de dimensiones

El campo estará mucho más orientado a la aplicación. La teoría para apoyar las nuevas direcciones incluirá:

  • Grandes gráficos
  • Análisis espectral
  • Altas dimensiones y reducción de dimensiones.
  • Agrupamiento
  • Filtración colaborativa
  • Extrayendo señal del ruido
  • Vectores dispersos
  • Teoría del aprendizaje

Bueno, has preguntado algo que no se puede responder ni siquiera en un libro de 1000 páginas. Su futuro es tan vasto y definitivamente soy tan vago. Permítanme responder con estas breves palabras: Automatización, Eficiencia, Expansión, Portabilidad y Gestos. Creo que este será el futuro de la ciencia digital y de la informática para la próxima década.

Lo que consideramos hoy en día “Supercomputadora”, cuando consideramos la computadora de fines de los años noventa, se verá pequeña, puede ser incluso después de una década o más tarde.

La ciencia y la tecnología avanzan, aunque con hipo. Cuando la parte mucho más grande de la sociedad sea parte de descubrimientos e inventos científicos, el paso será más rápido, ¡los misterios desconocidos de la naturaleza nos darán paso! ¡Actualmente más del 90–95% de los terrestres están ocupados en asegurar sus necesidades básicas y son parte de la carrera de ratas en la sociedad dividida en clases para elevarse por encima!

¡Lo dice todo!

Puedes consultar este artículo:

Amarás esto

Futuro de la informática: cómo la informática cambiará el futuro – sala común