¿Cuáles son actualmente los temas candentes en la investigación en informática?

La informática tiene un amplio alcance para la investigación, particularmente en

  1. Diseño y análisis de algoritmos (para hacer que los algoritmos sean más eficientes y potentes).
  2. Inteligencia artificial y aprendizaje automático.
  3. Las bases de datos NoSQL (no relacionales) están siendo utilizadas por sitios importantes como Facebook.
  4. Optimizaciones en lenguajes de programación y sus construcciones.
  5. Almacenamiento de datos y minería de datos.
  6. Hilos, mutexes y cerraduras. (Sincronización mejores algoritmos).
  7. Hacer que los programas sean más inteligentes, es decir, programas de generación y gestión de programas cuando se cumplen ciertas condiciones.
  8. Hacer que las solicitudes http de los navegadores sean más rápidas utilizando la tecnología SPDY utilizada en los navegadores Chrome.
  9. Desarrollo de enrutadores inteligentes que se adaptan al tráfico variable de paquetes.
  10. Tecnologías HTML5 y OpenWeb como Firebug y Firephp.

En mi opinión ::

  1. *** FOG Computing / EDGE Computing *** (Temas del seminario CSE
  2. ***
  3. *** Big Data para evitar retrasos en los vuelos relacionados con el clima *** (Temas del seminario CSE (relacionado con la minería de datos)
  4. ****** Minería de datos en la atención médica *** (Temas del seminario CSE (relacionado con la minería de datos)
  5. ****** Open Source Cloud *** (Temas del seminario CSE
  6. ****** Linux Virtual Server *** (Temas del seminario CSE
  7. ****** Tecnología Chromecast *** (Temas del seminario CSE
  8. ****** OpenDayLight para redes definidas por software (tecnología de virtualización SDN) *** (Temas del seminario CSE
  9. ****** Robots de enjambre llamados gotitas *** (Temas del seminario CSE, Ingeniería robótica / Mecatrónica)
  10. ****** Sailfish OS *** (Temas del seminario CSE (sistema operativo móvil)
  11. ****** Threatexchange *** (Temas del seminario CSE, una plataforma API para que las organizaciones colaboren y aseguren TI
  12. ****** Notificaciones Push Android, Tecnología de Google Cloud Messaging (GCM) *** (Temas del Seminario CSE
  13. ****** Tecnología Hadoop (Apache Hadoop) *** (Temas del seminario CSE
  14. ****** Minería de datos y minería de datos educativos *** ( http://www.collegelib.com/t-data
  15. ****** Google Auto Driving Car Technology *** ( http://www.collegelib.com/t-goog
  16. ****** Autenticación de dos factores *** ( http://www.collegelib.com/t-two-
  17. ****** iPhone sensible a la presión *** ( http://www.collegelib.com/t-pres…
  18. ****** DAAS de VMware *** ( http://www.collegelib.com/t-daas
  19. ****** Comunicación con aleatoriedad imperfectamente compartida *** ( http://www.collegelib.com/t-comm
  20. ****** Office Graph *** ( http://www.collegelib.com/t-offi
  21. ****** nCrypted Cloud *** ( http://www.collegelib.com/t-ncry
  22. ****** Tecnología DocumentDB *** ( http://www.collegelib.com/t-docu…
  23. ****** Azure Service Bus (Sistema de mensajería basado en la nube) *** ( http://www.collegelib.com/t-azur
  24. ****** Asistente personal de lenguaje natural *** ( http://www.collegelib.com/t-natu
  25. ****** Atom Thick CCD *** ( http://www.collegelib.com/t-atom
  26. ****** Maximite Microcomputer *** ( http://www.collegelib.com/t-maxi
  27. ****** Sistemas expertos en seguridad ambiental *** ( http://www.collegelib.com/t-ambi
  28. ****** MANET – Mobile Adhoc Network *** ( http://www.collegelib.com/t-mane
  29. ****** Uso de análisis para optimizar el rendimiento de la computación en la nube y el ahorro de costos *** ( http://www.collegelib.com/t-usin
  30. ****** Realidad virtual de zSpace para escritorio *** ( http://www.collegelib.com/t-zspa
  31. ****** Tecnología Raspberry Pi *** ( http://www.collegelib.com/t-rasp… (NUEVO)
  32. ****** Ur Lenguaje de programación *** ( http://www.collegelib.com/t-ur-p…
  33. ****** Shading Language *** ( http://www.collegelib.com/t-shad
  34. ****** OpenGL para sistemas integrados (API) *** ( http://www.collegelib.com/t-open
  35. ****** Enlace espejo *** ( http://www.collegelib.com/t-mirr
  36. ****** Crominancia *** ( http://www.collegelib.com/t-chro
  37. ****** Compostaje alfa *** ( http://www.collegelib.com/t-alph
  38. ****** Chroma Key Compositing *** ( http://www.collegelib.com/t-chro
  39. ****** Pixeom *** ( http://www.collegelib.com/t-pixe
  40. ****** DevOps Un método de desarrollo de software *** ( http://www.collegelib.com/t-devo
  41. ****** Tecnología de realidad virtual de Google Cardboard *** ( http://www.collegelib.com/t-goog
  42. ****** RAM resistiva *** ( http://www.collegelib.com/t-resi
  43. ****** Base de datos Apache Cassandra *** ( http://www.collegelib.com/t-cass
  44. ****** Plataforma de almacenamiento Ceph para OpenStack Cloud *** ( http://www.collegelib.com/t-ceph … (Cloud Computing) ***
  45. Espero eso ayude……

Los temas candentes se encuentran en los límites donde los paradigmas computacionales están cambiando.

En términos de los modelos teóricos subyacentes a la creación de tecnología, aquí hay algunos lugares donde están ocurriendo cambios importantes:

estructura del programa : la informática reinventa constantemente la forma de representar la funcionalidad de manera más intuitiva, concisa y flexible. Primero hubo lenguajes de procedimiento, luego programación orientada a objetos. Ahora la estructura del programa se representa como una mezcla híbrida de lenguajes de tipo libre, bibliotecas de código abierto y arquitecturas de nube multiproceso descentralizadas sobre representaciones de datos de múltiples capas. ¿Cuáles son los patrones centrales que subyacen a la optimización de estas nuevas arquitecturas? ¿Cómo están cambiando las API abiertas la definición de una aplicación?

virtualización : los sistemas operativos de tiempo compartido y la memoria virtual fueron los primeros intentos de virtualización. Luego fue la máquina virtual para la ejecución de software (por ejemplo, Java VM, Microsoft CLR). Luego, la arquitectura de máquina virtual que permitió la computación en la nube. ¿Hasta dónde puede llegar la virtualización como un enfoque para la abstracción?

aprendizaje automático estadístico : el uso de estadísticas contra grandes conjuntos de datos se ha apoderado de la inteligencia artificial. Esto también se ha demostrado en la industria (Google, filtrado colaborativo, orientación de anuncios, “big data”). Esta área de las matemáticas también se ha hecho cargo de la neurociencia teórica, sin mencionar la visión por computadora.

representación de datos a escala : ¿cómo se representan los datos cuando hay demasiado para caber en una base de datos y millones de personas acceden a ellos simultáneamente? Han evolucionado muchas estructuras de datos complejos híbridos que incluyen almacenamiento en caché inteligente, capas de servidores, NoSQL, particiones, índices de texto invertido y archivos de base de la nube. ¿Qué une a todos estos patrones?

seguridad informática: la seguridad informática es el punto de contacto central en el que la fuerza irresistible de apertura se encuentra con el objeto inamovible de la privacidad. Ya sea que se trate de cifrado, capas de seguridad, modelos de permisos o técnicas de integridad del sistema, el futuro está abierto y protegido. ¿Cómo lograr ambos?

modelos de red : las redes y los modelos gráficos que subyacen en ellas se han vuelto profundamente complejos. Las redes ahora incluyen redes sociales, redes de nodos informáticos, gráficos de enlaces de páginas web, modelos de datos de red y redes neuronales. Las estructuras de red son difíciles de analizar, pero centrales para el futuro de la informática.

límite entre hardware y software : desde la formulación de la arquitectura de Von Neumann, esto ha estado en continua evolución en CS. El hardware se está volviendo más programable y configurable (computación GPU, FPGA), y el hardware se está adaptando al software (funciones de hyperthreading y virtualización en las CPU). La computación en la nube es posiblemente una forma de infraestructura de hardware a gran escala configurable en software.

Todo esto encaja en un tema central de la informática, que es la búsqueda de abstracciones cada vez mayores que expanden el poder y simplifican el diseño.

En lugar de mencionar algunos temas específicos, que serán inaplicables (pueden ser) en el futuro, ya que la tecnología está cambiando muy rápido y la informática está creciendo rápidamente.

Me gustaría señalar algunas de las últimas publicaciones, investigaciones, blogs de ingeniería / sitio web de los gigantes tecnológicos del mundo. Siempre puede consultar las publicaciones recientes para tener la idea de Temas de actualidad.

  • Google (Investigación en Google)
  • Facebook (Facebook Research) ( https://www.facebook.com/Enginee …)
  • Uber (Blog de ingeniería de Uber)
  • Twitter (Ingeniería | Blogs de Twitter)
  • LinkedIn (Blog | Ingeniería de LinkedIn)
  • Dropbox (blog técnico de Dropbox)
  • Quora (Ingeniería en Quora)

Otros sitios web / blogs:

  • Noticias Hacker (Noticias Hacker)
    sitio web que mantiene las últimas noticias relacionadas con la informática y el emprendimiento

Publicaciones en revistas:

  • Nature (Nature Research: revistas científicas, trabajos, información y servicios).
  • ACM (diarios / transacciones de ACM)
  • IEEE ( http://ieeexplore.ieee.org/xpl/R …)

Hay varios desafíos importantes de forma cerrada en informática que son objetivos principales para la investigación, como

  • el problema P versus NP,
  • encontrar mejores algoritmos para la multiplicación de matrices y la transformación de Fourier,
  • construyendo computadoras Quantum que puedan factorizar rápidamente los números en números primos (algoritmo de Shor), o al menos explicar por qué todavía estamos tan lejos de este objetivo.

Sin embargo, los temas más candentes son amplios e intencionalmente definidos con cierta vaguedad, para alentar el pensamiento innovador. Para tales temas, acercarse a las preguntas correctas a menudo marca un progreso significativo en sí mismo.

Aquí está mi lista para 2015.

Las aplicaciones de datos abundantes, los algoritmos y las arquitecturas son un metatema que incluye vías de investigación como la minería de datos (encontrar rápidamente patrones relativamente simples en cantidades masivas de datos estructurados libremente, evaluar y etiquetar datos, etc.), aprendizaje automático (construcción de modelos matemáticos que representan la estructura y las tendencias estadísticas de los datos, con buenas propiedades predictivas), arquitecturas de hardware para procesar más datos de los que es posible hoy en día.

Inteligencia artificial y robótica : en términos generales, descubrir cómo formalizar las capacidades humanas que actualmente parecen estar fuera del alcance de las computadoras y los robots, y luego hacer que las computadoras y los robots sean más eficientes. Los autos autónomos y los enjambres de robots de búsqueda y rescate son una buena ilustración. En el pasado, una vez que se encontraron buenos modelos para algo (como el diseño asistido por computadora de circuitos electrónicos), esta investigación se mueve a un campo diferente: el diseño de algoritmos eficientes, modelos estadísticos, hardware informático, etc.

Bioinformática y otros usos de la CS en biología, ingeniería biomédica y medicina, incluida la biología de sistemas (modelado de interacciones de múltiples sistemas en un organismo vivo, incluidos los sistemas inmunes y el desarrollo del cáncer), biofísica computacional (modelado y comprensión de mecánica, electricidad y molecular interacciones de nivel dentro de un organismo), neurobiología computacional (comprensión de cómo los organismos procesan la información entrante y reaccionan a ella, controlan sus cuerpos, almacenan información y piensan). Existe una brecha muy grande entre lo que se sabe sobre la estructura del cerebro y las capacidades funcionales de un cerebro vivo; cerrar esta brecha es uno de los grandes desafíos en la ciencia y la ingeniería modernas. El análisis de ADN y la genética también se han vuelto informáticos en los últimos 20 años. La ingeniería biomédica es otra área importante de crecimiento, donde los sistemas basados ​​en microprocesadores pueden monitorear los signos vitales e incluso administrar medicamentos que salvan vidas sin esperar a un médico. El diseño de prótesis asistido por computadora es muy prometedor.

Educación asistida por computadora , especialmente en el nivel secundario. Incluso para CS, pocas escuelas secundarias ofrecen un currículo competente, incluso en países desarrollados. Soporte automatizado a prueba de trampas para exámenes y pruebas, calificación de ensayos, generación de preguntas de opción múltiple. Soporte para el aprendizaje de habilidades específicas, como la programación (retroalimentación inmediata sobre errores simples y sugerencias sobre cómo solucionarlos, calificación de pares, análisis de estilo).

Bases de datos, centros de datos, recuperación de información y procesamiento de lenguaje natural : recopilación y almacenamiento de colecciones masivas de datos y hacerlos fácilmente disponibles (indexación, búsqueda), ayudando a las computadoras a comprender (estructurar) documentos generados por humanos y artefactos de todo tipo (discurso, video, texto, movimiento, biometría) y ayudar a las personas a buscar la información que necesitan cuando la necesitan. Aquí hay muchas interacciones con abundantes aplicaciones de datos, así como con la interacción humano-computadora, así como con las redes.

Tecnologías emergentes para hardware informático, comunicación y detección : nuevos modelos de computación (como la computación óptica y cuántica) y descubrir para qué son [no] buenos. Mejores usos para circuitos integrados tridimensionales y una variedad de nuevos chips de memoria. Modelado y uso de nuevos tipos de interruptores electrónicos (memristors, dispositivos que usan nanotubos de carbono, etc.), comunicación cuántica y criptografía, y mucho más.

La interacción humano-computadora cubre el diseño de la interfaz humano-computadora y las técnicas enfocadas que permiten a las computadoras comprender a las personas (detectar emociones, intención, nivel de habilidad), así como el diseño de software y hardware (redes sociales) de cara humana (hablando de manera inteligente) teléfonos y autos sin conductor).

Redes a gran escala : hardware de alto rendimiento para centros de datos, redes móviles, soporte para servicios de multidifusión, multimedia y servicios de alto nivel (redes sociales) más eficientes, servicios de redes para países en desarrollo (sin conexiones permanentes de gran ancho de banda) , varias cuestiones de política (quién debe administrar Internet y si los gobiernos deben controlarla). Redes de comunicación del espacio ultraterrestre. La seguridad de la red (que también mencioné en Seguridad) también es un gran problema.

Límites de computación y comunicación a nivel de tipos de problemas (¡algunos problemas no se pueden resolver en principio!), Algoritmos (a veces es poco probable que exista un algoritmo eficiente) y recursos físicos, especialmente espacio, tiempo, energía y materiales. Este tema cubre la teoría de la complejidad de CS teórico, pero también los obstáculos prácticos que enfrentan los diseñadores de sistemas electrónicos modernos, aludiendo a límites que aún no se han formalizado.

Multimedia: gráficos, audio (voz, música, sonido ambiental), análisis de video, compresión, generación, reproducción, comunicación multicanal, etc. Tanto el hardware como el software están involucrados. Las preguntas específicas incluyen análisis de escena (que describe lo que está en la imagen), comprensión del movimiento, sintetización de multimedia realista, etc.

Lenguajes y entornos de programación: análisis automatizado de programas en términos de corrección y requisitos de recursos, comparaciones entre idiomas, soporte de software para idiomas (es decir, compilación), optimización de programas, soporte para programación paralela, lenguajes específicos de dominio, interacciones entre idiomas, sistemas que ayudar a los programadores al inferir su intención.

Seguridad de los sistemas informáticos y soporte para la democracia digital , incluida la seguridad a nivel de red (detección y defensa de intrusos), seguridad a nivel de sistema operativo (SW antivirus) y seguridad física (biometría, empaquetado a prueba de manipulaciones, informática confiable en plataformas no confiables), soporte para privacidad personal (encriptación eficiente y fácil de usar), discurso libre (intercambio de archivos, evasión de sensores y restricciones de red por regímenes opresivos), así como temas relacionados con encuestas electrónicas y votación. La seguridad también es un problema importante en el uso de sistemas integrados e Internet de las cosas (IoT).

Verificación, pruebas y depuración automatizada de diseños de hardware, software, protocolos de red, teoremas matemáticos, etc. Esto incluye razonamiento formal (sistemas de prueba y nuevos tipos de argumentos lógicos), encontrar errores de manera eficiente y diagnosticarlos, encontrar soluciones a errores y confirmar ausencia de errores (generalmente por medio de pruebas teóricas automatizadas).


Si algo no está en la lista, aún puede ser un tema interesante y valioso, pero no necesariamente “candente” en este momento, o tal vez al acecho en mi punto ciego.

Ahora que tiene una respuesta larga, ¡volvamos a la pregunta! El calor generalmente se refiere a cuán fácil es hacer impacto en el campo y cuán impactante es probable que el campo sea en un sentido más amplio. Por ejemplo, resolver P vs. NP sería impactante y absolutamente asombroso, pero también extremadamente improbable que suceda pronto. Por lo tanto, se aconseja a los nuevos investigadores que se mantengan alejados de un desafío tan establecido. La computación cuántica está aproximadamente en la misma categoría, aunque aparentemente los medios y las masas no se han dado cuenta de esto. En el lado positivo, los físicos aplicados están construyendo nuevos dispositivos interesantes, produciendo resultados que valen la pena por sí mismos. Entonces, el procesamiento de información cuántica es un área candente en la física aplicada, pero no en el diseño de computadoras.

Uno de estos temas candentes hoy en día es el control de versiones de datos de ciencia de datos y proyectos de aprendizaje automático. Su implementación adecuada permite organizar la colaboración de los científicos de datos y el aprendizaje automático iterativo. La ciencia de datos y el aprendizaje automático son procesos iterativos. Nunca es posible completar con éxito un proyecto de ciencia de datos en una sola pasada.

Un científico de datos intenta constantemente nuevas ideas y cambia los pasos de su cartera, y necesita algunas herramientas para automatizar de alguna manera este flujo de trabajo, aquí hay una breve discusión sobre el tema y 3 enfoques diferentes para resolver tales tareas: Cómo controlar la versión de su tarea de Machine Learning :

  • Git
  • Cuaderno Ipython (Cuaderno Jupyter)
  • Control de versión de datos o herramienta DVC

Gracias por el A2A.

Esta es mi lista de temas en informática para la investigación. Esta es solo una lista de los nombres de los temas, y se los dejo a ustedes para profundizar.

  1. Computación generalizada / Computación ubicua / IoT (conocido por diferentes nombres, este es uno de los temas más interesantes para mí)
  1. Mejora del consumo de energía con algoritmos mejores y eficientes para administrar recursos, procesos de programación, etc.
  2. Mejora de los protocolos de red existentes para admitir soluciones impulsadas por IoT (TCP / IP: admite pero no es un protocolo dedicado para IoT; un protocolo centrado en IoT será bueno)
  3. Mejore los algoritmos para almacenar los datos adquiridos de las plataformas IoT: los dispositivos IoT producen millones de bytes de datos en un período de día a día o de semana a semana dependiendo de la aplicación; se necesitará un algoritmo eficiente para gestionar el almacenamiento de estos datos.
  • Minería de texto / Minería de datos:
    1. Tener un corpus de datos con miles de millones y miles de millones de valores hace que la búsqueda parezca “encontrar una aguja en un pajar”. Siempre es bienvenido encontrar nuevos enfoques para abordar este problema en la comunidad (esto también agrega Big-Data en el contexto de un tema para la investigación)
  • Análisis predictivo:
    1. Tener mejores algoritmos y enfoques para hacer predicciones y análisis de datos (adquiridos de IoT / Big Data / Data Mining, etc.)
  • Inteligencia artificial, aprendizaje automático y robótica
  • Bio – Informática
  • Computación cuántica (¡suena interesante!)
  • La interacción persona-ordenador
  • Ahora, estas son mis elecciones personales sobre los temas de investigación. Hay otros temas y aplicaciones que podrían tener un mejor impacto para su perfil.

    Las nueve tendencias tecnológicas a observar en 2016 son:

    1. 5G: velocidades prometedoras inimaginables para los estándares actuales – 7.5 Gbps según las últimas pruebas de Samsung – 5G es la promesa del futuro en tiempo real. Habilitando todo, desde automóviles interactivos y súper juegos hasta el Internet de las cosas industrial, 5G llevará la tecnología inalámbrica al futuro y más allá, preparándose para el día que se acerca rápidamente cuando todo, incluido el fregadero de la cocina, podría estar conectado a una red, tanto local como local. Internet.
    2. Realidad virtual y realidad aumentada : después de muchos años en que la “realidad” de la realidad virtual (VR) ha sido cuestionada tanto por los tecnólogos como por el público, 2016 promete ser el punto de inflexión, ya que las tecnologías de realidad virtual alcanzan una masa crítica de funcionalidad, confiabilidad , facilidad de uso, asequibilidad y disponibilidad. Los estudios de cine se están asociando con proveedores de realidad virtual para llevar contenido al mercado. Las organizaciones de noticias están trabajando de manera similar con compañías de realidad virtual para traer experiencias inmersivas de noticias directamente al hogar, incluidos los eventos en vivo. Y el escenario está listo para una amplia adopción de la realidad virtual más allá del entretenimiento y los juegos, hasta el día en que la realidad virtual ayudará a cambiar la interfaz física entre el hombre y la máquina, impulsando un mundo hasta ahora solo imaginado en la ciencia ficción. Al mismo tiempo, el uso de la realidad aumentada (AR) se está expandiendo. Mientras que la realidad virtual reemplaza el mundo físico real, AR es una vista en vivo directa o indirecta de un entorno físico del mundo real cuyos elementos se ven aumentados (o complementados) por la entrada sensorial generada por computadora, como sonido, video, gráficos o datos GPS. Con la ayuda de la tecnología AR avanzada (p. Ej., Agregando visión por computadora y reconocimiento de objetos), la información sobre el mundo real circundante del usuario se vuelve interactiva y se puede manipular digitalmente.
    3. Memoria no volátil : Si bien la memoria no volátil suena como un tema que solo interesa a los geeks tecnológicos, en realidad es enorme para todas las personas en el mundo que usan tecnología de cualquier tipo . A medida que nos conectamos exponencialmente, las personas necesitan y usan cada vez más memoria. La memoria no volátil, que es la memoria de la computadora que recupera información incluso después de apagarse y volverse a encender, se ha utilizado para el almacenamiento secundario debido a problemas de costo, rendimiento y resistencia de escritura, en comparación con la memoria RAM volátil que se ha utilizado como almacenamiento primario. En 2016, se realizarán grandes avances en el desarrollo de nuevas formas de memoria no volátil, que prometen permitir que un mundo hambriento almacene más datos a un costo menor, utilizando significativamente menos energía. Esto cambiará literalmente el panorama de la informática, permitiendo que dispositivos más pequeños almacenen más datos y dispositivos grandes para almacenar grandes cantidades de información.
    4. Sistemas físicos cibernéticos (CPS ): también utilizados como Internet de las cosas (IoT), los CPS son sistemas inteligentes que tienen tecnologías cibernéticas, tanto hardware como software, profundamente integradas e interactuando con componentes físicos, y detectando y cambiando el estado de lo real. mundo. Estos sistemas tienen que operar con altos niveles de confiabilidad, seguridad y facilidad de uso, ya que deben satisfacer la creciente demanda de aplicaciones como la red inteligente, el sistema de transporte aéreo de próxima generación, sistemas de transporte inteligentes, tecnologías médicas inteligentes, edificios inteligentes y Fabricación inteligente. 2016 será otro año importante en el desarrollo de estos sistemas críticos, que si bien actualmente se emplean en una escala modesta, no se acercan a satisfacer la demanda.
    5. Ciencia de datos: Hace unos años , Harvard Business Review calificó al científico de datos como el “trabajo más sexy del siglo XXI”. Esa definición se duplica en 2016. Técnicamente, la ciencia de datos es un campo interdisciplinario sobre procesos y sistemas para extraer conocimiento o ideas de los datos. en varias formas, estructuradas o no estructuradas, que es una continuación de algunos de los campos de análisis de datos, como estadísticas, minería de datos y análisis predictivo. En términos menos técnicos, un científico de datos es un individuo con la curiosidad y la capacitación para extraer el significado de los grandes datos, determinar tendencias, adquirir ideas, conexiones, patrones y más. Con frecuencia, los científicos de datos son expertos en matemática y estadística. A veces, son más generalistas; otras veces, son ingenieros de software. En cualquier caso, las personas que buscan empleo asegurado en 2016 y mucho más allá deberían buscar estas oportunidades, ya que el mundo no puede comenzar a obtener todos los datos científicos que necesita para extraer significado de las enormes cantidades de datos disponibles que harán que nuestro mundo sea más seguro, Más eficiente y más agradable.
    6. Seguridad basada en capacidades: el mayor problema individual de cada empresa y prácticamente todas las personas en este mundo cibernético es la seguridad. El número de hacks aumenta exponencialmente cada año, y los datos de nadie están seguros. Encontrar una “mejor manera” en el mundo de la seguridad es oro. La seguridad basada en la capacidad del hardware, aunque apenas es un nombre familiar, puede ser un arma importante en el arsenal de seguridad de los programadores, proporcionando más seguridad de datos para todos. La seguridad basada en capacidades proporcionará una protección de grano más fina y defenderá contra muchos de los ataques que hoy tienen éxito.
    7. Aprendizaje automático avanzado: impactando todo, desde juegos y publicidad en línea hasta interfaces cerebro / máquina y diagnóstico médico, el aprendizaje automático explora la construcción de algoritmos que pueden aprender y hacer predicciones sobre los datos. En lugar de seguir pautas estrictas del programa, los sistemas de aprendizaje automático crean un modelo basado en ejemplos y luego hacen predicciones y decisiones basadas en datos. Ellos aprenden.”
    8. Virtualización de funciones de red (NFV): cada vez más, el mundo depende de los servicios en la nube. Debido a las limitaciones en la seguridad de la tecnología, estos servicios no han sido ampliamente proporcionados por las compañías de telecomunicaciones, lo cual es una pérdida para el consumidor. NFV es una tecnología emergente que proporciona una infraestructura virtualizada de la que dependen los servicios en la nube de próxima generación. Con NFV, los servicios en la nube se proporcionarán a los usuarios a un precio muy reducido, con mayor comodidad y confiabilidad por parte de las compañías de telecomunicaciones con sus servicios de comunicación estándar. NFV hará grandes avances en 2016.
    9. Contenedores: para las empresas que mueven aplicaciones a la nube, los contenedores representan una forma más inteligente y económica de hacer este movimiento. Los contenedores permiten a las empresas desarrollar y entregar aplicaciones de manera más rápida y eficiente. Esto es una gran ayuda para los consumidores, que desean que sus aplicaciones sean rápidas. Los contenedores proporcionan los recursos informáticos necesarios para ejecutar una aplicación como si fuera la única aplicación que se ejecuta en el sistema operativo, en otras palabras, con la garantía de que no hay conflictos con otros contenedores de aplicaciones que se ejecutan en la misma máquina. Si bien los contenedores pueden ofrecer muchos beneficios, el elemento de activación es la seguridad, que debe mejorarse para hacer realidad la promesa de contenedores. Esperamos que los contenedores estén listos para la empresa en 2016.

    Fuente: Computación Científica

    La IA (Inteligencia Artificial) O IoT (Internet de las Cosas) es uno de los temas candentes en la investigación en informática.

    2017 fue testigo de la maravilla de AlphaGo Zero cuando aprendió que el juego de Go se convirtió en su mejor jugador en solo 40 días. E hizo todo eso sin ningún dato humano o interferencia. Con Hanson Robotics Company creando a Sophia, la única ciudadana robot del mundo, la Inteligencia Artificial se ha revolucionado. Como el aprendizaje profundo y el aprendizaje automático se complementan entre sí en términos proporcionales, la inteligencia artificial revolucionó la publicidad digital. 2018 promete ser un año interesante para más ideas revolucionarias.

    Para obtener más información sobre otras tendencias candentes en ciencias de la computación, visite las Predicciones de las 7 principales tecnologías que dominarán 2018 – Techtic Solutions

    Si desea diseñar y desarrollar la aplicación IoT (Internet de las cosas), envíenos un correo electrónico a [correo electrónico protegido] O llámenos al +1 201-793-8324 , +44 117 2308324 , +61 280 909 320 u Obtenga una cotización gratis hoy .

    Estas son algunas de mis elecciones, para temas candentes en la investigación de CS.

    1) Ciencia de datos: el término Data Scientist fue acuñado por DJ Patil hace unos años, y HBS calificó a Data Scientist como el trabajo más sexy. ¿Por qué? Con la creciente cantidad de datos, han surgido toneladas de patrones a partir de datos históricos, datos de transmisión, datos de redes sociales, etc., que son importantes para hacer predicciones valiosas, tomar medidas correctivas, etc. Estoy seguro de que esta tendencia se mantendrá activa, porque al menos los próximos 5 años.

    2) Aprendizaje automático avanzado: muchos jóvenes graduados ya conocen los conceptos básicos de ML. Las técnicas avanzadas como el aprendizaje profundo, la CNN, etc. están avanzando constantemente y luego las áreas en las que se aplican se están ampliando. Junto con las aplicaciones comerciales, también hay aplicaciones científicas.

    3) Internet de las cosas (IoT): puede que no sea correcto restringir IoT a solo un tema candente de CS. Es un ejemplo perfecto de cómo será el futuro, muy interdisciplinario.

    4) Realidad virtual y realidad aumentada (VR / AR): es similar al área de IoT. He visto venir muchas nuevas empresas de este segmento. Muchos de ellos son percibidos como cambiadores de juego. A diferencia del pasado, las personas no ven esto solo como una mejora en los juegos, sino como el impacto real de las empresas.

    5) Hardware: con tecnologías que maduran, se producirán / procesarán más datos que nunca. Por lo tanto, almacenar estos datos siempre será una investigación interesante. El objetivo aquí sería almacenar una gran cantidad de datos, con la menor cantidad de espacio y consumiendo la menor cantidad de energía. La investigación de hardware en CS nunca se desvanecerá.

    Estoy seguro de que habrá más áreas que podrían considerarse calientes en CS, lo que podría haber pasado por alto.

    El análisis de Big Data es el proceso de examinar grandes conjuntos de datos que contienen una variedad de tipos de datos, es decir, Big Data, para descubrir patrones ocultos, correlaciones desconocidas, tendencias del mercado, preferencias del cliente y otra información comercial útil. Los resultados analíticos pueden conducir a nuevas oportunidades de ingresos de marketing más eficaces, un mejor servicio al cliente, una mejor eficiencia operativa, ventajas competitivas sobre las organizaciones rivales y otros beneficios comerciales.

    Visite este enlace: Big Data Hadoop, Spark, Storm, Scala – Combo Training Classes Online | Big Data Hadoop, Spark, Storm, Scala – Cursos combinados en línea El objetivo principal del análisis de big data es ayudar a las empresas a tomar decisiones comerciales más informadas al permitir que DATA Scientist, modeladores predictivos y otros profesionales de análisis analicen grandes volúmenes de datos de transacciones, también como otras formas de datos que los programas convencionales de inteligencia empresarial (BI) pueden aprovechar. Eso podría incluir registros del servidor web y datos de Internet Click Stream, contenido de redes sociales e informes de actividad de redes sociales, texto de correos electrónicos de clientes y respuestas de encuestas, registros detallados de llamadas de teléfonos móviles y datos de máquinas capturados por sensores conectados a INTERNET. Algunas personas se asocian exclusivamente Big Data con datos semiestructurados y no estructurados de ese tipo, pero las firmas consultoras como Gartner Inc. y Forrester Research Inc. también consideran que las transacciones y otros datos estructurados son componentes válidos de las aplicaciones de análisis de Big Data.

    Los grandes datos se pueden analizar con las herramientas de software comúnmente utilizadas como parte de las disciplinas de Advance Analytics, como la minería de datos de análisis preventivo, el análisis de texto y el método estático. El software de BI convencional y las herramientas de visualización también pueden desempeñar un papel en el proceso de análisis. Pero los datos semiestructurados y no estructurados pueden no encajar bien en el Data Warehouse tradicional basado en la base de datos relacional. Además, es posible que los almacenes de datos no puedan manejar las demandas de procesamiento que plantean los conjuntos de grandes datos que deben actualizarse con frecuencia o incluso continuamente, por ejemplo, datos en tiempo real sobre el rendimiento de aplicaciones móviles o de oleoductos y gasoductos. Como resultado, muchas organizaciones que buscan recopilar, procesar y analizar grandes datos han recurrido a una nueva clase de tecnologías que incluye Hadoop y herramientas relacionadas como Yarn Spook, Spark y Pig, así como bases de datos No Sql. Esas tecnologías forman el núcleo de un marco de software de código abierto que admite el procesamiento de conjuntos de datos grandes y diversos en sistemas en clúster.

    En algunos casos, los sistemas Hadoop Cluster y No SQL se están utilizando como pistas de aterrizaje y áreas de preparación de datos antes de que se carguen en un almacén de datos para su análisis, a menudo en forma resumida que es más propicio para las estructuras relacionales. Sin embargo, cada vez más, los proveedores de big data están impulsando el concepto de una toma de datos de Hadoop que sirve como el depósito central para los flujos entrantes de datos sin procesar de una organización. En tales arquitecturas, los subconjuntos de datos se pueden filtrar para su análisis en almacenes de datos y bases de datos de análisis, o se pueden analizar directamente en Hadoop utilizando herramientas de consulta por lotes, software de procesamiento de flujo y tecnologías SQL y Hdoop que ejecutan consultas interactivas y ad hoc escritas en SQL Las posibles trampas que pueden hacer tropezar a las organizaciones en iniciativas de análisis de big data incluyen la falta de habilidades analíticas internas y el alto costo de contratar profesionales analíticos experimentados. La cantidad de información que generalmente está involucrada, y su variedad, también pueden causar dolores de cabeza en la gestión de datos, incluidos la calidad de los datos y los problemas de coherencia. Además, integrar sistemas Hadoop y almacenes de datos puede ser un desafío, aunque varios proveedores ahora ofrecen conectores de software entre Hadoop y bases de datos relacionales, así como otras herramientas de integración de datos con capacidades de big data.

    Las empresas están utilizando el poder de los conocimientos proporcionados por Big Data para establecer instantáneamente quién hizo qué, cuándo y dónde. El mayor valor creado por estos conocimientos oportunos y significativos de grandes conjuntos de datos es a menudo la toma de decisiones empresariales efectivas que permiten los conocimientos.

    Extrapolar información valiosa de grandes cantidades de datos estructurados y no estructurados de fuentes dispares en diferentes formatos requiere la estructura adecuada y las herramientas adecuadas. Para obtener el máximo impacto comercial, este proceso también requiere una combinación precisa de personas, procesos y herramientas analíticas. Algunos de los beneficios comerciales potenciales de implementar una metodología eficaz de información de big data incluyen:

    1. Información oportuna de la gran cantidad de datos. Esto incluye los que ya están almacenados en las bases de datos de la compañía, de fuentes externas de terceros, Internet, redes sociales y sensores remotos.
    2. Monitoreo y pronóstico en tiempo real de eventos que impactan el desempeño del negocio o la operación
    3. Capacidad para encontrar, adquirir, extraer, manipular, analizar, conectar y visualizar datos con las herramientas de elección (SAP HANA, SAP Sybase®, SAP Intelligence Analysis para la aplicación del sector público de Palantir, Kapow®, Hadoop).
    4. Convergencia de la solución BDI para variedad con la velocidad de SAP HANA para velocidad
    5. La capacidad de Hadoop para volúmenes de gestionar grandes cantidades de datos, dentro o fuera de la nube, con validación y verificación.
    6. Identificar información significativa que pueda mejorar la calidad de las decisiones.
    7. Mitigar el riesgo optimizando las decisiones complejas de eventos no planificados más rápidamente
    • Aborda la velocidad y escalabilidad, movilidad y seguridad, flexibilidad y estabilidad.
    • Integración de datos estructurados y no estructurados.
    • El tiempo de realización de la información es crítico para extraer valor de varias fuentes de datos, incluidos dispositivos móviles, identificación por radiofrecuencia (RFID), la Web y una lista creciente de tecnologías sensoriales automatizadas.
    • SAP HANA proporciona el almacén de negocios / almacén de datos empresariales (BW / EDW) extremadamente acelerado.
    • Hadoop proporciona almacenamiento de datos confiable y procesamiento paralelo de datos de alto rendimiento, la capacidad de almacenar conjuntos de datos extremadamente grandes.
    • La nube es extensible, flexible, escalable, elástica, autorreparable, bajo demanda, etc. y proporciona la plataforma económica de hardware / software con todas las aplicaciones (como Kapow, SAP Intelligence Analysis for Public Sector application de Palantir, CRM, SAP Sybase IQ, SAP Data Services con análisis de texto) para una aceleración rápida con requisitos de menor costo de capital.

    Hadoop es un marco de código abierto que permite almacenar y procesar grandes datos en un entorno distribuido en grupos de computadoras utilizando modelos de programación simples. Está diseñado para escalar desde servidores individuales hasta miles de máquinas, cada una de las cuales ofrece computación y almacenamiento local.

    Este breve tutorial proporciona una introducción rápida a Big Data, el algoritmo de reducción de mapas y el sistema de archivos distribuidos de Hadoop.

    Hadoop es un marco de código abierto de Apache escrito en Java que permite el procesamiento distribuido de grandes conjuntos de datos en grupos de computadoras que utilizan modelos de programación simples. Una aplicación con marco Hadoop funciona en un entorno que proporciona almacenamiento distribuido y cómputo en grupos de computadoras. Hadoop está diseñado para escalar de un solo servidor a miles de máquinas, cada una de las cuales ofrece computación y almacenamiento local.

    • Hadoop Common: son bibliotecas y utilidades de Java requeridas por otros módulos de Hadoop. Estas bibliotecas proporcionan abstracciones a nivel del sistema de archivos y del sistema operativo y contienen los archivos y scripts Java necesarios para iniciar Hadoop.
    • Hadoop YARN: este es un marco para la programación de trabajos y la gestión de recursos de clúster.
    • Sistema de archivos distribuidos de Hadoop (HDFS ™): un sistema de archivos distribuido que proporciona acceso de alto rendimiento a los datos de la aplicación.
    • Hadoop MapReduce: este es un sistema basado en YARN para el procesamiento paralelo de grandes conjuntos de datos.

    Hadoop MapReduce es un marco de software para escribir fácilmente aplicaciones que procesan grandes cantidades de datos en paralelo en grandes clústeres (miles de nodos) de hardware Commodity de una manera confiable y tolerante a fallas.

    El término MapReduce en realidad se refiere a las siguientes dos tareas diferentes que realizan los programas de Hadoop:

    • La tarea de mapa: esta es la primera tarea, que toma datos de entrada y los convierte en un conjunto de datos, donde los elementos individuales se dividen en tuplas (pares clave / valor).
    • La tarea Reducir: esta tarea toma la salida de una tarea de mapa como entrada y combina esas tuplas de datos en un conjunto más pequeño de tuplas. La tarea de reducción siempre se realiza después de la tarea de mapa.

    Por lo general, tanto la entrada como la salida se almacenan en un sistema de archivos. El marco se encarga de programar tareas, monitorearlas y volver a ejecutar las tareas fallidas.

    El marco MapReduce consta de un único JobTracker maestro y un TaskTracker esclavo por nodo de clúster. El maestro es responsable de la gestión de recursos, rastreando el consumo / disponibilidad de recursos y programando las tareas del componente de trabajos en los esclavos, monitoreándolos y volviendo a ejecutar las tareas fallidas. Los esclavos TaskTracker ejecutan las tareas según lo indicado por el maestro y proporcionan información del estado de la tarea al maestro periódicamente.

    JobTracker es un punto único de falla para el servicio Hadoop MapReduce, lo que significa que si JobTracker se cae, todos los trabajos en ejecución se suspenden.

    Sistema de archivos distribuidos de Hadoop

    Hadoop puede trabajar directamente con cualquier sistema de archivos distribuido montable como Local FS, HFTP FS, S3 FS y otros, pero el sistema de archivos más común utilizado por Hadoop es el Sistema de archivos distribuidos de Hadoop (HDFS).

    El Sistema de archivos distribuidos de Hadoop (HDFS) se basa en el Sistema de archivos de Google (GFS) y proporciona un sistema de archivos distribuido que está diseñado para ejecutarse en grandes grupos (miles de computadoras) de máquinas pequeñas de una manera confiable y tolerante a fallas.

    HDFS utiliza una arquitectura maestro / esclavo donde el maestro consiste en un solo NameNode que administra los metadatos del sistema de archivos y uno o más DataNodes esclavos que almacenan los datos reales.

    Un archivo en un espacio de nombres HDFS se divide en varios bloques y esos bloques se almacenan en un conjunto de DataNodes. NameNode determina la asignación de bloques a los DataNodes. DataNodes se encarga de la operación de lectura y escritura con el sistema de archivos. También se encargan de la creación, eliminación y replicación de bloques según las instrucciones proporcionadas por NameNode.

    HDFS proporciona un shell como cualquier otro sistema de archivos y hay una lista de comandos disponibles para interactuar con el sistema de archivos. Estos comandos de shell se tratarán en un capítulo separado junto con ejemplos apropiados.

    ¿Cómo funciona Hadoop?

    Nivel 1

    Un usuario / aplicación puede enviar un trabajo a Hadoop (un cliente de trabajo hadoop) para el proceso requerido especificando los siguientes elementos:

    1. La ubicación de los archivos de entrada y salida en el sistema de archivos distribuido.
    2. Las clases de Java en forma de archivo jar que contiene la implementación de las funciones map y reduce.
    3. La configuración del trabajo estableciendo diferentes parámetros específicos del trabajo.

    Etapa 2

    El cliente de trabajo de Hadoop luego envía el trabajo (jar / ejecutable, etc.) y la configuración al JobTracker, que luego asume la responsabilidad de distribuir el software / configuración a los esclavos, programar tareas y monitorearlas, proporcionando información de estado y diagnóstico al cliente de trabajo .

    Etapa 3

    Los TaskTrackers en diferentes nodos ejecutan la tarea según la implementación de MapReduce y la salida de la función reducir se almacena en los archivos de salida en el sistema de archivos.

    Ventajas de Hadoop

    • El marco Hadoop permite al usuario escribir y probar rápidamente sistemas distribuidos. Es eficiente y distribuye automáticamente los datos y el trabajo a través de las máquinas y, a su vez, utiliza el paralelismo subyacente de los núcleos de la CPU.
    • Hadoop no depende del hardware para proporcionar tolerancia a fallas y alta disponibilidad (FTHA), sino que la biblioteca de Hadoop se ha diseñado para detectar y manejar fallas en la capa de aplicación.
    • Los servidores se pueden agregar o quitar dinámicamente del clúster y Hadoop continúa funcionando sin interrupción.
    • Otra gran ventaja de Hadoop es que, además de ser de código abierto, es compatible con todas las plataformas, ya que está basado en Java.

    Las respuestas proporcionadas por Quora User y Paul King son suficientes para su pregunta.
    Dado que para el A2A, intentaré responder de manera diferente.


    La mejor manera de navegar por “temas candentes en la investigación de XXX”, donde XXX podría ser cualquier campo es

    1. A través de Google, vaya a sitios web de muchas universidades de posgrado,
    http: //colleges.usnews.rankingsa
    http://www.utexas.edu/world/univ
    Nota: Para empezar, limite muchos a las mejores universidades de posgrado

    2. Vaya a la sección “Investigación” de cada uno de ellos, recójalos en una “base de datos”.

    3. Ahora haga una lista de temas en los que se investiga más “analizando” la base de datos.

    4. ¡Ahora tienes tu propia lista! Elige un tema de interés (¡hotness!) E intenta dominarlo.

    ¡Estos 4 pasos en sí mismos incluyen un tema candente llamado Aprendizaje automático, Big Data!

    Pocos enlaces de investigación:
    Investigación y proyectos patrocinados en SERC
    Página en nii.ac.jp
    UgradResearchTopics – CSWiki
    Proyectos de investigación en informática 2013 (por facultad)

    Espero que esto sea útil!

    La informática es un campo gigante y los temas candentes son, en el mejor de los casos, relativos. Eso significa que los temas que menciono aquí son, en el mejor de los casos, los temas que conozco y un subconjunto de lo que es emocionante en informática.

    1. Visualización de datos
    Comprender los datos de una manera diferente, encontrar patrones que no podemos ver o que nos permite ver, haciendo que las cosas se vean bastante uniformes (más o menos)

    2. Inteligencia artificial
    ¿Podemos hacer pensar a la computadora? Las herramientas incluyen reconocimiento de voz, tesis del sistema de voz, aprendizaje automático, estadísticas y mucho más.

    3. Visión por computadora
    Hacer que la computadora vea lo que vemos (incluso las mejores cámaras no pueden imitar lo que nuestros ojos pueden hacer), reconocer lo que podemos reconocer, procesar imágenes para obtener datos útiles de algo

    4. Realidad virtual
    Tema candente, pero en este caso la investigación es más pruebas de usuario que cualquier otra cosa

    5. Realidad aumentada (mi investigación personal)
    Aún hay problemas difíciles de resolver y los resultados son súper enormes. Se superpone prácticamente con la visión por computadora.

    6. Robótica
    Es enorme y los problemas son muy amplios, especialmente cuando te mueves hacia la robótica del desarrollo

    Existen otros campos como el almacenamiento de datos, sistemas distribuidos, redes de alto volumen, etc., pero tengo poco o ningún conocimiento sobre ellos. Eso es más o menos el lado aplicado de las cosas, hay partes de todos estos temas que son teóricas en las que no voy a entrar porque definitivamente no es un tema candente, pero probablemente sea más valioso.

    Hola sarvesh mandloi

    Los temas de investigación actuales en informática son

    1. Inteligencia artificial
    2. Biología Computacional y Sintética
    3. Arquitectura de Computadores
    4. Gráficos por computadora, visión, animación y ciencia de juegos
    5. Informática para el desarrollo
    6. Ciencia de los datos
    7. Gestión de datos y visualización
    8. La interacción persona-ordenador
    9. Aprendizaje automático
    10. Sistemas de información molecular
    11. Procesamiento natural del lenguaje
    12. Lenguajes de Programación e Ingeniería de Software
    13. Robótica
    14. Seguridad y privacidad
    15. Sistemas y redes
    16. Teoría de la computación
    17. Computación ubicua
    18. Sistemas inalámbricos y de sensores
    19. Computación en la nube

    Gracias Sarvesh por A2A

    Los mejores deseos

    La informática es un tema muy ampliado y tiene muchos más hilos que puede explorar con fines de investigación.

    La seguridad digital es de eso. Como muchos desarrolladores trabajan por una buena causa, hay muchos matones trabajando para robar datos. Por lo tanto, la seguridad digital es la mayor preocupación en la industria de TI.

    A medida que el mercado está creciendo sobre el análisis de datos, BigData tiene un gran alcance.

    Como líder mundial en tecnología para la automatización, viene con Internet de las cosas (IoT) . Puedes explorar IoT. Es una tecnología de punta que crece ampliamente. Puede verificar cómo IoT está configurando el futuro y los desafíos clave en el desarrollo de IoT.

    Depende de lo que quieras decir con “caliente”!

    hay varias definiciones diferentes que puedes usar

    1. ¿Qué áreas reciben actualmente mucha prensa?
    2. ¿Qué áreas están recibiendo un aumento excepcional en la financiación?
    3. qué áreas aún tienen muchas frutas bajas (problemas relativamente elementales (¡e interesantes!) que sucumbirán a un esfuerzo moderado)
    4. “Muchas personas inteligentes se están centrando actualmente en este problema”

    En primer lugar: si quiere preguntar “qué tipo de problemas están muy entusiasmados actualmente con los informáticos”, un excelente punto de partida (para algunas áreas) sería echar un vistazo a los títulos en papel de las diversas conferencias celebradas en la conferencia FCRC de este mes http://www.acm.org/fcrc/ . ¡El FCRC se lleva a cabo una vez cada 4 años, y una serie de lugares de investigación de buques insignia en informática se llevan a cabo juntos al mismo tiempo!

    Esta es una especie de meta respuesta, pero su pregunta es como preguntarle a un botánico cuáles son sus árboles favoritos en cada milla cuadrada de bosque en América del Norte. Podría obtener una respuesta específica, pero no responderá honestamente la pregunta que pretendía hacer. 🙂

    La investigación actual en el campo de la informática incluye

    IOT, computación en la nube, minería de datos, procesamiento de imágenes digitales, redes

    Para más temas

    Lingüística computacional: este campo se ocupa de comprender y desarrollar teorías computacionales del lenguaje humano. Dichas teorías nos permiten procesar lenguajes naturales a través de la perspectiva computacional. CL tiene numerosos subcampos que incluyen reconocimiento de voz y síntesis de voz, traducción automática, sistemas de diálogo, recuperación y extracción de información, modelado de temas y resumen de documentos, semántica computacional.

    Esta es una de las áreas de investigación más relevantes y activas y a menudo se agrupa con otras áreas de inteligencia artificial para crear sistemas que puedan comprender y generar lenguajes humanos. SIRI, Cortana, Wolfram Alpha, Google Translate, todos son resultados de investigaciones en esta área.

    Para obtener más información, puede consultar las respuestas aquí. ¿Cuáles son algunas instrucciones en la investigación en ciencias de la computación que vale la pena seguir?

    La informática es un dominio en constante expansión y evolución, con investigaciones que nos impulsan más rápido de lo que podríamos imaginar. Tenemos tecnología que se consideró ciencia ficción hace solo unas décadas; por ejemplo, las tabletas que aparecieron en el popular programa Star Trek fueron imaginadas por los escritores, y terminaron en nuestras manos mucho antes de lo que esperaban. Los temas más candentes de hoy se describen vagamente y fomentan el pensamiento innovador para impulsar la tecnología una vez más.

    Inteligencia Artificial y Robótica

    Esta forma de investigación tiene como objetivo formalizar las capacidades humanas y luego hacer que las computadoras y los robots sean más eficientes en ellos. Esto tiene muchos beneficios (aunque las películas y los libros como I, Robot pueden dejarlo incómodo con la idea). Por ejemplo, los autos sin conductor podrían ayudar a minimizar las lesiones y muertes relacionadas con accidentes automovilísticos; los robots de búsqueda y rescate podrían encontrar a las personas desaparecidas más rápido que un grupo de personas; la lista continua.

    La interacción persona-ordenador

    Este tipo de investigación explora el diseño de la interfaz humano-computadora y apunta a enfocar las técnicas que permiten que las computadoras lean a las personas. Eso significa que la investigación está impulsando a las computadoras a detectar emociones, intención y nivel de habilidad en humanos. Además, se está investigando el diseño de software para personas, como las redes sociales y el hardware, como teléfonos inteligentes y automóviles autónomos.

    Redes a gran escala

    Está la red de su empresa más pequeña, y luego está la red a gran escala, como redes móviles, servicios de alto nivel orientados al usuario (redes sociales), servicios de red para países en desarrollo y hardware de alto rendimiento para centros de datos. También hay varios problemas de política, como quién debe administrar Internet y si los gobiernos deben tener el control. Probablemente la más grande (y más impresionante) son las redes de comunicación del espacio exterior.

    Límites de computación y comunicación

    Siempre hay límites (no todo se puede lograr, al menos no en este momento), pero los investigadores deben ser capaces de reconocer estos límites. En principio, algunos problemas no se pueden resolver y es poco probable que existan algunos algoritmos. También se deben descubrir los límites de los recursos físicos, como el espacio, el tiempo, la energía y los materiales. En esencia, hay límites que aún no se han formalizado, y la investigación apunta a descubrirlos.

    Multimedia

    Multimedia siempre evoluciona y se hace más grande y mejor, por lo que hay mucha investigación dedicada a ello. Los gráficos, el audio y el video siempre se mejoran. Esto implica tanto hardware como software. Algunas preguntas que los investigadores están tratando de responder involucran análisis de escena, que describe lo que está en la imagen, comprende el movimiento y sintetiza multimedia realista.

    Seguridad de los sistemas informáticos y apoyo a la democracia digital

    Se están realizando investigaciones para mejorar la seguridad a nivel de red, específicamente la detección y defensa de intrusos, la seguridad a nivel de sistema operativo y la seguridad física. Además, se están realizando estudios para apoyar la privacidad personal, la libertad de expresión (intercambio de archivos y elusión de sensores y restricciones por parte de los regímenes opresivos), así como problemas con las encuestas electrónicas y la votación. Finalmente, la seguridad de Internet de las cosas (IoT) también es un tema candente.

    El futuro de la investigación tecnológica

    Hay muchos otros temas candentes en la tecnología actual, y al igual que con la tecnología, continuarán evolucionando y cambiando tan rápido como salga el nuevo iPhone (o tal vez incluso más rápido). ¿Quién sabe? Tal vez en unas pocas décadas, estos temas ya no sean un problema

    Ver la declaración de investigación del profesor Valiant, creo que es un buen resumen:

    La mayoría de los problemas computacionales, incluidos aquellos con problemas explícitos.

    caracterizaciones matemáticas como los problemas NP-completos, caída

    dentro de la categoría de aquellos para los cuales la pregunta de cómo mejor

    calcularlos es poco entendido. Estos problemas centrales de complejidad

    la teoría sigue siendo los desafíos matemáticos más fundamentales de la computadora

    Ciencias. Están relacionados con preguntas fundamentales en física cuántica,

    más notablemente a través de versiones de tiempo polinómico de la hipótesis de Turing.

    En los sistemas informáticos, los principales desafíos conceptuales permanecen en el control,

    balanceo de carga y programación de grandes sistemas paralelos, ya sean

    dispositivos multinúcleo en un chip o sistemas altamente distribuidos … cómo

    para diseñar algoritmos para dispositivos multi-core que sean portátiles y se ejecuten

    eficientemente en amplias clases de diseños arquitectónicos con una amplia variedad

    características de presentación.

    Una pregunta fundamental para la inteligencia artificial es caracterizar

    Los bloques de construcción computacionales que son necesarios para la cognición. UNA

    El desafío específico es construir sobre el éxito del aprendizaje automático para que

    para cubrir temas más amplios en inteligencia. Esto requiere, en particular un

    reconciliación entre dos características contradictorias: la aparente

    naturaleza lógica del razonamiento y naturaleza estadística del aprendizaje.

    En neurociencia, un problema ampliamente abierto sigue siendo cómo el modelo débil de

    El cálculo que aparentemente ofrece la corteza puede apoyar el conocimiento cognitivo

    cálculo en absoluto. .. cómo se pueden calcular conjuntos amplios de operaciones primitivas de manera robusta y en una escala significativa incluso en un modelo tan débil.

    Un desafío en una dirección diferente es comprender cómo Darwinian

    la evolución puede evolucionar mecanismos complejos en el número de generaciones

    y con tamaños de población que aparentemente han estado disponibles en la tierra.

    Las nociones de variación y selección de Darwin son nociones computacionales

    y ofrecen un desafío muy directo para el análisis cuantitativo por parte del

    métodos de informática. Lo que se busca es una cuantitativa

    comprensión de las posibilidades y limitaciones de lo básico

    Proceso darwiniano.

    http://people.seas.harvard.edu/~