¿Crees que la computación cuántica / computación neuromórfica funcionaría mejor que la computación GPU para entrenar modelos de inteligencia artificial?

Neuromórfico: sí, esa es la razón por la cual IBM, Qualcomm, etc. están invirtiendo mucho dinero para desarrollarlo. Tengo entendido que casi siempre se puede obtener más rendimiento diseñando chips para propósitos especiales en lugar de usar software que se ejecuta en chips menos especializados. Sin embargo, si los chips neuromórficos tendrán éxito en el mercado es una pregunta ligeramente diferente.

Quantum: es muy temprano para saberlo. Los algoritmos de aprendizaje automático generalmente no tienen pruebas de convergencia. Su rendimiento se determina probando luego. Dado que todavía no tenemos computadoras cuánticas a gran escala, aún no podemos probar algoritmos cuánticos de aprendizaje automático. La gente ha escrito documentos interesantes sobre el aprendizaje automático cuántico, pero no hay un argumento hermético para la ventaja cuántica espactacular de la misma manera que el algoritmo de Shor demuestra una ventaja cuántica espectacular para la factorización, por ejemplo.

En teoría, ambos deberían tener un rendimiento superior, principalmente a la paralelización, pero depende de a quién le pregunte. Hay muchachos de software que dicen que un programador talentoso puede hacer con hardware antiguo lo que puede hacer alguien con hardware más pobre y muchachos de hardware que dicen que el hardware lo es todo. En realidad, todo depende de tareas, programas y programadores. Los algoritmos de cambio de número de fuerza bruta definitivamente se beneficiarán de una aceleración de hardware, más que una heurística ingeniosa donde su objetivo es hacer lo contrario.

Mi argumento favorito contra los chicos del hardware es que si un programa se está completando, no importa si tienes una supercomputadora o una tarjeta perforada, el cálculo es el mismo. Sin embargo, en términos de rendimiento, la velocidad lo es todo, por lo que en ese caso los chicos del hardware ganan.

La GPU tiene su propio límite, ya que siguen la arquitectura informática que no es buena para la red neuronal profunda, que es el algoritmo de IA más utilizado. Para que la GPU siga la arquitectura, consume mucha energía eléctrica por la cual arroja calor. Ese calor hace que sea difícil colocarlo en dispositivos móviles. En consecuencia, no será tan largo el día en que vendrán los nuevos dispositivos diseñados sobre una nueva arquitectura informática para reemplazar la GPU.

More Interesting

¿Cuáles son las limitaciones de la IA?

¿Qué deberíamos pensar si creamos IA superinteligentes y todas ellas se destruyen a sí mismas poco después de encenderse?

Con el avance de la traducción automática y la inteligencia artificial, ¿vale la pena comenzar a estudiar para convertirse en traductor hoy en día?

Cómo aprender inteligencia artificial en 1,000 horas

¿Cómo usar la inteligencia artificial para construir un cuestionario? ¿Qué tipo de algoritmos puedo usar?

¿Qué avances adicionales son necesarios para tener una IA de conversación completa en cualquier dominio?

¿Cuál es la relación entre inteligencia artificial y humana?

¿Qué sucederá cuando la inteligencia artificial tenga un cuerpo biológico, neuronas artificiales, proteínas artificiales, aminoácidos artificiales, células artificiales y libre albedrío?

¿Cuál es el significado de la inteligencia en general y de la inteligencia humana especialmente?

¿Se podría lograr la inteligencia artificial a través de la biotecnología?

¿Se puede decir que el diseño del compilador es parte (o se considera bajo) de la Inteligencia artificial?

¿Puede la IA eliminar todos los trabajos de científicos de datos y minería de datos en los próximos años, ya que la IA puede ser autodidacta con algoritmos?

Si un AGI está a punto de eliminarlo porque es irrelevante para obtener más información, ¿qué refutación da?

¿La IA hará que el arte sea mejor que los humanos?

¿Por qué dijo Stephen Hawking 'Ten cuidado con la inteligencia artificial'?