Comencé con el curso de Andrew Ng cuando estaba en la escuela secundaria. Luego hice un proyecto para Google Science Fair en 2012. Después de un pequeño descanso en términos de IA, comencé a leer documentos de aprendizaje profundo durante mi primera pasantía en Google en mi segundo año de pregrado. Me interesaban principalmente las redes neuronales recurrentes (RNN), inspiradas en el trabajo del profesor Schmidhuber.
Mi gerente en Google sugirió echar un vistazo a TensorFlow, que estaba cerca de ser abierto para ese momento. Resultó ser una muy buena idea: de regreso a la escuela, obtuve un puesto de asistente de investigación donde podía aplicar RNN a problemas de lenguaje. TensorFlow todavía era muy nuevo, y después de usarlo para varios proyectos, me invitaron a ser coautor de un libro sobre él.
Intentando abordar el problema central de la IA, estudié el aprendizaje por refuerzo (RL) durante mi tesis de pregrado. La mayoría de los estudiantes escriben sobre su proyecto de último año, pero pensé que sería una buena motivación para analizar el tema. Si bien mi segunda pasantía en Google fue en LSTM, propuse un nuevo modelo de RL a algunas personas increíbles de Google Brain y trabajamos juntos en ello.
- Alex net tiene alrededor de 100 millones de parámetros, mientras que el cerebro tiene 100 billones de sinapsis. ¿Las redes neuronales necesitan ser más grandes?
- ¿Serán útiles los antecedentes en estadística matemática y matemática pura en la investigación de IA?
- ¿Cómo funcionan los algoritmos genéticos?
- ¿Continuará la sensibilidad humana después de la IA en un estado no orgánico con un intercambio de conocimiento perfecto, sin individualidad y solo una sensibilidad única?
- ¿Qué algoritmos de aprendizaje automático se usan típicamente para las traducciones de idiomas?