¿Cuánto tiempo llevas trabajando en aprendizaje automático / inteligencia artificial?

Durante el verano de Woodstock, 1969, estaba encorvado sobre un Teletipo Modelo 33 conectado a un mainframe de IBM que desarrollaba un programa para aprender una función de los datos. Sí, era aprendizaje automático y sí, estaba usando un método comúnmente utilizado hoy en día en el aprendizaje automático. Solo 2 años antes había escrito mi primer programa Fortran (en tarjetas perforadas) y me enganché.

El lunes, Memorial Day 2017, estaba en mi computadora portátil a las 5:45 AM escribiendo código en Python para un programa de aprendizaje profundo, descubriendo cómo predecir el éxito de las startups.

Esta historia trata sobre los años intermedios y cómo la programación es un hilo común a más de medio siglo de un viaje encantador. Para mí, la programación es un lenguaje de persuasión. Esta habilidad ha sido fundamental para obtener un respaldo financiero sustancial y para crear un retorno para los inversores.

Solo un año antes, en el verano de 1968, mientras solo estaba en mi tercer año de educación universitaria, me enfrenté a la posibilidad de perder el apoyo financiero y tener que abandonar la escuela. Milagrosamente, conocí al profesor Richard L. Coren, un Ph.D. en física, miembro de la facultad de Ingeniería Eléctrica. Abrió las puertas a la investigación de becas de investigación y una beca totalmente financiada. Se requería una condición: trabajar en su laboratorio para estudiar el comportamiento de las películas ferromagnéticas delgadas.

Se sentaron las bases para esto debido a una fascinación extrema con la electrónica cuando era niño. A los 12 años tenía mi licencia General de Radioaficionados y estaba acostumbrado a piratear dispositivos electrónicos en equipos de comunicación de radio en funcionamiento. En 1959, cuando no había forma de comunicarse económicamente con el mundo, podía hacer contacto con todos los puntos de la tierra si las condiciones fueran las correctas.

Entonces, cuando el profesor Coren propuso un experimento destinado a aprender el funcionamiento interno de una película magnética colocándola en un campo electromagnético, estaba listo para rockear. Una vez que reunimos los datos, la pregunta era, ¿cómo no entendemos el comportamiento subyacente que produjo los resultados? La respuesta: aprendizaje automático utilizando métodos newtonianos. Le ahorraré los detalles, pero si toma algún curso sobre aprendizaje automático hoy, verá que estos mismos métodos todavía se enseñan casi 50 años después.

Ese otoño, nuestro trabajo se presentó al Journal of Applied Physics y se publicó el siguiente marzo (1970). A partir de ahí, el uso del modelado matemático y la programación se convirtió en la forma en que exploré y desarrollé ideas. El profesor Coren me tuvo en camino a un doctorado. (un programa de honores especialmente diseñado me permitió pasar directamente a la investigación de posgrado) y agregó un profesor Herb Callen a mi comité de doctorado.

Profesor Herb Callen (búscalo en Wikipedia), Ph.D. física del MIT, como profesor de física en la Universidad de Pensilvania, escribió el libro líder sobre termodinámica y termostatística. No me di cuenta hasta décadas después del papel que este trabajo jugaría en las técnicas de aprendizaje automático y en el aprendizaje profundo.

Años más tarde me di cuenta de cuán relevante fue mi comienzo en la programación para la fiebre actual que rodea la inteligencia artificial y el aprendizaje automático. La historia continúa.

Mientras estaba en la escuela secundaria, desarrollé un interés en la lingüística matemática. Ese hilo de interés surgió a principios de los años 70 cuando el post Ph.D. Logré obtener una posición dividida en la facultad de la universidad en física e informática. En 1973 obtuve acceso a DARPNET (ahora Internet) y comencé a trabajar en sistemas de procesamiento de lenguaje natural, inicialmente programando en SNOBOL, pero pronto migré al lenguaje de los dioses, LISP.

Al estar obsesionado con la implementación de modelos de lenguaje de gráficos dirigidos (redes de transición aumentada, redes semánticas), escribí sistemas de análisis experimentales que incluían microcodificación para el microprocesador Intel 8080.

En 1980 abandoné la academia para unirme a un grupo de investigadores (en gran parte del laboratorio de IA del MIT) en Texas Instruments formando uno de los primeros grupos de investigación corporativa en IA. Allí le encargamos a Richard Greenblatt que construyera las dos primeras máquinas LISP fuera de la academia. Richard literalmente construyó estas dos máquinas en el piso del laboratorio en TI.

No puedo describir la alegría de tal poder de computación e interactividad al alcance de mi mano (tenga en cuenta que comenzar con un enlace de 10 caracteres por segundo a una unidad central solo 11 años antes). Allí escribimos un sistema HELPME. HELPME era una forma hipervinculada de migrar archivos en una red de computadoras conectadas (un navegador en 1980).

No pasó mucho tiempo hasta que recibí la llamada de Silicon Valley. El profesor Ed Feigenbaum me reclutó para formar parte de una nueva startup creada en Stanford centrada (al principio) en aplicar la IA a la ingeniería genética. Sí, era temprano, así que pronto migramos a ser una empresa de inteligencia artificial basada en una plataforma, KEE, el entorno de ingeniería del conocimiento y cambiamos el nombre a IntelliCorp. Greg Clemenson (un compañero de investigación en TI que me siguió a CA) fue el desarrollador principal conmigo escribiendo un contenedor de aplicaciones para mostrar cómo podía funcionar el sistema orientado a objetos subyacente. Hicimos esto en tiempo prestado y máquinas. Tardes en la noche en el Centro de Investigación Xerox Palo Alto y en la oficina de Symbolics Palo Alto nos permitieron construir el código que se estrenó en 1983 en IJCAI Karlsruhe. La compañía pasó a traer el 60% de Fortune 100 como clientes. Estas compañías estaban interesadas en capturar el conocimiento de sus expertos en software. INAI (el símbolo bursátil de IntelliCorp) se convirtió en la primera compañía de IA en salir a bolsa en 1983.

Durante treinta años pasé la mayor parte del tiempo como CEO pero con frecuentes viajes al laboratorio para jugar con la codificación. Cuando tenía poco más de 60 años, decidí volver a la programación recogiendo más seriamente la primera codificación en el objetivo C para aplicaciones de iPhone. Eso pronto se trasladó a Python y otros idiomas.

Para mí, la codificación es una forma de demostrar que las nuevas ideas pueden funcionar. Simplemente necesita escribir código que muestre que una nueva idea funciona. Es mucho más fácil que tratar de persuadir a alguien con diapositivas de Power Point. La programación es el lenguaje de la persuasión. Muéstrales un prototipo. Y con la cultura comunitaria de código abierto actual, las puertas al desarrollo creativo están abiertas para todas las edades.

More Interesting

¿Cuál es la ley de las computadoras de Moore?

¿Qué evidencia existe de que el Kremlin estaba detrás de los ataques de DNC y cómo podemos estar seguros de su autenticidad? La mayor parte de la evidencia potencial puede ser falsificada.

¿Cuál fue su experiencia como obtener un doctorado en informática especializado en sistemas o teoría?

¿Cuáles son algunas buenas prácticas / consejos de optimización al crear software de procesamiento de imágenes o visión por computadora?

¿Qué sucede en mi computadora cuando visito un sitio web?

¿Hacia dónde se dirigirá la investigación de aprendizaje automático en los próximos 5 años? ¿Cuáles serán las áreas más emocionantes y prometedoras?

¿Qué necesito saber para construir una IA genérica?

¿Puede la notación musical (cualquiera que elija) considerarse Turing Complete?

¿Qué es el algoritmo LWL (aprendizaje ponderado localmente) sobre el aprendizaje automático? ¿Me puede dar alguna información al respecto?

¿Cuál es el estado actual del uso del aprendizaje automático en la optimización de la producción?

¿Cómo se compara el programa de pregrado de CS de Yale con el de Harvard?

¿Puedo usar más mapeadores y reductores simultáneamente en un programa MapReduce usando el concepto de subprocesamiento de Java? Si es así, ¿cómo? Si no, ¿por qué?

Si vivimos en una simulación por computadora, ¿qué sentiríamos si se eliminaran los 'datos y hardware' para la simulación?

¿Cómo explicaría los servidores de bases de datos y el alojamiento de bases de datos a un novato que solo sabe crear bases de datos en una máquina local?

¿Cuál es la marca de corte para CS en NIT Rourkela en 2017?