Brevemente, ¿en qué proyecto de IA estás trabajando ahora?

Es un proyecto muy, muy pequeño, pero brevemente: una investigación sobre cómo la activación sigmoidal puede hacer que una red neuronal sea más ‘expresiva’. Específicamente, un conjunto de redes neuronales.

Por ejemplo, supongamos que tiene un conjunto con 5 ramas CNN diferentes. ¿Cómo podría saber con certeza si las 5 ramas son incluso necesarias para su problema? ¿Cómo podría saber si esas 5 ramas pueden estar dañando su precisión de clasificación debido a la increíble cantidad de ruido que pueden crear 5 mínimos locales diferentes?

No puedes!

Pero, lo que puede hacer es informarle a su red neuronal que tiene la opción de cerrar una de sus ramas cada vez que lo necesite. Tal vez aprenda a adaptarse al ruido y encontrar las gemas ocultas, pero si no puede, darle esta opción nuclear puede hacer maravillas por su precisión. Y eso es exactamente lo que puede hacer mi técnica de activación sigmoidal.

Ha funcionado? Sí, pero no en ningún grado que considere significativo. Dejé mi instancia de EC2 ejecutándose durante la noche, y volví a un aumento de precisión del .9% sobre el modelo no sigmoidal en CIFAR-10. Interesante, pero tan pequeño que podría deberse a una posibilidad aleatoria. E incluso si no se debió a una posibilidad aleatoria, esa baja protuberancia no vale los parámetros de 1.5M que agrega mi activación sigmoidea.

Rehice el modelo esta mañana y lo dejé correr nuevamente. Con suerte, serán algo más interesante una vez que termine.


ACTUALIZACIÓN: 7:26 PM el 10/02/18:

Mientras esperaba que el modelo no sigmoideo terminara de ejecutarse (el nuevo modelo sigmoide terminó esta mañana), decidí ver si las activaciones sigmoideas realmente podrían servir como un indicador prefabricado para imágenes adversas. Dado que las activaciones controlaban cada rama, parecía probable que una colección diferente de ramas activadas pudiera servir como un cable de disparo para ejemplos adversos.

Desafortunadamente, después de las pruebas, las activaciones con FGSM de baja épsilon son casi idénticas a las de las imágenes no adversarias, lo que demuestra que mi hipótesis es algo errónea. Digo ‘algo’, porque en un épsilon semi alto (.2), ​​había una rama muy clara que señalaba si una imagen era o no adversaria. Un épsilon tan alto se detecta fácilmente mediante inspección visual, por lo que no fue muy útil para una red poder ver eso. Sin embargo, algo de esfuerzo, alguien con más experiencia de la que yo podría desarrollar este trabajo y hacer algo interesante.

Una herramienta que podría ayudar a los discapacitados visuales en India a llamar a los auto rickshaws.

(Para aquellos que no están familiarizados, el procedimiento típico para llamar a un auto-rickshaw en la India consiste en pararse en la acera de una calle concurrida, detectar un paso de auto-rickshaw vacío y gritar “¡Auto!” Para alertar al conductor).

Ese es un obstáculo importante para las personas con discapacidad visual en la India, ya que generalmente requiere asistencia visual.

Estoy construyendo una herramienta que usa la cámara del teléfono inteligente para detectar (usando técnicas de aprendizaje profundo / visión por computadora) y alertar a la persona, cuando pasa un auto-rickshaw vacío. La experiencia del usuario implicará pararse al lado de una calle concurrida y apuntar la cámara del teléfono hacia la calle hasta que avise al usuario de un auto-rickshaw en la calle.

Y dado que el uso de teléfonos inteligentes entre los discapacitados visuales está en aumento en la India, pensé que esto podría ser útil, si no ahora, al menos en algún momento en el futuro.

Decidí implementarlo como parte de un curso (CS230: Aprendizaje profundo) aquí, para que tenga un límite de tiempo 😛 Pero, sinceramente, no he hablado sobre la viabilidad de una herramienta como esta para una persona con discapacidad visual o un experto. Por lo que sé, esta podría ser una aplicación ingenua con muchas lagunas deslumbrantes. ¡Cualquier comentario será increíble!

Un nuevo simulador de evolución basado en la plasticidad sináptica en evolución y no en la estructura inicial de la red neuronal neural. Mi último intento de 2015 me dio resultados interesantes en los que una especie dominante de criaturas se seguían en círculos para no lastimarse y solo salir corriendo a buscar comida cuando surgía la oportunidad.

Aquí hay un viejo video de esa simulación:

Editar:

Pensé que podría ser interesante para alguien, pero luego usé el comportamiento resultante de estos bichos en un videojuego divertido en el que estaba trabajando en ese momento para la IA enemiga, copiando la red neuronal del bicho más apto.

Estoy investigando las dimensiones “espiritual” y cultural de la IA, más específicamente cómo la espiritualidad india trataría con la IA. Es un seguimiento de mi estudio de IA y China.

La antigua cosmovisión de China ilumina el futuro de la IA

He estado interesado en la IA teórica durante muchos años. Mi interés principal era construir máquinas que puedan aprender de su entorno sin ninguna supervisión.

También tiene que actuar sobre el medio ambiente y mejorar continuamente. Con este propósito, comencé a estudiar e investigar sobre IA teórica. Después de 8 años de investigación, finalmente construí mi primer modelo prototipo. Es un modelo generalizado. Eso significa que no codifiqué ninguna lógica específica del contexto en el modelo.

Luego apliqué este modelo a un juego como Ping Pong. Los píxeles de video de la pantalla del juego fueron la única entrada a este modelo y su salida fue la siguiente acción a tomar.

Para mi sorpresa, este modelo aprendió gradualmente a jugar. No le dije que aprendiera a jugar, pero aprendió a jugar solo.

Aunque este modelo no alcanza una habilidad de muy alto nivel en el juego. Pero es silencioso un gran logro para mí.

Google Deepmind también ha construido un modelo similar que puede jugar muchos juegos de atary 2600. Pero la principal diferencia entre su modelo y mi modelo construido es que su modelo requiere información de puntuación del juego (retroalimentación) explícitamente para la mejora gradual del rendimiento. Esta dependencia de la función de retroalimentación hace que su modelo no sea adecuado para la mayoría de los problemas del mundo real. Pero mi modelo construido no requiere ninguna información de retroalimentación para su mejora gradual. Aprende como un niño. No requiere ninguna supervisión o retroalimentación explícitamente.

Este es un proyecto de investigación en curso. Aún no está completo. Se requiere más trabajo de investigación para mejorar el modelo. Mi próximo enfoque es crear un modelo que pueda hablar, comprender el habla y el video para que pueda interactuar con el mundo real.

Uno de los míos está usando ML para derivar y adaptar funciones de tiempo / utilidad para sistemas dinámicos en tiempo real (real-time.org).

More Interesting

¿Cuál es el cerebro de organismo más complejo que podemos imitar con éxito con la tecnología actual de IA?

¿Podría una "verdadera IA" creer en el alma? No si lo haría, pero ¿podría? (Un humano puede o no creer, pero un humano claramente puede creer).

¿Cuáles son los mejores kits robóticos programables para un ingeniero relativamente novato que desea practicar algunas implementaciones de aprendizaje automático utilizando un robot?

¿Cuáles son las diferencias funcionales entre un procesador de computadora diseñado para IA (por ejemplo, Tensor / TPU) y un procesador ordinario (CPU) o GPU?

Al calcular los pesos en una red neuronal, ¿por qué multiplica la señal de error por la entrada?

En el aprendizaje automático, ¿por qué las submuestras de un conjunto de muestra general se llaman pliegues?

Cómo evaluar los sistemas de recomendación de calificación unaria

¿Cuáles son algunos proyectos principiantes de Python y OpenCV?

¿Por qué algunas personas le temen a la IA?

¿La IA realmente refleja las capacidades cognitivas del cerebro humano?

¿Qué evitará que los humanos abusen de las reglas de 'prevención de colisiones' que eventualmente regirán los vehículos autónomos?

¿Cuáles son las mejores revistas en computación evolutiva?

¿Cuáles son las desventajas o desventajas de usar autoencoders para la extracción de características?

¿Cómo reemplaza una red neuronal un modelo acústico para aplicaciones de reconocimiento de voz?

¿Qué puede salir mal con la economía bot emergente?