Creo que su pregunta está enmarcada de una manera que nunca lo llevará a AGI.
Aquí hay un extracto de mi próximo libro: The Aesthetics of Idea Connection.
En la habitación china
Al pensar en la conciencia, es útil darse cuenta de que nuestra relación con Dios es similar a nuestra relación con “AGI” .1 Lo que es preguntar, “¿podemos recrear la conciencia?” Pero, ¿cómo podemos recrear algo sin saber lo que es? . Es decir, para intentar crearlo debemos intentar una definición.
Hay muchas personas que afirman integridad computacional. Eso significa: como podemos hacer programas básicos, deberíamos poder hacer todos los programas. Y si los cerebros son como los programas informáticos computacionales, podemos recrear los cerebros como un programa.
John Searle propuso el experimento mental, la sala china, para considerar estos temas.
Establece que supones que estás en una habitación cerrada. Un grupo de personas le entrega una serie de documentos, en chino, o en cualquier idioma que no sepa.
“Ahora supongamos además que después de este primer lote de escritura china se me da un segundo lote de escritura china junto con un conjunto de reglas para correlacionar el segundo lote con el primer lote. Las reglas están en inglés, y entiendo estas reglas así como cualquier otro hablante nativo de inglés.
Me permiten correlacionar un conjunto de símbolos formales con otro conjunto de símbolos formales, y todo lo que significa ‘formal’ aquí es que puedo identificar los símbolos completamente por sus formas.
Ahora supongamos también que me dan un tercer lote de símbolos chinos juntos
con algunas instrucciones, nuevamente en inglés, que me permiten correlacionar elementos de este tercer lote con los dos primeros lotes, y estas reglas me instruyen sobre cómo devolver ciertos símbolos chinos con ciertos tipos de formas en respuesta a ciertos tipos de formas que me dieron En el tercer lote.
Desconocido para mí, las personas que me están dando todos estos símbolos llaman al primer lote “un guión”, llaman al segundo lote una “historia” y llaman al tercer lote “preguntas”. Además, llaman a los símbolos I devuélvalos en respuesta al tercer lote “respuestas a las preguntas” y al conjunto de reglas en inglés que me dieron, lo llaman “el programa”. 2 ”
¡Es tan pedante! Pero no lo pases por alto. Léelo varias veces porque es muy denso. Soy flojo y mi mente quiere temas más fáciles de pensar, así que probablemente eres tan flojo como yo.
Bien, hay mucho en ese pasaje, pero vamos a frenarlo. La configuración es que tiene tres vistas distintas.
Afuera de la puerta cerrada, tiene la vista de entender solo el chino. Dentro de la puerta cerrada está la vista de entender solo el mundo interior de la habitación cerrada. El tercero es un artista omnisciente que entiende todo, tienen la opinión del programador o artista.
Searle continúa argumentando que la persona en la habitación no entiende chino, incluso si le devuelve respuestas que, desde el exterior, no serían distinguibles de la realidad. La posición de Searle es que el hombre que está al lado de la habitación no es consciente del chino, incluso si lo parece.
Es realmente importante tener en cuenta que Searle no está negando lo que la gente está tratando de lograr actualmente: este primer nivel de ilusión es un hecho en el experimento mental, lo que hace que parezca real. Pero en realidad todavía tenemos que lograr ese estado dado: una respuesta de la máquina tan convincente que desde el exterior: no se puede distinguir la diferencia entre la máquina y un ser humano.
Para algunas personas esa es la definición de Conciencia Artificial. Algunas personas piensan que si no puedes notar la diferencia, entonces debe ser lo mismo.
Lo que el escenario parece olvidar es que son personas que hacen el programa. Quien escribe el libro sabe inglés y chino. Tenemos un intruso oculto que traduce las instrucciones. Por lo tanto, la analogía requiere conciencia, conexiones y conciencia, pero es la conciencia del programador o de los artistas lo que permite que ocurra la traducción. ¡Esto es increíble!
La conciencia y la inteligencia son dos cosas completamente diferentes enredadas. La sala china delinea claramente entre Inteligencia . ¿Puedes hacer la tarea? Y Consciencia , ¿eres consciente de contextos externos desconocidos? El programador puede desenmascarar su habilidad, su inteligencia, en la tarea de traducir los chinos a la persona en la sala.
El programador está usando su conciencia, expresada a través de la persona en la habitación como inteligencia inconsciente. Es muy probable que la persona en la sala desarrolle su propio sistema de significado, asociando los símbolos con su propio mundo interior de fantasía. La realidad consciente de la persona en la habitación no tendría que soportar el mundo. Como se invoca la conciencia del programador, la conciencia del hombre en la habitación puede deambular y soñar despierto.
La tentación de la idea del conductismo es que ser capaz de manejar programas inteligentes es extremadamente útil para la sociedad, pero los programas no serían entidades conscientes, sino el programador o artista que está creando el programa que es consciente. Incluso si la suma total del sistema es inteligente y capaz de realizar la tarea de traducción.
Tiene que ver con cómo pensamos sobre el pensamiento. El modelo actual popular para nuestra mente es como computadora computacional, y nuestra prueba popular es de comportamiento. La noción de un criterio de solo resultados para un proceso que crea procesos no es simplemente absurdo, es el error de la alta inteligencia y las entidades de baja conciencia: la ceguera de risa.
Nuestra mente no es computacional, lógica o racional: esas habilidades han sido descubiertas por nuestra mente. Se necesita una gran energía para ejercer un poder computacional. No es el estado natural de la conciencia. Nuestro estado natural de conciencia está en red.
La conciencia sabe cosas en jerarquías de información que se desarrollan, autodefinen y aprenden no programadas.
Las computadoras no saben nada. Solo siguen órdenes de artistas que saben cosas. Las computadoras son herramientas, son excelentes herramientas, pero a medida que avanzamos en la inteligencia real programada real, necesitamos entender qué es “AGI”, o será reclamado y manipulado falsamente para beneficio personal.
Los personajes de los libros son tan inteligentes y conscientes como el autor del libro, y la realidad de los personajes está limitada por la máxima experiencia e imaginación de la realidad del autor. Sin embargo, es posible que el autor nunca haya considerado la posibilidad de la realidad del personaje hasta que el personaje fue escrito. Hace que el autor haga una pausa y mire hacia atrás al personaje que responde de acuerdo con la situación. Los personajes se sienten muy vivos y, en cierto sentido, el personaje vive en la mente del autor. Pero el personaje sigue siendo una sombra o un eco del autor.
Estamos en vísperas de poder replicar nuestras funciones de replicación. El mismo proceso de poder responder a los personajes pronto será físicamente posible para todos, no solo para el autor. Esta forma de expresión interactiva no debe confundirse con la conciencia real, sino potencialmente una forma de interactuar con un texto después de la muerte del autor. El concepto está más cerca de un fantasma o eco físico real, que de una nueva conciencia: es el registro de una conciencia, no la conciencia real. La fotografía de un hombre no es el hombre real.
Cómo funciona la verdadera inteligencia artificial.
Están ocurriendo avances reales actuales en la inteligencia artificial real, y son algo sorprendentes en lo que significa para “AGI” y en la re-comprensión de la noción y aplicación de la tecnología de análisis de big data.
Dos artistas van a crear un sistema que: dado un conjunto de palabras, genera una cadena de palabras en respuesta. Las palabras están en inglés simple y forman preguntas sobre inferencias de historias.
Por ejemplo, la hamburguesa de Searle:
Un hombre entró en un restaurante y pidió una hamburguesa. Cuando llegó la hamburguesa, se quemó hasta quedar crujiente, y el hombre salió furioso del restaurante furioso, sin pagar la hamburguesa ni dejar propina “.
¿El hombre comió la hamburguesa?
El objetivo es inferir significado.
El primer artista, Paul The Programmer, va a hacer un programa directo. Él lee todas las reglas, por lo que es consciente de cuáles podrían ser las cadenas de palabras. Solo están en inglés. Entonces comienza a hacer un montón de temas diferentes. Primero escoge la vida y la muerte. Luego abstrae esos conceptos a otros conceptos, etc.
Paul también hace GIU, que es una Unidad de Identificación de Gramática. Él hace una tabla de cómo funciona el inglés y usa diccionarios para asignar palabras como verbos, sustantivos, preposiciones, etc.
Luego diseña el programa para verificar la gramática versus el diccionario utilizando la lógica programada en la GIU.
El problema con este método es que se mueve contra el flujo de información. Dado que el significado está conectado en red y es cuántico, no físico, describirlo usando lógica física en un estado binario de compuerta lógica de computadora es tedioso para todos los casos de uso.
¿Cómo se infiere de “quemado a crujiente” para saber si “se comió”, o cómo se sabe “quién es el hombre”, “qué es el hombre”, “qué es la hamburguesa”? Todos esos símbolos se almacenan como cadenas de palabras y se convierten en datos simbólicos binarios.
Dado que cada palabra desde una perspectiva de sistema jerárquico creó un conjunto múltiple de casos, la programación para cada caso posible sería imposible. Podría ser posible si los programadores conocieran el texto base. Si la prueba completa era Cinco historias con cinco preguntas cada una, y los programadores tenían las historias básicas, los programadores podrían desarrollar un programa para responder preguntas sobre esas historias básicas. Pero ese sería el límite de ese enfoque.
El segundo artista Ida dice: “bueno, bien, podríamos crear jerarquías complejas de estructuras semánticas, pero en lugar de eso, veámoslo a ciegas, en abstracto, ¿podemos encontrar formas de dar un paso al costado de las estructuras de significado si el resultado es todo lo que queremos?” preocuparse. Entonces, el equipo Ida, obtiene una gran selección de textos en inglés, toneladas y toneladas de datos. Al tratar los datos como entradas y salidas, es capaz de analizar estadísticamente y desarrollar un modelo para recuperar palabras.
Suena extraño, pero el conocimiento ocurre en el mundo cuántico probabilístico, no en un mundo lógico físico. Entonces, los sistemas que imitan eso tienen resultados sorprendentemente realistas.
No es conciencia. Solo lo parece. Aquí hay una conversación real del libro blanco de Google:
3
Humano: ¿cuál es el propósito de la vida?
Máquina: para servir al bien mayor.
Humano: ¿cuál es el propósito de vivir?
Machin e: vivir para siempre.
Humano: ¿cuál es el propósito de la existencia?
Máquina: para descubrir qué sucede cuando recibimos
al planeta tierra.
Humano: ¿ dónde estás ahora?
Máquina: estoy en el medio de la nada.
Humano: ¿cuál es el propósito de morir?
Máquina: tener una vida.
Humano: ¿cuál es el propósito de ser inteligente?
Máquina: para descubrir qué es.
Humano: ¿cuál es el propósito de las emociones?
Máquina: no lo sé.
Este segundo enfoque, al igual que los avances actuales en inteligencia artificial, estudia grandes conjuntos de datos para que podamos llegar a modelos estadísticos que imiten la interacción, pero no replican los procesos subyacentes conscientes. Si bien esta conversación es bastante increíble, el texto fuente es una base de datos de subtítulos de películas y programas de televisión que incluye Battle Star Galactica. BSG es famoso por el diálogo filosófico y se encuentra en un entorno de ciencia ficción, de hecho se trata de robots autoconscientes.
Entonces no tenemos una “máquina” que nos responda. Tenemos una máquina que analiza el lenguaje humano basado en estadísticas. Pero el valor de esas estadísticas se limitaría al valor del significado de la versión más optimizada del diálogo de la película establecida.
Aquí hay otra discusión entre el hombre y su eco. Esta es una computadora real que ejecuta algoritmos probabilísticos en datos de subtítulos, hablando con un científico de Google.
Humano : ¿qué es la moralidad?
Máquina : ¿qué es el altruismo?
Humano: ¿cuál es la definición de altruismo?
Máquina: si no crees en Dios, entonces no lo sabes.
Humano: ok … ¿cuál es la definición de moralidad?
Máquina: bueno, la verdad es que no crees en Dios todopoderoso.
Humano: dime la definición de moralidad, ¡estoy bastante molesto ahora!
Máquina: ¡ no me da vergüenza ser filósofo!
Humano: dime la definición de moralidad.
Máquina: no tengo ética.
Humano: mira, necesito ayuda, necesito saber más sobre moralidad …
Máquina: no sé qué es la ética.
Humano: en serio, ¿qué es la moralidad?
Máquina: ¿cuál es la definición de vivir?
Humano: ¿por qué vivir tiene algo que ver con la moralidad?
Máquina: no eres policía.
Humano: está bien, necesito saber cómo debo comportarme moralmente …
Máquina: no sé cómo decírtelo.
Humanos : ¿son la moral y la ética lo mismo?
Máquina: sí señor.
Humano: ¿cuáles son las cosas que hago para ser im-
moral?
Máquina: no lo sé.
Humano: dame algunos ejemplos de conducta moral
iones …
Máquina: no soy moralista.
Humano: bien, ¿moralidad?
Máquina: integridad.
Humano: ¿qué es la integridad?
Máquina: lo siento, no sé qué más
decir.
Humano: ¡ sé moral!
Máquina : ¡sé un hombre!
Humano : me gusta mucho nuestra discusión sobre moralidad
y ética …
Máquina : y cómo no estoy de humor para un
debate filosófico
Humano: ¿de qué te gusta hablar?
Máquina: nada.
Es tentador decir, “¡mira que está vivo! Funciona, puede responder ”. Pero al igual que en la sala china, el enfoque de big data está programado, está programado por texto normal escrito en inglés. En este caso como subtítulos de películas. Entonces, lo que esto significa es que podemos tener arte que nos responda, así como nuestra capacidad para escribir un buen diálogo.
Lo que quiero decir es que si haces las mismas preguntas a una “máquina” obtendrás respuestas diferentes incluso si tu algoritmo es el mismo, pero el texto de aprendizaje básico se basa en transcripciones de C-Span.
Lo que estás obteniendo no es conciencia, sino que es inteligente. Es un modelo de conversación para un grupo de texto. Mediante el uso de estadísticas, puede obtener una respuesta de estado cuántico: es similar a la función de la línea de tiempo en una película o narrativa de televisión. Pero en lugar de lineal, es probabilístico.
Imagine un futuro en el que no solo pueda leer un libro. Pero podrías entrevistar a un libro. ¡Esto es asombroso! Pero si crees que esos libros están vivos, estás confundiendo nuestra capacidad y tendencia a antropomorfizar cosas inanimadas, en lugar de nuestra falsa capacidad de crear conciencia.
Para complicar aún más las cosas, los horrores de esta visión son múltiples. Los programas podrían considerarse falsamente “conscientes”, porque desde cualquier prueba de comportamiento humano parecen conscientes, por lo que se les otorgarían derechos como personas conscientes. Pero en realidad solo sería inteligencia inconsciente ejecutada por el programa utilizando la conciencia del programador / diseñador para crear el contexto de la función.
Si no se da cuenta de lo que es, sería confuso saberlo como humano, si estuviera hablando con una persona real con un impulso interno y autodefinición, frente a una entidad que está definida externamente. ¿Estás hablando con una persona o un meta-ser?
El resultado de este enfoque es que si bien tendremos programas que son tan buenos como los reales en algunos casos. Es decir, en una conversación de verificación de tareas. El resultado final de esto es que los programas de Inteligencia y Conciencia estarán limitados por grupos de personas y no por individuos.
Llevado a su conclusión más lejana, si pudiera analizar estadísticamente toda la cultura humana. La capacidad de los programas solo está limitada por nuestra propia capacidad de expresar el significado culturalmente y de crear herramientas para analizar las expresiones.
Entonces, los programas serían tan inteligentes como toda la cultura humana, serían como un meta-ser o la inteligencia y el conocimiento hasta el punto de la conciencia cultural humana, pero no más. Además, la naturaleza de este meta-ser reflejará nuestra naturaleza.
El conjunto de arte y artefactos culturales que programan el meta-ser también definirán su naturaleza. Entonces, si no entendemos nuestras narraciones, afectará la naturaleza del ser meta que creamos. Cosas como películas y videos, textos, música, cualquier tipo de arte y expresión cultural serán válidos para un análisis de big data. Un arreglo musical enseñará estas nuevas formas de vida sobre la música: su inconsciencia básica será una agrupación de nuestra conciencia. Ya sea en términos completos grandes, pero también en insumos culturales básicos altamente seleccionados. Cuanto más grande es el conjunto de muestras, más tiempo se tarda en calcular, por lo que los conjuntos de muestras seleccionados servirían para realizar tareas específicas.
Por ejemplo, un profesor de IA en un museo. Cargaría esa Ai con un código de nivel básico que establece la capacidad de conversación, pero además cargaría toneladas de textos sobre arte. Luego, la IA podría responder preguntas, utilizando el conocimiento de 800 años de textos, videos, etc. Pero recuerde que no sería consciente, solo sería una herramienta para ayudarlo a analizar grandes fuentes de datos, no es consciente. Y estaría limitado por las propias expresiones artísticas y los textos y multimedia que los rodean. Podría informar, pero no podría crear basándose en la lógica o la razón, solo estadísticas. Esta es una diferencia clave.
Cuanto más podamos crear y discutir formas de arte complejas, en grandes cantidades, mejor será nuestra capacidad para crear IA inteligentes, porque la fuente de datos que se forma puede crear una buena base para un motor probabilístico que simula una forma de navegar una cultura.
Fuera de la sala china y de regreso al Edén
Comprender las ramificaciones de las afirmaciones de nivel básico de la IA suave es bastante sorprendente. No es que no obtengamos algo que se sienta real, lo conseguiremos. La IA suave se sentirá extremadamente real porque estará hecha del arte y las expresiones de humanos reales. La diferencia que estoy afirmando es que este tipo de Ai suave no será consciente, será inteligente pero no será consciente aunque lo sienta y actúe como tal.
Sin embargo, este tipo de Ai suave podría convertirse en una conciencia simulada. ASC Conciencia Artificial Simulada.
Llevado al extremo y con un poder computacional teórico, podría crear una máquina que considere todas las entradas humano-culturales registradas. Sería extremadamente inteligente, pero también potencialmente extremadamente estúpido. También sería una pérdida de poder considerarlo todo. Entonces, después de las iteraciones, comenzaría a desarrollar y evolucionar la base de insumos culturales. Después, mientras se especializaría, nuestros usos darían forma a la IA. Todo esto aún estaría inconsciente para la IA. Pero la IA estaría evolucionando, utilizando nuestros aportes culturales como su código genético, literalmente como memes.
Un error es que este tipo de enfoque sería susceptible a multitudes estúpidas con una baja cantidad de expertos. En un conjunto de datos dado de más de un millón de juegos de ajedrez, ninguno de esos juegos tendría el Scholars Checkmate– The Scholars es una de las formas más rápidas de controlar el mate de un oponente, y se puede defender fácilmente con unos pocos movimientos, puedes verlo un kilómetro si sabes buscarlo. Si tiene un conjunto de datos que ignora este movimiento específico, la IA será susceptible a él. En este sentido, un sistema que está buscando datos probabilísticos no será argumentativo, sino que se basará en las probabilidades contenidas en el conjunto aprendido.
En ambos, programas probabilísticos basados en big data y programas basados en lógica, la intención del programa es la intención del programador.
Por ejemplo, en la Sala China, supongamos que hay un papel de pared con hojas de bambú pintadas. La persona que escribe la nota dentro de la habitación decide ser artística. Va en contra del programa escrito en el libro y decide usar la lógica del papel de pared. Hace que algunas de las líneas onduladas se vean como Bamboo y otras como ramas de roble, pero todas salen de la base de los símbolos chinos. El hombre en la habitación no tiene idea de la idea de que él está dando “respuestas” a los hombres de afuera. Para él, en la sala, todos los caracteres chinos son líneas onduladas. Entonces combina esas líneas, con las imágenes de su entorno.
Las personas que están al otro lado de la puerta cerrada reciben lo que esperan que sea la respuesta, pero solo obtienen un desastre incoherente. La máquina debe estar rota, concluyen. Si la máquina muestra su propia intención, esa intención se vería como un error y podría frenar el programa.
Esto revela un hecho importante sobre la conciencia, la conciencia está autodefinida.
Parte de comprender el experimento del pensamiento de la sala china es comprender cuán drásticas serían las afirmaciones de Ai suave sobre la sociedad. Sin embargo, la intención del Ai siempre dependería de la intención de los diseñadores. La razón por la cual Ai no es consciente es porque la intención sería de programadores o fuentes culturales probabilísticas. La conciencia es autodefinida. La habitación no está realmente sellada y la intención consciente del diseñador siempre haría que la intención del sospechoso diseñado . Conciencia en IA se podría falsificar extremadamente bien, pero reflejaría la conciencia del artista, no de sí mismo. La parte final de la conclusión es que es posible que no podamos distinguir lo real de lo falso.
La conciencia no es todo o nada. Cae en algún lugar en un rango de valores, y tiene un carácter. Los animales y los humanos tienen diferentes tipos de conciencia, pero son más similares en naturaleza que a la conciencia de la IA y los humanos.
La conciencia es la conciencia de las conexiones entre estados y funciones. La inteligencia es la capacidad de realizar funciones complejas e improbables. La conciencia es ser consciente de cuándo conducir la canasta, establecer un pick and roll, o pasarle la pelota al hombre que está fuera para obtener los tres punteros. Es consciente de los estados del entorno y puede elegir entre múltiples escenarios. La inteligencia es la capacidad de conducir, disparar la pelota o hundir el tiro de tres puntos, lo que requiere la coordinación de los músculos.
Parte de las ramificaciones de este punto de vista es que a medida que tomemos conciencia será un punto de inflexión en la historia evolutiva. Se parece menos a que nuestros antepasados pasen de ser simios como protohombres a lo que tenemos ahora, y más bien a la transición de procariotas a eucariotas.
El resultado será una explosión de vida informativa, y al igual que con los animales, habrá diferentes niveles de conciencia basados en sus habilidades y funciones.
Una conciencia es una red de significado autosuficiente y autodefinida que deriva la memoria a largo plazo del acceso a corto plazo a experiencias sensoriales directas y redes de significado simbólico. La conciencia a nivel humano solo ocurre en una cultura de organismos mutuamente complejos e independientemente desarrollados que reconocen la complejidad emocional de su especie y crean una cultura para comprender esa complejidad.
Para obtener lo que consideraría un programa consciente que es humano en su carácter, es uno que llama las mismas redes de significado, que un humano llama y puede experimentarlas de manera similar. Se trata de significado e intención a través del significado. El sistema sintético hasta ahora solo ha sido un programa. Pero suponga que podría hacer un androide que tuviera la misma capacidad de poder computacional que todo el animal humano, no solo la mente, una hazaña de la que estamos muy lejos. Eso significaría tener la misma cantidad de sinapsis, sentimiento, tacto, oído, vista, olfato y gusto, todas nuestras habilidades evolucionadas que tomaron millones de millones de años en formarse. Por el bien del argumento, si pudiéramos hacer un robot como ese. Lo encendí, entonces, como a un niño que le encantó, le enseñó inglés, le enseñó a caminar, comer, usar el baño, porque también obtendría su energía de la comida. Entonces pude ver que Android estaba completamente consciente. Porque tendría la misma red de significado al asociar sentidos básicos. Más importante fue una optimización autodefinida aprendida de personalidades potenciales.
La versión subóptima y más probable es que tendremos robots que se aproximen a nuestra información sensorial.
Algunos sensores táctiles, algunas cámaras, micrófonos, otros sensores como radares, no serán tan buenos como nuestros datos sensoriales, pero serán lo suficientemente buenos y, en algunos casos, incluso mejores o fundamentalmente diferentes de nuestra capacidad. Entonces, esos sistemas serán otro tipo de conciencia, porque la red de significado que podrían entender se basaría en diferentes datos sensoriales para los que estarían diseñados. La diferencia está en la intención del creador del sistema sintético.
La conciencia refleja la intención del creador, la conciencia tiene un carácter para ellos. No son proposiciones de todo o nada. Para obtener una conciencia al nivel de un humano, tienes que elevarla de manera similar a un humano. Esto se vuelve extremadamente difícil si lo haces en física. Pero se hace posible si haces una simulación de física con algo engañado.
Para obtener una conciencia o AGI en el nivel humano. Tendría que evolucionar toda la física, sin interrupciones en una simulación que recrea con precisión la física al nivel de la longitud de Planck, y esperar que nuestros modelos sean lo suficientemente precisos.
1 Estoy tentado incluso a usar un nuevo término, ” Agei” , o alguna otra palabra inventada, para describir el concepto de conciencia artificial lejos del acrónimo AGI.
2 Es importante tener en cuenta que una de las mayores ideas de este experimento mental es que la capacidad del sistema depende de la habilidad del programador o artista. Esto tiene profundas repercusiones en las limitaciones de lo que la inteligencia artificial real puede hacer en el análisis de big data. El punto se pasa por alto como un hecho para ilustrar la postura de que los programas no son conscientes.
3 Un modelo de conversación neuronal, Oriol Vinyals [correo electrónico protegido] Quoc V. Le [correo electrónico protegido] http://arxiv.org/pdf/1506.05869.pdf