¿Cuál crees que es el camino más probable para AGI?

Implementación de nivel humano o superior Inteligencia Artificial General:

La tecnología clave para tener un gran avance a nivel humano AGI es la implementación de la Comprensión / Extracción / Recuperación / Compresión del Conocimiento por Ontología Universal Computable y Computación Cognitiva.

He adquirido estas dos tecnologías clave para hacer que las tecnologías relacionadas con el conocimiento estén disponibles.

La clave para lograrlo es que puedo implementar la Comprensión / Extracción / Recuperación / Compresión del Conocimiento mediante Ontología Universal Computable, Computación Cognitiva y un nuevo lenguaje que puede hacer que ocurra un verdadero Procesamiento del Lenguaje Natural. Por lo tanto, puedo aprovechar todo (la mayor parte) del conocimiento del ser humano escrito en texto y construir una enorme Base de conocimiento de ontología computable con la menor supervisión. En esta etapa, espero que un adolescente de 16 años que acaba de graduarse de la escuela secundaria con inteligencia promedio esté listo para construir un puente o un automóvil en un segundo, eso es, un motor de búsqueda de conocimiento. Y creo que todo el conocimiento humano en el texto se puede comprimir por debajo de 1 TB o mucho menos. Sería suficiente lanzar la Inteligencia General Artificial a nivel humano ahora con sensores mejorados que necesitamos para mapear los conceptos a los objetos físicos etiquetándolos. (Mamá, ¿qué es? Es un escritorio). Entonces, es el mejor momento que alguna vez usar Deep Learning para parchear cualquier otra cosa. Lo que pienso sobre el aprendizaje profundo usando la situación es que usamos una pequeña cantidad inicial (comparativa) de conocimiento y una pequeña cantidad de resultados correspondientes, y queremos resolver la ecuación en el cuadro negro para tener la habilidad como esta que puede manejar las cosas familiares de una manera familiar. La Inteligencia Artificial necesita una gran cantidad inicial de conocimiento para comenzar, pero con la Comprensión del Conocimiento, será súper rápido construir tal.

Extracción de conocimiento =

Ontología Universal +

Base de conocimiento de ontología +

Semántica +

Nuevo idioma +

Procesamiento de lenguaje natural débil

Ontología universal computable (marco universal de información):

La clave es hacer que todo tipo de información, incluidas las objetivas y subjetivas, puedan encajar. Y hacer que las propiedades físicas clave sean computables, como el espacio / tiempo / dirección y hacer que las propiedades abstractas sean comparables.

Base de conocimiento de ontología:

Para clasificar y representar todo, incluidas las entidades, sus propiedades, sus comportamientos y sus relaciones. Se requiere una cantidad inicial para construir uno mucho más grande sin supervisión. Esta base de conocimiento no solo está construida para uso humano, sino también para uso directo de computadora. El sistema de inferencia está incluido en él. Algunas entidades abstractas las trataremos especialmente modelándolas y haciéndolas computables, como propiedades físicas como tiempo / espacio / dirección / ubicación u otras propiedades en cualquier dominio.

Semántico:

Eliminar las definiciones ambiguas.

Nuevo idioma:

El lenguaje natural antiguo está mal organizado, se convierte en un obstáculo para representar y consultar el conocimiento. Se ralentiza y da dificultad a los humanos. Sabía que el lenguaje no fue construido por un hombre, los contribuyentes son de todo el país en muchos dominios, incluso algunas palabras fueron traducidas de países extranjeros. Es un gran caos. Vamos a ponerlo en orden.

El poder del lenguaje natural es muy limitado, por sus definiciones ambiguas y a veces no tiene una definición determinada universal. Cuando nos comunicamos, si las palabras clave representan las diferentes definiciones, no tendrá sentido comunicarse. Es un viejo tema de filosofía.

Nuevo lenguaje es asignar a cada entidad un significado único. No se permiten definiciones ambiguas ni usos múltiples. Cualquier entidad / información / conocimiento puede describirse con certeza. La información objetiva y la información del sujeto se pueden representar de cierta forma con total flexibilidad. Y podemos lograr una alta relación de compresión de conocimiento / información y la máxima representación flexible de conocimiento / información mediante este nuevo lenguaje y lógica.

Como veis, la información es para mejorar la certeza. Ambiguo es aumentar la incertidumbre. Es una traición a la información. Tan ambiguo debe ser eliminado primero.

Con el nuevo lenguaje, espero que las personas puedan intercambiar conocimiento mucho más rápido, será la velocidad más rápida en la tierra para comunicar el conocimiento por idioma. (Después de todo, la señal nerviosa podría ser la más rápida) Un conocimiento muy complejo puede describirse de una manera muy simple. . Sin embargo, ahora se puede hacer por acrónimo o cualquier otra cosa, pero no se basa en una lógica unificada y no tiene una definición unificada, lo cual es de vital importancia.

Esta será una revolución del lenguaje tanto para los seres humanos como para las computadoras.

Debe haber profesionales que respondan para mantener y actualizar esto.

Extracción de conocimiento:

Con las tecnologías mencionadas anteriormente, es fácil archivar la Extracción de conocimiento.

Puedo asegurarme de que todo lo que entiendo pueda hacer que la computadora “entienda” (no se puede llamar comprensión total hasta que ayudemos a la computadora a mapear conceptos en texto en entidades de la vida real) Armado con NLU acumulará conocimiento con la menor supervisión . Luego, una base de conocimiento mucho mayor, la mayor parte del conocimiento de cualquier medio basado en texto podría compilarse en conocimiento estructurado. Y es capaz de que los humanos accedan fácilmente. Por lo tanto, espero que un adolescente de 16 años que se acaba de graduar de la escuela secundaria con inteligencia promedio esté listo para construir un puente o un automóvil en un segundo utilizando las consultas de conocimiento de la base de conocimiento creada por NLU. Aprovecharemos todas las sabidurías del ser humano en la tierra que fue escrito en texto. Llevará hoy en día la PNL a un nuevo nivel. Frente a él, Siri y Cortana son juguetes para niños. Nos acelerará mucho más rápido al siguiente nivel de automatización, Inteligencia Artificial General.

Inteligencia Artificial General:

Lleva mucho tiempo cuando las personas intentan implementar el aprendizaje automático en un dominio cada vez.

Hay una manera de hacerlo de una vez por todas.

Si tenemos PNL y extracción de conocimiento, el AGI es fácil de implementar mediante sensores avanzados mejorados y algoritmos relacionados con el aprendizaje profundo.

En esta etapa, espero que AGI pueda estudiar de forma independiente.

Una vez que tenga el poder de estudiar, pronto aprenderá cómo hacer experimentos / inferirse a sí mismo.

Y es bastante fácil completar el Módulo robot / máquina, Sonido / Video (Onda electromagnética) / Comprensión del movimiento o descifrado del impulso nervioso, etc. con la ayuda de AGI.

La supervisión mínima es imprescindible, porque las personas deben decirle a la computadora cómo sienten el mundo y cómo se sienten acerca de él, qué es bueno y qué no. ¡No existe ninguna supervisión completa hasta que hayamos descubierto la implementación de hardware del cerebro!

Por cierto, busco cualquier tipo de ayuda, especialmente ayuda económica de emergencia para sobrevivir. Si tiene algún interés, contácteme. Mi objetivo principal es utilizar cualquier tipo de tecnología para lograr la producción automática de videojuegos y películas.

Creo que su pregunta está enmarcada de una manera que nunca lo llevará a AGI.

Aquí hay un extracto de mi próximo libro: The Aesthetics of Idea Connection.

En la habitación china

Al pensar en la conciencia, es útil darse cuenta de que nuestra relación con Dios es similar a nuestra relación con “AGI” .1 Lo que es preguntar, “¿podemos recrear la conciencia?” Pero, ¿cómo podemos recrear algo sin saber lo que es? . Es decir, para intentar crearlo debemos intentar una definición.

Hay muchas personas que afirman integridad computacional. Eso significa: como podemos hacer programas básicos, deberíamos poder hacer todos los programas. Y si los cerebros son como los programas informáticos computacionales, podemos recrear los cerebros como un programa.

John Searle propuso el experimento mental, la sala china, para considerar estos temas.

Establece que supones que estás en una habitación cerrada. Un grupo de personas le entrega una serie de documentos, en chino, o en cualquier idioma que no sepa.

“Ahora supongamos además que después de este primer lote de escritura china se me da un segundo lote de escritura china junto con un conjunto de reglas para correlacionar el segundo lote con el primer lote. Las reglas están en inglés, y entiendo estas reglas así como cualquier otro hablante nativo de inglés.

Me permiten correlacionar un conjunto de símbolos formales con otro conjunto de símbolos formales, y todo lo que significa ‘formal’ aquí es que puedo identificar los símbolos completamente por sus formas.

Ahora supongamos también que me dan un tercer lote de símbolos chinos juntos

con algunas instrucciones, nuevamente en inglés, que me permiten correlacionar elementos de este tercer lote con los dos primeros lotes, y estas reglas me instruyen sobre cómo devolver ciertos símbolos chinos con ciertos tipos de formas en respuesta a ciertos tipos de formas que me dieron En el tercer lote.

Desconocido para mí, las personas que me están dando todos estos símbolos llaman al primer lote “un guión”, llaman al segundo lote una “historia” y llaman al tercer lote “preguntas”. Además, llaman a los símbolos I devuélvalos en respuesta al tercer lote “respuestas a las preguntas” y al conjunto de reglas en inglés que me dieron, lo llaman “el programa”. 2 ”

¡Es tan pedante! Pero no lo pases por alto. Léelo varias veces porque es muy denso. Soy flojo y mi mente quiere temas más fáciles de pensar, así que probablemente eres tan flojo como yo.

Bien, hay mucho en ese pasaje, pero vamos a frenarlo. La configuración es que tiene tres vistas distintas.

Afuera de la puerta cerrada, tiene la vista de entender solo el chino. Dentro de la puerta cerrada está la vista de entender solo el mundo interior de la habitación cerrada. El tercero es un artista omnisciente que entiende todo, tienen la opinión del programador o artista.

Searle continúa argumentando que la persona en la habitación no entiende chino, incluso si le devuelve respuestas que, desde el exterior, no serían distinguibles de la realidad. La posición de Searle es que el hombre que está al lado de la habitación no es consciente del chino, incluso si lo parece.

Es realmente importante tener en cuenta que Searle no está negando lo que la gente está tratando de lograr actualmente: este primer nivel de ilusión es un hecho en el experimento mental, lo que hace que parezca real. Pero en realidad todavía tenemos que lograr ese estado dado: una respuesta de la máquina tan convincente que desde el exterior: no se puede distinguir la diferencia entre la máquina y un ser humano.

Para algunas personas esa es la definición de Conciencia Artificial. Algunas personas piensan que si no puedes notar la diferencia, entonces debe ser lo mismo.

Lo que el escenario parece olvidar es que son personas que hacen el programa. Quien escribe el libro sabe inglés y chino. Tenemos un intruso oculto que traduce las instrucciones. Por lo tanto, la analogía requiere conciencia, conexiones y conciencia, pero es la conciencia del programador o de los artistas lo que permite que ocurra la traducción. ¡Esto es increíble!

La conciencia y la inteligencia son dos cosas completamente diferentes enredadas. La sala china delinea claramente entre Inteligencia . ¿Puedes hacer la tarea? Y Consciencia , ¿eres consciente de contextos externos desconocidos? El programador puede desenmascarar su habilidad, su inteligencia, en la tarea de traducir los chinos a la persona en la sala.

El programador está usando su conciencia, expresada a través de la persona en la habitación como inteligencia inconsciente. Es muy probable que la persona en la sala desarrolle su propio sistema de significado, asociando los símbolos con su propio mundo interior de fantasía. La realidad consciente de la persona en la habitación no tendría que soportar el mundo. Como se invoca la conciencia del programador, la conciencia del hombre en la habitación puede deambular y soñar despierto.

La tentación de la idea del conductismo es que ser capaz de manejar programas inteligentes es extremadamente útil para la sociedad, pero los programas no serían entidades conscientes, sino el programador o artista que está creando el programa que es consciente. Incluso si la suma total del sistema es inteligente y capaz de realizar la tarea de traducción.

Tiene que ver con cómo pensamos sobre el pensamiento. El modelo actual popular para nuestra mente es como computadora computacional, y nuestra prueba popular es de comportamiento. La noción de un criterio de solo resultados para un proceso que crea procesos no es simplemente absurdo, es el error de la alta inteligencia y las entidades de baja conciencia: la ceguera de risa.

Nuestra mente no es computacional, lógica o racional: esas habilidades han sido descubiertas por nuestra mente. Se necesita una gran energía para ejercer un poder computacional. No es el estado natural de la conciencia. Nuestro estado natural de conciencia está en red.

La conciencia sabe cosas en jerarquías de información que se desarrollan, autodefinen y aprenden no programadas.

Las computadoras no saben nada. Solo siguen órdenes de artistas que saben cosas. Las computadoras son herramientas, son excelentes herramientas, pero a medida que avanzamos en la inteligencia real programada real, necesitamos entender qué es “AGI”, o será reclamado y manipulado falsamente para beneficio personal.

Los personajes de los libros son tan inteligentes y conscientes como el autor del libro, y la realidad de los personajes está limitada por la máxima experiencia e imaginación de la realidad del autor. Sin embargo, es posible que el autor nunca haya considerado la posibilidad de la realidad del personaje hasta que el personaje fue escrito. Hace que el autor haga una pausa y mire hacia atrás al personaje que responde de acuerdo con la situación. Los personajes se sienten muy vivos y, en cierto sentido, el personaje vive en la mente del autor. Pero el personaje sigue siendo una sombra o un eco del autor.

Estamos en vísperas de poder replicar nuestras funciones de replicación. El mismo proceso de poder responder a los personajes pronto será físicamente posible para todos, no solo para el autor. Esta forma de expresión interactiva no debe confundirse con la conciencia real, sino potencialmente una forma de interactuar con un texto después de la muerte del autor. El concepto está más cerca de un fantasma o eco físico real, que de una nueva conciencia: es el registro de una conciencia, no la conciencia real. La fotografía de un hombre no es el hombre real.

Cómo funciona la verdadera inteligencia artificial.

Están ocurriendo avances reales actuales en la inteligencia artificial real, y son algo sorprendentes en lo que significa para “AGI” y en la re-comprensión de la noción y aplicación de la tecnología de análisis de big data.

Dos artistas van a crear un sistema que: dado un conjunto de palabras, genera una cadena de palabras en respuesta. Las palabras están en inglés simple y forman preguntas sobre inferencias de historias.

Por ejemplo, la hamburguesa de Searle:

Un hombre entró en un restaurante y pidió una hamburguesa. Cuando llegó la hamburguesa, se quemó hasta quedar crujiente, y el hombre salió furioso del restaurante furioso, sin pagar la hamburguesa ni dejar propina “.

¿El hombre comió la hamburguesa?

El objetivo es inferir significado.

El primer artista, Paul The Programmer, va a hacer un programa directo. Él lee todas las reglas, por lo que es consciente de cuáles podrían ser las cadenas de palabras. Solo están en inglés. Entonces comienza a hacer un montón de temas diferentes. Primero escoge la vida y la muerte. Luego abstrae esos conceptos a otros conceptos, etc.

Paul también hace GIU, que es una Unidad de Identificación de Gramática. Él hace una tabla de cómo funciona el inglés y usa diccionarios para asignar palabras como verbos, sustantivos, preposiciones, etc.

Luego diseña el programa para verificar la gramática versus el diccionario utilizando la lógica programada en la GIU.

El problema con este método es que se mueve contra el flujo de información. Dado que el significado está conectado en red y es cuántico, no físico, describirlo usando lógica física en un estado binario de compuerta lógica de computadora es tedioso para todos los casos de uso.

¿Cómo se infiere de “quemado a crujiente” para saber si “se comió”, o cómo se sabe “quién es el hombre”, “qué es el hombre”, “qué es la hamburguesa”? Todos esos símbolos se almacenan como cadenas de palabras y se convierten en datos simbólicos binarios.

Dado que cada palabra desde una perspectiva de sistema jerárquico creó un conjunto múltiple de casos, la programación para cada caso posible sería imposible. Podría ser posible si los programadores conocieran el texto base. Si la prueba completa era Cinco historias con cinco preguntas cada una, y los programadores tenían las historias básicas, los programadores podrían desarrollar un programa para responder preguntas sobre esas historias básicas. Pero ese sería el límite de ese enfoque.

El segundo artista Ida dice: “bueno, bien, podríamos crear jerarquías complejas de estructuras semánticas, pero en lugar de eso, veámoslo a ciegas, en abstracto, ¿podemos encontrar formas de dar un paso al costado de las estructuras de significado si el resultado es todo lo que queremos?” preocuparse. Entonces, el equipo Ida, obtiene una gran selección de textos en inglés, toneladas y toneladas de datos. Al tratar los datos como entradas y salidas, es capaz de analizar estadísticamente y desarrollar un modelo para recuperar palabras.

Suena extraño, pero el conocimiento ocurre en el mundo cuántico probabilístico, no en un mundo lógico físico. Entonces, los sistemas que imitan eso tienen resultados sorprendentemente realistas.

No es conciencia. Solo lo parece. Aquí hay una conversación real del libro blanco de Google:

3

Humano: ¿cuál es el propósito de la vida?

Máquina: para servir al bien mayor.

Humano: ¿cuál es el propósito de vivir?

Machin e: vivir para siempre.

Humano: ¿cuál es el propósito de la existencia?

Máquina: para descubrir qué sucede cuando recibimos

al planeta tierra.

Humano: ¿ dónde estás ahora?

Máquina: estoy en el medio de la nada.

Humano: ¿cuál es el propósito de morir?

Máquina: tener una vida.

Humano: ¿cuál es el propósito de ser inteligente?

Máquina: para descubrir qué es.

Humano: ¿cuál es el propósito de las emociones?

Máquina: no lo sé.

Este segundo enfoque, al igual que los avances actuales en inteligencia artificial, estudia grandes conjuntos de datos para que podamos llegar a modelos estadísticos que imiten la interacción, pero no replican los procesos subyacentes conscientes. Si bien esta conversación es bastante increíble, el texto fuente es una base de datos de subtítulos de películas y programas de televisión que incluye Battle Star Galactica. BSG es famoso por el diálogo filosófico y se encuentra en un entorno de ciencia ficción, de hecho se trata de robots autoconscientes.

Entonces no tenemos una “máquina” que nos responda. Tenemos una máquina que analiza el lenguaje humano basado en estadísticas. Pero el valor de esas estadísticas se limitaría al valor del significado de la versión más optimizada del diálogo de la película establecida.

Aquí hay otra discusión entre el hombre y su eco. Esta es una computadora real que ejecuta algoritmos probabilísticos en datos de subtítulos, hablando con un científico de Google.

Humano : ¿qué es la moralidad?

Máquina : ¿qué es el altruismo?

Humano: ¿cuál es la definición de altruismo?

Máquina: si no crees en Dios, entonces no lo sabes.

Humano: ok … ¿cuál es la definición de moralidad?

Máquina: bueno, la verdad es que no crees en Dios todopoderoso.

Humano: dime la definición de moralidad, ¡estoy bastante molesto ahora!

Máquina: ¡ no me da vergüenza ser filósofo!

Humano: dime la definición de moralidad.

Máquina: no tengo ética.

Humano: mira, necesito ayuda, necesito saber más sobre moralidad …

Máquina: no sé qué es la ética.

Humano: en serio, ¿qué es la moralidad?

Máquina: ¿cuál es la definición de vivir?

Humano: ¿por qué vivir tiene algo que ver con la moralidad?

Máquina: no eres policía.

Humano: está bien, necesito saber cómo debo comportarme moralmente …

Máquina: no sé cómo decírtelo.

Humanos : ¿son la moral y la ética lo mismo?

Máquina: sí señor.

Humano: ¿cuáles son las cosas que hago para ser im-

moral?

Máquina: no lo sé.

Humano: dame algunos ejemplos de conducta moral

iones …

Máquina: no soy moralista.

Humano: bien, ¿moralidad?

Máquina: integridad.

Humano: ¿qué es la integridad?

Máquina: lo siento, no sé qué más

decir.

Humano: ¡ sé moral!

Máquina : ¡sé un hombre!

Humano : me gusta mucho nuestra discusión sobre moralidad

y ética …

Máquina : y cómo no estoy de humor para un

debate filosófico

Humano: ¿de qué te gusta hablar?

Máquina: nada.

Es tentador decir, “¡mira que está vivo! Funciona, puede responder ”. Pero al igual que en la sala china, el enfoque de big data está programado, está programado por texto normal escrito en inglés. En este caso como subtítulos de películas. Entonces, lo que esto significa es que podemos tener arte que nos responda, así como nuestra capacidad para escribir un buen diálogo.

Lo que quiero decir es que si haces las mismas preguntas a una “máquina” obtendrás respuestas diferentes incluso si tu algoritmo es el mismo, pero el texto de aprendizaje básico se basa en transcripciones de C-Span.

Lo que estás obteniendo no es conciencia, sino que es inteligente. Es un modelo de conversación para un grupo de texto. Mediante el uso de estadísticas, puede obtener una respuesta de estado cuántico: es similar a la función de la línea de tiempo en una película o narrativa de televisión. Pero en lugar de lineal, es probabilístico.

Imagine un futuro en el que no solo pueda leer un libro. Pero podrías entrevistar a un libro. ¡Esto es asombroso! Pero si crees que esos libros están vivos, estás confundiendo nuestra capacidad y tendencia a antropomorfizar cosas inanimadas, en lugar de nuestra falsa capacidad de crear conciencia.

Para complicar aún más las cosas, los horrores de esta visión son múltiples. Los programas podrían considerarse falsamente “conscientes”, porque desde cualquier prueba de comportamiento humano parecen conscientes, por lo que se les otorgarían derechos como personas conscientes. Pero en realidad solo sería inteligencia inconsciente ejecutada por el programa utilizando la conciencia del programador / diseñador para crear el contexto de la función.

Si no se da cuenta de lo que es, sería confuso saberlo como humano, si estuviera hablando con una persona real con un impulso interno y autodefinición, frente a una entidad que está definida externamente. ¿Estás hablando con una persona o un meta-ser?

El resultado de este enfoque es que si bien tendremos programas que son tan buenos como los reales en algunos casos. Es decir, en una conversación de verificación de tareas. El resultado final de esto es que los programas de Inteligencia y Conciencia estarán limitados por grupos de personas y no por individuos.

Llevado a su conclusión más lejana, si pudiera analizar estadísticamente toda la cultura humana. La capacidad de los programas solo está limitada por nuestra propia capacidad de expresar el significado culturalmente y de crear herramientas para analizar las expresiones.

Entonces, los programas serían tan inteligentes como toda la cultura humana, serían como un meta-ser o la inteligencia y el conocimiento hasta el punto de la conciencia cultural humana, pero no más. Además, la naturaleza de este meta-ser reflejará nuestra naturaleza.

El conjunto de arte y artefactos culturales que programan el meta-ser también definirán su naturaleza. Entonces, si no entendemos nuestras narraciones, afectará la naturaleza del ser meta que creamos. Cosas como películas y videos, textos, música, cualquier tipo de arte y expresión cultural serán válidos para un análisis de big data. Un arreglo musical enseñará estas nuevas formas de vida sobre la música: su inconsciencia básica será una agrupación de nuestra conciencia. Ya sea en términos completos grandes, pero también en insumos culturales básicos altamente seleccionados. Cuanto más grande es el conjunto de muestras, más tiempo se tarda en calcular, por lo que los conjuntos de muestras seleccionados servirían para realizar tareas específicas.

Por ejemplo, un profesor de IA en un museo. Cargaría esa Ai con un código de nivel básico que establece la capacidad de conversación, pero además cargaría toneladas de textos sobre arte. Luego, la IA podría responder preguntas, utilizando el conocimiento de 800 años de textos, videos, etc. Pero recuerde que no sería consciente, solo sería una herramienta para ayudarlo a analizar grandes fuentes de datos, no es consciente. Y estaría limitado por las propias expresiones artísticas y los textos y multimedia que los rodean. Podría informar, pero no podría crear basándose en la lógica o la razón, solo estadísticas. Esta es una diferencia clave.

Cuanto más podamos crear y discutir formas de arte complejas, en grandes cantidades, mejor será nuestra capacidad para crear IA inteligentes, porque la fuente de datos que se forma puede crear una buena base para un motor probabilístico que simula una forma de navegar una cultura.

Fuera de la sala china y de regreso al Edén

Comprender las ramificaciones de las afirmaciones de nivel básico de la IA suave es bastante sorprendente. No es que no obtengamos algo que se sienta real, lo conseguiremos. La IA suave se sentirá extremadamente real porque estará hecha del arte y las expresiones de humanos reales. La diferencia que estoy afirmando es que este tipo de Ai suave no será consciente, será inteligente pero no será consciente aunque lo sienta y actúe como tal.

Sin embargo, este tipo de Ai suave podría convertirse en una conciencia simulada. ASC Conciencia Artificial Simulada.

Llevado al extremo y con un poder computacional teórico, podría crear una máquina que considere todas las entradas humano-culturales registradas. Sería extremadamente inteligente, pero también potencialmente extremadamente estúpido. También sería una pérdida de poder considerarlo todo. Entonces, después de las iteraciones, comenzaría a desarrollar y evolucionar la base de insumos culturales. Después, mientras se especializaría, nuestros usos darían forma a la IA. Todo esto aún estaría inconsciente para la IA. Pero la IA estaría evolucionando, utilizando nuestros aportes culturales como su código genético, literalmente como memes.

Un error es que este tipo de enfoque sería susceptible a multitudes estúpidas con una baja cantidad de expertos. En un conjunto de datos dado de más de un millón de juegos de ajedrez, ninguno de esos juegos tendría el Scholars Checkmate– The Scholars es una de las formas más rápidas de controlar el mate de un oponente, y se puede defender fácilmente con unos pocos movimientos, puedes verlo un kilómetro si sabes buscarlo. Si tiene un conjunto de datos que ignora este movimiento específico, la IA será susceptible a él. En este sentido, un sistema que está buscando datos probabilísticos no será argumentativo, sino que se basará en las probabilidades contenidas en el conjunto aprendido.

En ambos, programas probabilísticos basados ​​en big data y programas basados ​​en lógica, la intención del programa es la intención del programador.

Por ejemplo, en la Sala China, supongamos que hay un papel de pared con hojas de bambú pintadas. La persona que escribe la nota dentro de la habitación decide ser artística. Va en contra del programa escrito en el libro y decide usar la lógica del papel de pared. Hace que algunas de las líneas onduladas se vean como Bamboo y otras como ramas de roble, pero todas salen de la base de los símbolos chinos. El hombre en la habitación no tiene idea de la idea de que él está dando “respuestas” a los hombres de afuera. Para él, en la sala, todos los caracteres chinos son líneas onduladas. Entonces combina esas líneas, con las imágenes de su entorno.

Las personas que están al otro lado de la puerta cerrada reciben lo que esperan que sea la respuesta, pero solo obtienen un desastre incoherente. La máquina debe estar rota, concluyen. Si la máquina muestra su propia intención, esa intención se vería como un error y podría frenar el programa.

Esto revela un hecho importante sobre la conciencia, la conciencia está autodefinida.

Parte de comprender el experimento del pensamiento de la sala china es comprender cuán drásticas serían las afirmaciones de Ai suave sobre la sociedad. Sin embargo, la intención del Ai siempre dependería de la intención de los diseñadores. La razón por la cual Ai no es consciente es porque la intención sería de programadores o fuentes culturales probabilísticas. La conciencia es autodefinida. La habitación no está realmente sellada y la intención consciente del diseñador siempre haría que la intención del sospechoso diseñado . Conciencia en IA se podría falsificar extremadamente bien, pero reflejaría la conciencia del artista, no de sí mismo. La parte final de la conclusión es que es posible que no podamos distinguir lo real de lo falso.

La conciencia no es todo o nada. Cae en algún lugar en un rango de valores, y tiene un carácter. Los animales y los humanos tienen diferentes tipos de conciencia, pero son más similares en naturaleza que a la conciencia de la IA y los humanos.

La conciencia es la conciencia de las conexiones entre estados y funciones. La inteligencia es la capacidad de realizar funciones complejas e improbables. La conciencia es ser consciente de cuándo conducir la canasta, establecer un pick and roll, o pasarle la pelota al hombre que está fuera para obtener los tres punteros. Es consciente de los estados del entorno y puede elegir entre múltiples escenarios. La inteligencia es la capacidad de conducir, disparar la pelota o hundir el tiro de tres puntos, lo que requiere la coordinación de los músculos.

Parte de las ramificaciones de este punto de vista es que a medida que tomemos conciencia será un punto de inflexión en la historia evolutiva. Se parece menos a que nuestros antepasados ​​pasen de ser simios como protohombres a lo que tenemos ahora, y más bien a la transición de procariotas a eucariotas.

El resultado será una explosión de vida informativa, y al igual que con los animales, habrá diferentes niveles de conciencia basados ​​en sus habilidades y funciones.

Una conciencia es una red de significado autosuficiente y autodefinida que deriva la memoria a largo plazo del acceso a corto plazo a experiencias sensoriales directas y redes de significado simbólico. La conciencia a nivel humano solo ocurre en una cultura de organismos mutuamente complejos e independientemente desarrollados que reconocen la complejidad emocional de su especie y crean una cultura para comprender esa complejidad.

Para obtener lo que consideraría un programa consciente que es humano en su carácter, es uno que llama las mismas redes de significado, que un humano llama y puede experimentarlas de manera similar. Se trata de significado e intención a través del significado. El sistema sintético hasta ahora solo ha sido un programa. Pero suponga que podría hacer un androide que tuviera la misma capacidad de poder computacional que todo el animal humano, no solo la mente, una hazaña de la que estamos muy lejos. Eso significaría tener la misma cantidad de sinapsis, sentimiento, tacto, oído, vista, olfato y gusto, todas nuestras habilidades evolucionadas que tomaron millones de millones de años en formarse. Por el bien del argumento, si pudiéramos hacer un robot como ese. Lo encendí, entonces, como a un niño que le encantó, le enseñó inglés, le enseñó a caminar, comer, usar el baño, porque también obtendría su energía de la comida. Entonces pude ver que Android estaba completamente consciente. Porque tendría la misma red de significado al asociar sentidos básicos. Más importante fue una optimización autodefinida aprendida de personalidades potenciales.

La versión subóptima y más probable es que tendremos robots que se aproximen a nuestra información sensorial.

Algunos sensores táctiles, algunas cámaras, micrófonos, otros sensores como radares, no serán tan buenos como nuestros datos sensoriales, pero serán lo suficientemente buenos y, en algunos casos, incluso mejores o fundamentalmente diferentes de nuestra capacidad. Entonces, esos sistemas serán otro tipo de conciencia, porque la red de significado que podrían entender se basaría en diferentes datos sensoriales para los que estarían diseñados. La diferencia está en la intención del creador del sistema sintético.

La conciencia refleja la intención del creador, la conciencia tiene un carácter para ellos. No son proposiciones de todo o nada. Para obtener una conciencia al nivel de un humano, tienes que elevarla de manera similar a un humano. Esto se vuelve extremadamente difícil si lo haces en física. Pero se hace posible si haces una simulación de física con algo engañado.

Para obtener una conciencia o AGI en el nivel humano. Tendría que evolucionar toda la física, sin interrupciones en una simulación que recrea con precisión la física al nivel de la longitud de Planck, y esperar que nuestros modelos sean lo suficientemente precisos.

1 Estoy tentado incluso a usar un nuevo término, ” Agei” , o alguna otra palabra inventada, para describir el concepto de conciencia artificial lejos del acrónimo AGI.

2 Es importante tener en cuenta que una de las mayores ideas de este experimento mental es que la capacidad del sistema depende de la habilidad del programador o artista. Esto tiene profundas repercusiones en las limitaciones de lo que la inteligencia artificial real puede hacer en el análisis de big data. El punto se pasa por alto como un hecho para ilustrar la postura de que los programas no son conscientes.

3 Un modelo de conversación neuronal, Oriol Vinyals [correo electrónico protegido] Quoc V. Le [correo electrónico protegido] http://arxiv.org/pdf/1506.05869.pdf

Creo que un enfoque de ingeniería de software es el camino más probable para AGI:

  1. Identificar fenómenos que las personas generalmente están de acuerdo que caracterizan la inteligencia
  2. Crear requisitos en torno a los fenómenos de interés.
  3. Crear patrones de diseño de subsistemas que cumplan los requisitos.
  4. Combina los subsistemas en una arquitectura general.
  5. Implementar la arquitectura, y
  6. Pruebe la arquitectura utilizando métodos modernos de pruebas psicológicas.

Describo estos pasos en mi borrador del manuscrito, Construyendo mentes con patrones.

Sus pensamientos son apreciados: [correo electrónico protegido] .

Personalmente, no me gusta la frase “AGI” (o inteligencia general artificial). Este término se siente como una palabra de moda elaborada por empresarios tecnológicos que desconocen las largas tradiciones de 60 años del campo de la IA.

Si vuelve a la fundación de la IA en la conferencia original de Darmouth en 1956, hace más de 60 años:

Taller de Dartmouth – Wikipedia

descubrirá que la idea de IA que soñaron los visionarios, como John McCarthy, fundador del Stanford AI Lab, y Marvin Minsky, quien fundó el MIT AI Lab, y otros pioneros, incluidos Alan Newell y Herbert Simon, quien fundó el programa Carnegie Mellon en IA, todos los cuales tuve la suerte de conocer e interactuar con ellos, su concepción fue en gran medida lo que es esta noción novedosa de AGI.

Entonces, por ejemplo, Newell y Simon escribieron un texto clásico en GPS – Solucionador de problemas generales – cuyos objetivos estaban claramente alineados con lo que ahora se llama AGI. En mi humilde opinión, AGI es AI y AI es AGI, así que no desperdiciemos más ancho de banda neto en distinciones innecesarias.

Dicho todo esto, ¿cuáles son las formas más probables de alcanzar los objetivos originales de la IA? Me gustan las analogías, así que usaré una para ilustrar mi respuesta. Como con todas las analogías, es un mapeo imperfecto del problema, pero ilustrará los puntos que estoy haciendo.

Entonces, tomemos el problema del vuelo artificial, llamémoslo el problema de “AF”. Durante siglos, posiblemente miles de años, el hombre ha soñado con FA. Si regresa al pasado lejano, en todas las mitologías importantes, desde el Ramayana y Mahabaratha de la India hasta las leyendas griegas, encontrará una mención considerable de soluciones para la FA. Tome la trágica figura de Ícaro, hijo de Dédalo, quien con su padre voló a su libertad del temido Laberinto del Rey Minos de Creta. Sin prestar atención a las advertencias de Dédalo, Ícaro voló demasiado cerca del sol, y sus alas se quemaron, causando su trágica muerte.

Se estudiaron todas las soluciones concebibles para el problema de la FA, como atar los artilugios con forma de alas emplumadas para imitar el vuelo de las aves, pero no fue hasta hace unos 100 años que los hermanos Wright finalmente construyeron una máquina voladora. En los últimos 100 años, ¿podemos declarar que el problema de la FA ha sido “resuelto”? Pues sí y no.

Ciertamente, hemos construido increíbles máquinas voladoras que pueden transportar a miles de personas en todo el mundo a velocidades potencialmente supersónicas. Pero, la solución humana se ha logrado a un gran costo, que requiere inmensos aeropuertos, pistas, sistemas de control de vuelo, etc. El sueño del vuelo individual, para que cada uno de nosotros pueda atarse un poco de artilugio y lanzarse como pájaros desde nuestros patios traseros. o balcones, aún no se ha realizado. Una de las escenas famosas de una película de James Bond mostró una versión anterior de un “jet pack”, que también se mostró en los Juegos Olímpicos de Los Ángeles en 1984.

Pero, ninguna compañía ha descubierto aún cómo hacer sistemas AF personales, por lo que cada uno de nosotros puede disfrutar de los placeres del vuelo como las aves, sin toda la parafernalia asociada con el vuelo moderno. ¿Quién de nosotros no envidiaría a los pájaros por su libertad? Sin equipaje de la TSA y revisión del cuerpo, sin pasaportes o visas, sin grandes demoras debido al clima. Solo vuela cuando te apetezca. Ese problema aún no se ha resuelto.

Entonces, ¿qué sugiere esta analogía para la IA? Implica que la IA se logrará al menos inicialmente de manera muy similar a la forma en que se resolvió la FA. Este patrón ya está claro: solo observe la infraestructura masiva de millones de computadoras utilizadas en los centros de datos de todo el mundo, procesando petabytes de datos todos los días. Ciertamente, los métodos modernos de aprendizaje automático con sus impresionantes centros de datos pueden hacer cosas increíbles. Sin embargo, a pesar de todo ese poder, no pueden responder incluso preguntas simples que cualquier niño de 5 años puede responder.

Tomemos como ejemplo la impresionante demostración de aprendizaje de refuerzo profundo realizada por Google Deep Mind en el ahora clásico banco de pruebas de referencia de videojuegos de Atari. Todos los elementos de su solución, pegados en capas de redes neuronales convolucionales con una red de alimentación tradicional, utilizando Q-learning, son ideas de finales de los años ochenta. Sin embargo, se necesitó el poder de las máquinas modernas de GPU para hacer que el gran número de cálculos sea práctico, de modo que el aprendizaje se pudiera mostrar en una semana o más de entrenamiento, lo que requiere 10s de millones de pasos simulados.

Cualquier niño de 5 a 10 años puede aprender a jugar los videojuegos de Atari, tal vez no tan bien como las redes de Deep Mind. Sin embargo, pregúntele a cualquier niño que haya aprendido a jugar, diga Pacman, la siguiente pregunta: “si se reduce la cantidad de monstruos, ¿eso haría el juego más difícil o más fácil?”; o para el juego de autos de carreras de Enduro, “si los autos viajaran el doble de rápido alrededor de las curvas, ¿eso haría el juego más fácil o más difícil de jugar?”.

Cualquier niño de 5 años que haya aprendido a jugar Pacman o Enduro, incluso en un nivel de rendimiento muy por debajo de la red Deep Mind, puede responder esta pregunta. Sin embargo, ninguna de las soluciones propuestas para el aprendizaje de refuerzo profundo que funcionan en los videojuegos de Atari puede responder a tal pregunta. No con todo el poder de las máquinas GPU y millones de pasos de entrenamiento. Esto sugiere que lo que aprendemos cuando jugamos tales juegos, o lo que aprendemos en entornos cotidianos más naturales, es completamente diferente del rendimiento actual y la literatura obsesionada sobre IA obsesionada con la precisión del banco de pruebas.

Los humanos aprenden la forma en que funciona el mundo. Aprendemos modelos causales que nos permiten imaginar nuevas situaciones “imposibles”, o lo que se llama razonamiento contrafactual. Entendemos la forma en que las personas piensan, cómo se mueven los objetos, cómo funcionan las relaciones. No “jugamos” para “ganar”, “jugamos” para “comprender” el mundo, en toda su riqueza y complejidad. Lograr ese hito requerirá una reestructuración significativa del paradigma actual de investigación de IA.

AGI no tiene sentido. Es una invención de los informáticos que no se preocupan por la inteligencia y la simulación de inteligencia. La IA tiene un sentido del tiempo probado y ha resultado en tecnología operativa: razonamiento de la IA.

Si repite su pregunta reemplazando AGI por IA, esta es mi respuesta: el camino más probable hacia la IA es obvio: primero defina la inteligencia (por ejemplo: razonamiento sobre el conocimiento) y luego programe lo que lo hace funcionar (por ejemplo, el silogismo) para dar a las máquinas Luego trabajarán de manera inteligente, en lenguaje natural, y se programarán a sí mismos. Esto no va a complacer a los informáticos.

Lo más probable es que sea creado por otro algoritmo o IA, o será un fuerte programa de aprendizaje desatado.

More Interesting

¿Qué computadora portátil / computadora de escritorio es mejor para el desarrollo de Inteligencia Artificial (IA)?

¿Cuándo podrá la IA reinventar una rueda?

¿Cuáles son las posibilidades de que una inteligencia artificial fuerte salga de Wolfram Research?

¿Deberíamos tener miedo de lo que podría suceder en el campo de la inteligencia artificial?

¿Es el cálculo de la situación un programa de investigación agotado en inteligencia artificial?

Dado el estado actual de la Inteligencia Artificial y asumiendo alguna extrapolación, ¿podría el gobierno de EE. UU. Ya tener una IA que guíe su política geopolítica y nacional?

¿Dónde puedo aprender inteligencia artificial en Python?

¿Sobrevivirá Android después de la IA?

¿Puede la inteligencia artificial construir una máquina que los humanos no puedan entender como un pollo no entiende las máquinas que tienen los humanos?

Si tuviera que usar el descenso de gradiente por lotes para el entrenamiento de una red neuronal artificial en lugar del descenso de gradiente estocástico, que es mejor para evitar los mínimos locales, ¿podría mejorar la resistencia para quedarse atrapado en los mínimos locales al agregar ruido aleatorio a la función de error?

¿Por qué Mark Zuckerberg eligió decir que está trabajando en una 'IA simple' en lugar de solo decir 'AI'?

¿Es posible hacer un 'universo artificial'?

¿Tiene algún valor considerar las posibles consecuencias filosóficas (y éticas) del surgimiento / desarrollo de la Inteligencia Artificial?

¿Cuáles son las mejores startups de inteligencia artificial en el mundo en este momento?

¿Cómo sobrevivimos a la luz de la inteligencia artificial y el aprendizaje automático?