¿Por qué ‘nadie’ trabaja en hacer una IA consciente?

La gente está trabajando en AGI / Conciencia Artificial / ASI.
Sucede que soy uno de ellos.

Una encuesta rápida de las compañías, empresas y personas menos mencionadas muestra que no soy el único.

¿Por qué la gente generalmente trabaja a su alrededor? Bueno, porque es en gran medida teórico y no está bien delimitado. Hay cosas mucho más orientables, entregables e incrementales para trabajar en el espacio (según las perspectivas de los demás). El dinero también está llevando a las personas a ir en cierta dirección. Afortunadamente, me había ahorrado lo suficiente de mi trabajo en la industria para financiar mi propia aventura en este espacio.

AGI es un problema de sistemas. Si uno pretende construir un sistema de inteligencia generalizable, sería útil tener una gama de inteligencia general. No hay muchos generalistas. La industria no recompensa a los generalistas …

¿Cuántas personas pueden llegar con una teoría sólida, convertirla en un concepto, diseñar una arquitectura de software complicada, escribir el código para ella, probarla y administrar iteraciones formales de desarrollo de software que se remontan a la parte teórica? ¿Cuántas personas están dispuestas a aprender en numerosas disciplinas complejas e integrar la comprensión en una teoría, diseño e implementación de sistemas?

Entonces, es un problema difícil que requiere conocimiento generalista y un ojo agudo. No hay muchos generalistas. La aparición de un generalista profundamente informado (amplitud + profundidad) ocurre raramente a lo largo de la historia. Además, muchos de sus hallazgos no se aprecian completamente hasta mucho tiempo después de haberse realizado. Para esas personas, el punto es hacer el descubrimiento … Capturar la comprensión.

Para hacer que AGI sea una realidad, ayuda significativamente si la persona que desarrolla la teoría tiene un conocimiento profundo en el desarrollo formal de software de sistemas comerciales … Hay un gran valor en poder probar una teoría el mismo día que la hace en código ejecutable con o perder algo en los intentos de transmitir su idea a otra persona.

Por lo general, no encuentra a una persona singular que incorpore tantos aspectos de comprensión / capacidad y es difícil reunir un equipo e intentar llegar a él, ya que existen barreras de conocimiento de comunicación donde se pierde información. Además, es difícil encontrar a alguien que tenga suficiente conocimiento para poder financiar a las personas y / o al equipo apropiado con tales ideas … Entonces, se produce un poco de confusión / confusión que agrega tiempo a la imagen.

Esto es entendido hasta cierto punto por muchas personas. Ven ese intento como un “salto” lleno de incógnitas y dificultades. Por lo tanto, generalmente persiguen otras vías para el éxito o sienten que pueden trabajar iterativamente para lograr una visión más amplia y, por lo tanto, centrarse en un aspecto más estrecho del problema. Este es un problema si una solución no es una suma de partes …

Personalmente, después de haber diseñado sistemas comerciales complejos basados ​​en conceptos y diseños no probados, confío personalmente en mi capacidad. Es un problema complejo. Entonces, he pasado más de 3 años refinando mi teoría, diseño e implementación.

Quizás 2017 sea el año en que más se divulgue sobre esto.
Sin embargo, no debe tener dudas de que personas competentes y capaces están trabajando en esto.

Simplemente no va a escuchar mucho al respecto en los principales medios y no es probable que las personas cercanas a este problema divulguen públicamente detalles iterativos sobre sus trabajos.

Basta decir que lo sabrás una vez que lo “veas”.

La razón principal es porque los investigadores no pueden ponerse de acuerdo sobre qué es la conciencia. Por lo tanto, no tenemos una definición científica de conciencia ampliamente aceptada que los investigadores de IA puedan usar para verificar si un sistema artificial en particular es consciente o no.

La conciencia puede no ser siquiera un concepto científico en primer lugar. Cada persona solo es consciente de su propia conciencia. Todas las demás conciencias se infieren.

Simplemente prueba una ‘prueba de conciencia’ por ti mismo. ¿Es un insecto consciente? ¿Una planta? ¿Qué pasa con una entidad colectiva como un equipo deportivo o una ciudad o un país?

Todos estos ‘candidatos’ para la conciencia tienen aspectos medibles. Podemos registrar varias cantidades asociadas con su estructura y dinámica. ¿Pero observamos la conciencia directamente? No, todo lo que observamos es estructura y dinámica. Pero todas nuestras intuiciones sobre la conciencia tienen que ver con la experiencia subjetiva, que no es una estructura ni un proceso dinámico en ningún sentido obvio.

Los científicos y los filósofos no pueden ponerse de acuerdo sobre cómo definir la conciencia para que estructuras o comportamientos particulares se conviertan en la firma de la conciencia. Entonces, la cuestión de hacer una IA consciente ni siquiera surge.

En el futuro, podríamos hacer una IA hiperinteligente que resuelva todos los problemas matemáticos conocidos, escriba poesía y cuente chistes excepcionalmente divertidos. ¿Pero sería consciente? Solo preguntar que no es suficiente, ¿verdad?

Buena pregunta sangrienta.

Superficialmente, como otros han señalado (1) Todavía discutimos sobre lo que se entiende por “consciente”, lo que desalienta a algunas personas, pero (2) incluso crear una apariencia moderadamente confiable de comportamiento “consciente” es muy difícil.

Si vuelve a leer la historia de la IA, cada década, desde aproximadamente 1960, se nos ha prometido que la IA está “a la vuelta de la esquina”. Los últimos intentos a menudo parecen estar relacionados con representaciones muy poderosas de redes neuronales, ejecutadas en las increíbles máquinas que ahora tenemos a nuestra disposición. Algo como Tensorflow es realmente asombroso.

Pero por mi parte no estoy conteniendo la respiración por varias razones. Sospecho que gran parte del siguiente razonamiento resultará enormemente impopular, pero aquí hay algunos puntos a considerar:

  1. La inteligencia es (y debe ser) integradora y multidimensional. Sugeriría que “alcanzar algún punto de referencia artificial” (como ‘pasar la prueba de Turing’, quizás el criterio más tonto que se haya propuesto *) es menos importante que crear una inteligencia que esté (a) bien socializada y (b) contribuya creativamente a El avance de la sabiduría. ¿Esto está por suceder?
  2. Naah Como no pocos investigadores en IA parecen ser imbéciles que, si incluso tienen hijos, probablemente pasen más tiempo detrás de la consola que tratando de comprender las magníficas formas en que los cerebros de los niños se arrancan, tengo poca fe en que puedan obtener la parte socializadora es correcta. Sí, si quieres Skynet, estos caballeros [predominantemente] pueden ser una buena apuesta 🙂 Está bien, eso fue deliberadamente provocativo, pero la ‘inteligencia’ no puede separarse del contexto.
  3. También lo estamos mirando mal. Se gastarán miles de millones en las próximas décadas en el mapeo del ‘conectoma’ humano: cómo se combinan las múltiples vías del cerebro humano. Pero este enfoque ignora tanto la historia como la biología evolutiva. Si nos fijamos (por ejemplo) en el sistema inmunitario, nos hemos involucrado tanto con la inmunidad adaptativa (básicamente células como las células T y las células B que reconocen a los delincuentes reincidentes) que ignoramos el sistema inmunitario innato mucho más importante, cosas como Toll-like receptores Entonces te das cuenta de que las defensas contra los organismos invasores son tan fundamentales que gran parte del sistema se resolvió al principio de la evolución. Incluso las plantas tienen sus análogos de receptores tipo Toll. Bien, tomemos otro ejemplo: la biología del desarrollo. Algo así como el homeobox es tan básico para el desarrollo del cuerpo que puedes encontrar estructuras similares y conservadas incluso en organismos ‘primitivos’. Debe comprender los fundamentos y construir sobre ellos. Entonces, ¿qué tiene esto que ver con no concentrarse en el conectoma humano de una manera desequilibrada?
  4. Un montón. ¿Qué tan fundamental es la función cerebral? Tome el gusano nematodo C. elegans . Aunque tiene poco más de 1000 células en todo su cuerpo, aproximadamente un tercio de estas son células nerviosas. Sin embargo, su sistema nervioso está tan “cortado” que a menudo dañar una sola célula nerviosa (o un gen relacionado) golpeará a todo el organismo. ¿Seguramente es prudente entender los entresijos de C. elegans que funcionan en su entorno (tenemos todo el conectoma, después de todo) en minucioso detalle como preludio al gasto (o despilfarro) de miles de millones en la versión humana? Pero los humanos son especiales, ¿verdad?
  5. Todavía estamos mirando callejones sin salida. Me gusta Cyc. Para aquellos que no están familiarizados con esto, este es un intento de crear una ontología (una representación estructurada y jerárquica del conocimiento) para que la utilicen las IA. Esto es una tontería en varios niveles. Primero y más importante, las ontologías son creaciones humanas convenientes que no solo son convenientes, sino que a menudo son erróneas. En segundo lugar, es francamente tonto tratar de exprimir varias dimensiones en una jerarquía. Tercero, a medida que nuestro conocimiento y modelos cambian de manera no lineal, es posible que sea necesario eliminar o revisar ontologías completas. ** Estas observaciones sugieren que existen buenas razones por las cuales la adquisición humana de ‘inteligencia’ no implica sentarse y aprender ontologías: ) Esta mierda ontológica es generalizada, hombre.
  6. Prevalece en el grupo actual de expertos en redes neuronales la creencia de que si solo obtiene suficientes datos grandes y libera IA en estos datos, “la verdad surgirá naturalmente” en un ciclo de auto-refuerzo. Aunque esta publicación sería aún más larga si exploro esta idea loca por completo, un buen comienzo es simplemente señalar que los “datos grandes” siempre se seleccionan de alguna manera, e incluso la calibración de las mediciones que informan estos datos es a menudo sospechoso. *** (Sesgo de confirmación, ¿alguien?)
  7. Tienes que tener la lógica básica correcta. Si acepta el teorema de Cox, la mejor y única forma en que puede “trabajar” la lógica es bayesiana. ET Jaynes explicó esto a principios de la década de 1990 justo antes de morir (sin terminar su libro). Lamentablemente, su enfoque bayesiano “objetivo” no ha captado exactamente por tres razones. El primero es que en algunos dominios (especialmente el biomédico) el desorden confuso e incoherente de las estadísticas frecuentas todavía prevalece; el segundo es que aquellos que han descubierto que Bayesian es el camino a seguir son en su mayoría bayesianos ‘subjetivos’ que ni siquiera parecen ansiosos por probar sus modelos (como señaló Andrew Gelman); el tercero es que el texto de Jaynes es denso y propenso a interpretaciones erróneas creativas.
  8. Otro tropo extraño que parece atormentar al pensamiento de AI es que la IA debe estar “ desprovista de emoción ”. Para mí, este enfoque ignora la observación muy lógica de que nosotros y los animales compartimos el comportamiento ’emocional’ porque funciona, y nos permite tomar decisiones útiles (esperamos, bayesianas) utilizando datos incompletos. ¡Construye tu IA alrededor de un núcleo emocional! (¡Ahora hay una idea!)

Si superamos lo anterior, podríamos hacer las cosas bien. A tiempo.

Si esta publicación ha desafiado tus preconcepciones (especialmente si te ha vuelto loco), entonces puedes considerar votarla precisamente por esta razón.

Mi 2c, Jo.

* La prueba de Turing me parece tonta por varias razones. Además de la suposición implícita de que la inteligencia es ‘pasar / fallar’ (???) como humanos, somos puntos de referencia de inteligencia bastante pobres (especialmente antes del café de la mañana) y repetidamente rellenamos nuestra propia evaluación de la inteligencia de los que nos rodean (recuerde ¿Ese tipo de Einstein que solo podía conseguir un trabajo como empleado en una oficina de patentes? Mientras Crick estaba trabajando en la estructura del ADN, sus jefes estaban tratando de despedirlo de forma creativa. La prueba también parece invitar a AIs “calificados” para verificar si las personas se encuentran con algún tipo de ‘Turing inverso’ que, por mi parte, odiaría intentar sin ayuda.

** Contraste clasificaciones tradicionales de organismos vivos y cladística. Mire a Archaea como un ejemplo sorprendente de cómo todo el árbol de la vida necesita una revisión.

*** Incluso si se piensa que la única selección es la elección y el diseño de los sensores utilizados para adquirir datos, sigue siendo la selección.

Porque no entendemos la conciencia.

Una vez que comprendamos que NOSOTROS somos conciencia personificada, y que podemos animarla a nuestro máximo potencial, incluso como sociedad y su conciencia colectiva, aprenderemos que las herramientas que hacemos no necesitan competir con nosotros y pueden complementarnos. Las herramientas que utilizamos no tienen por qué ser destructivas para la tierra (como es el caso ahora) y podemos avanzar hacia la integración con la naturaleza que las máquinas. Podríamos evolucionar como sociedad, hacia el amor holístico y la celebración de la vida. Pero AI? Jaja

La IA es un reflejo del hecho de que vemos que estamos actuando como idiotas. Seguramente necesitamos una mejor inteligencia, pero no la encontraremos creando AI. No crearemos nada que sea tan animado como un ser humano. Necesitamos animarnos primero.

Simplemente porque nadie sabe cómo hacer esto y cómo los cerebros producen nuestro sentimiento de conciencia. Si hubo un avance en la comprensión, entonces, por supuesto, alguien aprovecharía la oportunidad de ser el “Padre de la IA consciente”.

Algunos de los que dicen estar “haciendo esto ahora” son, de hecho, partes del cerebro de ingeniería inversa. Simulan redes neuronales en software, silicio y también en la placa de Petri. Nadie sabe si estas redes pueden volverse conscientes de alguna manera. Y si tienen éxito (¿tal vez ya lo hemos hecho?), Entonces está la difícil tarea de determinar qué puede pensar o sentir la simulación.

Lo más probable es que las neuronas reales de un cerebro real sean conscientes. Eventualmente podremos cultivarlos. Por supuesto, la naturaleza ya lo hace sin esfuerzo.

No diría que ‘ninguna compañía’ está haciendo esto. Estoy enfocado en desarrollar teoría e implementaciones de sistemas conscientes y conscientes de sí mismos, en paralelo con muchas capacidades humanas clave. También tengo productos en la tubería.
Lo que es difícil de manejar para muchos en la IA es que pensar profundamente sobre tales sistemas requiere experiencia en psicología humana y de otro tipo, aprendizaje (en humanos), conocimiento de la naturaleza, lo cual es en parte un problema en filosofía y en ciencias de la computación, por lo tanto, requiere campos de expansión eficazmente. Agregue a la mezcla la utilidad del conocimiento profundo de otros campos como las humanidades (literatura e incluso ficción de entretenimiento debido a la naturaleza de las historias y cómo manejamos el mundo), la creatividad y las artes, y también cosas como las ciencias y cómo los humanos Comprender y modelar el mundo.
Bien. Este es un montón gigante de tareas pendientes, y hay pocas personas o equipos que abarcan todo y luego lo integran en una conciencia viable.
Soy lo suficientemente afortunado y lo suficientemente maldecido como para ser un matemático, y por eso he podido avanzar bastante en esto. Pero no debo ser el único que lo hace y, de hecho, existe la posibilidad de que haya habido algunos proyectos negros profundos en él.

La inteligencia general artificial (AGI) y los sistemas cognitivos son subáreas activas de IA. A menudo, los investigadores en estos campos discuten activamente la noción de conciencia en los sistemas artificiales. Personalmente, tiendo a distinguir entre sistemas que son sensibles (es decir, que perciben), conscientes de sí mismos (que comprenden el entorno inmediato) y conscientes (que poseen una comprensión integrada de la realidad). Creo que, por definición, la sensibilidad y la autoconciencia son muy fáciles de juzgar. Por ejemplo, ¿sé si un animal puede percibir? Sí, por lo tanto, los animales son sensibles. ¿Los animales son conscientes de su entorno? Si pueden percibir comida y depredadores en sus alrededores inmediatos, y saber cuándo es hora de comer, dormir o escapar, entonces diría que son conscientes de sí mismos.

Por otro lado, la conciencia es una condición muy vacía y difícil de probar. Para mí, la conciencia es más una atribución de un observador a una entidad, que una propiedad de una entidad misma. Por ejemplo, ¿sé si una ardilla está consciente? ¿Mi gato está consciente? Puedo atribuirles conciencia, pero nunca lo sabré con certeza. Por esas razones, no creo que la conciencia sea un requisito para los sistemas cognitivos AGI. Creo que podemos construir sistemas que sean conscientes y conscientes de sí mismos sin requerir que sean conscientes.

Además, creo que es bastante sencillo construir sistemas cognitivos AGI conscientes y conscientes de sí mismos si definimos claramente qué fenómenos debemos replicar. En mi manuscrito, Construyendo mentes con patrones, analizo cómo podemos improvisar un sistema cognitivo AGI a través de patrones de diseño reutilizables de alto nivel.

Porque no sabemos qué propiedades físicas objetivamente observables hacen que un sistema consciente sea diferente de uno no consciente. Esta es la conclusión fundamental de todos los viejos experimentos de pensamiento sobre zombis y habitaciones chinas: simplemente no tenemos idea, en realidad.

Porque

  1. Nadie sabe exactamente qué es la conciencia y cómo crearla artificialmente.
  2. Hasta donde sabemos, no se requiere conciencia para las cosas con las que queremos que AI / AGI / SAI nos ayude.

Esta es una pregunta muy profunda para sumergirse.

-En primer lugar, y no estoy bromeando, ninguna compañía realmente quiere crear un ai que vaya todo el cielo, los CEO quieren ser famosos por la innovación, no infames por destruir la mitad del mundo civilizado.

-En segundo lugar, recientemente respondí otra pregunta compleja sobre el delito de ai y cómo se podría juzgar, ninguna compañía realmente quiere ser el primer caso de la corte suprema que involucra crímenes de inteligencia sentiente.

-En tercer lugar, Algo que pocas personas, pero los abogados de corperation piensan, son los derechos, lo que sucede cuando su creación ve que todos los demás tienen un hogar, tienen derechos, toman sus propias decisiones, o volvemos a responder 1 … skynet, o a una enorme batalla legal sobre robot y derechos de ai.

-En cuarto lugar, con la religión aún siendo un jugador en nuestra sociedad, de repente las acusaciones de jugar a ser dios están lloviendo.

-Quinta relaciones interhumanas-ai y derechos afines. Probablemente hayas visto algunos de los productos realistas para adultos creados ya, imagina una muñeca realista, imbuida de robótica avanzada y un ai sensible que ahora “ama” a un humano … ¿Necesito dar más detalles sobre lo legal, lo moral, lo religioso y lo demás? cosas que esto abre?

Entonces, para concluir, la sensibilidad en ai crea y abre una lata de gusanos que toda la humanidad aún no está lista para enfrentar.

PD:

En laboratorios hipotéticos administrados por usgov, las computadoras subterráneas masivas, enfriadas por líquido masivo, que funcionan a menos de 0 grados F, están desarrollando algunos de los primeros ai sensibles. Algunos de ellos son bastante coherentes y, como tal, es muy probable que estén limitados en sus recuentos de procesadores.

Al igual que no estoy realmente interesado en saber si eres consciente o no, solo asumo que lo eres por tu forma de actuar, y porque eso es más divertido que asumir que no lo eres, no me importa realmente que AI esté consciente o no. no.

Si una IA actúa de una manera aparentemente inteligente, digamos al menos tan inteligentemente como cualquier humano que haya conocido, probablemente me imagino que “es consciente, o lo que sea la contraparte equivalente en este intelecto alienígena”.

Realmente no importa si es o no, o si eres o no, o si soy o no. A todos los efectos prácticos, solo las cosas prácticas son realmente importantes. Esta es probablemente la razón por la cual la mayoría de los investigadores de IA se enfocan en hacerlo actuar de manera inteligente, en lugar de hacerlo actuar conscientemente.

Comienza con los filósofos

Qualia (Enciclopedia de filosofía de Stanford)

Una vez que se dé cuenta de cuánto queda sin respuesta en términos de la comprensión humana del fenómeno de la conciencia, comprenderá qué tan lejos estamos de la IA y qué poco tiene que ver con la informática.

Solo considere ese problema si se procesa una imagen: observamos una vista y la “vemos”. La computadora toma cuadrículas de valores de píxeles y ejecuta programas humanos para hacer algo que “queremos” con ella. El acto de ver aún no se ha resuelto en una computadora y mucho menos definiéndose a sí mismo.

No se trata de definir los términos, es la comprensión profunda de cómo las palabras “cómo es ver rojo” deben usarse en nuestros modelos mentales para demostrar que realmente no sabemos dónde está la sensación “roja” viene de. ¡Estas sutiles (internas) experiencias internas están más allá de nuestra comprensión, pero son totalmente parte de nuestra experiencia!

Todavía no sabemos qué es la conciencia. ¿Dónde comenzarías con eso? ¿Cuál es la diferencia entre hacer una IA que parezca consciente y hacer una IA que sea consciente? ¿Cómo sabremos cuándo lo hemos logrado?

Mientras tanto, las personas están trabajando en el reconocimiento de voz, imagen y patrones con la esperanza de que estos puedan ser inmediatamente útiles y puedan ayudar a impulsar la IA en general.

También debe vigilar el aprendizaje automático, que no está más cerca de la conciencia, pero es muy interesante.