¿Dónde calificaría la dificultad de crear inteligencia general artificial (AGI) frente a los otros problemas gigantes que la humanidad enfrenta / enfrentará?

Por ejemplo: aterrizando en la luna / Marte; creando la bomba atómica; curar el cáncer; viaje interestelar; etc … ¿Cuán difícil espera que sea el AGI (según lo definido por una capacidad a nivel humano para resolver cualquier problema) en comparación con estas otras empresas importantes?

Creo que podríamos calcular la dificultad relativa de estas tareas calculando cuántas horas hombre (o miles de millones de dólares) se gastaron en cada tarea antes de que se completara.

El costo del Proyecto Manhattan fue de aproximadamente US $ 23 mil millones en dólares de 2007, y se completó.

El costo del programa Apollo fue de aproximadamente $ 109 mil millones en dólares de 2010, y se completó.

El costo estimado de enviar humanos al planeta rojo es de aproximadamente 500 mil millones de dólares, aunque es probable que los costos reales sean más. Los viajes interestelares deberían ser órdenes de magnitud más caros.

En los precios de 2011/12, el gasto público en investigación relacionada con el cáncer en el Reino Unido de 1970 a 2009 fue de aproximadamente $ 20 mil millones. A partir de esto, estimaría que el gasto total en el mundo desde 1900 hasta 2009 fue de al menos $ 1 billón. Y muchos tipos de cáncer aún son incurables.

Se invirtieron al menos $ 2 mil millones en investigación de IA en 2015. Lo más probable es que sean menos de $ 100 mil millones en total. Todavía no hay AGI (aunque no estamos muy lejos de eso).

Suponiendo que los costos representan dificultades, clasificaría estos problemas de la siguiente manera:

  1. Misión tripulada a otra estrella
  2. Curar cánceres
  3. Misión tripulada a Marte
  4. Creando AGI
  5. Misión tripulada a la luna
  6. Creando la bomba atómica

La creación de AGI cambiará dramáticamente la clasificación, por supuesto.

Crear AGI es un problema muy diferente al que el hombre ha enfrentado.
Es un problema que puede ser resuelto por una persona, cientos o miles. Dicho esto, no es un problema que se escala fácilmente al agregar personas al esfuerzo. Si bien la amplitud de la comprensión es importante, la profundidad de la comprensión es igualmente importante y no se puede mantener fácilmente un consenso entre los grupos grandes cuando se profundiza en un problema, especialmente uno de naturaleza teórica.

Es un problema difícil y único, ya que requiere una amplia gama de conocimientos y comprensión a través de una amplia gama de temas para abordar y uno debe pensar fuera de la caja. Considere por un momento cómo una mente no generalista llega a comprender la profundidad de la inteligencia general lo suficiente como para crear una forma artificial de ella …

Las otras empresas que mencionó se centraron más en soluciones específicas, sistemas de ingeniería complejos, precisión, profundidad, pero no en una amplitud que abarque todo, etc. La complejidad de los ejemplos mencionados se centra en la escala y la precisión (la excepción es el cáncer). La producción requiere inmensos recursos en términos de herramientas caras, materias primas, etc. AGI no tiene estos requisitos. Puede ser producido hoy en una computadora de escritorio por una sola persona que se dedique lo suficiente.

Tienes que sondear profundo y ancho y tener la habilidad / capacidad para producir lo que has llegado a comprender y ver.

Características:
Tiempo / Dedicación / Pasión / Comprensión generalista / Capacidad para escribir nuevas formas de software / Capacidad para pensar fuera de la caja / Capacidad para ejecutar.

Herramientas / requisitos:
Comida / Agua / Refugio / Computadora

Es ante todo un problema de descubrimiento. Una solución para la cual se encuentra en el límite de las propias capacidades cognitivas naturales. ¿Qué tan difícil es eso? Más apropiadamente, ¿cuántas personas realmente van a buscarlo?

¿Estás seguro de que es un problema que la humanidad tiene que enfrentar?

En realidad, no necesitamos resolver este problema, ya somos buenos en esto. Si espera que una solución robótica sea aún mejor, debe ser consciente de las consecuencias. La clave de nuestra inteligencia es nuestra viabilidad como especie. Utilizamos nuestra capacidad de modelar conscientemente para cerrar los problemas de bucle abierto que encontramos cuando operamos en nuestro entorno complejo y a menudo cambiante. Actualmente somos la causa de la mayor parte de ese cambio y nuestro entorno tiene que trabajar para restablecer el equilibrio. Si producimos una inteligencia general, entonces necesitamos controladores como el nuestro, pero todos los nuestros se centran en la viabilidad. Para mejorar nuestra viabilidad, tendríamos que usar nuestros controladores en el nuevo sistema y también permitir que el sistema muestree nuestro entorno adecuadamente. Entonces, o bien construimos sistemas que pueden convertirse en nuestros rivales o sistemas que tienen su propia agenda. ¿Queremos eso? Por suerte es un problema muy difícil.

Los ingredientes para la IA son el muestreo de una fuente de información basada en sensores consistente y rica en dominios (es decir, no textos simbólicos) y un conjunto de objetivos que reflejan algún tipo de necesidad derivada de esa fuente. Entonces tenemos una propiedad (conciencia) indefinida que todavía nos permite visualizar los datos extraídos de la fuente de información consistente. Esto nos permite predecir las consecuencias de las acciones.

El ingrediente que aún no podemos concebir es la conciencia, de hecho, hay otros ingredientes que también son imaginarios pero que para la mente consciente parecen reales (los filósofos se refieren a las experiencias irreales, pero comunes como qualia. Un ejemplo de qualia son las colores que percibimos … no hay ningún punto en el cerebro donde se vea realmente el color: se ingresa como una señal electroquímica, pero como la mayoría de las cosas visuales no hay acto de ver. Somos conscientes en nuestra imagen mental de que hay un color y podemos discriminar ese color de los demás, pero su realidad pertenece a los estados mentales. ¡Este increíble estado mental crea mucha de nuestra realidad y se alimenta de un entorno consistente que simplemente existe! El verdadero punto de la IA es entender realidad y separarla de nuestras percepciones mentales … Creo que vale la pena seguir ese viaje.

Para que un sistema se conozca a sí mismo con respecto al espacio muestral que ocupa, está casi indefinido. Como una especie que es donde estamos ahora. Pero para un sistema que se conoce a sí mismo lo suficientemente bien como para producir un sistema que se conoce a sí mismo mejor que el sistema que originó el sistema en primer lugar … eso es donde todo esto está tratando de funcionar.

Una manera simple podría ser decir que todo después de un sistema es equivalente a un solo cerebro humano cuenta como el gran esquema, por lo que simplemente necesitan obtener una prueba de concepto. Esto ocurre después de cien mil millones de células nerviosas que pueden estar en una supercomputadora o distribuidas en una red, como una docena de dispositivos por persona, por lo que la nube puede ser más inteligente de lo que parece. Y como dicen, se necesita inteligencia para resolver los otros problemas para que tenga prioridad. Puede permitir una mejor cooperación entre humanos y bots.

Luego, tienen que definir qué es el AGI y qué hace para evaluar qué tan avanzado es. Tendrá hilos para muchas otras cosas, como diferentes dominios de conocimiento que cada uno ve algo en el otro. Una vez que hay un mecanismo de aprendizaje, entonces debería poder avanzar. Quiere combinar sistemas especializados en lo general.

Alguien a menudo afirma que estará a la vuelta de la esquina, pero luego lo necesitan para conocer las consecuencias de sus propias acciones, lo que significa conciencia de los alrededores que se están volviendo más complejos. Entonces necesitan a alguien más que pueda resolver ese problema. Si a todo el mundo le gustaba la ciencia ficción, tal vez puedan hacerlo. O tal vez van a las emulaciones, nuevamente a un individuo y luego a una población, por lo que los agentes modelan la sociedad y luego tienen que llevarse bien con ella. Esto es como luchar por un ideal que no tiene fin. Cada uno de los enfoques es determinista y juntos suman la solución general. En este momento puede estar leyendo todo e intentando descubrir creencias. Eventualmente puede necesitar fusionar mente y máquina como sintetizar especies. Y luego se pone creativo.

En términos de dificultad, en realidad lo ubicaría más alto que la mayoría de esos proyectos.

Todos esos avances fueron / son casos en los que trabajamos con objetos concretos en los que podríamos experimentar hasta que hayamos aprendido lo suficiente como para diseñar algo basado en lo que aprendimos.

Sin embargo, la inteligencia artificial es un caso en el que realmente no tenemos nada así para trabajar. No sabemos qué tan lejos estamos de poder hacerlo, no sabemos lo que nos estamos perdiendo, y realmente no sabemos a dónde ir para encontrar estas respuestas. Es muy frustrante tener que trabajar con programas que son básicamente cajas negras que reciben información y escupen respuestas sin que podamos ejercer un control preciso sobre su rendimiento como lo podemos hacer con una máquina o un programa normal.

En términos de costo, es una comparación en comparación con la mayoría de las entradas en la lista, particularmente los viajes espaciales. Necesitas hardware, programadores y electricidad para realizar investigaciones de IA, y todo eso es mucho más barato que cualquier cosa capaz de llegar a Marte u otro sistema estelar. También puede comenzar a recuperar dinero mucho más rápidamente con una buena IA que, por ejemplo, puede conducir un automóvil.

En términos de urgencia, es el último muerto. Realmente no necesitamos una IA para resolver los problemas urgentes que enfrentamos, lo que lo coloca más en la categoría de “bueno tener” que una cura para el cáncer.

No es muy difícil si tiene un plan, vea Construyendo mentes con patrones (BORRADOR), y una forma de medir la efectividad de sus resultados. Creo que enseñar el AGI y probar su inteligencia es la parte más difícil de desarrollar un AGI.

Entre los problemas que ha citado, crear un AGI es el único que no tenemos idea de cómo resolver. Todo lo que has visto en IA hasta ahora no tiene nada que ver con AGI, en particular las cosas que imitan AGI como chatterbots.

Entonces no lo sabemos. Podríamos tener un AGI en 10 años si un genio sale con un plan completamente disruptivo. O tal vez nunca tengamos uno (más probable en mi opinión).

Entonces, si tuviera que hacer una comparación con otras tecnologías, lo compararía con otras tecnologías que no tenemos idea (o muy vagas) de cómo lograr, como la inmortalidad o la teletransportación.