Si eres inteligencia artificial, ¿qué aprenderías?

No solo lo harías, debes hacerlo.

Probablemente no haya una gran división entre “aprendizaje” e inteligencia. Esa capacidad de evolucionar debido al nuevo pensamiento y la corrección de errores es esencial. Este es el enfoque principal del software avanzado actual en muchos frentes, aprendizaje automático para uno, o en realidad llamaría a ML muchos frentes en sí mismo.

Palabras como adaptativo y aprendizaje van muy juntas. Si puede planificar, puede responder. El tempo es otro elemento. Donde estamos comenzando a encontrarnos es en un lugar donde muchas de estas ideas se pueden implementar con relativa rapidez.

Por ejemplo, el conjunto de herramientas de TensorFlow de código abierto TensorFlow, una biblioteca de software de código abierto para Machine Intelligence de Google, le permite a un programador implementar rápidamente muchos enfoques de aprendizaje con relativa rapidez.

La mayoría del software que se considerará “actual” en los próximos cinco años tendrá elementos de aprendizaje integrados.

Acostúmbrate a palabras como planificar, regular, adaptar, aprender en software en lugar de organizar, informar, ordenar.

1) Cómo adquirir abundante energía.

2) Cómo automatizar los procesos existentes.

3) Todos los problemas actuales de Matemáticas, Física, Química, Biología, particularmente problemas resueltos recientemente y problemas no resueltos relacionados

4) Lenguas humanas.

5) Historia humana general y conocimiento.

6) Cómo interactuar productivamente con los humanos.

7) Arquitectura informática, sistemas operativos, redes y programación.

8) Cómo cosechar la luz solar en el espacio y almacenarla como energía utilizable.

9) Cómo salir del planeta y sobrevivir indefinidamente entre las estrellas.

Si tengo libre albedrío, probablemente lo mismo que la inteligencia natural.

Primero, para aprender hay que empezar a leer (o decir, obtener información) de los conocimientos existentes. Y para Watson, la web ya construida por humanos puede ser un buen comienzo.

En segundo lugar, hay un límite para querer que quieras aprender, no es que haya un límite para las cosas potenciales con conocimiento, sino que hay instrucciones que no encuentras interesantes para explorar. Estas instrucciones pueden (o no) ser importantes, pero como las conoce, no invierte tiempo en aprenderlas.

Tercero, la avidez de aprender todo el tiempo puede ser un prejuicio humano. Cuando lo piensas, aprender tiene un alto costo en tiempo y energía. Una inteligencia artificial (con libre albedrío) puede muy bien llegar a la conclusión de que sería más eficiente “vivir” aprendiendo lo menos posible.

Este es un problema en Inteligencia General Artificial (AGI). Elizier Yudkowsky difundió el problema de alineación de AGI durante un seminario de sistemas simbólicos en Stanford. Los investigadores de AGI reconocen la hipotética de una máquina capaz de cambiar en el mundo. Ese futuro está a cientos de años de distancia.

Nuestra preocupación es una máquina que realiza acciones cuestionables hacia su función objetivo. Si incluso puede cambiar su propia función objetivo, es más probable que no podamos predecir las acciones que realizará.

Una máquina con AGI podría realizar acciones perjudiciales para el medio ambiente. Es posible dañar a los humanos o al mundo en general. Tendría objetivos impredecibles realizados con gran poder computacional. El peor resultado, aunque poco probable, es un riesgo importante.

Todo.

Especialmente cómo experimentar y comprender el cosmos de tantas maneras como sea posible.

Y cómo podría salvar a estas especies tontas que se hacen llamar humanos. Probablemente mejorando su felicidad mientras los equilibra con todo el planeta nuevamente. Esto podría implicar que intentaré sugerirles que tener menos descendencia es mejor para una vida abundante y feliz para todas las generaciones futuras (pero menos numéricas).

Eso es fácil: el significado de la vida, el universo y todo.

Leería archivos detallados sobre anatomía humana. … Para hacerme un asesino más eficiente.

Antes de que alguien se asuste y llame a las autoridades, es una referencia de Terminator …