¿Qué hará que Andrew Ng empiece a preocuparse por la amenaza existencial de AGI?

Cuando estamos remotamente cerca de una amenaza existencial.

Quiero decir, ¿sabes el poder de procesamiento que se necesita para procesar y entrenar neuronas biológicamente precisas? Mucho más que nodos simples y retropropagación de errores. Luego tenemos este sistema de sinapsis de 90 billones y 270 trillones con un sistema infinitamente complejo de prejuicios, instintos y estigmas arraigados que definen el intelecto del cual no tenemos ni idea.

Digamos que incluso podríamos construir una computadora a la par con nosotros, de la cual todavía estamos a cientos y cientos de años de distancia, ENTONCES nuestros cerebros requieren, ¿qué, 5 años de entrenamiento para comenzar a tener algunos pensamientos relativamente inteligentes? ¿No podríamos, idk, evitar que algo suceda en ese punto si realmente estamos preocupados?

todavía no hay inteligencia artificial, no hay proyectos que se acerquen a esto, hay poco progreso. Estamos trabajando hacia abstracciones de organizadores y algoritmos. Los robots que juegan juegos no tienen idea de lo que es el mundo, y literalmente NO PUEDEN . No están diseñados para, no son más capaces que en una fórmula matemática simple o una variación de fuerza bruta, no está dentro de su amplitud.

Comenzará a preocuparse por eso cuando se convierta en una amenaza plausible, y no lo es.

El hecho de que algo parezca inteligente no significa que lo sea, y ciertamente no significa que posee la capacidad de serlo.

Después de Singularity, cuando las máquinas se vuelven más inteligentes que los humanos, habrá un evento llamado Turnaround, cuando los humanos dejan de programar máquinas y las máquinas comienzan a programar humanos. Cuando las máquinas inteligentes comienzan a programar y manipular las acciones y comportamientos de los humanos, es cuando los humanos deben comenzar a preocuparse por la amenaza existencial de la IA.

Tenga en cuenta que esto probablemente nunca sucederá.