¿Deberían los humanos empujar voluntariamente la inteligencia artificial para ser superiores a nosotros?

Absolutamente sí. pero también absolutamente no.

Es un punto de inflexión único en toda la historia de la vida en la Tierra, y lo que está en juego es increíblemente alto.

Absolutamente sí.

Resolverá todos nuestros problemas. Esto suena como el deseo inerte de un niño frustrado, pero por otro lado, una súper inteligencia está a órdenes de magnitud más adelante que nosotros, ya que un adulto fuerte está por delante de un niño pequeño. Imagine soluciones brillantes y elegantes para cada problema, segundos implementados (¿femtosegundos?) Después de que ocurra el problema. El mundo de las buenas máquinas superinteligentes hace que cada versión del cielo parezca un motel deteriorado. La inmortalidad, la riqueza y la comodidad para todos los seres vivos, y cada carga se traslada a sus hombros robóticos.

Absolutamente no.

Hay cero casos en los que dos especies han vivido juntas donde una es más inteligente que la otra donde ambas se beneficiaron. ¿Quizás gatos domésticos? Incluso los gatos perdieron mucha libertad y autodeterminación por el atún en copos y la siesta en los rayos del sol. Los gorilas, los rinocerontes y los leones son mucho más fuertes que los humanos más fuertes, pero eso no ha funcionado realmente para sus poblaciones, y hay una posibilidad razonable de que nosotros (y yo incluimos toda la vida orgánica de la Tierra) no podamos sobrevivir al primero. semana del despegue de la superinteligencia. Como TODO sobre una superinteligencia fabricada es desconocida, no se puede descartar nada.

No importa

Si la única forma de crear una Superinteligencia fuera con un voto de 2/3 de todos los humanos y un laboratorio patrocinado por el estado, con un equipo multinacional trabajando en ello, entonces discutirlo sería importante. Desafortunadamente, solo necesita un pequeño número de personas inteligentes que utilicen equipos de bajo costo. Incluso unos pocos millones son suficientes para establecer un laboratorio de clase mundial, y no hay restricciones sobre quién puede construir un centro de datos o una supercomputadora. Hay entre docenas y cientos de laboratorios trabajando en este problema o aspectos de este problema en este momento. Si bien fracasarán mil millones de veces antes de que no lo hagan, solo tiene que haber un éxito y el éxito es más probable cada mes. De cualquier manera, debería molestar a las personas MUCHO más de lo que lo hace, ya que cada vez parece más una cuestión de cuándo y no de si.

¡Guau, me puse un poco más sombrío de lo que quise decir al final!

En cualquier caso, la respuesta racional es que deberíamos suprimirlo, la respuesta optimista es que deberíamos financiarlo literalmente por encima de todo lo demás, y en realidad los motivos de ganancias existen de tal manera que no importa remotamente lo que piensa el 99.9% del mundo. .

La IA nunca alcanzará la sensibilidad, en el verdadero sentido de la palabra, a menos que las máquinas se fusionen con cerebros humanos. Un programa de computadora es un sistema determinista, lo que significa que consiste en una cantidad finita de lenguaje de entrada instructivo (sentencias if / then, bucles, variables que tienen una cantidad limitada de valores), que luego le indica a una máquina que produzca resultados; esto también estaría limitado por árboles de decisión finitos. En pocas palabras, no se puede programar un robot o una computadora para que sea “creativo”. No habrá un “Skynet” como viste en la película Terminator 2, a menos que sea controlado por humanos. Bill Gates, Elon Musk y Stephen Hawking pueden haber estado bromeando. Pensé que era divertido.

No, no deberíamos. Al igual que Elon Musk, Bill Gates y Stephen Hawking, creo que la súper inteligencia artificial es una amenaza para la humanidad. De hecho, es posiblemente la amenaza más peligrosa para la humanidad en el siglo XXI porque (a diferencia de muchos otros problemas globales serios) pocas personas se dan cuenta del verdadero peligro. No puedo enfatizar esto lo suficiente: no hay garantía de que la IA, como entidad pensante y evolutiva, sea benevolente con los humanos. Incluso hay menos evidencia de que su definición de benevolencia sea remotamente compatible con la nuestra, por razones similares. Una preocupación menor, pero aún mayor, es que la inteligencia artificial aceleraría el desempleo tecnológico, destruyendo millones, quizás miles de millones, de empleos. Lejos de presionar para crear una superinteligencia artificial, creo que deberíamos hacer todo lo posible para evitar su creación.

No, no debes presionar a tus hijos para que obtengan una A correcta. Eso dañará su frágil psique y los preparará para odiar a sus padres, así como al fracaso más adelante en la vida.

Oh espera, ¿te refieres a las máquinas? Uso mi computadora para mantener en orden todas mis citas. Es superior en ese sentido para mí. ¿Es correcto instalar voluntariamente una aplicación de calendario en mi computadora?

La inteligencia artificial inteligente caerá en algún punto entre estas dos perspectivas. Lo más probable es que si hay una IA que imita una mente humana hasta el punto de sentir, necesitará algún tipo de respeto. Necesitará este respeto, especialmente si queremos enseñarle algo de respeto mutuo.

Creo que esto está relacionado con la sigularidad tecnológica. La primera pregunta es: ¿es posible?

Algunos grandes nombres del campo de IA no creen que podamos llegar a ese punto.

Singularidad tecnológica

More Interesting

¿Cuál es la mejor práctica para 'portar' modelos de Machine Learning (especialmente aprendizaje profundo) de Python a sistemas integrados para aplicaciones como visión artificial?

¿Cuál es actualmente un tema candente en el comercio algorítmico?

¿Cómo utiliza la informática el método científico?

¿Cuáles son algunas revistas internacionales de informática de alto impacto en las que los estudiantes de secundaria pueden publicar?

¿Cuáles son algunas aplicaciones interesantes del aprendizaje automático en la aplicación de la ley y la lucha contra el terrorismo?

¿Por qué las poderosas computadoras de hoy usan tanta energía en comparación con el cerebro humano que usa menos que una bombilla?

¿Cómo debo comenzar a aprender las matemáticas para el aprendizaje automático y desde dónde?

¿Qué sitios web o empresas están utilizando el aprendizaje automático o la IA que lograron un gran beneficio o impacto?

Se le da la oportunidad de tirar un dado de 100 lados y, sin importar cuántos puntos aparezcan, puede elegir (a): tomar tantos dólares, o (b): pagar $ 1 y tirar nuevamente. ¿Cuál es la estrategia óptima y el valor esperado?

¿Debo terminar una licenciatura en CS si realmente no quiero ser ingeniero de software?

¿Es mejor trabajar en una aplicación para algoritmos de aprendizaje automático (por ejemplo, biología computacional), en lugar de trabajar en ML central, ya que el campo ya está maduro y hay menos espacio para mejorar?

¿Abandonaremos las computadoras en el futuro?

¿Qué documentos abordan Cloud Computing, NoSQL y Database as a Service desde una perspectiva científica?

¿Cómo te interesaste en las estadísticas y el aprendizaje automático?

Si solo tuviera unos pocos megabytes / kilobytes libres en un disco grabable planificado, ¿cómo los utilizaría exactamente?