Cada criatura en este planeta teme / adora / sigue una inteligencia superior.
La posibilidad de que la IA sea que habrá una inteligencia que será mucho más inteligente que nosotros definitivamente asustará a los humanos. ¿Qué pasa si la IA toma represalias? ¿Qué pasa si los humanos no pueden contenerlo?
Hay muchas preguntas Hemos estado tratando de hacer una IA desde hace miles de años. Incluso la invención de la rueda puede considerarse una IA muy rudimentaria . Y nunca nos hemos detenido desde entonces. Pero la velocidad a la que las máquinas se programan para ser más inteligentes está aumentando rápidamente. De hecho, algunas personas lo llaman “la Singularidad” cuando las máquinas se vuelven tan inteligentes que los humanos pueden ser reemplazados por máquinas para todo tipo de tareas humanas (pensar lógicamente, trazar planes, administrar las cosas por su cuenta). Tanto es así que incluso puede salir del control humano.
- Cómo diferenciar entre un programa inteligente y un programa normal en el contexto de la inteligencia artificial
- ¿Está Deepmind de Google muy cerca de desarrollar inteligencia artificial a nivel humano?
- ¿Cuál es la diferencia entre un chatbot y un asistente personal inteligente?
- ¿Se puede enseñar a una red neuronal a ignorar condicionalmente ciertas entradas?
- ¿Se puede aprender AI en lenguaje C?
Así, los pensamientos de Elon Musk están justificados.
Pero entonces, es un argumento justo que este miedo no debería contener nuestra curiosidad / desarrollo científico.
¿Este miedo justifica el cierre de los programas de IA en todas las universidades?
¿Qué es lo que hay que hacer?
Te recomiendo que veas la película “Trascendencia”. A lo largo de la película, intenta responder a tu pregunta.
Luego siga con las discusiones de Reddit de la película:
- Discusión oficial: Trascendencia [SPOILERS]
- Trascendencia: una película incomprendida