Considere esto: el mismo humano que puede conducir un automóvil, también puede jugar al ajedrez. Pero no AI, no puedes usar la red neuronal que tienes en tu auto sin conductor y hacer que juegue ajedrez. Entonces, en términos de desarrollar una IA súper inteligente, estamos a cien años de distancia. Entonces, ¿por qué las personas inteligentes como Kurzwiel y Hawking están preocupadas por una amenaza tan existencial?
Debido a que no sabemos cómo se comportaría una súper inteligencia una vez que llegara a existir, ¿decidiría ayudarnos o destruirnos? No es tan simple de responder. Tu auto sin conductor mágicamente no decidirá chocarte y matarte. Tomará decisiones sobre los “valores” que nosotros, como programadores, hemos enseñado a tener. Los padres siempre quieren que sus hijos tengan buenos valores y hagan cosas buenas, por lo que, en mi opinión, la IA es similar. Dependerá de cómo nosotros, como programadores y científicos, entrenemos y enseñemos a nuestra IA a comportarse.
El campo de la IA está creciendo rápidamente, y debido a eso impartir una cierta forma de conducta ética detrás de la inteligencia que desarrollamos es importante. El instituto Future of Life tiene una carta abierta, firmada por algunas personas realmente inteligentes como Nick Bostrom y Peter Norvig, que debes leer. Básicamente detalla las prioridades que uno debe tener al desarrollar cualquier forma de IA.
- ¿Cuál sería el campo de estudio entre la física teórica y ML / AI?
- ¿Qué algoritmos de minería de datos / reconocimiento de patrones toman los datos como entrada y luego generan modelos / fórmulas matemáticas?
- ¿Alguien puede sugerir proyectos creativos u orientados a la investigación utilizando inteligencia artificial?
- ¿Cuál es el estado del arte en la "audición" de robots?
- ¿Cómo planea Musk evitar que la IA se haga cargo, si es así?
Enlaces:
- Carta abierta de AI – Instituto del Futuro de la Vida
- Investigue las prioridades en detalle: https://futureoflife.org/data/do…
- Nick Bostrom sobre Ethcis en IA: cuestiones éticas en inteligencia artificial avanzada
TL; DR: Sí, podría ser posible controlar Super Intelligence.