¡Absolutamente no! Incluso con IA, todavía tenemos el control.
- No permitiríamos que algún robot aprenda “todo” o sea bueno en “cualquier cosa”. Simplemente les mostraremos un área de la vida para aprender y se los dejaremos. ¿Aprender a empacar comestibles, tal vez? ¡Serán la mejor máquina de ensacado de comestibles que jamás hayas imaginado! “Los huevos van aquí. Las cajas van aquí. Solo 5 libras por bolsa como máximo. ¿Le gustaría este galón de leche que está comprando en una bolsa, señor? Aproximadamente al 50% de la población de este país le gusta, así que le pregunto “, etc. Y cuando Billy Joe dice” Me gustaría que mi comida empacada como un mono en un desfile hispano “, sabrá qué hacer antes que el hombre detrás de Billy Joe lo resuelve. Pero eso es todo lo que será, a menos que le digamos que haga otra cosa. Hay un objetivo en mente. “Gana el juego. Empaque los alimentos de una manera que satisfaga al cliente ”. La máquina aprenderá a lograr su objetivo y nada más.
- ¿Quién le diría a algún robot de IA que aprenda a dañar a alguien? Nadie, ese es quien. Esa sería la circunstancia peligrosa. Si alguien alguna vez dijo: “Oye, no solo sé cómo hacer que un robot se enfurezca, sino que también lo voy a hacer ahora”, entonces podríamos estar en problemas. En realidad, le tomaría más tiempo aprender el comportamiento humano en tales circunstancias de lo que suponemos. No es solo salir y comprar películas de lucha. Está poniendo una máquina de IA en un entorno en el que están tratando de lastimar a personas reales, una y otra y otra vez. Pero si de alguna manera estuviera sujeto a todas estas circunstancias y realmente se dispusiera a completar la tarea de lastimar a las personas, tendría un arma bastante peligrosa en manos de alguien obviamente lo suficientemente malvado como para hacer tal cosa. Tomaría tiempo, energía y una buena cantidad de recursos, pero supongo que es posible. Pero también tenga en cuenta que si alguien quisiera hacer algo así, puede hacerlo sin IA. Puede programar un robot sin IA para dañar a las personas, y si bien puede ser un poco más de esfuerzo para la persona terrible que lo hace, sigue siendo lo más posible.
- Creo que entendemos el poder de las capacidades que esto nos brinda, y somos muy cuidadosos con lo que creamos. La seguridad de las personas es siempre una prioridad cuando se construye tecnología, ya sea para la NASA, Amazon o AI. La IA simplemente conlleva más riesgos para nosotros, los que construimos y creamos tales máquinas. Somos los que debemos tomar precauciones y garantizar que la seguridad de los demás sea un elemento básico gigante (tal vez incluso dos, solo para estar más seguros) en nuestra tecnología. La IA todavía es creada por personas. No solo aparece en la naturaleza. Los mismos procedimientos en los que se realiza están orientados a garantizar que todo esté seguro y que nadie resulte herido de ninguna manera.
Hay riesgo, claro. Hay riesgos en todo, en todas partes. Yo, personalmente, no estaré preocupado por la IA, y tampoco nadie que yo conozca, porque esta predicción de Robo-Apocolypse como esa película de iRobot simplemente no sucederá.
- ¿Es la era de la inteligencia artificial la culminación de la era de la razón, o la IA es una de las consecuencias de la era de la razón?
- ¿Hay alguna referencia para C # como la documentación de Java AI?
- Cómo controlar remotamente una mano de robot de acuerdo con los movimientos de mi propia mano EXACTAMENTE igual
- ¿Cuál es la mayor hazaña de inteligencia que una persona haya logrado?
- ¿Qué arquitectura de redes neuronales funcionará mejor para un problema de anotación de imagen y por qué?