Sospecho que no.
Los robots solo preguntarán dónde y cómo los programamos para que lo hagan.
Ejemplo crudo: le diré a mi “Roomba 5000” que “mapee el piso de mi casa” y procederá a hacerlo, en efecto preguntando “¿Dónde estoy ahora? ¿Hay un objeto aquí? ¿Puedo avanzar una pulgada? ? “y luego repetir.
El punto es que el algoritmo escrito para el Roomba contendrá las preguntas que debe hacer y responder, para cumplir con mi comando posterior de “ir al vacío al estudio todos los sábados a las 4 AM”.
Entonces su pregunta se reduce a: “¿Alguna vez un robot cuestionará a los humanos?” y respondo: “Solo cuando está programado para hacerlo”.
Una versión ligeramente diferente de esta pregunta sería: “¿Alguna vez un robot crecerá en capacidad de inteligencia artificial, para poder cuestionar las capacidades de un humano, POR SU PROPIO, sin haber sido programado para hacerlo?
- ¿Cuántas matemáticas uno debe aprender a tener opciones relativamente amplias en la investigación de ML e IA, como estudiante de doctorado principiante?
- ¿Tesla superará a Google y Facebook en IA?
- ¿Cuál es el mejor programa con la mejor IA disponible para interactuar?
- Quora: ¿Se volverá sensible la base de datos de Quora?
- Cómo crear una red neuronal con PyBrain que tenga un número diferente de valores de salida objetivo para cada entrada
Aquí uno podría responder “sí”. Por ejemplo, un robot médico a bordo de un barco o alguna otra instalación muy remota con humanos como tripulación, podría programarse para evaluar periódicamente a cada humano para determinar su estado psicológico. Agregue a este robot un requisito militar para realizar una determinada tarea militar en un momento determinado, y podríamos encontrar una situación similar a la del HAL 9000 que se hizo cargo de la nave espacial y mató a la mayoría de la tripulación: esto sería un accidente consecuencia de objetivos programados separados que actúan simultáneamente pero no armoniosamente.