¿Pueden los robots realmente tomar conciencia de sí mismos?

Nota: debido a una fusión de preguntas que no apruebo, el contexto de mi respuesta original ha cambiado, cambiando el significado. Los robots NO son lo mismo que la inteligencia artificial.

Sí. Voy a condensar la arquitectura aquí. Una IA autoconsciente tendrá al menos estos motores o procesos clave, que un Self central supervisa para obtener autoconciencia:
1. Percepción. La IA debe tomar en sentido datos del mundo y de sí mismo. Luego lo procesa para darle sentido. Hay un razonamiento interno en esto.
2. Manejo de conocimiento y significado. Esto hace frente a entradas de significado, nuevos conocimientos, aprendizaje, memoria. Hace un razonamiento local para sus necesidades.
3. Objetivos y planificación. Esta parte maneja objetivos a largo plazo y también transitorios del Ser y cómo lograrlos, y supervisar su estado. Tiene su propio razonamiento también.
4. Motores de acción. Esta parte maneja hacer cosas y saber cómo hacerlo. Tiene capacidad de razonamiento.
5. Auto-núcleo: esta parte maneja las creencias sobre uno mismo, las principales metas permanentes (mantenerse vivo, tal vez crecer mentalmente y otras metas cableadas), y supervisa las otras cuatro partes: es consciente de su estado.
Ahora, pregunte cómo creo firmemente que esto es viable. Porque lo tengo funcionando y reaccionando al mundo y a sí mismo. Pero no soy el único que hace esto, hay otros investigadores con sistemas igualmente viables en mente.

Sí, esto es posible. Los científicos de la Universidad de Bielefeld demostraron el software que desarrollaron que le dio a un robot caminante una forma simple de conciencia (en la que fue capaz de superar obstáculos mientras atravesaba un curso). En los últimos meses, han construido sobre este logro , desarrollando una arquitectura de software basada en redes neuronales artificiales que permitirá al bot verse a sí mismo como otros lo ven; es decir, programación que hace que el robot sea consciente de sí mismo.

Pero primero, algunos antecedentes: como puede ver en la imagen a continuación, el robot, afectuosamente llamado “Héctor” por los investigadores, sigue el modelo de un insecto palo. En 2014, el grupo demostró que el bot podía usar su software especialmente escrito para reconocer obstáculos y ajustar su camino para caminar desde el punto A al punto B.

Dado que el programa ha demostrado ser efectivo hasta ahora, el software de Hector ahora se probará utilizando una simulación por computadora para ver si se puede exponer.
“Lo que funciona en la simulación por computadora debe, luego, en una segunda fase, transferirse al robot y probarse en él”, explica el Dr. Holk Cruse, profesor del Cluster of Excellence Cognitive Interaction Technology (CITEC) en la Universidad de Bielefeld. Junto con su colega Dr. Malte Schilling, los dos investigarán en qué medida pueden incorporarse varios estados mentales de nivel superior en el robot.

Leer más: Robot se vuelve ‘autoconsciente’ – TheGeekInn

Has hecho tres preguntas … así que te daré tres respuestas.

1) ¿Pueden los robots ser realmente conscientes de sí mismos? Sí. (para alguna definición vaga de autoconsciente)

2) … comienzan a tomar sus propias decisiones que [punto clave] no estaban programadas para tomar.

Tomado literalmente … no. A menos que un robot esté programado para tomar decisiones … no puede tomarlas. Período.

OTOH, tomado más en sentido figurado … a un robot se le puede dar un problema para el cual no necesariamente preprogramamos una solución específica y podría llegar a una solución. En ese caso, se programó para tomar una decisión _A_, pero no específicamente una decisión predeterminada (precalculada).

Por ejemplo, hay una historia (¿leyenda urbana?) Que en una de las primeras simulaciones de la Marina, a una IA se le dio el objetivo de conseguir un convoy de barcos de suministro a través del Atlántico durante la Segunda Guerra Mundial. Lo primero que hizo fue hundir sus tres naves más lentas. La verdad a un lado; Este es un ejemplo de un robot (IA) que tomó una decisión que no estaba preprogramado. En otras palabras, se programó para tomar una decisión _A_ simplemente no una decisión específica.

3) ¿la trama de I, Robot es plausible según la informática?

Sí. (ver # 1)

Historia paralela: Al principio de los días de reconocimiento de rostros, los programadores se sentaron e intentaron programar en las computadoras cómo reconocer rostros. El progreso fue incremental (como el mejor) hasta que alguien decidió que, en cambio, escribiría un programa de aprendizaje y luego le enseñaría cómo reconocer caras. Hicieron que un montón de personas miraran muchas fotos (con caras) y les hicieron dibujar cuadrados alrededor de todas las caras que vieron. Las fotos y los datos de la cara (cuadrados) se introdujeron en el programa de aprendizaje hasta que aprendió cómo reconocer caras. Desarrolló sus propios criterios sobre qué constituye exactamente una cara. La precisión saltó rápidamente al alto porcentaje de los 90. El mismo software de aprendizaje se utilizó para unir caras específicas.

Sí. Esto es realmente muy plausible.

La gente generalmente piensa en los programas de computadora como algo determinista y predefinido. Esto es cierto solo para programas simples y secuenciales. Pero a medida que se desarrolla la informática, nuestros programas se vuelven cada vez más impredecibles.

La primera razón para esto es la paralelización. Incluso los programas más simples, cuando se ejecutan en muchos núcleos de procesador, comienzan a comportarse de manera no determinista. La razón de esto es que diferentes núcleos calculan con velocidades ligeramente diferentes y cada vez que la secuencia de tareas calculadas puede diferir.

La segunda razón es el aprendizaje automático. Para muchos problemas, los programadores simplemente implementan un algoritmo aproximado y luego dejan caer una gran cantidad de “casos de prueba” para que la computadora aprenda. Lo más importante: los programadores a menudo no saben cuáles son esos casos, y a menudo hay demasiados de ellos incluso para ser analizados por humanos. Como resultado, ningún humano sabe exactamente qué aprendió la computadora.

La tercera razón es el campo emergente de neuromórficos. Nuestras computadoras son muy ineficientes en comparación con los cerebros, en parte debido a su arquitectura. Hay proyectos para modificar la arquitectura de la computadora para que se parezca más al cerebro, lo que resulta en una mayor pérdida de control de lo que sucede dentro:

IBM presenta un chip ‘Brain-Like’ con 4.000 núcleos de procesador | Enterprise | CABLEADO

Todo esto lleva a computadoras que ya no están “programadas de alguna manera específica”. En cambio, estamos yendo hacia computadoras a las que se les enseña a hacer algo, pero su comportamiento es muy complejo y nadie sabe realmente qué están haciendo.
No significa que conduzca a robots inteligentes. Pero también los robots en I, Robot no eran necesariamente sensibles. Solo actuaban como seres sintientes, pero nadie sabía realmente lo que estaba sucediendo dentro de sus cerebros artificiales.

Piensa sobre esto:
No es posible, porque va en contra de la regla básica de la informática, es decir. un procesador solo actúa según las instrucciones. Elimine esta certeza, y no puede esperar desarrollar un programa, nunca. Ni siquiera pienses en crear un súper programa cuando la máquina no te escucha. Tendrías problemas todo el tiempo antes de llegar a algún lado.
“Hacer un robot con sentimientos”. No se pueden programar “sentimientos”, solo sus características externas. Las emociones son la consecuencia de las interacciones químicas entre el cerebro y los componentes orgánicos.
No puede escribir un programa para que sea consciente de sí mismo, porque suponer que el robot ejecutará el programa “consciente de sí mismo” contradice el hecho de que sería capaz de pensar por sí mismo. Entonces suena más o menos como una falacia lógica.
Por supuesto, es posible que la ejecución de un programa conduzca a resultados inesperados, esto realmente sucede con bastante frecuencia durante la programación. Pero eso no tiene nada que ver con la autoconciencia; la computadora calcula y nunca se equivoca en su cálculo . Si ocurren errores, es porque los creadores no hicieron bien su trabajo.

Es solo cuestión de tiempo antes de que los robots se vuelvan completamente autónomos. ¿Serán conscientes en ese punto? ¿Quién sabe? ¿Cómo puedo estar seguro de que cualquier otra criatura que no sea yo es consciente? Si son totalmente autónomos y posiblemente conscientes, ¿tendrán libre albedrío? Quién sabe, pero el libre albedrío tampoco es algo que los biológicos tengamos en abundancia; lo que, después de todo, es instinto, sino una negación del libre albedrío. La respuesta corta, creo, es segura, ¿por qué no?

Sí. En la actualidad, algunos robots que navegan por el entorno ya son conscientes de los objetos que lo rodean y pueden distinguirlos entre sí. Para ser consciente de sí mismo, todo lo que necesita el robot es la capacidad de detectar la ubicación / estructura central que detecta el entorno. A partir de ahí, se pueden agregar características conscientes adicionales, como la capacidad de detectar sus estados internos y procesos que se pueden implementar a través de estructuras de bucle de entrada. Estas características ahora son técnicamente factibles.

Diría, por definición, que tal cosa no sería plausible ya que los robots están programados con ciertos comandos; simple o complejo, pero no pueden pensar en sí mismos ya que son solo una computadora programable. Realmente no puedo ver cómo sería posible en el futuro, aunque no lo estoy negando. Los robots no tienen cerebro propio ni tienen instinto.

No es posible con la tecnología y el conocimiento que tenemos ahora. Podemos programar robots para que sean cada vez más inteligentes, es decir, podemos programarlos para que aprendan solos. Pero el algoritmo de aprendizaje seguirá estando codificado.
Ahora, si un robot tuviera que tomar una decisión para la que no estaba programado, necesitaríamos una tecnología completamente nueva mediante la cual pueda cambiar la forma en que se programa por sí mismo. Esta tecnología también no debe estar codificada.
Algunos seres humanos disfrutan del poder por la forma en que los hace sentir. Pero hasta donde sabemos, los robots no tienen sentimientos. Entonces, incluso si un robot es consciente de su poder y sabe lo que puede hacer con ese poder, debe tener alguna motivación para aprovechar al máximo su poder. Si tenemos éxito en hacer sentir un robot y cambiar la forma en que lo programa él mismo de acuerdo con lo que siente, entonces es posible.

Sí. Es solo cuestión de tiempo, probablemente por un tiempo, pero podríamos tener un avance repentino. Sin embargo, no será la forma en que lo entendemos, pero solo porque no seamos nosotros no significa que no lo sea.

Retrocedamos un paso para obtener nuestra respuesta: ¿qué somos realmente? Realmente somos un colectivo de organismos con directivas individuales. ¡Definitivamente podemos construir esto!

Honestamente, encuentro que el concepto de autoconsciencia es engañoso. A menudo tenemos un complejo de Dios.

Sin embargo, hace varias preguntas, consciente de sí mismo = autoaprendizaje, aunque pueden ser muy similares.

Desde una perspectiva técnica, es bastante fácil: tener un lenguaje interpretado que los sistemas puedan implementar en caliente. Luego, la parte difícil, escribir la lógica para mejorar su propio código, ¿y de qué manera? Esto es lo que tenemos que resolver, y creo que creo que nos estamos investigando.