¿No dependería la calidad de un robot de IA de la cantidad de código que uno escribe en respuesta a todas las posibilidades / interacciones que enfrentaría?

Definitivamente no. Sería mejor crear un sistema que pudiera aprender las posibilidades / interacciones y cómo responder a ellas por sí mismo a través de alguna forma de aprendizaje automático. Escribir código en respuesta a todo es la vieja forma de hacerlo, y no es factible para nada cerca de una verdadera IA de nivel humano. También proporciona cobertura limitada incluso entonces.

En un nivel menos abstracto, es posible que tenga que responder a cada oración. Tenga código escrito para atrapar cada línea por esta lógica. Puede pensar “¿por qué no puedo usar patrones”? Los patrones son inteligentes. Y tendría razón al querer usarlos. Pero ahora está escribiendo mucho, mucho menos código para manejar los mismos conjuntos de información, y su calidad probablemente esté mejorando porque ya no tiene que responder a miles de millones o billones o más tipos de oraciones. Eso es solo un ejemplo simple y limitado.

Podemos entender cosas como crear nuevas palabras como un acrónimo u otra amalgama de dos existentes (por ejemplo, el color grellow), sin necesidad de un diccionario que deba actualizarse. ¿Por qué no puedes simplemente crear un código para aprender cómo hacerlo? Porque la estructura subyacente que nos permite hacerlo nos permite hacerlo en diferentes áreas que no son solo un área auditiva o de texto. Podríamos dibujar un gato mezclado con un perro y se podría entender que es un gato o algo así intuitivamente. Ahora necesita escribir más código para cubrir el área visual. Podríamos hacer un spork, etc.

Y ese es solo un pequeño ejemplo de lo que supongo que son probablemente miles de ganchos en nuestra cognición que afectan una amplia gama de áreas difíciles de anticipar. Si quisiera corregirlo, reconocería, digamos en el ejemplo anterior, que las personas son generalmente buenas para detectar combinaciones, y luego escribiría una forma de detectar este tipo de combinaciones de manera abstracta. Entonces no estaría escribiendo más código, estaría escribiendo menos, sino un código más inteligente. Tendría que tener una forma de almacenarlos como conceptos abstractos y discretos. Y ahora estás a punto de descubrir las neuronas y más cosas sobre la estructura del cerebro.

Si realmente siguió todo hasta su conclusión lógica, es posible que no obtenga exactamente el cerebro, pero probablemente obtendrá algo muy cercano. Y estaría aún más cerca si tuvieras recursos igualmente limitados como el cerebro. Cosas como la visión focal o los sueños se convierten en una necesidad con recursos limitados.

TL; DR: la calidad de una IA dependerá de la inteligencia del código, no del tamaño.

No.
Un robot con toneladas de gbs de lógica difusa y código dependiendo de cada situación diferente será mucho más lento que uno que combine la lógica difusa con algún tipo de procedimiento de aprendizaje. Es la esencia misma de la IA. En el segundo caso, podría adaptarse a varias situaciones para las cuales, puede no haber lógica difusa presente. También puede facilitar esa situación para sus descendientes, reduciendo así el trabajo de los desarrolladores si esa información aprendida se puede transmitir a las diferentes generaciones o compilaciones de la misma IA.

El tiempo de procesamiento se reducirá, lo que dará como resultado respuestas más rápidas y la depuración de la IA será más fácil.

Además, el rendimiento de la IA en su conjunto también depende en gran medida de las capacidades de hardware del dispositivo.

Realmente no. Por un ejemplo simple, uno puede programar 20 códigos separados para formar verbos irregulares de forma individual, o puede programar un patrón único que 20 verbos irregulares tienen en común. Este último requiere menos código y también puede manejar verbos irregulares que aún no se han inventado. Del mismo modo, uno puede programar manualmente todo el conocimiento existente, o uno puede programar la IA para aprender el conocimiento por sí mismo. Nuevamente, este último requiere menos código y puede manejar situaciones novedosas.

La humanidad está muy lejos de cualquier cosa que se acerque incluso a lo que llamamos IA.
Primero necesitamos aprender y entender la Inteligencia Natural. Todavía no tenemos idea de lo que se considera inteligencia en humanos y mucho menos de robots. Sí, puede haber definiciones psicológicas y otras cosas, pero primero debemos comprender toda la idea de Inteligencia e intentar replicarla en nuestras Máquinas (Robots).

Entonces, sí, en los Robots de hoy en día, la cantidad de código tiene que envolver todas las posibles interacciones de una Máquina con su entorno. Sin embargo, en el futuro, esto tendrá que cambiar porque este método tiene sus límites.

Esa sería una forma muy ineficiente de codificar o diseñar una IA (además, hay una cantidad casi infinita de situaciones y la IA se presentaría) … ¿no sería mejor diseñarla para que pueda aprender a manejar la mayoría de las situaciones que enfrenta?

¿Estás insinuando que los humanos también fueron preprogramados para que les gustara el café, se volvieran adictos a Flappy Bird, obtuvieran A + en las clases de física y odiaran los actos malvados?

Si es así, nuestro código tiene algunos errores SERIOS: a muchas personas no les gusta el café, eliminan Flappy Bird después de un par de juegos, fallan en la física y cometen actos malvados con sonrisas sádicas en sus rostros.

Espero que ahora veas la diferencia entre la inteligencia y nuestros algoritmos primitivos.

Si pudieras dar cuenta de cada posible encuentro / interacción que pudiera ocurrir, sí, sería genial. Predecir cada posible estado del mundo con el que tiene que lidiar es la parte difícil.