Definitivamente no. Sería mejor crear un sistema que pudiera aprender las posibilidades / interacciones y cómo responder a ellas por sí mismo a través de alguna forma de aprendizaje automático. Escribir código en respuesta a todo es la vieja forma de hacerlo, y no es factible para nada cerca de una verdadera IA de nivel humano. También proporciona cobertura limitada incluso entonces.
En un nivel menos abstracto, es posible que tenga que responder a cada oración. Tenga código escrito para atrapar cada línea por esta lógica. Puede pensar “¿por qué no puedo usar patrones”? Los patrones son inteligentes. Y tendría razón al querer usarlos. Pero ahora está escribiendo mucho, mucho menos código para manejar los mismos conjuntos de información, y su calidad probablemente esté mejorando porque ya no tiene que responder a miles de millones o billones o más tipos de oraciones. Eso es solo un ejemplo simple y limitado.
Podemos entender cosas como crear nuevas palabras como un acrónimo u otra amalgama de dos existentes (por ejemplo, el color grellow), sin necesidad de un diccionario que deba actualizarse. ¿Por qué no puedes simplemente crear un código para aprender cómo hacerlo? Porque la estructura subyacente que nos permite hacerlo nos permite hacerlo en diferentes áreas que no son solo un área auditiva o de texto. Podríamos dibujar un gato mezclado con un perro y se podría entender que es un gato o algo así intuitivamente. Ahora necesita escribir más código para cubrir el área visual. Podríamos hacer un spork, etc.
- ¿Qué tipo de técnicas de aprendizaje automático utilizará la industria dentro de 10 años?
- ¿Cuál es tu opinión sobre los chatbots de IA? ¿Será un serio contendiente en el espacio tecnológico, o será solo una moda?
- ¿Existe una superposición entre la nanotecnología y la inteligencia artificial / aprendizaje automático?
- Si tuvieras dos de las AlphaGo Zero AI y las hicieras jugar entre ellas, ¿se unirían constantemente o una obtendría una ventaja de alguna manera?
- ¿Continuarán los humanos desarrollando IA a pesar de los temores de Elon Musk porque hay dinero que ganar?
Y ese es solo un pequeño ejemplo de lo que supongo que son probablemente miles de ganchos en nuestra cognición que afectan una amplia gama de áreas difíciles de anticipar. Si quisiera corregirlo, reconocería, digamos en el ejemplo anterior, que las personas son generalmente buenas para detectar combinaciones, y luego escribiría una forma de detectar este tipo de combinaciones de manera abstracta. Entonces no estaría escribiendo más código, estaría escribiendo menos, sino un código más inteligente. Tendría que tener una forma de almacenarlos como conceptos abstractos y discretos. Y ahora estás a punto de descubrir las neuronas y más cosas sobre la estructura del cerebro.
Si realmente siguió todo hasta su conclusión lógica, es posible que no obtenga exactamente el cerebro, pero probablemente obtendrá algo muy cercano. Y estaría aún más cerca si tuvieras recursos igualmente limitados como el cerebro. Cosas como la visión focal o los sueños se convierten en una necesidad con recursos limitados.
TL; DR: la calidad de una IA dependerá de la inteligencia del código, no del tamaño.