¿Puede una máquina construida por humanos ser más inteligente que los humanos? ¿Pueden comprender niveles de intelecto superiores a los que poseen ellos mismos?

Creo que sí.

Una forma de ver la inteligencia es renombrarla como “construcción de conceptos”. Puede extrapolar a partir de cosas pequeñas y juntar las piezas para hacer un concepto, y luego juntar esos conceptos para crear conceptos de nivel aún más alto. Como toda persona semiinteligente sabe, los procesos de pensamiento son un poco más complicados que eso, pero es un buen lugar para comenzar.

Entonces, las dos cosas a las que se reduce es reunir conocimiento y luego juntar dos y dos, o inferir cosas de ese conocimiento (y en realidad, así es como funciona un tipo de IA llamado sistema experto).

Entonces, cuando estás hablando de reunir conocimiento, también te encuentras con muchos pequeños problemas bastardos, como cómo representar ese conocimiento. ¿Cómo recordamos fotos, imágenes y videos? Es difícil decir exactamente cómo debemos hacerlo para una IA, pero la gente está haciendo grandes progresos en el área. Y luego tienes que resolver esto para cada tipo de conocimiento. Esto, por supuesto, puede ser un caso clásico de limitaciones humanas que afectan la forma en que construimos nuestra IA. Hay una manera de remediar esto … a lo que llegaré en un minuto.

Cuando hablas de inferencia, estás hablando de tu lógica central. Bueno, ¿cómo funciona eso? ¿Con qué frecuencia se supone que debemos revisar nuestro conocimiento y aplicarle nuestra lógica? Tal vez usted mismo haya tenido este problema: se encuentra teniendo una creencia extraña y la cambia inmediatamente una vez que se da cuenta, pero antes de eso “creyó” lo que creyó durante mucho tiempo, incluso después de haber adquirido conocimiento al respecto (lo sé esto me ha pasado muchas veces en realidad). Y además, los humanos no son pura lógica, pero todavía somos muy buenos en algunas cosas que las máquinas de lógica pura no son. Entonces, ¿cómo se toma eso en cuenta? Hay algunas formas de evitarlo, y básicamente implica no hacer las cosas perfectamente (piense probabilístico en lugar de determinista). Aún así, cualquier cosa que hagamos para construir esto implicará la imposición de nuestras propias limitaciones. Pero como dije antes, no estamos condenados.

Tienes que pensar en una de las cosas que motivaron a la IA a comenzar. Claro que tenemos todo esto, ¿y si pudiéramos tener humanos dentro de las computadoras? Pero otra forma de verlo es que tenemos estos programas que hacen exactamente lo que les decimos, hasta la letra. ¿Te imaginas si tuvieras que hacer esto con tu hijo? Es realmente molesto, así que ¿por qué no dejar que su hijo aprenda en lugar de molestarlo con todo todo el tiempo como un bebé pequeño? Por eso queremos que los programas aprendan. Bueno, aprende qué? Resulta que tienes que hacer mucho trabajo duro para que aprenda algo específico. Pero, una noche, estás en tu silla tomando café y tienes esta idea totalmente meta: ¿qué pasa si puedo hacer que mi programa aprenda a aprender? Como en, ¿qué pasa si sabe lo que necesita aprender sin que yo se lo diga? Imagínelo como un bebé aprendiendo a hablar. Nadie “le dice” al bebé cómo hablar inglés, solo recogerá pedazos durante unos años y lo armará él mismo.

Del mismo modo, estamos desarrollando herramientas para programas que pueden aprender, y luego aprender a aprender, aprender qué aprender y, básicamente, poner en marcha su propia inteligencia de esa manera. Mi impresión ha sido que, en la mayoría de las IA, este enfoque jerárquico es lo que tiene sentido para todos, pero simplemente ha sido demasiado difícil. El aprendizaje profundo, por ejemplo, ha sido increíblemente exitoso en la aplicación de este enfoque, y aunque hay muchas cosas que todavía se están diseñando a mano, su atracción principal es que hace muchas cosas que otras técnicas de IA no pueden hacer, y eso es aprender lo que cree que debería aprender (en términos más técnicos, es realmente un buen aprendizaje sin supervisión). No es imposible imaginar cómo desarrollaríamos métodos para descubrir cuáles son las mejores formas de hacer las piezas que están diseñadas a mano automáticamente. Además, creo que el cerebro humano tiene cierta jerarquía, pero es posible que desee preguntarle a alguien como Paul King sobre eso para obtener más detalles.

De todos modos, una IA que es más inteligente que los humanos parece una conclusión lógica.

Depende de cómo midas la inteligencia. Si te refieres a la prueba de Turing, entonces lo mejor que una computadora podría hacer es igualar la inteligencia humana al ser indistinguible de un humano. Si te refieres a la capacidad de resolver problemas o hacer un trabajo útil más rápido y mejor que los humanos, entonces las computadoras ya lo han estado haciendo desde la década de 1950.

Por supuesto, hay un conjunto cada vez menor de problemas en los que los humanos aún superan a las máquinas. El problema es que nos gusta medir la inteligencia exclusivamente de este conjunto para que los humanos lleguen a la cima. En un momento, consideramos la capacidad de resolver problemas matemáticos o jugar al ajedrez como signos de inteligencia. Eso cambió cuando las computadoras comenzaron a hacer estas cosas mejor. Luego se convirtió en un algoritmo. Nos gusta sesgar nuestras pruebas de coeficiente intelectual hacia los humanos. Si desea ver cómo se ve el sesgo de una máquina, pruebe esta prueba de coeficiente intelectual.

Dicho esto, todavía estamos gastando USD $ 75 billones por año en todo el mundo para pagarle a la gente para que haga trabajos que las máquinas no son lo suficientemente inteligentes. Uno podría reformular la pregunta que debe hacerse cuando las máquinas podrán hacer todo este trabajo. El hecho es que las máquinas ya están haciendo la mayor parte de este trabajo para nuestro beneficio. Simplemente por tener acceso a computadoras e Internet, sus ingresos son mucho más altos de lo que serían de otra manera. Si desea preguntar cuándo las máquinas nos dejarán a todos sin trabajo, eso no es lo que está sucediendo. En cambio, lo que sucede es que nuestro salario y calidad de trabajo están mejorando a medida que las máquinas nos hacen más productivos.

Sin una buena definición de “inteligencia a nivel humano”, es difícil responder la pregunta. Pero tal vez podamos responder la pregunta relacionada: ¿cuándo la potencia informática del mundo excederá la potencia combinada de todos los cerebros humanos? (Estamos ignorando el tiempo necesario para desarrollar el software y para recopilar y aplicar los datos de entrenamiento para que la IA funcione).

Los algoritmos más conocidos para la visión y el lenguaje se basan en redes neuronales. Una red neuronal del tamaño del cerebro humano con 10 ^ 14 sinapsis y con tiempos de respuesta de 10 a 100 ms requeriría 10 ^ 15 a 10 ^ 16 operaciones por segundo (1 a 10 petaflops). Multiplicando por la población mundial de 7 mil millones, necesitaríamos 10 ^ 25 a 10 ^ 26 OPS. Actualmente, la capacidad informática mundial es de varios miles de millones de computadoras con capacidad de 10 ^ 9 a 10 ^ 10 operaciones por segundo, o alrededor de 10 ^ 19 OPS. Si suponemos que la Ley de Moore continúa aumentando la potencia informática mundial en un factor de 10 cada 5 años (como lo ha hecho desde la década de 1950), entonces podemos esperar superar la potencia informática a nivel humano alrededor de 2045 a 2050. Ray Kurzweil ha hecho algo similar proyecciones

Debo señalar que no se garantiza que la Ley de Moore continúe. La velocidad del reloj de la computadora dejó de aumentar hace varios años. Además, no es posible hacer componentes más pequeños que los átomos, y los tamaños de los transistores ahora están cerca de este límite. Si no podemos reducir aún más los transistores, entonces no podemos reducir su consumo de energía. Actualmente, una supercomputadora de 1 a 10 petaflop necesita aproximadamente 1 megavatio de electricidad. Siete mil millones de estos requerirían 7000 teravatios de electricidad, lo que excedería la producción mundial de energía de todas las fuentes en un factor de aproximadamente 200.

Por supuesto, una IA podría ser más inteligente que los humanos. Nadie diría que sería imposible para un humano construir una máquina que viajaría más rápido que los humanos, ¿verdad? La inteligencia es más complicada que viajar, pero se aplican los mismos principios: descubra cómo se hacen las cosas y proponga una implementación mejorada del mecanismo existente o descubra una nueva forma de lograr el mismo resultado.

Para viajar más rápido que los humanos descubrimos ruedas con motores, aviones o cohetes. Para inteligencia, podemos descubrir cómo hacer neuronas artificiales y conectarlas como un cerebro humano o podemos averiguar cómo hacerlo de una manera que los cerebros humanos no usan, como los algoritmos de aprendizaje automático. No digo que sea fácil, pero ciertamente es posible y estoy seguro de que eventualmente se hará. Por cierto, si construimos el equivalente de las neuronas artificiales a partir de la electrónica, entonces la inteligencia artificial tendrá la ventaja de velocidades de procesamiento mucho más altas y, por lo tanto, parecerá aún más inteligente que una arquitectura equivalente hecha de neuronas biológicas.

La única forma en que alguien podría afirmar que es imposible sería si creyeran que la inteligencia utiliza algún mecanismo no físico (¿un alma?) Para lograr sus resultados. No creo que ese sea el caso …

Gracias por A2A

Hmmm, me he estado preguntando esto hace un tiempo.

En primer lugar, no tengo confianza en que una computadora lo haga. Creo que tiene que ser un robot, algo que se mueva e interactúe con el mundo. Esta movilidad es clave para algún tipo de sentido de la visión del mundo.

La mecánica avanza bien, gracias al progreso de las extremidades artificiales.

La energía de la batería, gracias a los autos híbridos y eléctricos, también está avanzando bastante rápido.

No creo que el robot necesite todo el procesamiento incorporado, dados los continuos avances en las velocidades inalámbricas. Una vez hice los cálculos basados ​​en las velocidades del nervio óptico, y si el algoritmo sensorial se entendía claramente, ya tenemos las velocidades wifi y 4G necesarias para la sensación de nivel humano en vivo, de modo que si coloca los servidores en los puntos centrales en una milla hexagonal de 500 millas las cuadrículas de radio podrían centralizar la mayor parte de la potencia de procesamiento de una manera similar a la forma en que Siri usa la red para responder a la voz ahora, excepto que en lugar de un sonido bidireccional a voz, sería un sonido envolvente bidireccional TV y touch- orama a las respuestas mecánicas.

Creo que los factores limitantes son la energía de la batería y la capacidad del software. Y ambos me miran como si estuvieran al día dentro de 10 años.

Tenga en cuenta que el radio de 500 millas es para asegurar que los tiempos de respuesta sean lo suficientemente rápidos como para igualar los reflejos inteligentes humanos en aproximadamente 1 / 2oth de segundo y dar la redundancia necesaria.

Espero que las velocidades reflejas sin sentido humano de 1/50 de segundo se manejen en el robot.

No estoy en ningún grupo de expertos trabajando en esto, así que estas no son conjeturas altamente educadas.

En lo que los baso es en mi comprensión de que el cerebro humano maneja entre 2 y 5 megabytes de rendimiento entre los ojos y la médula espinal, y el cerebro tiene alrededor de 86 mil millones de neuronas.

Creo que cada neurona se puede representar virtualmente como una pila de ponderaciones de entrada y ponderaciones de salida, cada una de las cuales no tiene más de 64 bits de tamaño u 8 bytes. Y espero que cada neurona promedie aproximadamente 125 de estas por neurona, con amplias variantes para que la mayoría tenga solo 50 o menos, y unas pocas tengan más de 1,000. Por lo tanto, la simulación requiere ni más de 86 terabytes de ram.

Pero de esos 86 terabytes, espero que 70 terabytes, el viejo cerebro más bajo que el Cerebrum, tenga suficiente redundancia que pueda reducirse a la mitad, por lo que nuestros requisitos finales serán de aproximadamente 50 terabytes.

Ahora eso es un aumento de alrededor de mil veces de lo que muchos de nuestros teléfonos celulares se envían hoy a un costo único de menos de $ 1,000. Creo que para esta aplicación podremos tomar un costo de $ 20,000 para que estos humanos de reemplazo realicen trabajos, por lo que creo que solo necesitamos ver un aumento de 50 veces en el precio / rendimiento desde donde estamos hoy. Y eso es justo donde esperaríamos estar en 12 años.

Pero los primeros sistemas de adopción probablemente comenzarán a estar listos en unos 10 años.

Mucha gente habla como si no fuera posible porque creo que están pensando que necesitamos tener más en la simulación dendrita de lo que creo que realmente necesitamos. Espero usar solo 40 bits para el direccionamiento de dendrita y 24 bits para la ponderación +, que 64 bits por sinapsis funcionarán bien.

Desde mi punto de vista, los humanos no somos tan inteligentes. Creo que nuestra mayor ventaja restante no es nuestro intelecto, sino nuestra eficiencia. Si las computadoras tuvieran menores requerimientos de energía, creo que ahora podríamos construir estos robots. Los robots Boston Dynamic se ven bastante impresionantes siempre que no retroceda y vea que la batería los sigue por separado.

Creo que serán comercialmente viables (robots en cada hogar y negocio) en unos 16 años.

Sin embargo, no pestañees. Podría suceder mucho antes.

Mi tesis fue sobre este tema. Mi formación académica es en IA, filosofía y economía. Desarrollé un metamarco para responder preguntas como estas. También se puede utilizar para consultar a todos los interesados ​​tecnológicos, incluidas las empresas, los usuarios y el gobierno.

¿Qué forma de verdad deberíamos usar para construir nuestra definición de ‘inteligencia’?

En resumen, depende de cómo se defina la inteligencia. Muchas de las respuestas de las personas aquí tienen diferentes definiciones de la palabra. Por lo tanto, no puede llegar a una respuesta significativa a esta pregunta. Pero por el bien del entretenimiento, escojamos un significado.

Podría profundizar en una definición coherente, pragmática o científica de la palabra inteligencia , pero esta respuesta se basará en una definición consensuada. ¿Qué estamos todos de acuerdo intuitivamente que es la inteligencia en realidad?

¿Cuál es la definición consensuada de inteligencia en el contexto de la IA?

Algunos confunden (en mi opinión) lo que consensualmente entendemos como inteligencia, como replicar el modo de inteligencia de los seres humanos. Con todos sus defectos y beneficios, incluido un gran grado de sensibilidad. Este es un extremo.

Algunos, por otro lado, confunden (en mi opinión) lo que consensualmente entendemos como inteligencia, como poder de procesamiento mental. Ya sea nuestra capacidad de memorizar o completar una operación determinada. Este es otro extremo.

En mi opinión, la inteligencia, como la sociedad parece significar en la actualidad, es la capacidad de maximizar la opcionalidad y adaptarse. Es la capacidad de una entidad para expresar agencia, es decir, una independencia de factores ambientales exógenos. En esencia, es una buena combinación de lo que describo como los dos extremos de la inteligencia. Por buena mezcla, no me refiero a un equilibrio perfecto, me refiero a una “mezcla contextualmente buena”.

¿Cómo llegaremos a saber si una máquina es más inteligente que los humanos?

¿Puede una PC con Windows 1995 tener esa mezcla? No, no tiene sensibilidad. ¿Puede algo que tiene una IA fuerte hacer eso? Quizás, pero solo si necesita un mantenimiento limitado.

Si alguna vez construimos máquinas inteligentes, pensaremos que estas máquinas son nuestros ‘esclavos’ hasta que nos demos cuenta, de hecho, es al revés. Usted mencionó ‘¿podemos comprender niveles de intelecto más poderosos que los nuestros?’ No creo que sea una sociedad de masas, en realidad podemos. Ya estamos viendo esto con Internet y con diversos artefactos tecnológicos como Facebook o Google.

Si el intelecto de una máquina es mucho mayor que el intelecto del ser humano más inteligente vivo, suponiendo que podamos acordar una definición de intelecto. Entonces, esa máquina: 1) No señalaría su intelecto y, por lo tanto, se conocería como inteligente, pero sería indispensable (el método blando) o 2) Señalaría su intelecto y subvertiría a la humanidad para que esencialmente lo necesitara o lo adorara (el método difícil). Recuerde que (1) y (2) se basan en nuestra definición consensuada de inteligencia, por lo que esta es solo una forma predeterminada de ver el resultado, implícito en nuestra propia definición.

Entonces, de esta manera, cualquier máquina en la que todos estemos de acuerdo es inteligente, tendrá que subvertir a los seres humanos como segundos en importancia, o tal vez se conviertan en una forma de ‘Dios’ como ahora adoramos al dinero, digamos. Antes de eso, nunca estaremos de acuerdo en que sea inteligente. Y nuestro acuerdo no será una revelación repentina. Se ‘desvanecerá’ y nos alcanzará cuando menos lo esperemos. Al igual que en 2007, cuando los CDO colapsaron.

Entonces, en ese sentido, la inteligencia no es ni el altruismo de la máquina, ni su sensibilidad, ni su poder de procesamiento ni su conectividad. Siempre habrá opiniones despectivas sobre si la máquina es realmente inteligente.

¿Habrá alguna vez una máquina más inteligente que los humanos?

Entonces, desde mi punto de vista, es posible construir una máquina más inteligente que los humanos. Pero para cuando todos estemos de acuerdo en qué inteligencia es , será demasiado tarde. Entonces, ¿alguna vez construiremos uno? No estoy seguro. ¿Es posible? Si.

Pero la pregunta que haces es algo infructuosa. Al tratar de “buscar inteligencia”, probablemente no la encontraremos. Esto se debe a (1) y (2) arriba. Pero al responder esta pregunta no como una ‘verdad’ real sino como una ‘estimación’, creo que podemos construir las condiciones para prevenir potencialmente (1) y (2). Esto dependerá de una forma de fe.

como podemos prevenir esto?

Antes de que alguna forma de monopolio se nos acerque, necesitamos máquinas para competir y también necesitamos democratizar su uso. Si ninguna máquina tiene el monopolio de la IA, ninguna máquina puede obtener suficiente potencia para afectar a la humanidad, porque en última instancia, tendremos otra opción. Ninguna máquina puede volverse indispensable y, por lo tanto, subvertir a la humanidad. Pero por “máquina” no me refiero a alguna pieza de metal o servidor subterráneo en alguna parte. Puede que me refiera a algo como el protocolo HTTP o internet. Cualquier artefacto tecnológico específico. Recuerde, en base a nuestra definición de inteligencia anterior, que Internet se convierta en esta ‘cosa inteligente’ es completamente posible.

Competitividad en todos los meta-niveles.

En mi opinión, es un poco paradójico que algunas de las religiones más grandes que jamás hayan barrido el planeta postulen que Dios o los Dioses crearon el mundo. Tal vez eso sucedió, tal vez no fue así. Quien sabe realmente. Pero muy bien podemos crear nuestro propio Dios. Nuestro propio objetivo autounificador. Por favor, vea esto como una analogía entretenida. Pero entretengámoslo aún más.

Solo espero que el ‘Dios’ que creamos sea algo infinito (alguna forma de esfuerzo humano), no finito (alguna forma de máquina). Por lo tanto, en base a este principio, espero que tengamos ‘Dioses’ compitiendo en forma de máquinas, por analogía. No necesariamente necesitamos controlar a estos ‘Dioses’, pero siempre debe haber alternativas. Nuestro ‘Dios’ finalmente tiene que ser algo imaginario, algo de esfuerzo e imaginación, algo que nos unifique como especie, en lugar de tangible como una máquina. Debe ser infinito. Ya sea la idea de la unidad, la felicidad, el esfuerzo científico o la exploración del universo.

Sin embargo, existe el riesgo de que si incorporamos la competitividad en nuestro ecosistema tecnológico, esa competitividad o economía tendrá que basarse en una ‘constante’ que simplemente se integrará más meta en nuestro tejido social. Y esa ‘constante’ se convertirá en lo inteligente. Es importante que esta constante no tenga IA, o tratamos de generar otras constantes para competir con ella. Un ejemplo es la competencia que eventualmente veremos entre HTTP e IPFS.

Entonces, en conclusión: ¿podemos construir máquinas más inteligentes que nosotros, como se definió de forma consensuada? Si. ¿Nos gustaría? No. ¿Podemos evitar esto? Tal vez, pero también podemos intentarlo, incorporando la competitividad, la democratización y haciendo otra forma de ideal, el esfuerzo autounificante de la humanidad.

Nota: Necesito resaltar que esta pregunta tiene una respuesta altamente condicional y, según las condiciones establecidas, es solo mi punto de vista en este momento.

Mi respuesta es no. Aquí están mis pensamientos copiados de: ¿Por qué no ocurrirá AI?

——————————————————————————————

Tengo una hija de tres años y medio. Mi esposa solía preocuparse de que hablara cuando tenía alrededor de 15 meses después de que notó a esa pareja de bebés que pueden hablar en esa fase. Pero solo unos meses después, mi esposa y yo comenzamos a preguntarnos por qué mi hija tiene tantas cosas / preguntas para hablar / hacer. Sigue hablando todo el día, excepto que está durmiendo o jugando sola. Cuando tenía unos dos años, comenzamos a leerle un libro de bebés. Ella es muy agradable y concienzuda cuando la abrazamos. Hoy, ella comenzó a sorprenderme con muchas preguntas: “papá, por qué está triste”, “No, no lo está, por qué (cómo) sabes que está triste”, “papá, está triste”, Solo pude notar que el niño está triste por su lado en la imagen después de leer el texto, y sorprendido de que pueda sentir muchas cosas de manera sensible / directa. Ella tiene tantos ‘por qué’ / ‘cómo’ / qué … probablemente solo puedo responder menos del 20% de sus preguntas, y más de la mitad de sus preguntas en las que nunca pensé o que alguien más me hizo alguna vez. Puede pensar que ella podría ser un genio. La respuesta es no, es solo una niña normal, una de las más suyas o que usted haya conocido. ella no sabe cómo calcular 5 más 5, o reconocer 26 alfabetos. Por otro lado, sí, ella es genial para mí, creo y creo que es más inteligente que cualquier máquina que haya hecho un ser humano, incluida IBM Deep Blue, aunque es imposible para ella vencer a Garry Kasparov. La razón no es porque ella es mi hija o cómo la amo. Se trata de sentimiento, imaginación y amor …, de donde proviene la inteligencia.

Por la definición de inteligencia de Wikipedia:

Una capacidad mental muy general que, entre otras cosas, implica la capacidad de razonar, planificar, resolver problemas, pensar de manera abstracta, comprender ideas complejas, aprender rápidamente y aprender de la experiencia. No es simplemente el aprendizaje de libros, una habilidad académica limitada o Inteligencia para tomar exámenes. Más bien, refleja una capacidad más amplia y profunda para comprender nuestro entorno: “comprender”, “dar sentido” a las cosas o “descubrir” qué hacer

Personalmente, no vi que ninguna máquina tenga ninguna ‘capacidad’ para aprender. En lugar de decir que las máquinas están aprendiendo, preferiría decir que eres tú, los programadores están aprendiendo. Según el progreso que hemos logrado en la prueba de Turing. Dudo que la IA sea solo otro ‘movimiento perpetuo’. Incluso algún día sucede, definitivamente no está construido en el sistema operativo Intel Core / Linux ni ocurre en los últimos 20 años.

a2a. Todavía estamos muy lejos de comprender completamente los mecanismos de la inteligencia humana. Aún estamos lejos de saber cómo replicar esos mecanismos en alguna forma de tecnología. Dicho esto, recientemente se han hecho grandes avances en varios aspectos componentes necesarios para que las funciones de orden superior sean posibles.

En mi humilde opinión, veremos avances simplemente sorprendentes en aplicaciones de IA limitadas en los próximos años. Insinuarán cómo construir una inteligencia que supere a los humanos, pero también habrá misterios insolubles. Dentro de los próximos diez años veremos IAs muy sorprendentes que superan con creces a los humanos dentro de sus dominios limitados; los automóviles sin conductor se convertirán en mejores conductores que los humanos, los AI de asesoría financiera serán mejores para predecir estrategias de inversión óptimas (sospecho que esto ya ha ocurrido, pero se mantiene interno a las grandes empresas de inversión que los crearon) y mucho más. Aquellos campos donde se correlacionan grandes conjuntos complejos de datos históricos tendrán nuevas herramientas poderosas.

Creo que veremos el día en que una inteligencia artificial funciona tan ampliamente como los humanos en un nivel superior. 2045 parece un año tan bueno como cualquier otro, ya que es una suposición educada en el mejor de los casos. Creo que el descubrimiento vendrá de lugares inesperados, como una herramienta de modelado de laboratorio de Neurociencia Cognitiva Computacional. Por ejemplo, cuando un equipo que construye algo como Emergente logra un gran avance.

Indubitablemente.

(‘UNA’)

Observe la ley de Moore.

Hoy en día, los modelos basados ​​en el cerebro superan a los humanos en tareas cognitivas, que van desde la traducción del lenguaje hasta el diagnóstico de enfermedades.

¿Inteligencia Artificial AI tomará tu trabajo?

.

.

.

.

(‘SI’)

Los modelos basados ​​en el cerebro han ingresado a un mayor número de campos cognitivos, a medida que mejora el paralelismo computacional. (particularmente, en el horizonte de la Ley de Moore)

.

.

.

.

(‘C’)

YA existen modelos que logran 10 ^ 14 operaciones sinápticas por segundo. (Del total estimado del cerebro humano, 1 exaflop o 10 ^ 16 a 10 ^ 18 operaciones sinápticas por segundo)

Por lo tanto, NO es necesario practicar MECÁNICA CUÁNTICA, de modo que se reconozca la proximidad de la inteligencia artificial cognitiva no trivial.

¿Inteligencia artificial será más inteligente que los seres humanos?

No veo por qué no. Los humanos tienen una larga historia de crear máquinas y sistemas para ampliar nuestras habilidades naturales.

  • No somos lo suficientemente fuertes, por lo que fabricamos máquinas para levantar pesas pesadas.
  • No somos lo suficientemente rápidos, por lo que fabricamos máquinas para movernos a nosotros y a la carga a alta velocidad.
  • Somos incapaces de volar, por lo que fabricamos máquinas para volarnos a nosotros y a la carga donde queramos.
  • No podemos nadar largas distancias o lo suficientemente rápido, por lo que fabricamos máquinas para movernos y cargar alrededor de los mares y ríos.
  • Somos incapaces de abandonar el planeta, por lo que fabricamos máquinas que pueden y pueden transportarnos allí y de regreso.
  • No podemos ver objetos demasiado pequeños o demasiado lejanos, por lo que fabricamos máquinas que pueden y nos muestran lo que ven.
  • No podemos detectar muchas formas de energía, por lo que fabricamos máquinas que pueden y nos muestran lo que está sucediendo.
  • Y así sucesivamente, a las náuseas …

¿Por qué alguien puede creer que no haremos máquinas que puedan pensar lo que no podemos, o recordar lo que no podemos, o concluir lo que no podemos? ¿O, al menos, lo hará más rápido y con mayor precisión que nosotros para que podamos obtener resultados confiables en días en lugar de en décadas? Después de todo, ya fabricamos máquinas que pueden calcular, mostrar y comunicar información mucho (¡oh! Mucho) más rápido y preciso que nosotros.

De hecho, tanto usted como yo estamos usando una de esas máquinas en este momento. Sin ellos no estaríamos haciendo y respondiendo tales preguntas; no podríamos comunicar las preguntas y obtener las diversas respuestas tan rápido como podamos ahora; y tal vez ni siquiera podríamos pensar de manera coherente y constructiva tales preguntas …

Teóricamente es posible. Primero piense en una sola computadora que probablemente pueda hacer cosas que el usuario típico no puede hacer, pero los creadores (programadores) tuvieron que programar la computadora para que la computadora solo pueda alcanzar el nivel de inteligencia de los creadores. Ahora piense en muchas computadoras conectadas en red. Con esto, cada computadora en la red será teóricamente más inteligente que su creador debido a la inteligencia colectiva que proviene de otras computadoras en la red. Sin embargo, todas las computadoras fueron creadas por humanos y dado que nadie sabe todo y las personas saben cosas diferentes, hace que una red de computadoras sea más inteligente, pero la red no superará la inteligencia de todos los creadores juntos. Por lo tanto, las computadoras pueden ser más inteligentes que los humanos que lo crearon si también tienen otras entradas de otros creadores. Sin embargo, una computadora sola no puede ser más inteligente que sus creadores. Por lo tanto, las computadoras en plural pueden ser más inteligentes que un humano cuando pueden hablar entre sí, pero los humanos también pueden hablar entre sí y dado que podemos colocar creativamente, las computadoras nunca serán más inteligentes que la raza humana.

Teóricamente, ¡SÍ!

Los humanos han construido sistemas de inteligencia artificial (IA) que pueden ‘razonar’ hasta cierto punto. Las IA construidas pueden vencer a cualquier humano es ajedrez ahora. Ahora no es tan asombroso. ¡Aún no está ni remotamente cerca!

Usted ve que nuestros cerebros están hechos de 100 mil millones de neuronas. Son colectivamente nuestra CPU. Diferentes partes del cerebro realizan diferentes acciones como # visualizar cosas, # razonamiento lógico, etc. etc. Y nuestro sistema hormonal hace el trabajo de crear emociones en nosotros.

En los sistemas de IA, intentamos imitar el proceso de pensamiento del cerebro. Por lo tanto, utilizamos la red neuronal artificial (neuronas) y la mutación (proceso), etc., como lo hace el cerebro. Pero el cerebro es mucho más complejo y apenas hemos arañado la superficie para comprenderlo.

¡Pero definitivamente podemos hacer que suceda algún día!

Por cierto, mira estas cosas geniales … Los científicos replicaron el cerebro de un pequeño gusano como una red neuronal de robots. El robot se comporta exactamente igual.
Científico imitando cerebro de gusano en un robot Lego

Sí, bajo escenarios específicos, es posible. Tomemos, por ejemplo, el juego de ajedrez. Cuando se escribieron los primeros programas de computadora que jugaban al ajedrez, muchos dudaron de que la IA fuera tan buena como los humanos, especialmente porque el ajedrez se trata de razonamiento lógico y estrategia compleja. Con el tiempo, la IA superó por completo a los humanos en el ajedrez. El mejor jugador de ajedrez del mundo tiene una calificación de aproximadamente 2880, mientras que casi todos los motores de ajedrez tienen una calificación superior a 3100. Ningún ser humano puede soñar con vencer a una computadora de ajedrez en estos días. De hecho, usan las computadoras como herramientas para avanzar en su propia comprensión del complejo juego. Ejemplos similares abundan en diferentes campos.
La IA, si se le da poder para generar una nueva IA, podría volverse invasiva y destruir el mundo. Pero aún estamos lejos de esa etapa.

Version corta.
P) ¿Puede una máquina construida por ingenieros humanos ser físicamente más fuerte que los ingenieros que la construyeron?

A) Por supuesto que puede. La máquina no está limitada por las limitaciones físicas de la biología humana.

Es razonable suponer que la inteligencia humana es un producto (en parte) de procesos computacionales que se ejecutan en componentes biológicos.

Entonces, algunos aspectos de nuestra inteligencia están limitados por las limitaciones de esos componentes biológicos.

Dos limitaciones obvias son la velocidad y la capacidad . Las neuronas son bastante lentas. Los seres humanos tienen menos de 100 mil millones de neuronas en sus cerebros. Nadie puede superar esas limitaciones biológicas.

Pero no hay razón para que una máquina tenga esas limitaciones. Por lo tanto, una máquina podría ser potencialmente más rápida y tener mayor capacidad.

Me imagino que algunos pueden argumentar que una mayor velocidad y capacidad no es lo mismo que una mayor inteligencia.

Pero una limitación muy importante de la inteligencia humana es la tienda de trabajo. Cuántas ideas individuales se pueden tener al mismo tiempo. Las personas más inteligentes tienden a hacer malabarismos con más bolas mentales. Una vez más, no hay razón para que un cerebro artificial comparta esta limitación.

En una muestra de humanos lo suficientemente grande, algunos procesarán la información en la lista (digamos hacer) más rápido que en el bucle (comando) y de lo contrario será para el resto de la muestra. La velocidad a la que se procesa la información es una (si no la única) métrica de inteligencia.
Sin embargo, una máquina en particular será más rápida en el procesamiento de bucles o lista (digamos python).
Esto (y vs o) es donde la correspondencia (y, por lo tanto, la comparación), lógicamente falsa aparte.

Por supuesto, hoy ni siquiera estamos cerca de hacer esto. ¿Pero podría hacerse algún día?

Si. El motivo es fácil. Dicha máquina se construirá durante un período de tiempo. Un ingeniero humano puede aplicar su creatividad e inteligencia a un subsistema y luego lo que se hace. Él trabaja en la siguiente parte y así sucesivamente. De hecho, cientos de ingenieros y trabajo durante muchos años y construir un sistema, una parte después de la siguiente, donde la suma de la complejidad de las partes es lo que siempre desea.

Es por eso que un novelista que escribe un libro puede crear personajes que parecen ser más listos e ingeniosos que el autor. Es porque los autores y los días pasan pensando en un simple comentario que tiene uno de sus personajes. Tanto los ingenieros como los autores tienen la capacidad de pasar tiempo elaborando cada parte. Pero con la IA también puede haber cualquier cantidad de ingenieros.

He estado en el negocio de desarrollo de software durante un tiempo de registro y muchas veces he trabajado en proyectos en los que ningún curante entiende cómo funciona el sistema. Es demasiado grande y complejo y el cerebro de nadie es tan grande. Entonces tenemos especialistas y grupos de especialistas y una reunión interminable para decidir cómo se hablarán entre sí las subpartes.

Pero incluso una persona que trabaja sola puede construir un proyecto de complejidad arbitraria. Construyo algo y luego la próxima semana agrego algunas partes más y la semana después de wrk agrego algunas más. Si viviera lo suficiente (o tuviera suficiente ayuda) la complejidad del proyecto podría crecer sin límites

Hay otros trucos matemáticos que la biología ha descubierto. Uno es la simetría. Si el lado izquierdo y el lado derecho del cuerpo son imágenes especulares, podemos construir un cuerpo completo con solo la mitad de la información requerida. Si sabemos cómo construir un hueso, podemos obtener esa información para construir los 205 huesos del cuerpo. Del mismo modo, solo tiene que saber cómo construir una celda y luego reutilizarla unos pocos miles de millones de veces. Todo esto es lo que llamamos “estructuras repetidas” y permiten construir algo tan complejo como un ser humano a partir de una cadena de ADN que es miles de veces más simple.

Si definimos la inteligencia de esta manera, una máquina puede ser más inteligente que los humanos.

Sabemos que las máquinas utilizadas para inteligencia artificial con inteligencia artificial pueden cumplir con todas las definiciones anteriores de una manera que los humanos definen como ‘inteligente’

Es realmente una cuestión de “malabarismo de palabras” decir si la forma de hacer algo de una máquina es igual o mejor que la de un humano.

  1. Memoria Las máquinas tienen mejores recuerdos que nosotros. Los usamos para recordarnos que debemos hacer cosas que podríamos olvidar.
  2. Conocimiento Pueden almacenar más conocimiento fáctico que nosotros, de una manera similar a la que los libros pueden almacenar.
  3. Experiencia . El aprendizaje automático es similar al aprendizaje humano en que pueden mejorar las tareas con práctica. Esto se usa para máquinas que aprenden a jugar.
  4. Comprensión Cuando busca información, la máquina tiene que entender su pregunta de entrada. Es posible que tenga que pedirle que repita la pregunta de tal manera que pueda entenderlo mejor
  5. Razonamiento El razonamiento de la máquina es similar al razonamiento humano en el sentido de que compara situaciones para obtener el mejor resultado
  6. Imaginación Esta habilidad es difícil de definir para los humanos. Si ‘Imaginación’ se define como ‘Estilista’ en el sentido de probar posibles variaciones sobre un tema, entonces las máquinas ciertamente pueden hacer eso.
    Artísticamente es la base del arte por computadora y la música por computadora
    Pero si la Imaginación se define como que requiere un resultado que tenga significado y propósito, entonces podría estar limitado a ofrecer una gama de posibles enfoques para un problema. Por supuesto, la mayoría de los consejos toman esta forma, por lo que uno necesitaría una definición precisa de ‘Imaginación’ para comenzar con
  7. Juicio En términos legales, las máquinas pueden emitir juicios, y comúnmente lo hacen. También en ciencia y tecnología, las máquinas hacen juicios al comparar artículos de la misma manera que los humanos
    Los autos sin conductor son un ejemplo de máquinas que emiten juicios

En general, dado que las máquinas pueden hacer todas estas cosas individualmente mejor que los humanos, la cuestión del “intelecto” es más que “¿Pueden hacerlo estas máquinas con un sentido y sentido?” Es una pregunta filosófica, y no tiene una idea clara cortar la respuesta, pero esto también se aplica a los humanos ya que hacemos cosas por costumbre o por impulso que no tienen significado o propósito

Desde un punto de vista psicológico, se sabe que los humanos pueden relacionarse con las máquinas de manera similar a cómo se relacionan con otros humanos. Esto sucede con la adicción a los juegos de computadora e incluso a la pornografía.
Y hay máquinas que pueden engañar a los humanos para que piensen que están hablando con otro humano, pero tales situaciones solo son útiles para comparar cuánto podemos controlar las máquinas.

Hay muchas películas que usan el tema de Android (máquinas en forma de humanos) y Cyborgs (humanos con implantes digitales que aumentan sus habilidades)
También de clones humanos que son idénticos a los humanos.
Se podría imaginar que una combinación de estos podría producir una máquina que fuera sobrehumana hasta el punto de considerar a los humanos como una especie inferior

También es posible que tales ideas estén más cerca de la realidad de lo que suponemos.
Aquí hay algunas aplicaciones de IA para la toma de decisiones que superan la capacidad de un humano
toma de decisiones ai – Búsqueda de Google

No, ellos no pueden. Especialmente cuando se considera que no existe una definición real de inteligencia de trabajo, sería imposible definir lo que queremos decir con “más de ella”. Sin embargo, en aras de esta pregunta, podemos suponer que se correlaciona con el conocimiento y la capacidad de participar en un pensamiento novedoso [como se considera entre los humanos],

Sin embargo, la mayoría de las respuestas presumen que la inteligencia es simplemente algún tipo de proceso mecánico. No lo es

La razón por la que no se puede hacer es porque es imposible confirmar que se haya logrado.

Uno puede verificar fácilmente si una máquina puede volar o si puede moverse más rápido que un humano. Estos son simples problemas de física.

Sin embargo, uno no puede confirmar la inteligencia a menos que sea más inteligente que el sujeto que se está evaluando. Por lo tanto, sería imposible verificar que se haya logrado una inteligencia superior o no. En resumen, si dicha máquina ofrece una nueva prueba matemática [como ejemplo], uno tiene que tener la capacidad de verificar el resultado para determinar si es válido o galimatías.

Incluso podemos olvidarnos de la inteligencia artificial. Simplemente pregunte si puede construir una máquina que pueda resolver problemas que no puede resolver. ¿Qué significaría construir una computadora de ajedrez si no sabes cómo jugar ajedrez?

Esta es solo otra fantasía humana que insiste en que el cerebro es solo una “computadora” e ilustra un malentendido fundamental de la “mente”.

Hay dos preguntas separadas y muy diferentes aquí. El primero va a lo que entendemos por inteligencia (artificial). Pienso en la IA como la habilidad exhibida por las máquinas (principalmente las computadoras) para imitar la inteligencia humana. Hay una IA débil (que se limita a tareas específicas como el juego de Go o ciertos tipos de pronósticos) y una inteligencia fuerte (que puede realizar múltiples tareas). Si acepta mi definición de IA, específicamente IA débil, ahora hemos construido sistemas con inteligencia sobrehumana. AlpaZero es un ejemplo de dicho sistema. Los participantes en torneos de ajedrez han sido sorprendidos haciendo trampa con programas de ajedrez que tienen habilidades sobrehumanas. Mis IA de pronóstico (dentro de límites estrechos) son asombrosas. Entonces la respuesta a su primera pregunta es “Sí, dentro de una inteligencia débil”.

La segunda pregunta va a la “comprensión” que, libremente, es la capacidad de comprender ideas. Ninguna IA que yo sepa comprende nada. Solo imitan (ver arriba). No tienen conciencia ni conciencia. Entonces realmente no comprenden nada.

Mirando cómo se está desarrollando la inteligencia artificial de los últimos años, diría que probablemente sí.

Ciertamente, hemos logrado avances increíbles gracias a Deep Learning. En este momento, un robot puede superar el rendimiento humano en reconocimiento de rostros, reconocimiento de imágenes o jugar el juego de Go.

Aquí hay una discusión interesante sobre si un robot puede tener emociones, un alto nivel de inteligencia o conciencia.

PD: otra forma de convencerte a ti mismo: enciende la MTV y luego vuelve a hacer tu pregunta 😉

Si. El obstáculo más grande en este momento es desarrollar software que pueda reconocer imágenes naturales sin una plantilla preformada. Esto ya existe, ahora es cuestión de hacerlo más eficiente. El problema es que el cerebro no está conectado digitalmente. La respuesta: desarrollo de microprocesadores que imiten mejor lo que podemos hacer. Ese desarrollo está teniendo lugar ahora. Es solo un problema del cerebro derecho frente al izquierdo, las computadoras ya pueden calcular las matemáticas más rápido y con mayor precisión que nosotros.

More Interesting

¿Cuáles son algunos de los artículos / artículos / noticias imprescindibles para un estudiante de doctorado en robótica?

¿Cómo combina Eureqa bloques de construcción matemáticos en ecuaciones?

¿Cómo se puede utilizar el aprendizaje automático?

¿Cuáles son los sistemas de aprendizaje automático de última generación para predecir los precios del oro?

Si me importa cargar, en teoría, ¿mi 'yo' será transferido a un robot, o el robot será solo una copia exacta de mí?

Teniendo en cuenta la cantidad de datos que genera un sitio Web2.0 todos los días y su valor en el escenario actual, ¿cree que el aprendizaje automático debería ser el núcleo de la tecnología de cualquier producto? Si es así, ¿qué arquitectura recomendaría en este tipo de casos?

¿Se considerará un paso evolutivo si logramos crear computadoras autoconscientes?

¿Qué son los robots humanoides y cómo se probaría como una bendición para la transformación tecnológica?

¿Cuál es la prueba de que la iteración de políticas converge en el aprendizaje por refuerzo?

¿Hay chatbots que puedan manejar múltiples expresiones de usuario y luego responder?

¿Necesito detener todo y aprender IA? ¿Cuánto tiempo pasará antes de que Robots tome mi trabajo como desarrollador web?

¿Cuáles son los mejores programas de maestría relacionados con la inteligencia artificial?

¿Cómo cambiarán las relaciones con el surgimiento de robots e IA con capacidad sexual?

¿Cómo obtuvo Alpha Go los datos de entrenamiento de Go para su red neuronal profunda?

¿Cuáles son los argumentos de Jitendra Malik contra las redes neuronales?