¿Por qué la gente no cree en la inteligencia artificial?

Hay pocas razones

  1. Las personas generalmente no creen en las cosas hasta que ven un ejemplo en acción.
  2. Hubris Los humanos han sido los primeros en la escala en términos de habilidades cognitivas por un margen muy amplio para la totalidad de la historia humana. La mera idea de que algo ‘sintético’ podría estar al nivel o mejor simplemente va en contra de ese prejuicio. Verá muchos argumentos filosóficos sobre lo que significa “pensar” o ser “consciente” en estos argumentos junto con referencias ocasionales a la naturaleza biológica del pensamiento humano.
  3. Falta de entendimiendo. Contrariamente a la lógica de “hay sabiduría en las multitudes”, cuando se crean cosas nuevas por primera vez, hay un número extremadamente pequeño de personas que lo entienden, mientras que el resto todavía cree en el viejo paradigma. Algunas personas entienden los verdaderos caminos hacia la IA, mientras que el resto no son informáticos o están arraigados en paradigmas antiguos bien entendidos (como los percerptrones simples o la lógica informática basada en reglas) pero no ven lo que está sucediendo con investigaciones y avances más recientes.
  4. Crecimiento exponencial en potencia informática y almacenamiento. Las computadoras de hoy son literalmente millones de veces más poderosas que hace un par de décadas y esas son millones de veces más poderosas que las primeras computadoras fabricadas. No tenemos experiencia con muchas cosas que operan con un crecimiento exponencial en la vida cotidiana, por lo que es fácil descartar las implicaciones de esto.

Es porque son realistas.

Las personas que creen en la IA tienden a caer en una trampa común de pensar que porque alguien / algo es bueno en una cosa, será bueno en todo.

Pero, en el estado actual, el proyecto AlphaGo no puede conducir un automóvil. Google Car no puede responder las preguntas más básicas. Siri no puede ganar Geopardy, y Watson no puede jugar Go.

Son cuatro algoritmos completamente diferentes, adaptados a sus propias necesidades respectivas.

Y aunque comparten algunos funcionamientos internos, como el uso de NN, difieren en un aspecto extremadamente importante: el preprocesamiento.

Verá, cualquier IA no obtiene datos o texto simples como su entrada. En cambio, las mediciones u oraciones se transforman primero en escalares y vectores, y la forma en que esto se hace puede hacer o deshacer su algoritmo, y por lo tanto, se realiza una gran cantidad de investigación sobre la mejor manera de implementar word2vec y algoritmos similares.

¡Usar ML, incluso NN, no es una excusa para no conocer sus datos!


En segundo lugar, imagina un contenedor de basura.

Ahora intente replicar ese contenedor de basura, de modo que el segundo contenedor contenga copias exactas de la basura en exactamente las mismas ubicaciones (relativas).

Su reacción a esta tarea probablemente sería: “¿Por qué demonios harías eso?” De hecho, sería un desperdicio de recursos, que podrías haber usado para construir algo que sea ​​realmente útil.

Podríamos intentar recrear un humano completo usando IA, pero honestamente, prefiero construir maquinaria que no se niegue a trabajar o se queje de su salario. Si realmente quisiera tal cosa, usaría un humano. Es más barato.

EDITAR: Lea los comentarios, el siguiente es un poco simplista …

Todo el campo de la IA se desarrolla de esta manera:

  1. Alguien dice lo que la IA nunca podrá hacer (vencer a un humano en el ajedrez, vencer a un humano en Go, vencer a un humano en Calvinball, tener gusto por la música y los libros, etc.).
  2. AI lo hace.
  3. Los postes de la portería se mueven, y lo que sea que haya allí se llama “IA no real “.

Sospecho que incluso si obtenemos una IA que pueda razonar como un humano, todavía habrá muchas personas que afirman que no se trata de una IA real, que lo que está haciendo es simplemente una imitación de pensamiento, no un pensamiento real

Creo que el resultado es posible, pero como no puedo ver un camino claro hacia él, no puedo decir si es económica o técnicamente factible.

¿Por qué algunas personas piensan que la IA a nivel humano es inviable o imposible? Sospecho que, independientemente de lo que creen personalmente, algunas personas expresan una opinión que sirve a otros intereses, como complacer a las personas / instituciones con poder y dinero que prefieren que las masas pasen por alto este resultado. Esos detractores son ‘herramientas políticas’.

Otros detractores pueden creer genuinamente que la cognición a nivel humano requiere un conjunto de capacidades que las computadoras nunca poseerán. Muchas de estas personas son muy inteligentes (Hubert Dreyfus, Roger Penrose, etc.), por lo que sería una tontería descartar su argumento o conclusión. Pero no estoy convencido de que ninguno de estos ‘incrédulos’ pueda trazar una línea clara y brillante en la arena que enumere de manera convincente cómo y por qué se detendrá el avance de la tecnología en su progreso hacia la implementación de la ‘IA general’, lo que la hace inviable o imposible. ¿El hardware no crecerá lo suficientemente capaz? ¿Los sensores no serán lo suficientemente precisos o no tendrán suficiente ruido? ¿La maquinaria computacional de cognición y reconocimiento de patrones seguirá siendo insuficiente para competir con los humanos? No veo ninguna señal de que ninguno de estos (excepto quizás el hardware) tenga una tasa de crecimiento tan limitada que pueda obstaculizar o detener significativamente el progreso.

  1. Muchos científicos son extremadamente escépticos de todo. Si no tienen evidencia directa de ello, no lo creen. Esto sucede, en mi opinión, debido a varios tipos de sesgos de confirmación y, a menudo, como resultado de tratar de compensar en exceso el rechazo interno de una religión que alguna vez consideraron verdadera.
  2. Hubris Esto habla por si mismo.
  3. Arrogancia. También habla por sí mismo.
  4. Presión de grupo para que solo diga cosas que estén bien establecidas.
  5. Seguir el consenso general no se aplica bien a las fronteras que avanzan rápidamente.
  6. Las personas que trabajan en las fronteras a menudo están demasiado absortas en los detalles para ver el panorama general.
  7. Los científicos, ingenieros y matemáticos modernos son reacios al riesgo. Esto viene del 1 al 4, y el hecho de que sientan que su sustento depende de su corrección. Su mentalidad es “el fracaso no es una opción” que lleva a no intentar nada que tenga la menor posibilidad de fracasar.
  8. Opiniones de la galería de maní. Estas son opiniones de personas que han estado fuera del campo tanto tiempo que su conocimiento está desactualizado.
  9. 1 a 8 solo dejan un pequeño número de personas en el medio que realmente saben lo que está sucediendo. A menudo, estas personas son consideradas “extrañas” a pesar de tener una visión que abarca más “áreas”, en el sentido de que conocen una gran variedad de cosas sobre el tema relevante con gran detalle.

Las personas en el campo ‘creen en’ IA, solo sabemos que aún no hemos logrado ni siquiera la estupidez artificial. Y tomará mucho tiempo hasta que lo hagamos.

Las personas que no están en el campo solo saben lo que leen, y los escritores científicos no están entre los que están en el campo, por lo que es un caso de ciegos que engañan a los ciegos.

Una de las razones por las que pensamos es que somos móviles. Nos movemos, experimentamos diferentes situaciones, y algunos de nosotros aprendemos de ellas. (Otros, OTOH, se niegan a aprender algo, por lo que no todos somos mínimamente inteligentes). Hasta que las computadoras no sean móviles, no serán inteligentes. Otra razón es que no hacemos lo que estamos programados para hacer porque alguien presiona un botón: hacemos lo que queremos hacer (incluso si esto conduce a nuestra muerte). Hasta que las computadoras se vuelvan tan autónomas, no pueden ser inteligentes.

¿Cuándo sucederá todo eso? Dime la fecha de la primera nevada en Nueva York en 2035 y te diré cuándo las computadoras serán inteligentes. IOW, no hay forma de pronosticar el futuro. Siempre que sucede, sucede. ¿Algún tiempo a finales de este siglo? ¿En unos pocos cientos de años? ¿Nunca? No tenemos idea Entonces, incluso para aquellos en el campo, no es “pensar que es imposible”, es “no tener nada en lo que basar una predicción”, y el resultado final es el mismo, pero la causa no lo es.

En su mayoría parece haber dos tipos de respuestas a esta pregunta, dependiendo de si el respondedor “cree en la inteligencia artificial”.

  1. En caso afirmativo : otras personas pueden no creer en la IA debido a razones estúpidas emocionales, arrogancia, arrogancia, atrapados en los detalles, escepticismo exagerado, pensamiento místico (“conciencia”), y así sucesivamente …
  2. Si no : no creemos en la inteligencia artificial porque al observar los sistemas que tenemos actualmente no vemos nada que justifique un optimismo extremo sobre su rápido desarrollo. Históricamente, la gente ha creído que la IA general estaba a la vuelta de la esquina desde la década de 1960, y nunca se ha desarrollado. Además, el cerebro es mucho más complicado de lo que los entusiastas de la IA le dan crédito.

Debo decir que me gusta mucho la segunda respuesta. La posición parece fundamentada, no excluye la posibilidad de que la IA general pueda existir teóricamente, y lo más importante, no atribuye motivaciones indignas a personas con opiniones diferentes.

En mi opinión, la IA general probablemente sea ​​posible (porque no veo ninguna razón por la que no lo sería), pero requiere varios avances tecnológicos más fundamentales antes de que esté allí, lo que puede tomar entre 10 y 10000 años. Actualmente, las personas son optimistas debido a los rápidos avances en el aprendizaje profundo, pero demostrará que no es suficiente, y queda por ver si se resolverán otros obstáculos fundamentales.