¿Es posible evitar que una IA se vuelva más ‘inteligente’ que nosotros? ¿No existe siempre la posibilidad de un problema técnico?

Echemos un breve vistazo al estado del arte en inteligencia artificial.

  • Amazon ve que acabo de comprar un par de botas costosas que me durarán un par de años, por lo que decide recomendarme un montón de otras botas similares. Estas recomendaciones se sobrescribirán dentro de un par de meses.
  • Youtube quiere desmonetizar automáticamente videos que muestren contenido ofensivo, discriminatorio y pornográfico, y termina escribiendo un algoritmo que también desmonetiza videos donde las personas maldicen o hablan sobre orinar.
  • El servicio de noticias de Facebook ve que con frecuencia escribo comentarios enojados en artículos de noticias con carga política, por lo que decide que quiero estar expuesto a artículos de noticias con mayor carga política.
  • Microsoft desarrolla un sofisticado bot de Twitter llamado Tay que se convierte en un nazi misógino en un día. [1]
  • Un algoritmo diseñado para nombrar colores de pintura observó un hermoso y fresco tono rosado de orquídea y lo llamó Stanky Bean. [2]

Espero que esto haya aliviado algunos de sus temores de que las IA se vuelvan más inteligentes que nosotros y se apoderen de nuestra sociedad en el corto plazo.

Para responder a su pregunta, hay pocas personas en el campo que deseen desarrollar una IA que pueda realizar varias tareas al mismo tiempo que los humanos. No está claro que esto sea algo útil o deseable en absoluto. Queremos recomendaciones que sean excelentes para predecir qué productos comprarán las personas, software de reconocimiento facial que pueda manejar bien los rostros rotados y oscurecidos, sistemas que puedan identificar con precisión el contenido de video dañino, algoritmos que puedan descifrar los rasgos de personalidad de alguien a partir del uso del lenguaje, etc. adelante. Cada uno de estos problemas es extremadamente complejo por sí solo y requiere años de iteración para garantizar que los resultados sean confiables. Los resultados obtenidos por estos sistemas individuales son manejados por el software tradicional, que no puede ser “más inteligente” que los programadores que lo desarrollaron de manera razonable.

Crear una inteligencia más grande que maneje más de uno de estos problemas sería mucho más difícil de desarrollar, probar y verificar, y los resultados probablemente no serían mucho mejores que varios sistemas de ML independientes y dedicados. Por lo tanto, es poco probable que este tipo de sistemas se desarrolle seriamente y se lance pronto.

La ventaja que tienen las máquinas sobre los humanos es su capacidad para procesar una gran cantidad de datos rápidamente, pero cualquier otra ventaja requeriría al menos décadas más de trabajo y programación minuciosos en ciencias de la computación que en realidad apuntan a darles a las máquinas esa ventaja. No es un problema con el que nos toparemos accidentalmente.

Notas al pie

[1] Twitter enseñó al amistoso chatbot de inteligencia artificial de Microsoft a ser un gilipollas racista en menos de un día

[2] Una IA inventó un montón de nuevos colores de pintura que son hilarantemente incorrectos

Muchas personas creen que la IA general está a la vuelta de la esquina, aunque igualmente muchas personas creen que tomará mucho tiempo todavía y también algunas personas creen que nunca sucederá.

No creo que la IA general esté a la vuelta de la esquina, pero no puedo probarlo; así que por el bien de esta pregunta, supongamos que es así.

¿Existe entonces una manera de evitar que una IA se vuelva más inteligente que nosotros?

Teóricamente: por supuesto. Simplemente limitamos sus recursos. Déle menos poder de cómputo o una red neuronal más pequeña. Podríamos hacerlo tan tenue como quisiéramos.

Prácticamente: depende de lo difícil que sea construir uno y de cuán extendido sea el conocimiento.

Si solo un grupo puede producir estas IA, entonces podrían estar dispuestos y ser capaces de limitar su inteligencia.

Sin embargo, parece muy poco probable que otros no puedan realizar ingeniería inversa en estos dispositivos, especialmente porque las apuestas serían increíblemente altas. Se desarrollaría una carrera armamentista en la que cada parte invertiría en construir una IA que fuera más inteligente que la de la competencia. Inmediatamente despojarían al dispositivo de cualquier límite artificial que pudiera tener.

Entonces, en la práctica, superarían a los humanos en poco tiempo.

¿Sería esto malo? Difícil de decir. Definitivamente lo cambiaría todo.

teóricamente esto es posible, solo tenemos que dejar de trabajar en el tema.

Prácticamente, eso es imposible.
Tenemos restricciones que no podemos superar, como el tamaño de nuestro cerebro, la velocidad de las señales, etc.

Las IA no las tienen / no las tendrán, por lo que en algún momento se volverán más inteligentes que nosotros. No hay forma de evitar esto.

Lo que podemos hacer es garantizar una transición sin problemas de nuestra inteligencia basada en carbono a la siguiente inteligencia no basada en carbono.

Una falla probablemente detendría el funcionamiento del programa o haría que generara un valor incorrecto. Un cambio en el código no haría que el programa pasara de ser un adivinador numérico a hacerse cargo del mundo.