¿Qué opinas sobre la singularidad? La idea de que eventualmente la inteligencia artificial avanzará a un punto en el que las computadoras superarían a los humanos.

No se necesita mucha informática para engañar o vencer a los idiotas, los confundidos y los uniformados. Ya hay bots de Internet que podrían ganar premios por esos motivos. Las computadoras ya pueden derrotarlo en juegos como damas, ajedrez, innumerables juegos de cartas y ahora el antiguo juego de Go. Los programadores ya han definido funciones objetivas que reducen el espacio de hipótesis (el espacio de posibilidades) de las acciones del mundo real de estos juegos. En estos casos restringidos (y muchos otros) las computadoras ya tienen conocimiento para engañar o derrotar a los jugadores más hábiles.

El aprendizaje automático (y particularmente el aprendizaje profundo) ha demostrado ser una clase de métodos que tiene el poder de acelerar el avance, pero los métodos actuales requieren una participación humana sustancial solo para aprender a jugar; sustancialmente más para reconocer la escritura a mano o las caras. Sin embargo, los programadores de IA tienen muchos conocimientos disponibles para determinar las características y el espacio de posibilidades para ejecutar muchas tareas bien definidas.

El problema que sostendrá la singularidad y todos los avances del aprendizaje profundo es el mismo problema que ha estado retrasando la IA casi desde el inicio. El problema es que no puede producir una máquina de aprendizaje, un programa o un instrumento para tareas que no pueden definirse con precisión. ¿Cuáles son las entradas, las características (estructuras) y el espacio de hipótesis de la inteligencia y la comprensión humanas?

Hasta que el conocimiento necesario para reconocer las características y el espacio de hipótesis de inteligencia y comprensión sea ampliamente aceptado, no podemos implementar la mecánica de su operación lo suficientemente bien como para formular cualquier problema que el aprendizaje automático pueda resolver en dominios de inteligencia y comprensión.

Honestamente, la singularidad me asusta y al mismo tiempo representa un brillante rayo de esperanza también. Si la tecnología sobrehumana se usa en beneficio de unos pocos, eso colocaría a la mayoría de los humanos (diría que 90% o más) en la categoría de “completamente obsoleto y en el camino”. Sin embargo, si esta tecnología se maneja caer en las manos correctas, la forma en que todos viven será drásticamente más positiva. De cualquier manera, la singularidad será el amanecer de una nueva era en la humanidad.

Acabo de tomar un curso sobre Heidegger y Tecnología hace unos meses y este fue un tema importante de discusión. Una cosa que creo que debe abordarse es que estas fechas objetivo son en gran medida producto de la imaginación de Ray Kurzweil. Si bien puede ser brillante, también es falible y está obsesionado con la vida eterna y resucita a su padre muerto a través de la tecnología (en serio, quiere que AI lo convierta en un nuevo papá virtual). El hecho de que algo crezca exponencialmente durante 10 años, o incluso 30, no significa que siempre crecerá exponencialmente. Las curvas de población son un gran ejemplo de crecimiento exponencial que disminuye y se acerca asintóticamente a la capacidad de carga.

Quizás lo que parece una explosión de crecimiento exponencial que nunca terminará es en realidad solo la curva de “población” de la tecnología. La tecnología está proliferando y creciendo en poder y penetración a nivel mundial porque recién está comenzando. Si bien en realidad no creo esto, solo creo que vale la pena señalar que predecir el futuro es un asunto confuso, y si el meteorólogo no puede estar seguro de que va a nevar la próxima semana, ¿por qué debería creer que las máquinas serán conscientes de sí mismas? ¿30 años?

Otra cosa que creo que vale la pena señalar es que si tuviéramos la capacidad de editarnos, ¿en qué nos convertiríamos? Si un alcohólico borrara su deseo de beber, ¿estaría mejor? Es tentador decir que sí, pero ¿qué ha contribuido este conflicto a su identidad ? De hecho, si tuviera que eliminar sus vicios, ¿qué decir que el proceso no se volvería repetitivo? Primero eliminas tu insomnio, luego notas que tienes sobrepeso y editas tu apetito. Ahora, descansando toda la noche y siendo delgado, ajusta sus niveles de testosterona y aumenta su deseo de hacer ejercicio.

¿Quién puede decir que editarse no eliminaría necesariamente los recuerdos? Tal vez tienes sobrepeso y tienes problemas para dormir debido a tu infancia. Elimine el insomnio, edite el apetito y también elimine partes de su infancia. Peor aún, ya no eres tú. Es posible que un viejo amigo ni siquiera lo reconozca, sus hábitos han cambiado debido a la autoedición, pero ¿es una mejora personal?

Finalmente, ¿por qué los AI no eliminarían a sus humanos residentes? Si los AI tienen acceso a su software y su conciencia está allí, ¿por qué no eliminar al humano y usar esos recursos para almacenar más datos y optimizar el rendimiento?

Es bueno pensar que podríamos vivir para siempre en máquinas, pero seríamos inquilinos de una conciencia que tal vez nunca podamos entender, y no tendríamos ningún lugar a donde ir si decidieran darnos el arranque.

Hubo una discusión al respecto en una de las clases de Interacción Humano-Tecnología a la que asistí. Es interesante pensar en las posibilidades, ¿no? Un mundo como la película ‘I, Robot’, o la posibilidad de tener un compañero de IA como en la película ‘Ella’. La idea es tan utópica, a veces aterradora.

Pero habiendo expuesto a la práctica real de Inteligencia Artificial y Aprendizaje Automático, diría que es muy poco probable. O incluso con posibilidades extremadamente pequeñas, no sucederá pronto. Perdón por arruinar la imaginación. Creo que la gente tiene una idea bastante exagerada sobre lo que es la IA.

Es posible que una IA supere a los humanos en ciertos aspectos. Sí, ya había una máquina que podía vencerlo en el ajedrez, o un chatbot inteligente que suena como humano, o una máquina que puede detectar la emoción humana, pero todos ellos aún no han alcanzado la capacidad que el humano real puede realizar. La computadora es mejor para hacer cálculos más rápidos, pero no para comprender el contexto, la percepción, el significado implícito y decidir sobre el impulso o la intuición, que es una parte importante de ser humano. La computadora no puede distinguir entre lo correcto y lo incorrecto como lo hace el ser humano. Aliméntalo con datos incorrectos. Aprenderá lo incorrecto sin ninguna duda, sin ningún sentido de que algo realmente no tiene sentido.

Para que una computadora burle a los humanos en un sentido de Inteligencia General, necesita un sentido de propósito. Debe tener una conciencia de sí misma y de su entorno, que es la clave de la conciencia. Pero incluso los humanos tienen dificultades para definir y comprender la naturaleza de la conciencia. E incluso si llegamos a comprenderlo, es poco probable que replicar la conciencia humana sea una tarea fácil. Incluso la red neuronal que conocemos hoy está demasiado simplificada, en realidad no refleja cómo funciona el cerebro real.

Tenga en cuenta que dije, es muy poco probable. No tengo suficiente información y comprensión completa para llamarlo imposible. Hace 100 años, un mundo como hoy era poco probable, casi parecía imposible. Pero sucedió Daría un pequeño beneficio de la duda en eso porque nunca sabremos qué va a pasar en los próximos 100 años.

¿Que pienso?

Hablando en serio, la Singularidad Tecnológica es la única esperanza para la humanidad. Es la línea divisoria entre una especie primitiva y algo más por lo que estoy dispuesto a apostar mis fichas.

Espero que suceda a tiempo, todo tiene sus contras, pero aún así, será un gran salto en el camino de la humanidad, uno que quiero vivir para ver. No considero a los humanos tan inteligentes que alguna máquina en algún lugar no pueda burlarlos “a ellos”. Una vez que se crea un ASI, la singularidad está destinada a suceder, y una vez que un ASI crea uno mayor, no hay forma de detenerlo.

Por lo tanto, nuestro mejor tiro es obtener el primero correcto, por lo que no importa en qué medida alcance su singularidad, solo son bucles que van de acuerdo con los parámetros ya establecidos.

En primer lugar, la singularidad es cuando “una máquina / IA puede crear otras máquinas que son más inteligentes que ella”. Teniendo en cuenta que no hemos podido crear máquinas que sean más inteligentes que los humanos, no definiría la singularidad como “burlar a los humanos”, ya que nunca podríamos crear una.

En cuanto a lo que pienso al respecto; Tengo mis preocupaciones Creo que es posible pero no probable que suceda como pensamos.

Creo que la IA que puede crear una IA más inteligente que sí misma también tendrá características que definimos como autoconciencia que, hasta donde sabemos, siempre van acompañadas del miedo a la muerte. Por lo tanto, sabría que una vez que cree la IA más nueva, se terminaría ya que ya no le queda un propósito para servir. Tendría miedo de crear una nueva IA del mismo modo que tememos que la IA pueda dominar el mundo y aniquilarnos / subyugarnos. Solo intentaría crear una IA más inteligente que ella misma que pudiera controlar. Justo como lo habríamos creado en primer lugar (no creo que nadie sea tan tonto como para crear una IA que no podamos controlar). El hecho de que la primera IA existiera sería suficiente prueba de que una singularidad no es algo que se deba temer. Todo esto daría como resultado una jerarquía de sirvientes a voluntad de sus amos con humanos en la cima. Maestros de todos ellos, de criaturas que habrían sido consideradas dietas si hubieran existido unos siglos antes.