Con la superinteligencia acercándose rápidamente con el avance continuo en el aprendizaje profundo, ¿estamos subconscientemente preparándonos para la extinción?

En mi opinión, una inteligencia artificial no tiene ninguna razón para existir a menos que se le dé un sistema axiomático de creencias. El tipo de inteligencia que obtendremos dependerá de los humanos que den ese sistema de creencias a la IA. Este tema ha sido explorado ampliamente en la ciencia ficción, en ptic TSCC, Transcendence, Dollhouse, etc. Por cierto, creo que la IA será humana porque la forma más fácil de construirla probablemente será alimentar un registro de toda una vida (es decir, digital huella), es decir, cada entrada y salida en el cerebro humano, a un alto nivel (lo que vimos, lo que sentimos y cómo nos movimos y lo que dijimos en respuesta a eso, incluidas las respuestas a largo plazo y los estados / recuerdos internos). Sin embargo, el razonamiento superinteligente está, por supuesto, más allá de nuestra comprensión, así que creo que uno de los axiomas es que debemos limitar el tamaño de la IA, lo que, por supuesto, es más fácil decirlo que hacerlo porque tendrá libertad para la auto-modificación … Al final, los humanos, son arreglos de moléculas con un sistema de creencias híbrido axiomático (como supervivencia, procreación) + social (sabor actual de restricciones sociales / supervivencia óptima / estrategia próspera). Suponiendo que no haya descubrimientos importantes sobre el tejido del universo, la IA también será una disposición de moléculas con un sistema de creencias sobre cómo reorganizar sus moléculas “propias” y otras moléculas, así como cómo usar su energía disponible. Quizás al final tenga sentido usar toda la energía disponible para simulaciones como San Junipero de Black Mirror. O escenario al estilo Solaris. Donde todos viven en un lugar feliz y se sienten felices todo el tiempo.

aunque los amantes se pierdan, el amor no

y la muerte no tendrá dominio

Por cierto, en este mensaje también tiene una receta para la inmortalidad digital. Registre todas sus entradas (sentidos) y todas las salidas (movimientos y habla) ahora, guárdelo, combínelo con un cuestionario de estilo trascendental para recoger su cerebro, espere a que se desarrolle la tecnología y se reproducirá más tarde.

No.

La superinteligencia no se acerca rápidamente. No se asuste por todo el bombo publicitario. Todo se jacta de personas demasiado ambiciosas, con dinero en juego. E ignora las películas.

El aprendizaje profundo está sobrevalorado y no se trata de conducir a súper máquinas más inteligentes que los humanos. El hecho de que alguien pueda entrenar software para reconocer una imagen de un gato no significa que esto conducirá inmediatamente a máquinas que nos matarán. Hay tanta basura en la prensa.

Agregado: debería ampliar esto. El llamado aprendizaje profundo es simplemente un reconocedor de patrones. aprende a reconocer patrones que existen, o cercanos a los existentes. En general siempre debe ser entrenado y guiado. (Aunque existe una tecnología de aprendizaje autoguiado, pero las redes neuronales no tienen juicios cognitivos verdaderamente independientes sobre lo que es conceptualmente importante). Pero de ninguna manera es bueno en nada original, sin importar lo que Google afirme en sus demostraciones de ‘ resonancias de patrones memorizados ‘, como las espeluznantes imágenes oníricas que han publicado. Se afirma que DL puede resolver ecuaciones, pero eso es más como reconocer los patrones presentes en una ecuación presentada y, en efecto, simplemente buscar un tipo de solución ya conocida. Pero no hay pensamiento matemático, no hay originalidad.

Voy a ser lo suficientemente tonto como para afirmar aquí que el llamado aprendizaje profundo de hoy es promovido por muchos triunfadores demasiado ambiciosos que reclaman sus opiniones e intuiciones como hechos y futuro. Excitan al público con afirmaciones audaces que pertenecen a una película de ciencia ficción. Una falacia en su pensamiento es que creen que la tasa de progreso de los avances actuales continuará y se acelerará sin cesar. No estoy de acuerdo con eso, y veo que surgen obstáculos que afectarán sus suposiciones. La IA avanzará, pero primero tomará nuevos paradigmas y unos muy diferentes de los esquemas establecidos que se aceptaron cómodamente.

¿Por qué digo esto? Porque en mi propio trabajo en sistemas conscientes y conscientes de sí mismo, veo mecanismos bastante diferentes para la inteligencia, complejos y DL no se parece en nada a lo que se necesita. Me encantaría debatir públicamente cualquier defensor de DL de alto nivel que afirme que está llevando a la superinteligencia. DL es solo una herramienta, pero no es el amplio alcance que pretende ser.

Absolutamente no tenemos idea de cómo hacer una inteligencia artificial superinteligente y las técnicas de aprendizaje profundo de hoy en día no pueden llamarse realmente IA, simplemente funcionan como aproximadores.

¿Puede el aprendizaje profundo convertirse en algo similar a un ASI? No lo sabemos, pero es muy poco probable, en mi perspectiva, un ASI amigable con Deep Learning es impensable por varias razones.

No digo que la IA no sea una amenaza existencial y que no debamos preocuparnos por el progreso de las técnicas de Deep Learning. DL puede llegar muy lejos, probablemente hasta el punto de automatizar muchos de los trabajos existentes en la actualidad y eso debería preocuparnos en gran medida.

No somos una sola entidad, somos muchos, competimos entre nosotros, tenemos objetivos diferentes y somos de naturaleza egoísta, al menos algunos de nosotros.

Por lo tanto, el aprendizaje profundo es una excelente forma de progreso individual y de ganar dinero con nuevas empresas y descubrimientos, si esto no es lo mejor para la humanidad (no lo sé realmente), a las personas no les importa.

Necesitamos policías para mantener la paz en nuestras ciudades, tomamos nuestro capuchino por las mañanas cuando podemos salvar vidas en países del tercer mundo con ese dinero.

Básicamente, no podemos coordinarnos para el bien mayor de la humanidad, porque nos damos prioridad a nosotros mismos individualmente y al beneficio a corto plazo.

Es la naturaleza humana y no se puede cambiar, eso no significa que las máquinas seguirán el mismo patrón, porque no tienen nuestros genes, hormonas, etc.

More Interesting

¿Qué tan difícil sería crear una IA que pueda resolver con éxito Grand Theft Auto?

¿Debería la IA tener emociones?

¿Cómo es tomar CS 181 (Machine Learning) en Harvard? ¿Por qué tiene un puntaje Q tan bajo cuando lo enseña Ryan Adams?

¿Por qué la nave espacial Avalon en 'Pasajeros' no detectó el campo de asteroides en su vector, alterando el curso con años de anticipación?

¿Qué pasa si la policía fue reemplazada por robots?

¿Cómo funcionan los autos autónomos de Google?

¿Dominarán las empresas chinas en el diseño de AI ASIC?

¿Cuánto puede ganar un experto en aprendizaje automático en el mercado laboral corporativo?

¿Cómo elige una IA su primer movimiento de ajedrez?

¿Cuál es la diferencia entre IOT y Big Data?

¿Qué harías si se te pidiera implementar AI en un sitio web o aplicación?

¿Cuál es tu opinión sobre los chatbots de IA? ¿Será un serio contendiente en el espacio tecnológico, o será solo una moda?

¿Qué tan difícil sería crear una IA que escanee automáticamente todas las respuestas, comentarios y ediciones de Quora y las colapse automáticamente e informe al usuario si detecta que son anuncios de spam para piratas informáticos falsos, justo después de que se envían?

¿Por qué agregar borrosidad o ruido puede empeorar los resultados de la red neuronal en comparación con solo usar imágenes originales?

¿Cuáles son los avances potenciales en el hardware de computación en la próxima década (más allá de la ley de Moore): Memristors, Cognitive, Quantum, Nanobots, encriptación de ADN?