No pienso en la inteligencia en términos de una escala (que parece estar implicada por el término “inteligencia a nivel humano …”. Piense en la vida como un árbol gigante con muchas ramas yendo en diferentes direcciones. Las diversas especies también ya que varios individuos dentro de una especie (p. ej., humanos) están tratando de aprender y adaptarse a diferentes entornos físicos y / o sociales. De hecho, para una especie como los humanos que se han adaptado a muchos entornos físicos y sociales diferentes, probablemente sea aún más importante. una simplificación excesiva para hablar de “niveles”. Tenemos personas que se han convertido en expertos en todo tipo de cosas. Eso es lo que nos permite colectivamente alimentar a un planeta de 7 mil millones de personas.
No creo que la inteligencia artificial realmente sea “realmente” muy parecida a la inteligencia humana en la mayoría de los aspectos. Eso no significa que los sistemas de IA no puedan hacer muchos de los mismos trabajos que los humanos. Esos trabajos, a su vez, requieren inteligencia. Entonces, desde la perspectiva de la función preespecificada, los sistemas de IA ya pueden hacer mucho que los humanos pueden hacer. Podría tener un sistema de inteligencia artificial que podría ser un buen abogado contratado. O conductor. Y, aunque pueden ser tan buenos, no funcionarán interna o subjetivamente de la misma manera que los humanos.
Aquí está la cosa sin embargo. Este “excelente” sistema de abogados contratados por AI se enfrenta repentinamente a un terremoto. Varios de sus compatriotas están heridos. ¿Qué él ha hecho? Nada. Un ser humano que también es un abogado contratado típicamente (aunque no universalmente) intentará ayudar a sus colegas, llamará a las autoridades, tratará de determinar qué sucedió, etc. No espere que el sistema de IA haga eso, a menos que los programadores piensen en Esta posibilidad.
- ¿En qué orden debo aprender el aprendizaje automático, el aprendizaje profundo, el procesamiento del lenguaje natural y la inteligencia artificial?
- ¿Cuál es una forma intuitiva de definir 'conocimiento previo' en el contexto del aprendizaje automático bayesiano?
- Cómo comenzar con el aprendizaje automático
- ¿Qué sensores tiene el robot Nao?
- ¿Las compañías de tecnología que promueven la IA como el camino a seguir también tienen la obligación de volver a capacitar a nuestra fuerza laboral para hacer frente a la próxima interrupción del trabajo?
Del mismo modo, si un taxi o un conductor de Lyft conducen a alguien del punto A al punto B y el pasajero sufre un ataque cardíaco, intentarán hacer algo al respecto. Un automóvil sin conductor no hará eso … a menos que, nuevamente, esté programado para hacer frente a emergencias también. (Teóricamente, también podría aprender esto de sus propias experiencias o posiblemente incluso leyendo o viendo suficientes videos, pero de cualquier manera debe ser anticipado por los desarrolladores y tratado por la gerencia.
Y ahí radica el verdadero peligro, para mí, de la IA: la arrogancia y la codicia. Los programadores tienden a pensar que tendrán todos los casos cubiertos … pero nunca lo hacen. La gerencia tenderá a racionalizar que es demasiado esfuerzo de desarrollo … probablemente igual o mayor que la función principal de escribir o conducir un contrato … para considerar la pequeña posibilidad de que alguien esté en un terremoto o tenga un ataque cardíaco en el automóvil.
Perdón por una respuesta tan larga, pero para volver ahora a su pregunta original, ningún país desarrollará IA que sea igual a la inteligencia humana y tan buena, excepto en la forma funcional muy estrecha. Tales sistemas pueden aumentar la productividad del país, pero también pueden usarse como armas, incluyendo especialmente la manipulación de redes cibernéticas y armas.
Irónicamente, aunque qué país gana la superioridad de las armas cibernéticas es de inmensa importancia para la ciudadanía de cada país, realmente no hay forma de que ninguno de nosotros sepa qué país está por delante.
Si el # 45 se sale con la suya y disminuye en gran medida el papel de la ciencia en este país, además de dificultar la contratación de talentos a nivel mundial, puedo decir qué país no será. No serán los Estados Unidos. Podría ser India, China, Rusia, Corea del Sur, Corea del Norte, Singapur, Reino Unido, Francia, Alemania, Canadá, Australia, … todos estos países y más tienen un excelente trabajo en el campo de la IA. Y todos ellos gastarían plausiblemente parte de sus recursos en armas cibernéticas.
Y, en cuanto a lo que significa para la gente, no es solo qué país desarrolló primero estas armas. También importa si estas armas se vuelven contra su propia gente. Si Rusia, por ejemplo, desarrolla formas de rastrear a sus ciudadanos e influir en la opinión pública con mentiras, asesinatos selectivos, etc., operaciones de bandera falsa, y luego usa eso para consolidar el poder y la riqueza en manos de unos pocos, entonces la gran mayoría de los ciudadanos en Rusia no se beneficiará tanto.
Para más especulaciones sobre posibles futuros de IA, vea las Pesadillas de Turing.