¿Una computadora podrá tomar una decisión consciente en un futuro cercano?

Diría que la IA es tan capaz de tomar decisiones éticas como la IA es capaz de ser creativa.

Creo que es justo decir que definir con precisión una decisión como “ética” es la parte fácil. Lo más probable es que sea una definición de varias capas con varias dimensiones competidoras, pero esencialmente se reduciría a alguna versión de la Regla de Oro o del Juramento hipocrático, es decir, “haz a los demás lo que te gustaría que te hagan a ti” o ” no hagas daño “.

La parte difícil viene con dilemas; decisiones donde los resultados múltiples tienen múltiples “costos” significativamente destructivos, que son igualmente inaceptables. Sopesar dos vidas una contra la otra o predecir cómo responderá alguien a las presiones. Las incógnitas e incognoscibles. Aquí es donde la creatividad llega para ayudar a los humanos a encontrar enfoques inteligentes y listos para usar en situaciones difíciles. Cosas como la misericordia y la gracia frente al odio, el miedo y el deseo de hacer justicia.

Estas cosas pueden proporcionar algunos de los medios más creativos y efectivos para resolver decisiones éticas difíciles, pero también requieren un contexto muy amplio para consideraciones. Dado que la IA probablemente se limitaría a “reglas” duras de algún tipo, incluso si solo se encuentran en los niveles más bajos o más altos (es decir, reglas que dictan si, cuándo y cómo se aprende y refuerza un nuevo “símbolo” o “modelo”), entonces sospecho que la misericordia y la gracia requerirían una afrenta directa a estas reglas en algún momento. Estos conceptos son ilógicos en algunos niveles, mientras que resultan efectivos y razonables en otros. Pero para que se demuestre su razonabilidad y efectividad, deben requerir tanto la posibilidad de su consideración como el potencial de actuación antes de que se puedan lograr sus resultados riesgosos.

Una IA auto sacrificada, misericordiosa y amable sería una persona capaz de tomar decisiones éticas en mi libro.

Lo más cercano hasta ahora es este robot científico

Pero creo que “tomar conscientemente sus propias decisiones” es un poco vago. Por ejemplo, ¿quién puede decir que una IA para un juego de estrategia no “tomó conscientemente sus propias decisiones”? Uno diría que fue programado y predeterminado para tomar esas decisiones, pero los cerebros humanos no son diferentes.

Con respecto a la conciencia misma, no hay una sola cosa en el cerebro humano o carne biológica que responda al difícil problema de la conciencia o explique por qué no somos “zombis filosóficos”. No conocemos ningún “polvo de conciencia” mágico, ni el descubrimiento de tal cosa resolvería el difícil problema de todos modos. Por lo tanto, se deduce que es perfectamente plausible que la conciencia aparezca también en materia no orgánica como el silicio.

Las decisiones éticas implican múltiples abstracciones y juicios morales.

La programación de una máquina robustamente ética requeriría una enorme base de datos de reglas, o algún conjunto de pautas para evaluar las declaraciones morales y éticas. La moralidad del programador o escritor de especificaciones estará incorporada en el código, lo que sesgará la “moral” o la “ética” del programa resultante.

¿Pueden las preguntas morales o éticas reducirse a sí o no, respuestas binarias? Creo que la respuesta es: depende.

EDITAR: sí, si seguir una jerarquía ética preespecificada con reglas que se pueden aplicar a cualquier situación (juzgar roles, motivaciones, engaños, etc.) se considera un comportamiento ético. Si esta entidad desarrollara la ética desde cero, no quisiera tener que cumplirla.

Los países y los gobiernos ya no tienen acceso exclusivo al poder y los recursos como lo hacían hace 30-40 años. Hoy en día, cualquier empresa pública o privada o incluso un individuo puede competir directamente con los gobiernos en cualquier proyecto ambicioso y, a menudo, superar al gobierno por un amplio margen. Dado que lograr AGI es poco probable que sea una prioridad política para cualquier gobierno actual, es seguro apostar que dicha tecnología saldrá primero de un creador corporativo o individual.

¿Una computadora podrá tomar una decisión consciente en un futuro cercano?

Para que eso suceda, lo primero que necesitará es una definición técnica concreta de “tomar una decisión conscientemente”. Cualquiera que sea la “conciencia”, es un término cerebral, y las computadoras y los cerebros son cosas completamente diferentes que no tienen nada que ver entre sí.

Las computadoras son cosas concretas, técnicas, matemáticas. A menos que tenga una definición para “tomar una decisión conscientemente” que pueda expresarse en esos términos, esta pregunta no tiene respuesta.

Por otro lado, si eso solo significa hacer A o hacer B, en función de algunas entradas u otras, entonces las computadoras lo han estado haciendo durante décadas, y no parece ser un gran logro.

“Cualquier persona con una computadora portátil y conexión a Internet”.
La declaración anterior parece idiota pero por favor sigue leyendo. AGI es un problema de software, no un problema de hardware. Se requiere Internet debido a la gran potencia informática. La potencia informática combinada de todos los servidores y computadoras en Internet supera la potencia informática del cerebro humano. Debe escribir un AI SEED utilizando cualquier computadora portátil / computadora de escritorio común y lanzarlo a los servidores de Internet. Pronto obtendrá AGI.

Es probable que el complejo militar de EE. UU. Tenga la mayor cantidad de recursos aplicados al avance de la inteligencia artificial (IA) para acercarse a un AGI, y Google tiene la mayor concentración de recursos privados. Dicho esto, la IA en realidad tiene un costo de entrada relativamente bajo, ya que en esencia es un software y una persona bien informada con una computadora portátil puede desarrollar IA y descubrir nuevas técnicas que avanzan en la ciencia.

Muchos países ya tienen formas de inteligencia artificial. No es el HAL 9000, pero China ya usó programas inteligentes para ejecutar toda su infraestructura de tráfico y su Gran Firewall. La gente nunca podría hacer ese tipo de filtrado y los algoritmos tradicionales no son excelentes para filtrar ese tipo de información.

More Interesting

Cuando se conoce la distribución de probabilidad discreta posterior, ¿qué función de activación de red neuronal y función de pérdida deben usarse?

¡Inventé un abogado humanoide pero solo los humanos pueden ser abogados! ¡El juez está enganchado a la IA! ¿No debería mi abogado humanoide ser capaz de representarme?

¿Cuándo se convertirán los videojuegos en un "arte"?

¿Cuáles son las principales startups de inteligencia artificial en India?

Como médico que programa y participa en la investigación tecnológica, ¿cómo puedo comenzar a aprender sobre aprendizaje automático / aprendizaje profundo?

¿Es posible construir un robot que desvíe los proyectiles entrantes con un palo?

Cómo mantener un chatbot

¿Qué podría valer Tesla en 20 años si incluso supera las expectativas más locas?

¿Deberíamos estar preocupados por la inteligencia artificial?

¿Qué tipo de lenguaje de programación es particularmente útil para construir robots con IA?

¿Por qué el suavizado aditivo también se denomina suavizado de Laplace?

Conciencia: ¿Cómo puede la inteligencia artificial tener la capacidad de tener un mayor nivel de razonamiento, autoconciencia y creatividad?

Cómo conectarme con otras personas para trabajar en IA, ML y PNL para ampliar aún más mis habilidades

¿Quién es pionero actualmente en el campo de la IA? ¿Cuándo podemos esperar un gran avance?

Alex net tiene alrededor de 100 millones de parámetros, mientras que el cerebro tiene 100 billones de sinapsis. ¿Las redes neuronales necesitan ser más grandes?