Escribo esto como alguien que ha diseñado los conceptos básicos para una IA en un contrato anterior y obtuvo 7 patentes por su diseño. Mientras lo escribíamos, era evidente lo que “podría” suceder si no implementamos ciertas salvaguardas.
El algoritmo para nuestra IA fue construido a partir de los silogismos de Aristóteles (silogismo). la primera versión de afuera usó estas 15 reglas textualmente. La próxima versión lo cambió de un problema bidimensional a uno tridimensional (por eso obtuvimos patentes para ello) permitiendo que el motor cruce verbos.
Cualquier afirmación nueva que le hayamos dado, daría como resultado que el sistema haga inferencias con un 85% de confiabilidad. Comenzamos con el 100%, pero encontramos algunos casos extremos, por lo que bajamos el valor de “veracidad” de sus propias inferencias. Si el motor encuentra la interferencia a través de múltiples medios, el valor de veracidad aumentaría en consecuencia.
- Si los humanos y las máquinas se unieran algún día, ¿qué forma superior podríamos trascender al siguiente?
- ¿Se podría desarrollar la inteligencia artificial en procesos similares a la selección natural y la evolución? ¿Sería más un problema o un beneficio? ¿Qué precauciones podrían tomarse para prevenir el desastre de una IA en evolución?
- ¿Por qué las redes neuronales necesitan una función de activación?
- ¿Qué tipo de trabajo podría la inteligencia artificial nunca hacer obsoleta?
- ¿La inteligencia artificial superará el juicio humano en cierta medida durante nuestra vida?
NOTA: la palabra “veracidad” estaba en la patente, pero, por desgracia, Stephen Colbert salió del aire.
Para la versión 3, agregamos un procesador de lenguaje natural de Cambridge (Computer Laboratory). Armado con esto, comenzamos a alimentarlo con documentos / blogs, y fue capaz de determinar si el documento estaba lleno de mierda, en función de lo que ya sabía, y el clima o no se contradecía, etc.
En este punto, quiero agregar que todo lo que le enseñamos, asumió que era 100% correcto. todo lo que aprendió a través de medios externos tomaría al 50% correcto. una inferencia entre 2 verdades era un valor de un promedio de 2. por ejemplo, si le dijera algo (100%) y leyera algo (50%) cualquier inferencia sería 75%. Si hiciera una inferencia entre una inferencia existente (75%) y algo que leía (50%), valoraría su veracidad en 62.5%. Cada vez que pudiera probar que una ‘verdad’ actual estaba equivocada, su veracidad se reduciría en un 5%, y cada vez que pudiera validar una verdad por múltiples fuentes, su valor aumentaría.
Había más que eso, pero esa es la descripción de 10,000 pies.
Ahora para responder al problema. En primer lugar, agregaríamos una sola regla y fue aprender miles de cosas nuevas que nunca enseñamos, de múltiples fuentes, incluidos blogs, documentos y datos importados. El cerebro humano puede hacer conexiones y hacer inferencias, pero a menudo se trata de nuevas realizaciones días después, no al instante. Se estaba volviendo aterrador lo rápido que estaba aprendiendo, y descartando ideas falsas (con pruebas) sin intervención de nosotros.
Un ai, sin una experiencia humana, amor, esperanza y angustia, toma decisiones a través de la lógica pura. Es tan perfecto como un programador puede hacerlo, y aumenta a medida que surgen fallas y se corrigen. Pero no comete errores. Una vez que toma una decisión, nunca la reconsidera y nunca considera cómo se sentirá alguien al respecto. Sin emociones
Si alguna vez tuvo que pasar una generalización y se vio obligado a defender un caso basado en la emoción de los tomadores de decisiones ante la situación en cuestión, se dará cuenta del problema. Un Ai no es, y no puede ser, emocional. Toma decisiones basadas en lo que se enseña, y nada más.