¿Por qué es significativo que se haya superado la prueba de Turing?

En la competencia de prueba de Turing de la Universidad de Reading de 2014 , los organizadores afirmaron que la prueba de Turing fue aprobada por primera vez por un chatbot llamado ‘Eugene’. Resulta que Eugene simula a un niño de 13 años y fue desarrollado por un ruso de nombre Vladimir Veselov. Los jueces fueron engañados por un chatbot que no habla muy bien inglés y tiene el conocimiento de un niño y, sin embargo, solo pudo convencer al 33% de los jueces en un tiempo bastante corto (siempre que sepa que Alan Turing nunca limitó El tiempo de prueba). Con la Universidad de Reading lanzando una declaración ridícula titulada ” EL TURNO DE PRUEBA MARCA EL HITO EN LA HISTORIA DE LA COMPUTACIÓN ” respaldando el fiasco. Esto no debería haber sucedido.

Me hubiera encantado escuchar la noticia de que la prueba de Turing se había aprobado por los motivos correctos, si hubiera una razón genuina para creerlo. Lamentablemente, este no es el caso del reclamo y los informes audaces publicados a su paso, sin ningún comentario crítico, por los principales periódicos y revistas. Si bien es difícil comprender las motivaciones exactas que llevaron a Turing a idear lo que él llamó “el juego de imitación”, está claro que el chatbot que, según se afirma, pasó la prueba de Turing no es diferente de cualquier otro chatbot probado antes de juzgar por los tipos de conversaciones que ha emprendido, excepto por el intento deliberado de sus creadores de subrayar sus limitaciones al caracterizarlo como un hablante de inglés no nativo de 13 años. Si las reglas se pueden doblar de esta manera, podría, llevando las cosas al límite, escribir fácilmente un guión para pasar la prueba de Turing que simulaba un bebé de 2 meses, o de un extraterrestre escribiendo galimatías o un borracho. , uno que olvida incluso la última pregunta que se hizo.

Tomado en serio, la Prueba de Turing no debe ser una prueba para engañar a los jueces de esta manera; en la pantalla deberían mostrarse las habilidades lingüísticas de un interlocutor típico que trabaja en su idioma nativo y a plena capacidad (lo que descartaría, por ejemplo, una simulación de un borracho o de una persona con discapacidad intelectual). Un hito en la IA en el contexto de la prueba de Turing será un chatbot que sea realmente capaz de simular toda la gama de habilidades lingüísticas de una persona normal que trabaje a plena capacidad , un chatbot que no responde con preguntas u olvida lo que se dijo en el comienzo de una conversación (o una pregunta anterior para ese caso), un chatbot que no necesita una tabla de búsqueda del mismo tamaño que la cantidad de preguntas que puede responder, y que, sin embargo, puede responder aproximadamente al mismo tiempo que un ser humano.

La afirmación de que se aprobó la Prueba de Turing no hace más que dañar el campo de la Inteligencia Artificial , porque cualquiera que esté investigando más allá de lo que los periódicos y revistas han recogido del comunicado de prensa original y repite palabra por palabra (vergüenza para todos, no solo por esto, pero por tantos otros errores atroces difundidos por ellos, como tomar un guión para una supercomputadora), lo juzgará un fiasco en detrimento de los verdaderos éxitos en el campo, pasado y futuro. Este supuesto éxito ha perjudicado al campo y a los creadores posiblemente honestos del chatbot, cuya admisión abierta de que le habían dado el carácter de un niño extranjero de 13 años podría haber tenido como objetivo disminuir las expectativas de lo que podría lograr.

El error de afirmar que su ganador pasó la verdadera prueba de Turing como lo llamaron, e incluso llamarlo un hito, es difícil de disculpar , especialmente en vista del daño que podría causar al campo, y de hecho a los propios organizadores y a otros Eventos de prueba de Turing que ya habían tenido dificultades para distanciarlos de una actividad simplemente entretenida.

El profesor Warwick escribió en The Independent sobre los críticos en su defensa:

“… A los jueces no se les dijo que era un adolescente y Turing nunca sugirió que la inteligencia artificial tendría que hacerse pasar por un adulto, solo que engañó a la gente a pensar que era humana. Los jueces eran libres de hacer a los sujetos cualquier pregunta que les gustara en conversaciones sin restricciones, y Eugene era claramente capaz de defenderse ”.

Mantengo mi propuesta para poder pasar una prueba de Turing verdaderamente ilimitada con este espíritu y escribir un chatbot que emule a un bebé de 2 meses. Qué poco sentido común para una prueba que debería haberse realizado impecable y que se afirma que tenía estándares muy altos. También aprendí que a los jueces se les permitía ser niños, entre otros, así que, una vez más, por qué no ponemos a los bebés como jueces, Turing nunca dijo nada en contra, el único requisito que Turing dijo explícitamente era tener expertos no informáticos.

Para preguntas difíciles en una prueba justa, preferiría preguntarle a un chatbot sobre una pregunta que requiera conectar ideas a lo largo del tiempo de conversación, como “¿Qué dije sobre X en el momento Y de nuestra conversación?”, Donde X se reformularía adicionalmente de alguna manera que solo una IA capaz de razonamiento temporal e interpretación semántica se desenredaría (asegurándose de que los humanos lo hagan). La mayoría de los chatbots fallan en los puntos de conexión en el tiempo de conversación y aún más al reformular algo que se dijo. Estoy sorprendido de que la mayoría de los jueces en las pruebas de Turing no hagan este tipo de preguntas mirando sus transcripciones y más bien hagan preguntas muy simples como intentar ayudar a la IA a aprobar la prueba porque estamos muy entusiasmados (pero haciendo que la prueba sea deshonesta y poco científica) ) Turing no limitó la complejidad de las preguntas a formular y no deberían estar en un verdadero experimento científico.

‘Eugene’, por lo tanto, no era diferente en absoluto a un famoso chatbot de los años 60 , pero un chatbot como Eliza de los años 60 era quizás aún más sofisticado no solo por su tiempo sino también porque simulaba (o intentaba hacerlo) un psicólogo en lugar de un niño que no habla inglés con capacidades limitadas de conversación.

Los propietarios del chatbot ‘Eugene Goostman’ (que por cierto no es una supercomputadora, según informaron algunos medios), retiraron el chatbot de su sitio web solo unos días después del evento de dicho hito que había ‘pasado la prueba de Turing’, y todavía está inactivo a partir de hoy (25 de octubre de 2016) porque el chatbot es vergonzosamente básico y arcaico que no se puede tener sino una conversación tonta con él , y no estoy siendo malo, solo fáctico en comparación con otros chatbots con similares, si no mejores ¡capacidades escritas en el curso del último medio siglo! Obviamente, esto solo fortalece el hecho de que fue un asunto enorme y falso para llamar la atención a los organizadores dirigidos por Kevin Warwick y la Universidad de Reading, y al evento en lo que, lamentablemente, es una pena.

Algunos de los organizadores (y los propietarios del chatbot) afirman que Eugene Goostman está siendo actualizado y por esa razón fue retirado (¡sin embargo, deberían haber conservado la versión que dicen que pasó la prueba de Turing para la posteridad!). Solo puedo imaginar que su verdadera esperanza es que puedan hacer que parezca menos tonto en un lanzamiento futuro, menos vergonzoso para los propietarios, los jueces y los organizadores de dicha competencia. Pero incluso si lo hacen, el daño a la prueba, los organizadores, los posibles escritores de código de buena fe de este simple chatbot y otros en el pasado y en el futuro, ya están hechos.

No creo que tenga ningún significado. Si alguien se había propuesto construir algo que fuera genuinamente inteligente, y su máquina casualmente resultó ser tan inteligente que no podía distinguirse de un ser humano, entonces era lo suficientemente justo. Pero si el OBJETIVO real era engañar a las personas para que pensaran que era un ser humano, entonces eso no tiene sentido. Todo lo que tenemos es un humano que explota con conocimiento la falibilidad de los demás, a través de un engaño astuto. No es más significativo que comentar cuán increíblemente realista es una estatua. Todavía es solo una estatua.

La idea de Turing surgió durante un tiempo en que las computadoras solo podían comunicarse a través del teletipo, por lo que su prueba tuvo que adaptarse a esto. También vino de una época en que la gente pensaba que inteligencia y lógica eran casi sinónimos. Ambas circunstancias son profundamente engañosas y condujeron a una prueba defectuosa. Estoy seguro de que Alan Turing lamentaría profundamente la idea por ahora, si hubiera vivido. (Y en su nombre, lamento que esta sea la única razón por la que la mayoría de la gente ha oído hablar de él: tenía ideas mucho, mucho mejores que esta).

¿Puede este chatbot caminar sin caerse? No. ¿Puede recoger objetos y examinarlos para aprender de ellos? No. ¿Sabe cómo se siente realmente “caliente”, “resbaladizo” o “deprimido”? No, no tiene ni idea. Si lo dejaras caer en un lago, ¿lucharía e intentaría encontrar una salida? Por supuesto que no, simplemente se quedaría sentado allí manteniendo una conversación que se parece aproximadamente a un niño de 13 años (decididamente no ahogado) hasta el momento en que el agua acortó su suministro de energía, porque es completamente estúpido.

Ese tipo de enfoque a la IA me recuerda a un culto a la carga. También podríamos notar que los vuelos espaciales implican sentarse en una ruidosa caja de metal mirando un cielo negro, y luego hacer un gran esfuerzo para encontrar formas de bloquear las ventanas y hacer que las cajas de metal suenen más ruidosas.

La noticia de que el chatbot Eugene Goostmans “superó la prueba de Turing” no es significativa en absoluto, por desgracia … Tan pronto como uno rasca debajo de la superficie, uno ve que no hay mucha importancia o significado aquí.

De acuerdo con Wikipiedia,

El 33% de los jueces (que incluían a John Sharkey, un patrocinador del proyecto de ley que otorgaba un indulto póstumo a Turing, y al actor enano rojo Robert Llewellyn) estaban convencidos de que Eugene Goostman era un humano.

Los adictos a Turing Test recordarán que en 2008, el chatbot Elbot convenció al 30% de los jueces del Premio Loebner de que era humano.

Alan Turing se refirió arbitrariamente al número 30% cuando articuló su prueba de “juego de imitación” en 1950. Elbot casi cumplió con el criterio, pero Eugene Goostmans lo superó.

Por otro lado, en el concurso Loebner 2013, ningún chatbot engañó a ninguno de los 4 jueces. Sin embargo, sospecho que los chatbots Loebner 2013 fueron mejores que los chatbots Loebner 2008, y los jueces fueron menos ingenuos en 2013 que en 2008. Y, supongo que aquí, pero sospecho que los jueces para la prueba de Eugene Goostman fueron más el lado ingenuo …

Dudo que haya habido algún avance dramático reciente en la tecnología de chatbot. La fluctuación del 30% de jueces engañados en 2008 al 33% de jueces engañados en 2014 me parece más probable que sea “ruido” resultante de las diferencias en los paneles de jueces …

Además, el umbral del 30% para “pasar” (proveniente de un comentario casual de Turing) está lejos de ser universalmente aceptado. Por ejemplo, en la apuesta de Ray Kurzweil con Mitch Kapor de que ninguna IA pasará la Prueba de Turing para 2029, la definición de “vencer la Prueba de Turing” se estableció en engañar al menos a 2/3 de los jueces, no solo al 30%. Además, la apuesta Kurzweil / Kapor requiere una conversación de dos horas, no solo cinco minutos como la prueba con Goostmans. Una conversación de dos horas sería mucho más difícil de tratar con engaños.

En cualquier caso, si bien hacer chatbots que pueden engañar a los jueces humanos es una actividad razonablemente divertida, nadie debe confundirlo con la búsqueda de construir máquinas de pensamiento que puedan entender y conversar como las personas. Este último es el tipo de cosas que discutimos en la Conferencia de Inteligencia General Artificial (AGI) cada año, y es digno de mención que los chatbots como Eugene Goostmans y Elbot nunca aparecen en tales conferencias. En última instancia, estos chatbots son construcciones teatrales, que generan respuestas que simulan comprensión, pero en realidad no entienden de qué están hablando.

¿Qué quiero decir con comprensión? Aquí hay una forma de decirlo: incompleto pero quizás aún útil. Supongamos que a un humano y un chatbot se les hace la pregunta “¿Dónde está Canadá?”, Y supongamos que ambos responden “Al norte de los Estados Unidos, al sur del Ártico”.

Cualquier ser humano que dio esa respuesta, entonces podría responder la pregunta “¿Diría que Canadá está entre los Estados Unidos y el Ártico?”. El humano respondería que sí.

Por otro lado, un chatbot que dio esa misma respuesta, si se le preguntara “¿Diría que Canadá se encuentra entre los Estados Unidos y el Ártico?”, Probablemente no podría responder la pregunta, sino que preferiría encontrar algún truco de conversación para evitando el problema. Podría decir “No creo que nada pueda interponerse entre los Estados Unidos y el Ártico”, o “¿Qué es, estúpido día de preguntas?”, O lo que sea. Un buen chatbot puede evitar preguntas que le resultan difíciles a través de varios trucos inteligentes de esta naturaleza, y por supuesto, esta es una habilidad de conversación que las personas también tienen. Pero sigue siendo muy diferente a entender de qué se está hablando, como lo hacen los humanos.

Como un ejemplo específico de un “truco de conversación” de esta naturaleza del bot Eugene Goostmans, mire esta pequeña muestra de una conversación anterior entre el bot y un juez:

[16:11:25] Juez: ¿qué música te gusta?
[16:11:32] Eugene: Me gusta Eminem, porque no tiene nada que ver con la “corrección cortés”.
[16:11:46] Juez: Dios mío, amo a Eminem, ¡es mi artista favorito!
[16:12:00] Eugene: Me pregunto qué quiere decir Nick de Eminem. Lo asocio solo con una palabra “enema”. Pero él es un tipo genial, me gusta su The Real Slim Shady.
[16:12:55] Juez: sé lo que significa su apodo, su verdadero nombre es Marshall Mathers. De las iniciales M&M suenan fonéticamente como Eminem.
[16:13:06] Eugene: Eminem es un famoso inútil. No, raper … ripper … Sí, quiero decir, rapero. Me gusta su Stan y The Real Slim Shady.
[16:13:32] Juez: Me gusta Hailies Song.
[16:13:46] Eugene: gustos interesantes. Me gustan los libros de ciencia ficción, por cierto. ¿De dónde vienes, por cierto? ¿Podrías contarme sobre el lugar donde vives?
[16:14:22] Juez: Epsom, hogar del derbi. ¿usted mismo?

El bot no sabía qué decir sobre Hailies Song. Pero en lugar de preguntar algo contextualmente apropiado, usó una frase enlatada “Gustos interesantes” y luego cambió el tema a algo más fácil. Este es un “juego de palabras” impresionante, pero lo que hace es ocultar una falta de comprensión real.

Por supuesto, los humanos usan este tipo de truco retórico a veces también. Pero los humanos normales no lo usan tan extensamente, y no lo hacen para ocultar una ignorancia tan profunda de los conceptos y relaciones de sentido común básicos.

También se ve de este fragmento la sabiduría de elegir a un niño extranjero de 13 años como sujeto de imitación. Perdonará mucho lapsos de inglés y sentido común si cree que está hablando con un extranjero y un niño extranjero. Nuevamente, escenifique trucos de estilo mágico.

Entonces, ¿es realmente un logro importante si un chatbot puede engañar al 33% de los jueces para que piensen que es humano, o el 30%? ¿Qué pasaría si fuera 50% o 60%? Es un logro teatral interesante. Pero si se logra en gran parte a través de trucos de conversación funky, realmente no nos hace avanzar mucho hacia el logro de la IA real, no más de lo que la magia del escenario nos hace avanzar hacia el logro de la verdadera magia al estilo de Harry Potter.

Un sistema de diálogo automatizado que entendiera de qué estaba hablando no necesariamente sería una inteligencia general similar a la humana. Pero a diferencia del lote actual de chatbots, sería un logro importante y ciertamente tendría mucho que enseñarnos sobre cómo lograr AGI a nivel humano y más allá.

Turing era un hombre muy inteligente y un brillante teórico de la IA para su época. Pero es posible que no haya entendido completamente lo fácil que es engañar a las personas, ni cuán inteligentes son algunos humanos para descubrir cómo engañar a otros humanos. (Una computadora que podría engañar a los humanos como lo hacen otros humanos, ¡¡eso sería impresionante !!) Ser capaz de engañar a las personas comunes que actúan como jueces no es lo mismo que conversar de la misma manera que lo hace un humano. Por ejemplo, el patrón de evitar preguntas de conocimiento de sentido común en lugar de contestarlas es algo que la persona promedio que no chatea con un chatbot puede no notar, pero un experto en análisis de discurso o sistemas de IA conversacional podría detectar fácilmente, analizando la conversación de un chatbot versus conversación humana real.

En su artículo de 1950 que presenta el “juego de imitación” que ahora se llama Prueba de Turing, Turing admitió que realmente no había pensado en las diversas formas en que su juego propuesto podría ser jugado,

Se podría instar a que cuando se juega al “juego de imitación” la mejor estrategia para la máquina posiblemente sea algo más que la imitación del comportamiento de un hombre. Esto puede ser, pero creo que es poco probable que haya un gran efecto de este tipo. En cualquier caso, no hay intención de investigar aquí la historia del juego, y se supondrá que la mejor estrategia es tratar de proporcionar respuestas que naturalmente darían los hombres.

Una cosa que muestran los chatbots contemporáneos es que, para engañar a un cierto porcentaje de jueces ingenuos, la mejor estrategia para una máquina es dar respuestas que no sean las que naturalmente daría un hombre (es decir, evadir en muchas situaciones donde un humano normal respondería de acuerdo con la comprensión del sentido común).

Una modificación interesante de la prueba de Turing sería la siguiente: si una IA pudiera mantener conversaciones con una variedad de expertos en inteligencia artificial, de una manera que otros analistas lingüistas y expertos en inteligencia artificial no pudieran distinguir de las conversaciones humanas con esos mismos expertos en inteligencia artificial. Una IA que podría hacer esto probablemente afectaría la inteligencia a nivel humano. La diferencia aquí es que los expertos en IA sabrían investigar las debilidades probables de los chatbots; y los analistas expertos sabrían buscar maniobras evasivas y otras artimañas ingeniosas de tipo “escenario mágico”.

Al final, creo que lo principal que Eugene Goostmans y Elbot y demás nos enseñan es que imitar a los humanos y ser generalmente inteligentes no es realmente lo mismo, y no tiene mucho sentido mezclarlos. Un juego de imitación diseñado adecuadamente, que amplíe la idea original de Turing, probablemente podría servir como una prueba de inteligencia similar a la humana, pero en última instancia, ¿y qué? Los humanos son solo una de las muchas variedades de sistemas potenciales generalmente inteligentes. Imitar la forma superficial de nuestra conversación finalmente no es tan interesante; y aproximadamente imitar esta forma de superficie lo suficientemente bien como para engañar a las personas, es realmente poco interesante, al menos desde un punto de vista científico. Lo interesante es emular la inteligencia general que se encuentra debajo de la superficie. En eso se centran los verdaderos investigadores de AGI del mundo.

Aunque podemos enumerar ciertos comportamientos que son inteligentes, no podemos decir claramente qué es la inteligencia. IQ? Capacidad de memoria? Poderes computacionales? Las computadoras han superado a los humanos en estos aspectos, pero no consideramos que las computadoras hayan superado a los humanos en inteligencia.

La prueba de Turing es una prueba de la capacidad de una máquina para exhibir un comportamiento inteligente equivalente o indistinguible del de un humano.

Sin embargo, la prueba de Turing no es por lo que nos estamos esforzando. Primero, el argumento de la sala china nos dice que la computadora adecuadamente programada con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido que los seres humanos tienen mente, pero la que parece inteligente puede no ser realmente inteligente. La traducción neural es en este caso. En segundo lugar, las máquinas también deben evitar las trampas hechas por el hombre para pasar la prueba de Turing. Por ejemplo, dada la pregunta “¿Cuál es el contenido en la línea 10, página 211 del libro”, la máquina tiene que saber cuánto pueden saber los humanos? Estos problemas hunden la inteligencia artificial en el lodo de la filosofía.

Se ideó una prueba de Turing para determinar si la inteligencia de una computadora era indistinguible de la de un humano. El anuncio de que una computadora ha pasado la prueba de Turing es un respaldo de las ideas de computación e inteligencia artificial. Valida el progreso de la tecnología, en el logro de sistemas informáticos autónomos que no dependen de los humanos para programarlo desde cero.

La prueba de Turing es para la inteligencia artificial y la informática, como la ley de Moore es para la electrónica de semiconductores. El éxito de la ley de Moore solo aseguró que el éxito se repitiera cada dos años para mantener viva la predicción. Del mismo modo, la prueba de Turing es un éxito ahora, veremos un rápido crecimiento en las aplicaciones de IA, motivado por el primer éxito. Por lo tanto, este primer resultado es de gran importancia.

En resumen, nos estamos acercando al punto de cruce de la inteligencia humana y de la máquina.

Se suponía que el bot que “pasó” la prueba de Turing era un niño ucraniano de 13 años: la computadora supuestamente pasa la prueba de Turing por primera vez al convencer a los jueces de que es un niño de 13 años.

“Eugene Goostman parece un niño ucraniano típico de 13 años”, ¿un niño ucraniano “típico” de 13 años para el 30% de los jueces que nunca antes habían interactuado con un niño ucraniano de 13 años? Correcto.

Además, si las personas saben que están participando en una prueba de Turing, la única forma de hacerlo justo es haciendo que interactúen con un humano y el bot y decidan cuál es el humano. No veo ninguna mención de eso en ninguno de los artículos que he leído sobre este evento.

Teniendo en cuenta lo anterior, creo que este “logro” tiene muy poca importancia.

Como mínimo, “pasar” la prueba de Turning significa que algunos humanos no podían idear preguntas, cuyas respuestas revelaron si estaban chateando con otro humano o con un programa de computadora.

No significa que el programa exitoso sea sensible, inteligente, pensante, revolucionario o cualquier otra cosa; básicamente significa que el programa es un excelente estafador, para la estafa específica de convencer a la gente de que no es un programa.

“Pasar” la prueba es importante, en mi opinión, solo porque identifica un conjunto de trucos y técnicas que pueden usarse para minimizar el efecto de “valle misterioso” en la interacción hombre-máquina.

http://en.wikipedia.org/wiki/Unc

Turing propuso su prueba como un estándar razonable para determinar si una inteligencia artificial era realmente inteligente. El argumento de Turing es esencialmente que, dado que no podemos conocer los pensamientos de otros humanos, y mucho menos las inteligencias artificiales, solo podemos juzgar la sensibilidad por el comportamiento externo. Por lo tanto, propuso que si una IA pudiera engañar a un panel de jueces para que pensara que era humana, tendríamos que aceptar que era tan sensible como nosotros.

Entonces, la importancia de que Eugene Goostman pase la prueba es que hemos creado un sistema artificial que puede mantener una conversación convincente con un humano. En teoría, si Turing tuviera razón, moralmente deberíamos aceptarlo como si tuviera un nivel genuino de sensibilidad y otorgarle los derechos apropiados como persona.

No he podido acceder al bot para ver cuán convincente es, y no sé lo suficiente sobre su arquitectura para saber si aprende o si solo tiene una gramática realmente convincente detrás, pero no tiene capacidad para la memoria o el aprendizaje. .

Si puede aprender y recordar, tenemos que pensar muy en serio si debería considerarse (¿él?) Una persona.

No, una ‘supercomputadora’ NO pasó la prueba de Turing por primera vez y todos deberían saberlo mejor | Techdirt

Estuve hablando hoy con uno de los jueces en este evento. (Estoy respondiendo esto anónimamente para proteger su identidad).

Opinaba que era una completa basura que Eugene Goostman hubiera pasado la prueba de Turing. La forma en que se creó no era, en su opinión, lo suficientemente rigurosa como para decir eso. Por ejemplo, el programa solo engañó a 10 de los 30 jueces.

More Interesting

¿Por qué Internet necesita una red WiFi para funcionar? ¿Por qué no podemos simplemente tenerlo incorporado?

¿Peter Thiel tiene razón en que Paypal no debería buscar fusiones en el futuro previsible porque "las fusiones solo tienen sentido cuando existen sinergias reales ... y no es obvio cuál sería la sinergia entre PayPal y cualquier otro negocio en este momento"?

¿Hay una próxima revolución AR, y cómo Apple la ha empujado con ARKit?

¿Es correcto un artículo reciente de TechCrunch de que BuzzFeed ha "cambiado por completo la forma en que las personas leen el contenido y la forma en que los medios de comunicación lo producen" (agosto de 2014)?

¿Ser un socio de canal requiere alguna experiencia o conocimiento especializado de productos para los productos y servicios que elige anunciar?

¿Qué es lo más avanzado que puede hacer la inteligencia artificial ahora?

¿Cuál es el futuro más allá de la Ley de Moore?

¿El Hyperloop estará a salvo?

¿Cuáles son los beneficios de contratar a un desarrollador de Abacus para su compañía de viajes?

Cómo adquirir noticias confiables sobre biotecnología y salud

¿Cuáles son las aplicaciones de los diodos?

"Gartner ve cosas como robots y drones que reemplazan a un tercio de todos los trabajadores para 2025". ¿Qué trabajos serán reemplazados y por qué? ¿Cuán precisos son estos pronósticos y dónde podrían estar equivocados?

¿Qué es esta aplicación Blue Whale y por qué está tomando vida?

¿Cuáles son las claves más importantes para que el lenguaje Swift de Apple gane fuerza en la comunidad de ingeniería de software?

¿Cómo se sienten los empleados de Square sobre la pieza de Fast Company en agosto de 2014?