¿El aprendizaje automático permitirá a Google detectar contenido falso?

Sí, Machine Learning ya ha habilitado Google y definitivamente mejorará en los próximos días.

Machine Learning en Google ha estado allí desde 2004, desde entonces han estado desarrollando formas de mejorar sus productos con la ayuda de AI y Machine Learning.

La semana pasada, el director de marketing de Google APAC, Simon Kahn, habló frente a una audiencia de miembros de la Cámara de Comercio Británica sobre este nuevo enfoque en cómo manejan las noticias falsas en las búsquedas de Google.

Lo hacen mediante la implementación de un algoritmo de Machine Learning que descubrirá los patrones en los que circula el contenido falso y rastreará los sitios web desde los que se genera el contenido. Luego cortarán la publicidad, el potencial de ganar dinero.

“Las noticias falsas son un fenómeno fascinante. Solía ​​involucrarme en política y las noticias falsas han existido por un tiempo. Pero en lugar de un volante pegado en las ventanas del automóvil, ahora lo pegas en Facebook para que muchas personas lo vean. El tema en el que todos los miembros de la industria están muy centrados es en cómo frenarlo y al mismo tiempo permitir que las personas tengan información y redes abiertas. Es temprano, pero estamos muy concentrados en ello. Una forma de abordarlo es mirar sitios que son proveedores de noticias falsas y básicamente detener la publicidad, cortando el oxígeno para que no ganen dinero con él ”, dijo Khan.

También están utilizando Machine Learning para capacitar a sus bots para los resultados de búsqueda, así como el monitoreo de contenido de YouTube a gran escala para identificar el contenido falso con solo una cantidad de tiempo que estuvo en línea, lo que de otro modo tomaría meses o incluso años para ir manualmente a través del contenido e identifíquelo como falso.

Tenga en cuenta que esta es mi comprensión básica sobre el tema y cualquier sugerencia siempre es bienvenida.

En términos de tecnología, definitivamente es posible que cualquier compañía detecte un tipo de contenido u otro (excepto sarcasmo, tal vez). El problema es mucho más nebuloso, porque la definición de contenido falso es polémica. En mi humilde opinión, es muy malo para una empresa ponerse en una posición en la que pueda ser acusada de censura o de bloquear la libertad de expresión. El problema es en realidad mucho más grande que cualquier compañía, y tal vez incluso cualquier sociedad individual. Creo que este es un problema inherente al experimento de la web que la humanidad ha estado ejecutando durante los últimos 20 años, y creceremos para aprender a vivir en la web. He leído un artículo que compara esto con la urbanización y cómo la humanidad necesitaba construir nuevas normas sociales para poder vivir en poblaciones más densas. Es un tema muy interesante, pero no el de la tecnología. Supongo que eso respondió su pregunta, así que me detendré allí. Además, hay una publicación de blog sobre lo que Google hizo para luchar contra el contenido “malo” en 2016 [1].

Notas al pie

[1] Cómo combatimos los malos anuncios, sitios y estafadores en 2016