¿Cómo se puede utilizar la tecnología más avanzada hoy en día (ML / AI / Adv. Computing) para combatir el racismo y la ideología supremacista?

La cuestión es que necesitamos muchos datos imparciales sobre la sociedad. Y honestamente no creo que lo consigamos. Me centraré principalmente en la predicción del delito, ya que ese parece ser el tema candente en lo que respecta a las estadísticas.

El racismo generalmente se justifica utilizando estadísticas seleccionadas y redactadas de tal manera que exageren un reclamo. Utilizan números absolutos para tratar de justificar su conclusión, por ejemplo, “X número de personas blancas fueron asesinadas por policías este año, mientras que solo Y número de personas negras fueron asesinadas por policías el mismo año”. Bueno, duh … porque hay más gente blanca en el país que gente negra. Los porcentajes son mucho más útiles que los números absolutos.

Luego está el concepto de ser un “criminal”. Ser un criminal simplemente significa que te atraparon. Y sin embargo, si cometes el mismo delito y no te atrapan, dejas de ser considerado un criminal.

¿Recuerdas a Stephen Paddock, el tipo que disparó a Las Vegas y mató a 59 personas? Su hermano recientemente tuvo un diálogo muy transparente sobre su hermano y sobre sí mismo. Aquí hay una cosa interesante que dijo:

“No tengo antecedentes penales ni ninguna de esas cosas porque soy más inteligente que el oso promedio y sabía pasar el rato con personas que eran más tontas que yo y que serían atrapadas más rápido … OK … En pocas palabras, así es como funciona … ”

Ver a las 20:15 en este video

No es ningún secreto que ciertos grupos de personas son golpeados con más fuerza por la policía, mientras que otros reciben una palmada en la muñeca y son soltados. En última instancia, las fuerzas del orden tienen el poder subjetivo de elegir a quién quieren que se etiquete como “criminal” y, lo que es más importante, a quién creen que “tiene un futuro brillante” y se les debe liberar. Así que soy un poco reacio a poner énfasis en los datos disponibles en nuestros sistemas legales federales. No todo es malo, pero tampoco todo es concluyente.

Esto es lo que debemos tener en cuenta al recopilar y analizar datos:

  • Los datos se pueden capturar por medios voluntarios o involuntarios. El problema con las encuestas voluntarias es que tiende a atraer a aquellos con fuertes opiniones. Los que son indiferentes tienden a saltarse. Mientras tanto, las encuestas involuntarias son propensas a ser falsas porque la persona solo quiere llenar burbujas y seguir con su día. No obstante, en la vida real, no podemos obligar a las personas a realizar encuestas involuntarias, por muy voluntario que sea.
  • Las encuestas definitivamente deben ser anónimas, ya que la gente tiende a subirse al carro en público para que sus compañeros no las rechacen.
  • Tenga en cuenta que si está recopilando datos de los visitantes de www.wehateblackpeople.com, sabe que habrá sesgos en ciertos temas.
  • Al establecer una hipótesis basada en datos, debemos ser muy específicos con nuestras definiciones. ¿Qué es un “criminal”? ¿Qué es una persona “negra”? ¿Las personas birraciales se consideran “negras”? ¿Las personas “blancas hispanas” se consideran “blancas”? Cada vez es más difícil clasificar a las personas con esos términos.

El poder del aprendizaje automático solo se activa cuando hay grandes cantidades de datos precisos disponibles con parámetros y definiciones claramente definidos. Desafortunadamente, hay demasiadas variables vagas y subjetivas en juego cuando el tema es de racismo.

Existen herramientas para escanear Twitter y otras redes sociales. Deberían desplegarse más. Los grupos que luchan contra estas ideologías necesitan toda la ayuda que puedan obtener, comenzando desde Silicon Valley.

También existen herramientas para escanear y prevenir lenguaje abusivo en salas de chat y foros. Es una necesidad para la industria de los juegos en línea.

Otra forma en que la industria puede ayudar es tomar precauciones contra la discriminación invisible en los sistemas AI / ML. Puede ser complicado

Esto se relaciona con la necesidad de tener más diversidad en la industria, para generar más conciencia.

Incluso diría que las posibilidades de utilizar las herramientas contra el racismo / supremacistas están directamente relacionadas con la representación de las minorías en la industria. Debería ser la primera prioridad.

Por cierto, siendo yo un hombre blanco en tecnología, tu pregunta me hizo preguntarme: ¿qué podría hacer?

No sé si puede combatir la ideología real, pero puede usar ML (procesamiento del lenguaje natural) y aprendizaje profundo para hacer análisis de sentimientos, etiquetado de metadatos y búsqueda de texto en las redes sociales y señalar a las personas que están difundiendo esa ideología.

Luego, puede mirar el gráfico social de las personas que han sido marcadas por discurso de odio (para Facebook esto es Unicornio: un sistema para buscar el gráfico social, sospecho que la mayoría de los sistemas de redes sociales tienen algo similar) y centrar su búsqueda en los nodos vecinos en el gráfico (ya que el análisis de PNL y Sentimiento puede ser costoso).

Si hace lo suficiente, podría limitar los canales de redes sociales para estas ideologías.

Para combatir realmente la ideología se requiere educación y trabajo humanos. Cuando trabajas eficazmente con alguien del “otro” grupo con un objetivo compartido, rápidamente se vuelve más difícil crear la división artificial utilizada por estas ideologías.

Sé mucho sobre ML pero poco sobre su aplicación en esta área. Pero aquí hay algunos pensamientos a primera vista, que van desde “claramente una buena idea” hasta “probablemente demasiado espeluznante”:

  • Las empresas de redes sociales (o los gobiernos que inspeccionan los datos) podrían:
  • Use ML para identificar a los extremistas según “qué contenido publican” y “quién está en su red social”, y clasifíquelos según el nivel de amenaza (concretamente, alguien que comete un delito como el terrorismo estaría en el nivel de amenaza más alto);
  • Identifique cómo crecen las redes extremistas en presencia en línea y pruebe las intervenciones para reducir la tasa de crecimiento (como oscurecer la presencia en línea de extremistas muy seguidos);
  • Mensajes de marca automática que parecen racialmente inflamatorios;
  • Sugiera automáticamente conexiones sociales o contenido “terapéutico” para personas que se han radicalizado (por ejemplo, Facebook podría detectar que alguien es un supremacista blanco y mostrarles un video corto en el que alguien de una minoría racial se muestra en un tridimensional y humano forma que permite la empatía);
  • Ajuste sus algoritmos para que nadie pueda existir en una cámara ideológica de medios sociales : todos se ven obligados a ver algún contenido de personas con las que no están de acuerdo;
  • Los grupos de análisis de medios pueden publicar visualizaciones del panorama de los medios, donde el ecosistema extremista se muestra como un grupo autónomo de usuarios y proveedores de contenido; esto se puede proporcionar a los lectores o puede servir como un sistema de calificación cualitativa que advierte a los lectores cuando pueden ingresar una “madriguera de conejo” de material inflamatorio.
  • La esencia básica de los pensamientos anteriores es que podemos aprender del patrón de crecimiento y la topología de las comunidades sociales en línea: (a) cómo las personas se convierten en miembros de “comunidades socialmente destructivas”, (b) cuáles son las primeras señales de advertencia, y (c ) qué intervenciones pueden ayudar a suprimir o revertir el crecimiento de estas comunidades.

    Lo que necesitamos no es ‘tecnología avanzada’, sino la aplicación correcta de la tecnología.

    Mejores medios: honestos, francos, profundos y amables.

    Conectando / reuniendo personas de diferentes tipos en la escuela, el trabajo y la vida.

    Animar a las personas a ayudar a otros que no se quieren a sí mismos.

    Animar a las personas a darse cuenta de que ellos y nosotros somos parte del mundo y vivimos juntos en este mundo.

    Etc …