Ya estamos
Con cautela, porque la aplicación de estas herramientas puede ser problemática en su comprensión y evaluación de los diversos tipos de acoso. Hay muchas cosas por ahí que son tan malas como las palabras desagradables.
Transparentemente, porque creemos que existen problemas reales de sesgo y discriminación que pueden ocurrir en función de los conjuntos de datos de composición en los que entrenamos, la forma en que se puntúan esos conjuntos de datos y los humanos que escriben e implementan el código. No es un sesgo intencional, pero no obstante el sesgo. La transparencia asegura que somos responsables ante esta posibilidad y agradece el escrutinio.
- ¿Cómo se entrenan las redes neuronales de la computadora?
- ¿Debo dominar las matemáticas / IA para comenzar a trabajar en un proyecto de reconocimiento facial?
- ¿Cuáles son las principales aplicaciones / juegos móviles de Android / iOS que utilizan ampliamente la inteligencia artificial?
- Si se produce una IA consciente, ¿cómo sabemos que es realmente consciente, no solo actuando que es consciente?
- ¿Debo comprar una computadora portátil para juegos para aprendizaje automático / aprendizaje profundo?
Con el consentimiento activo de los miembros de nuestra comunidad, porque creemos que deben ser conscientes de las implicaciones de las tecnologías implementadas en los proyectos de Wikimedia. Después de todo, son los más directamente afectados. Hacemos un esfuerzo particular para buscar la consulta de los miembros de la comunidad con mayor probabilidad de verse afectados, particularmente las mujeres y un espectro de comunidades minoritarias.
Estas herramientas son solo una parte de nuestro enfoque. Creemos que deben estar respaldados por un enfoque interdisciplinario de personas, políticas y capacitación. Puede leer más sobre nuestra Iniciativa de salud comunitaria aquí.