Home / Noticias / Wikipedia busca ser más incluyente y lanza código de conducta

Wikipedia busca ser más incluyente y lanza código de conducta

Tiempo de lectura: 2 minutos

Wikipedia lanzará su primer código de conducta global pues busca ser más incluyente.

«Necesitamos ser mucho más inclusivos», reconoció María Sefidari, presidenta del consejo de administración de la Fundación Wikimedia, organización sin fines de lucro.

«Nos faltan muchas voces, nos faltan mujeres, nos faltan grupos marginados».

Y es que las plataformas en línea han sido objeto de un intenso escrutinio por comportamiento abusivo, lenguaje violento y otras formas de contenido problemático.

Esto las presiona a renovar las reglas de contenido y hacerlas cumplir de manera más estricta.

A diferencia de Facebook y Twitter, Wiki depende en gran medida de voluntarios no remunerados para manejar los problemas relacionados con el comportamiento de los usuarios.

Más de 1,500 voluntarios de Wikipedia de cinco continentes y 30 idiomas participaron en la creación de las nuevas reglas después de que el consejo de administración votara en mayo del año pasado para desarrollar nuevos estándares vinculantes.

El nuevo código de conducta prohíbe el acoso dentro y fuera del sitio, incluyendo comportamientos como el discurso de odio, el uso de calumnias, estereotipos o ataques basados en características personales, así como amenazas de violencia física y acoso o seguir a alguien a través de diferentes artículos para criticar su trabajo.

También prohíbe la introducción deliberada de información falsa o sesgada en el contenido. Wikipedia es un sitio relativamente confiable en comparación con las principales plataformas de redes sociales que han luchado por frenar la información errónea.

Maher dijo que las preocupaciones de algunos usuarios de que las nuevas reglas significaban que el sitio se estaba volviendo más centralizado eran infundadas.

Wikipedia tiene 230,000 editores voluntarios que trabajan en artículos de colaboración colectiva y más de 3,500 administradores que pueden tomar medidas como bloquear cuentas o restringir ediciones en ciertas páginas. A veces, las quejas las deciden paneles de usuarios elegidos por las comunidades.

Acerca: Josue Vivas

Avatar

Quizás te interese

La iniciativa podría extenderse a toda América Latina.

Eagle Eye: la IA que previene feminicidios

Tiempo de lectura: < 1 minuto Ciudad de México, 12 de mayo de 2021._ Una iniciativa presentada en Santo Domingo ayudará …