A Wikipedia planeja reprimir o assédio e outros comportamentos “tóxicos” com um novo código de conduta. O Conselho de Administração da Wikimedia Foundation, que supervisiona a Wikipedia entre outros projetos, votou na sexta–feira a adoção de um processo de moderação mais formal. A fundação esboçará os detalhes desse processo até o final de 2020 e, até então, terá a tarefa de aplicar políticas anti-assédio temporárias.
“Assédio, comportamento tóxico e incivilidade no movimento Wikimedia são contrários aos nossos valores compartilhados e prejudiciais à nossa visão e missão”, afirmou o conselho em comunicado. “O conselho não acredita que tenhamos feito progresso suficiente na criação de espaços acolhedores, inclusivos e livres de assédio, nos quais as pessoas possam contribuir produtivamente e debater construtivamente”.
O conselho de administração deu à Wikimedia Foundation quatro diretrizes específicas. Ele deveria elaborar um “conjunto mínimo de padrões vinculativos” para o comportamento em suas plataformas, moldado pelas contribuições da comunidade. Precisa “proibir, sancionar ou limitar o acesso” de pessoas que violam esse código, além de criar um processo de revisão que envolva a comunidade. E deve “aumentar significativamente o apoio e a colaboração com os funcionários da comunidade” durante a moderação. Além dessas diretrizes, a Wikimedia Foundation também deve colocar mais recursos em sua equipe de Confiança e Segurança, incluindo mais funcionários e melhores ferramentas de treinamento.
O conselho de administração diz que seu objetivo é “desenvolver práticas e ferramentas sustentáveis que eliminem o assédio, a toxicidade e a incivilidade, promovam a inclusão, cultivem discursos respeitosos, reduzam os danos aos participantes, protejam os projetos contra desinformação e maus atores e promovam a confiança em nossos projetos. “
A comunidade de voluntários da Wikipedia pode ser altamente dedicada, mas intensamente combativa , iniciando guerras de edição sobre tópicos controversos e impondo duramente os padrões editoriais de uma maneira que possa afastar novos usuários. A Wikimedia Foundation listou o assédio como um fator por trás de sua relativa falta de editores femininos e não conformes ao gênero, que se queixaram de serem apontados por abuso. Ao mesmo tempo, o projeto surgiu de um ethos voltado para a comunidade e muitos usuários se opõem ao tipo de aplicação de cima para baixo que você encontraria em uma plataforma comercial da Web.
Esses problemas surgiram no ano passado, quando a Wikimedia Foundation suspendeu um editor respeitado, mas abrasivo, que outros usuários acusaram de assédio implacável. A intervenção contornou o processo normal de arbitragem da comunidade da Wikipedia e vários administradores renunciaram durante a reação que se seguiu .
O conselho de administração não menciona essa controvérsia, dizendo apenas que a votação “formaliza anos de esforços de longa data de voluntários individuais, afiliados da Wikimedia, funcionários da Fundação e outros para impedir o assédio e promover a inclusão nos projetos da Wikimedia”. Mas em uma página de discussão , um editor citou a suspensão para argumentar que a Wikimedia Foundation não deveria interferir na moderação da comunidade da Wikipedia – enquanto outros disseram que um código de conduta formal teria reduzido a confusão e a hostilidade generalizadas em torno dele.
Em meio a tudo isso, a Wikipedia se tornou uma das plataformas mais amplamente confiáveis da Internet. O YouTube, por exemplo, usa páginas da Wikipedia para refutar vídeos de conspiração. Isso aumentou as apostas e criou um enorme incentivo para os artistas de desinformação segmentarem o site. A votação de sexta-feira sugere que a Wikimedia Foundation terá um papel mais ativo na moderação da plataforma, mesmo se não soubermos exatamente como.
Saiba mais sobre isso em nosso setor especializado em noticias mundiais.