Somini Sengupta, The New York Times "A tempestade sobre um vídeo anti-islâmico incendiária postado no YouTube gerou novo deba...
Somini Sengupta, The New York Times
"A tempestade sobre um vídeo anti-islâmico incendiária postado no YouTube gerou novo debate". (Ilustração: Nick Arciaga)
Empresas de Internet são uma raça diferente. Porque o tráfego no discurso - em vez de, digamos, xarope de milho ou aviões de guerra - eles tomam decisões a cada dia sobre o tipo de expressão é permitida onde. E, ocasionalmente, eles vêm sob pressão para explicar como eles decidir, cujas leis e valores que eles confiam, e como eles distinguir entre o discurso tóxicos que devem ser tomadas para baixo e que pode permanecer.
A tempestade sobre um vídeo anti-islâmico incendiária postado no YouTube gerou um novo debate sobre estas questões. Google , que é dono do YouTube, acesso restrito ao vídeo no Egito e na Líbia, após o assassinato de um embaixador dos Estados Unidos e três outros americanos.Em seguida, ele puxou a ficha sobre o vídeo em cinco outros países, onde o conteúdo violado leis locais.
Alguns países bloqueou YouTube completamente, embora isso não impediu que o derramamento de sangue: no Paquistão, onde as eleições são a ser agendada em breve, tumultos na sexta-feira deixou um saldo a morte de 19.
A empresa apontou para seus editais internos para explicar porque rejeitou chamadas para derrubar o vídeo completo. Não atender a sua definição de discurso de ódio, YouTube, disse , e assim permitiu que o vídeo para se manter na web. Ele não disse muito mais.
Essa explicação revelou não só os desafios que confrontam as empresas como o Google, mas também como eles podem ser opacos para explicar os seus veredictos sobre o que pode ser dito sobre suas plataformas. Google, Facebook e Twitter recebem centenas de milhares de reclamações sobre o conteúdo a cada semana.
"Nós estamos apenas despertando para a necessidade de algum exame ou fiscalização ou a atenção pública para as decisões dos mais poderosos controladores fala privada", disse Tim Wu, professor de direito da Columbia University, que brevemente aconselhou o governo de Barack Obama sobre a regulamentação de proteção ao consumidor on-line.
Google estava certo, Sr. Wu acredita que, seletivamente restringir o acesso ao vídeo anti-Islã bruto à luz da extraordinária violência que eclodiu. Mas ele disse que o público merecia saber mais sobre como as empresas privadas fez essas decisões, em primeiro lugar, todos os dias, em todo o mundo. Afinal, ele acrescentou, eles estão definindo jurisprudência, assim como tribunais fazer em países soberanos.
Sr. Wu deu alguns conselhos não solicitados: Por que não criar um conselho de supervisão de peritos regionais ou usuários do YouTube graves de todo o mundo para tomar as decisões especialmente difíceis?
Google não respondeu à sua proposta, que ele descreveu em um post no blog do The New Republic.
Certamente, a escala ea natureza do YouTube torna esta uma tarefa assustadora. Qualquer análise requer vasculhar mais de um bilhão de vídeos e sobrepondo que contra as leis e os costumes de diferentes países. Não está claro se os painéis de peritos permitiria a opinião da minoria impopular de qualquer maneira. A empresa disse em um comunicado na sexta-feira que, como jornais, que, também, fez "nuances" decisões sobre o conteúdo: "É por isso que gerados pelo usuário sites de conteúdo tipicamente têm orientações comunitárias claras e remover vídeos ou posts que quebrá-las."
Privada, as empresas vêm lutando com essas questões por algum tempo.
A Global Network Initiative, um conclave de executivos, acadêmicos e defensores, emitiu diretrizes voluntárias sobre como responder aos pedidos do governo para filtrar o conteúdo.
E a Liga Anti-Difamação convocou executivos, funcionários públicos e advogados para discutir a forma de definir o discurso do ódio eo que fazer sobre isso.
Discurso de ódio é uma noção flexível, e não haverá discussões sobre se ela cobre discurso que é susceptível de conduzir à violência (acho Ruanda) ou humilha um grupo (acho que a negação do Holocausto), assim como não serão chamadas para livre expressão absoluta.
Atrás de portas fechadas, empresas de Internet rotineiramente tomar decisões difíceis sobre o conteúdo.
Apple e Google no início deste ano arrancou uma aplicação móvel produzido pelo Hezbollah. Em 2010, o YouTube removeu links para os discursos de um clérigo nascido nos Estados Unidos, Anwar al-Awlaki, em que ele defendia a violência terrorista, na época, a empresa disse que as mensagens proscritas que possa incitar "atos violentos".
Em raras ocasiões, o Google tomou medidas para educar os usuários sobre conteúdo ofensivo. Por exemplo, os primeiros resultados que aparecem quando você procura a palavra "judeu" incluir um link para um site virulentamente anti-judaica, seguido por um link promovido do Google, encaixotado na cor rosa. Ele links para uma página que define do Google Justificativa: A empresa diz que não censura resultados de busca, apesar das reclamações.
Susan Benesch, que estuda o discurso do ódio que incite à violência, disse que seria sensato ter muitas explicações mais como este, não menos importante, para promover o debate. "Eles certamente não tem que", disse Benesch, diretor do Projeto Fala perigosa no Instituto de Política Mundial. "Mas podemos encorajá-los a causa do enorme poder que eles têm."
As empresas apontam que obedecem as leis de cada país em que fazer negócios. E seus funcionários e algoritmos conteúdo veterinário que possa violar as diretrizes de seus usuários, que são públicos.
YouTube proíbe o discurso de ódio, que ele define como aquilo que "ataca ou rebaixa um grupo" com base em sua raça, religião e assim por diante; proibição do Facebook discurso de ódio igualmente cobre "o conteúdo que ataca as pessoas" com base na identidade. Google e Facebook proibir o discurso do ódio; Twitter explicitamente não proibi-lo. E de qualquer maneira, os juristas dizem que é extremamente difícil de conceber uma definição universal de discurso de ódio.
Shibley Telhami, cientista político da Universidade de Maryland, disse que espera que a violência sobre o vídeo iria encorajar uma conversa sutil sobre como salvaguardar a liberdade de expressão com outros valores, como a segurança pública. "É realmente sobre em que ponto discurso se transforma em ação, que é um limite que se torna difícil de desenhar, e é uma ladeira escorregadia", disse Telhami disse.
Ele advertiu que alguns países, como a Rússia, que ameaçavam bloquear YouTube por completo, ficaria encantado de ter qualquer desculpa para discurso silenciador. "A Rússia importa muito com esse filme?" Sr. Telhami perguntou.
O direito internacional não protegem o discurso de que é projetado para causar violência. Várias pessoas foram condenadas em tribunais internacionais por incitação ao genocídio em Ruanda.
Um dos desafios da era digital, como demonstra o caso do YouTube, é que o discurso articulado em uma parte do mundo pode desencadear o caos no outro. Podem as empresas que executam essas plataformas prever o que fala palavras e imagens pode detonar carnificina em outro lugar? Quem constrói o algoritmo pode acabar salvando vidas.
Nenhum comentário