Notícias falsas PL não ataca a raiz do problema e tem efeitos colaterais negativos

Desde a última sexta-feira, 29 de maio, o debate sobre o PL 2.630 / 2020, escrito pelo senador Alessandro Vieira (Cidadania-SE) n_ já batizado pela Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet ou, simplesmente, PL da Fake News _ conquistou os serviços de mídia social e mensagens para a divulgação de uma campanha mobilização lançada pelos apoiadores da idéia. Essa campanha incentivou os usuários a votar “sim” na consulta pública promovida pelo Portal de Cidadania Eletrônica do Senado, com o sim já marcado. Os opositores iniciaram um intenso grupo de trabalho de conscientização e informação para revelar por que é muito importante impedir que o PL seja votado na terça-feira, conforme planejado.

Em uma decisão rápida, os assessores do Comitê Gestor da Internet, preocupados com as conseqüências que a rápida acusação de PL pode trazer às liberdades on-line, mesmo com ajustes, enviaram cartas ao Senado solicitando sua remoção da agenda desta semana. . E ele listou as razões em uma nota de esclarecimento publicada em seu site. Entre eles, a importância de aprofundar os debates sobre gerenciamento e moderação de conteúdo por provedores que operam na Internet; as complexidades conceituais e técnicas envolvidas nas contas; e a relevância e as sérias conseqüências que o objeto dos projetos pode ter para os direitos fundamentais, como a liberdade de expressão e a proibição de censura.

A sensação geral é de que o projeto foi apressado, em um momento ruim. E será votado remotamente, com todo o ônus que isso traz.

Deseja entender o que está em jogo? Então leia até o fim tudo o que aprendi em duas vidas que vi, uma na sexta à noite, na presença do próprio senador Alessandro Vieira, acusado por seus próprios eleitores, e outro com os investigadores da Intervozes, no sábado. atrasado.

Quem é o autor?

Alessandro Vieira é o autor da CPI da Toga. Autor de pedidos de remoção, no Senado, do Presidente do Supremo Tribunal Federal (STF), do Ministro Dias Toffoli e do Ministro Alexandre de Moraes, devido à investigação aberta para investigar notícias falsas, consideradas por ele como absolutamente ilegais.

“Investigar organizações em potencial que trabalham com notícias falsas é importante, isso precisa acontecer, mas dentro dos critérios legais. Hoje no Brasil, a única ferramenta estabelecida para investigar esse tipo de ação de notícias falsas é o CPMI Fake News “Tudo funciona bem lá.”

Vieira também foi ex-delegado da repressão ao crime cibernético.

Qual é o objetivo do projeto?

Nas próprias palavras do autor, lute contra contas falsas e redes automatizadas de distribuição de conteúdo não identificadas.

“Não queremos contas falsas, redes de robôs não identificados, para evitar o uso indevido de ferramentas. Agora, o cidadão que deseja ter uma opinião, sua opinião será preservada. Incluímos uma emenda para deixar absolutamente claro que, com base nisso lei, não deve haver queda de conteúdo. A queda pode continuar por ordem judicial, como já estipulado no Marco Civil, da Lei Carolina Dieckmann, e também com base nas regras internas das plataformas “, afirmou.

Como o PL propõe fazer isso?

É quando os problemas começam a aparecer. Embora este PL se baseie em iniciativas diferentes daquelas que criminalizaram as notícias falsas em 2018, propondo até 8 anos de prisão para quem compartilha notícias falsas e, de fato, visa desmantelar as redes de disseminação de informações e garantir transparência para o desempenho das plataformas pode acabar gerando interferência direta das plataformas e causando um cenário de censura massiva de conteúdo. Exatamente o efeito oposto ao esperado.

Por quê? “Como as plataformas são necessárias para monitorar todo o conteúdo processado nelas, identifique as informações incorretas e as contas que as estão divulgando, incluindo contas automatizadas, para descartá-las. E junto com essas contas, todo o conteúdo é vai “, explica Bia Barbosa, da Intervozes.

Em sua defesa, o senador afirma que a intenção dos autores era criar camadas de proteção para os usuários e reduzir o poder das plataformas, e exemplifica o uso de casos recentes de remoção de conteúdo publicados pelos presidentes Trump e Bolsonaro.

“O presidente Bolsonaro teve mensagens identificadas como desinformação. Uma foi derrubada, a outra foi rotulada como tal. Se essa lei estivesse em vigor, isso não aconteceria. Ele teria o direito de defender seu ponto de vista, apresentar informações complementares, em um processo auditado transparente. No final desse processo, se a plataforma reconhecer o erro, o presidente poderá substituir o cargo e corrigir o erro.Como? Todos os que receberem essas informações com uma etiqueta de desinformação receberão a mesma postagem indicando que a marcação foi um erro. Para esclarecer, apresentaremos, com uma emenda do autor, um parágrafo que tornará absolutamente textual que essa lei não justifique a remoção de conteúdo por ninguém. Porque esse não é o objetivo “, explicou.

“O que as plataformas fazem hoje é remover o conteúdo com base em seus termos de uso, aquelas minúsculas que ninguém lê. Diz que está autorizado a remover muitas coisas. E também pode remover quando a justiça determinar”. Não criamos nenhuma situação de aposentadoria obrigatória. Absolutamente nenhum. Mas fazemos algo que parece muito racional e importante: dá transparência a esse processo e responsabiliza as plataformas “, afirmou.

“O PL exige que as plataformas identifiquem adequadamente. Quero que o usuário final saiba que está conversando com uma máquina. Eles estão consumindo conteúdo distribuído automaticamente, a um custo muito alto. Trazemos transparência ao The Spirit of A lei é garantir o direito da pessoa de ter sua opinião, legitimamente, de mantê-la, e se for contraditório à opinião de outra pessoa, será responsabilizada quando o Poder Judiciário a julgar no devido tempo “.

Mas, na opinião dos críticos do PL, isso não está claro no texto. E, na prática, a lei apóia a prática das empresas.

“Não combate o monopólio. Não combate o autoritarismo. Simplesmente fornece suporte legal às plataformas para que façam exatamente o que fazem, sem responder por isso, porque sempre podem afirmar que cumpriram o que é determinado no novo processo, deram o direito de contradizer e tal, e ainda decidiu manter o veto “, argumentou o advogado e advogado de Sergipe, José Paulo Leão Veloso, na vida com o senador.

A Intervozes também vê nos mecanismos propostos um incentivo para as plataformas, em dúvida, escaparem das sanções planejadas, abandonarem o conteúdo e aguardarem recursos. Ao forçar as plataformas a moderar o conteúdo, impondo penalidades a elas, elas não apenas descartam o conteúdo que eram seus termos de uso, mas também descartam, por princípio.

Na opinião coletiva, a defesa deve ser prévia e não a posteriori. Não se trata de recorrer a uma conta ou conteúdo descartado. O direito de disputar deve acontecer antes da derrubada. O PL precisa melhorar os artigos do capítulo sobre transparência que tratam dos mecanismos de apelação e resposta. As plataformas oferecidas hoje são difíceis de usar, não muito transparentes e lentas.

Aliás, as sanções variam de um aviso, com uma indicação do prazo para ação corretiva; multa de trânsito; suspensão temporária de atividades; inclusive proibindo o exercício de atividades no país.

E como o projeto define o que é desinformação?

Em muitos casos, a definição de notícias falsas não é objetiva. Exige interpretação e, toda vez que as plataformas são forçadas a identificar esse conteúdo, recorrem à automação de parte do processo. O próprio senador reconhece isso.

“Hoje, como regra geral, esse conteúdo é verificado por máquinas. O desenvolvedor cria seus critérios e filtros, que são aplicados automaticamente. E quando tenta uma revisão, é feito por outra máquina usando o mesmo critério. Estamos deixando claro que esta segunda verificação isso deve ser feito por uma pessoa natural, justamente por causa da subjetividade. Existe um componente subjetivo. E não há lei no mundo que possa substituí-lo “, afirmou.

“Não temos controle sobre isso. E não há transparência. Tudo está nas mãos das plataformas. Zuckerberg pode fazer isso através de um processo regulamentado e transparente, certo? Onde o usuário tem o direito de defesa, para apresentar suas informações e no momento final para substituir o conteúdo e corrigir o erro, com a disseminação massiva do alerta de que a primeira classificação como desinformação estava incorreta. Portanto, não vejo esse projeto como um retrocesso. Eu vejo isso como um avanço “, Ele acrescenta: “Uma empresa privada, sediada no exterior, decide de acordo com seus próprios critérios o que é ou não verdade, o que as pessoas podem e não podem acessar livremente”, acrescentou.

Os critérios propostos pelo PL para a identificação de Fake News são: conteúdo que, em parte ou na sua totalidade, é inequivocamente falso, enganoso, fora de contexto, manipulado, falsificado e com potencial de causar danos individuais ou coletivos.

Há muitas coisas lá, certo? Pense com cuidado. Este texto que você está lendo, por exemplo, inclui declarações de uma vida de mais de 2 horas. Em teoria, eles estão fora do contexto em que foram ditos, apesar de meu cuidado em preservar o contexto do assunto. Dar conta de? É um conceito amplo e vago ao mesmo tempo.

Definir as informações erradas é um dos grandes desafios. Nenhum país democrático estabeleceu uma definição de lei. A famosa lei da Alemanha lida com discursos de ódio e conteúdo ilícito tipificado nas leis de outros países, não com desinformação.

“O contexto, sobre o que é desinformação, é baseado no que há de mais moderno no mundo. No código de conduta da União Europeia. Nos manuais das próprias plataformas …”, defendeu o senador. “Mas estamos aceitando contribuições para ajustar as definições”.

Bem, a contribuição da Intervozes, por exemplo, segue duas premissas para restringir e objetivar o conceito: ser clara e inequivocamente falsa ou falsificada (manipulada); e (não ou) visam causar danos. A definição deve ser cumulativa. E a questão da intenção pode ser avaliada a partir da combinação de dois fatores: a recorrência do erro e a manipulação de ferramentas não declaradas para direcionar o conteúdo.

Isso mostra o tamanho da complexidade da análise de conteúdo para rotulá-la como desinformação. E é apenas uma das razões pelas quais precisamos de um debate mais profundo e amplo, impossível de fazer nesta avalanche de ritos abreviados e remotos devido à pandemia.

Havia um acordo no Congresso de que os votos que ocorreriam naquele momento estariam relacionados apenas ao Covid-19. E, apesar de todas as informações erradas em torno da doença, a lei, mesmo que aprovada apressadamente, será de pouca utilidade nesses casos. Na prática, com toda a pressa, não entrará em vigor até outubro. Portanto, a verdadeira razão é a escolha deste ano. Algo que o Tribunal Superior Eleitoral poderia resolver. Portanto, é possível ter mais tempo para discussões.

Como o PL propõe verificar o conteúdo?

Há outro problema que precisa de mais análises. A definição de verificadores independentes de fatos é bastante vaga.

Os eleitores senatoriais estão preocupados com a forma de atingir expressões tão vagas. E que tipo de pessoas ou equipe será capaz de avaliar as circunstâncias da desinformação. Existe uma classificação especial? Algum impedimento (pertencente a um partido político, por exemplo)? Uma identificação das fontes de financiamento para essas empresas?

De fato, não há qualificação para o agente de verificação no PL. E o senador chegou ao ponto de afirmar ao vivo que pode estudar um regulamento para a atividade de verificação.

“Estabelecer por lei como as iniciativas de verificação devem realizar seu trabalho e usar suas fontes viola os princípios fundamentais da liberdade de imprensa e, no final, impede o escrutínio público das autoridades que usam suas posições para espalhar a desinformação”. argumenta Aos Fatos, em um editorial sobre o PL.

Quais seriam as obrigações legais das plataformas?

Como já vimos, o PL obriga as plataformas a fornecer relatórios transparentes; requer a rotulagem de bots (aplicativos de programas de computador que simulam ações humanas repetidamente de maneira padrão e robótica); e o destaque das correções feitas por verificadores de fatos independentes.

“Vamos pedir uma série de dados no relatório. Quem relatou? Quantos relatórios? Quais são os critérios usados ​​para descartar o conteúdo? Somente dessa maneira empoderamos o cidadão. Não há nada mais liberal do que isso: empoderar o cidadão “Está consumindo um serviço que está gerando um grande lucro para as empresas sem poder no processo. Então, mudamos esse cenário. Faz uma mudança radical. Tem um grande impacto na realidade”, afirmou o senador.

Como será realizada a marcação de bot?

A marcação de bot, que envolve a identificação de disseminadores artificiais, também tem problemas.

Na opinião da Intervozes, a definição de “contas automatizadas”, entendidas como aquelas “gerenciadas por qualquer programa de computador, tecnologia ou tecnologias usadas para simular, substituir ou facilitar atividades humanas na distribuição de conteúdo em aplicativos da Internet”, seria mais apropriada do que o conceito colocado no PL. E isso facilitaria a identificação de contas que foram realmente criadas para produzir e ampliar informações erradas.

De fato, existem quatro definições que precisam ser revisadas, na opinião dos especialistas.

Conta não autenticada: conta criada ou usada com a finalidade de espalhar informações errôneas ou assumir que uma identidade de terceiros engane o público;

Distribuidores artificiais: qualquer programa ou tecnologia de computador usado para simular, substituir ou facilitar atividades humanas na disseminação de conteúdo em aplicativos da Internet;

Rede de transmissão artificial: conjunto de disseminadores artificiais cuja atividade é coordenada e articulada por uma pessoa ou grupo de pessoas, conta individual, governo ou empresa para impactar artificialmente a distribuição de conteúdo com o objetivo de obter lucros financeiros e / ou políticos.

Serviço de correio privado: Provedores de aplicativos que fornecem serviços de mensagens instantâneas por meio de comunicação interpessoal, acessíveis a partir de terminais móveis com alta capacidade de processamento ou de outros equipamentos digitais conectados à rede, destinados principalmente à comunicação privada entre seus usuários, incluindo criptografia.

A impressão de muitos acadêmicos é que, em vez de olhar para o todo, foram feitas conceituações para tentar explicar os problemas a serem mitigados. A redação combina o que pode ser uma conta automatizada, na qual os robôs também publicam, com contas que usam bots para aumentar o conteúdo. Você não pode criminalizar todas as contas automatizadas. bots são importantes para diversas atividades legais. E nem todos os bots participam da promoção de conteúdo.

Além disso, algumas pessoas acreditam que o PL pode restringir o uso legítimo de aprimoradores de conteúdo, especialmente pelo governo, em emergências. Especialmente através de serviços de correio. Existem muitas listas de transmissão que vão além da comunicação individual, privada e interpessoal para problemas de emergência.

“O formato do messenger é para comunicação privada. A preocupação é que uma mensagem privada use a automação de envio típica em uma plataforma montada na parede, como Twitter e Facebook, para alcançar um público mais amplo, muito rapidamente, protegido por a capa da criptografia. Essa é a pergunta. Quem pode excluir o número de referências em emergências, calamidades e tudo mais? Estamos lidando com isso através de uma emenda sugerida “, relatou o senador durante sua vida.

“De fato, não se pode desistir do potencial de comunicação para um caso de urgência ou emergência. E esse não é o objetivo da lei. O que fazemos em relação aos serviços de courier é evitar desviar seu uso para se transformar em veículos para mídia protegida por criptografia. Isso não é razoável. Não é constitucional. Não é apropriado. Não é razoável “, afirmou o senador.

A falta de identificação da autoria das mensagens é um dos problemas que devem ser resolvidos nos mensageiros. As limitações do encaminhamento de mensagens também. Além disso, há limitações técnicas sobre como rotular uma mensagem como informação incorreta.

Então, segunda-feira, 1º de junho, será um dia importante

Em vista de todas essas dúvidas, o Senado decidiu realizar um webinar interno na manhã de segunda-feira, 1º de junho, na plataforma do Senado, na qual 10 organizações da sociedade civil receberão informações sobre o projeto. E à tarde, a Frente Digital da Câmara terá um debate virtual ouvindo representantes de vários setores, incluindo a academia e as próprias plataformas.

Todos marcaram na segunda-feira porque a corrida deve fazer com que o projeto de agenda seja retirado ou, no mínimo, reduza os danos.

“Se alguém vier até nós agora e disser que ainda há um ponto ou outro no texto que é obscuro, que pode ser interpretado como conteúdo restrito ou alguma forma de censura, mudaremos”, garantiu o senador, que gostou de uma sugestão. mais objetivo quem pode ser o autor de uma ação contra plataformas. Algo que também deve ser esclarecido.

Na sua opinião, o projeto está terminando com as emendas que serão apresentadas e ele não pretende adiar a votação. “Temos a expectativa de que o PL seja votado e aprovado e depois passe por um processo de melhoria”, afirmou.

O relator do PL é o senador Ângelo Coronel (PSD-BA), também presidente da CPI Mista das Fake News. Ele já disse que deveria complementar o projeto com outra proposta, sua, para aumentar as penalidades daqueles que promovem desinformação na Internet.

Honestamente, seria muito melhor se este PL fosse o resultado do trabalho do IPC, no final.

You May Also Like

About the Author: Adriana Costa Esteves

"Estudioso incurável da TV. Solucionador profissional de problemas. Desbravador de bacon. Não foi possível digitar com luvas de boxe."

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *