MATO GROSSO, 18 de Maio de 2024

cotações: DÓLAR (COM) 5,11 / EURO 5,55 / LIBRA 6,49

conversa da semana Sexta-feira, 03 de Novembro de 2023, 07:00 - A | A

Sexta-feira, 03 de Novembro de 2023, 07h:00 - A | A

TERRA COM LEI

Remoção de conteúdo nas redes deve ser melhor, e não maior, diz pesquisador

ConJur

 

1

 

 

O objetivo da regulação das redes sociais não é um mundo em que as plataformas removam mais conteúdo, mas um mundo em que removam melhor. Essas empresas precisam estar atentas ao contexto, agir rápido em casos de conteúdos sensíveis e identificar quando um conteúdo parece proibido mas não é.

 

 

A análise é do advogado Francisco Brito Cruz, diretor executivo do InternetLab, um centro independente de pesquisa interdisciplinar voltado às áreas de tecnologia e direitos humanos. Ele é favorável à criação de mais obrigações para as plataformas, no intuito de mudar o comportamento dessas empresas e proteger a liberdade de expressão.

 

Em entrevista à revista eletrônica Consultor Jurídico, ele diz que é uma boa ideia "incentivar um maior cuidado com conteúdos potencialmente criminosos e que possam causar um risco de dano social muito grande". Isso deve partir do que já é ilegal no Brasil, sem criar novos ilícitos.

 

Hoje, o Marco Civil da Internet busca garantir a liberdade de expressão e evitar que as plataformas tenham de interpretar a legislação para cada caso individual. Frente a novos problemas, como a desinformação, Cruz defende a criação de novas camadas em cima desse modelo, sem abandoná-lo.

 

 

 

A chave para isso, segundo ele, é o estímulo a medidas estruturais, como a mitigação de riscos sistêmicos — seja com uma maior remoção ou uma menor recomendação de conteúdos danosos. Outra necessidade é a transparência das plataformas.

 

O diretor do InternetLab também afirma que o debate púbico no país sobre a remuneração de conteúdos jornalísticos veiculados nas plataformas levanta muidas dúvidas. Ainda é preciso aprofundar as discussões sobre quais hipóteses devem gerar remuneração e por quê.

 

Leia a seguir a entrevista:

 

ConJur — A necessidade de regulação das redes sociais é um consenso internacional entre os países democráticos? 

Francisco Brito Cruz — Existe uma tendência crescente das pessoas que estão nesse campo — não só os governos, mas também a sociedade civil, a academia e as próprias empresas — em dizer que dar mais passos no sentido de regular plataformas digitais é uma boa ideia. Nos últimos cinco anos, isso ficou bem aceito. O problema é decidir o melhor jeito.

Importante dizer que essas empresas já são reguladas, seja nos EUA, na Europa, mesmo no Brasil. O que se discute agora é uma nova geração de regulação, ligada a problemas que começaram a aparecer em 2016.

No Brasil, a discussão que está mais avançada é sobre quais tipos de conteúdos podem circular nessas plataformas, quais incentivos elas têm para lidar com eles e como deve acontecer a moderação.

No começo, nos referíamos a esse projeto como PL das Fake News. Agora, fica claro que não é só das fake news. É um PL para regular a atividade das plataformas que hospedam conteúdo produzido por terceiros e o organizam para ser consumido — ou seja, a atividade de moderação e recomendação de conteúdo.

O que existe no Brasil hoje é o regime de responsabilidade presente no Marco Civil da Internet. Segundo o artigo 19, as empresas de internet que oferecem um espaço para conteúdo gerado pelos seus usuários só devem pagar pelos danos causados por esses conteúdos se receberem e descumprirem uma ordem judicial de remoção. Elas não são obrigadas a remover sem receber uma ordem do tipo, mas, se quiserem, são livres para isso.

O objetivo desse regime é fazer com que as plataformas não interpretem o que é ilegal. A interpretação fica para o Judiciário. Os críticos desse modelo dizem que ele não é suficiente para incentivar que as plataformas removam conteúdos problemáticos e faz com que elas tenham, na verdade, um incentivo para mantê-los no ar. É um argumento válido no debate público.

A lógica do PL das Fake News no estágio em que está é criar mais incentivos para que as plataformas ajam em razão de conteúdos que podem ser problemáticos. O projeto não torna nenhum discurso ilícito (que já não o fosse). Também não muda o regime do Marco Civil, mas cria duas camadas extras para que haja esses incentivos.

A primeira delas, bem parecida com a legislação recentemente aprovada na Europa, é a ideia de que as plataformas têm que conduzir anualmente uma análise de riscos sistêmicos. A lógica é: eventualmente, os produtos que as plataformas oferecem podem catalisar riscos presentes na sociedade (listados no projeto, como os riscos à integridade eleitoral). Então, é dever delas mapeá-los. A partir disso, as empresas devem implementar medidas de mitigação desses riscos — uma maior remoção ou uma menor recomendação desses conteúdos, por exemplo. É um esforço para que as plataformas tomem medidas mais arquitetônicas.

A outra via é o chamado dever de cuidado. A sugestão do governo atual é uma lista de crimes para os quais empresas precisam ter um olhar "a mais" e tentar, na medida do possível, localizar e remover conteúdos. Essa remoção não vai gerar necessariamente uma responsabilização imediata. Mas vai haver um regulador observando. Se as plataformas não estiverem fazendo o suficiente para remover esses conteúdos, aí sim poderão ser multadas.

Nessas hipóteses, a sanção não é pelo dano individual, mas pelo todo. Há, na verdade, uma responsabilidade administrativa, caso a plataforma não faça sua "lição de casa" no geral. O Marco Civil continua valendo para os casos de dano gerado pelo conteúdo produzido por terceiros.

O projeto também cria o protocolo de segurança. É como um botão de emergência. Em situações especiais, com presença dos elementos de maior risco, o regulador pode "apertar o botão" e a plataforma passa a ser responsabilizada pelo dano individual — com relação a um determinado tipo de conteúdo e durante um período definido. Nesta hipótese, se alguém processar a plataforma devido ao tipo de conteúdo pelo qual foi originado o protocolo de segurança, ela terá de pagar.

O PL ainda cria uma exceção ao Marco Civil, para as situações em que o conteúdo é impulsionado — ou seja, quando um terceiro paga a plataforma para que ela leve o conteúdo mais longe. Nesse caso, a lógica é que a plataforma se tornou sócia daquele conteúdo. Assim, se ele causar algum dano, a empresa pode ser responsabilizada tanto quanto seu produtor.

 

ConJur — O modelo atual estimula a disseminação de fake news e a prática de crimes? 

Francisco Brito Cruz — O modelo atual é uma solução para outros problemas. Ele foi pensado para garantir que as pessoas pudessem se expressar na internet sem fazer com que as plataformas ficassem interpretando, sob pressão, as minúcias do que as pessoas dizem.

Mexer nesse modelo é muito problemático. Eu defendo que ele seja mantido para a grande maioria das hipóteses. As plataformas não têm que ser incentivadas a interpretar a legislação brasileira para cada caso individual. Elas têm que ser incentivadas a investir em bons sistemas de segurança e criar boas regras que, no todo, funcionem bem.

No Brasil há um problema muito grande de uso do Judiciário para calar as pessoas que estejam, por exemplo, criticando ações de governo ou de empresas. O Marco Civil protege essas pessoas, porque não obriga as plataformas, após receber notificações extrajudiciais, a analisar se vão manter um conteúdo sob pena de pagar indenização. Agora, nós temos outros problemas. É natural que a legislação se desenvolva e que camadas sejam criadas em cima disso.

 

ConJur — Os críticos da regulação se preocupam com a possibilidade de que as plataformas passem a vetar tudo o que possa parecer fake news. Esse risco existe?

Francisco Brito Cruz — Se a discussão diz respeito a incentivos que as plataformas terão para lidar com os conteúdos, é possível que alguns incentivos sejam exagerados. Há quem defenda, por exemplo, que o dever de cuidado envolva uma lista de exceções ao Marco Civil — eu discordo. Então, esse risco existe. O que não existe no projeto (embora muitos aleguem falsamente) é a criação de novas situações de discurso ilícito.

 

ConJur — Mesmo com esse risco, é possível endurecer a responsabilidade das grandes plataformas digitais pela veiculação de conteúdos danosos sem cercear a liberdade de expressão?

Francisco Brito Cruz — Depende do que é responsabilidade das plataformas: mudar o artigo 19 do Marco Civil ou criar outras obrigações para as empresas? Eu defendo a segunda leitura e acredito que isso é necessário. É o melhor jeito de mudar o comportamento dessas empresas.

Algumas responsabilidades não geram imediata remoção, mas geram maior prestação de contas. A transparência é tão importante quanto qualquer dever de cuidado, pois é a forma que temos para analisar se as empresas estão fazendo o suficiente.

O ponto de chegada não é um mundo em que as plataformas removam mais. É um mundo em que as plataformas removam melhor. Elas precisam ser mais atentas ao contexto, agir mais rápido quanto a conteúdos sensíveis e saber quando um conteúdo parece proibido mas não é.

E todas as pessoas que se sentem injustiçadas por ação das plataformas devem ter meios para se explicar. O usuário pode, por exemplo, ter um conteúdo legítimo derrubado por engano pela plataforma.

O objetivo de se ter mais obrigações é proteger a liberdade de expressão. Se há um bom sistema para coibir o discurso de ódio e a violência online, cresce a possibilidade de pessoas violentadas e marginalizadas se sentirem seguras para falar.

Na minha opinião, a parte chave do PL das Fake News é a dos riscos sistêmicos. É a visão que vai muito além da remoção do conteúdo e passa pela rotulação, pela recomendação e por ajustes arquitetônicos. Creio que a parte do dever de cuidado passa mais por uma necessidade simbólica de listar conteúdos problemáticos do que pela resolução da questão. O problema vai ser resolvido por medidas mais estruturais.

 

ConJur — Qual é o papel da transparência nessa regulação?

Francisco Brito Cruz — Eu defendo que, assim como a europeia, nossa legislação tenha como coração a transparência. Ela não é uma obrigação dura, mas é fundamental para uma maior sofisticação nos pedidos que serão feitos às plataformas. Sem conhecimento sobre os sistemas internos de moderação de conteúdo e dos investimentos colocados, não há condições de articular o que deve ser feito.

A transparência tem dois limites básicos. Não se pode ser transparente em relação a dados pessoais dos terceiros que usam o serviço — esses dados têm de ser preservados. E também não se pode ser transparente ao ponto de que as pessoas descubram formas de fazer coisas "erradas" na plataforma.

A ideia da necessidade de análise de mitigação de risco sistêmico é uma medida de transparência. Eu aposto nesse caminho. Os demais caminhos podem ser importantes para simbolizar uma maior certeza de que as plataformas vão agir quando devem.

 

ConJur — A regulação pode determinar o que é ou não mentira?

Francisco Brito Cruz — A desinformação no Brasil não representa, necessariamente, conteúdo ilícito. Ela é ilícita quando é enquadrada em outras coisas, como um ataque à integridade do sistema eleitoral.

No início do PL, em 2020, existia a ideia de criar uma definição de desinformação. Isso foi duramente criticado pela sociedade civil, inclusive por mim. Criar um conceito de desinformação implica a necessidade de que a empresa interprete o que é ou não mentira.

Hoje, no texto do projeto, a lista que compõe o dever de cuidado só tem crimes já previstos na legislação brasileira. Não tem desinformação. E é bom que não tenha.

Não se deve proibir mentiras. O que faz sentido é incentivar um maior cuidado com conteúdos potencialmente criminosos e que possam causar um risco de dano social muito grande. Eu defendo que os incentivos para a remoção estejam muito claros e já partam do que é ilícito no Brasil hoje.

Esses incentivos não devem ser exagerados. Não podemos tolerar um cenário em que as plataformas são incentivadas a remover conteúdo legítimo. O incentivo deve ser proporcional à gravidade do conteúdo.

 

ConJur — Há um debate sobre a instituição de um órgão pra supervisionar as obrigações das plataformas. Na sua opinião, qual seria a alternativa ideal?

Francisco Brito Cruz — Não existe regulação sem regulador. É preciso um órgão independente para verificar se as obrigações estão sendo cumpridas ou não, pois elas são complexas e exigem conhecimento técnico.

Está fora de cogitação no debate público um órgão que seja totalmente controlado pelo governo. Para mim, também não existe hoje nenhum órgão no Poder Executivo ou na administração indireta que entenda de moderação de conteúdo e consiga, de saída, cumprir essa tarefa. Precisa ter expertise não só no assunto, mas também na sua intersecção com direitos humanos.

Eu defendo que o Brasil não se furte a honrar a sua tradição de multissetorialismo — a ideia de que a boa regulação sobre tecnologia nasce a partir da colaboração entre todos os setores envolvidos. O Comitê Gestor da Internet no Brasil (CGI.br), por exemplo, pode ter um lugar nesse arranjo, para produção de estudos e recomendações.

Já o lado mais fiscalizador precisa ser independente, técnico e coordenado com as diferentes agências relacionadas ao assunto, como a Autoridade Nacional de Proteção de Dados (ANPD) e a Agência Nacional de Telecomunicações (Anatel).

A autorregulação regulada também pode funcionar para alguns assuntos. Eu acho uma boa ideia, para os casos nos quais não há tanta certeza sobre a ilegalidade do conteúdo, que as plataformas possam pedir a opinião de uma entidade de autorregulação, formada por outras empresas e especialistas no tema. Assim, o governo não se envolve na decisão sobre conteúdo individual.

O modelo apresentado pela OAB tenta resolver esses problemas, pois não ignora a coordenação entre agências, a independência e o histórico multissetorial brasileiro. Além disso, traz algum lugar para a autorregulação. Mas ainda deixa muitas interrogações: como conseguir o corpo técnico para fiscalizar? Como treinar esse pessoal?

 

ConJur — É justo que as big techs remunerem a imprensa pelos conteúdos jornalísticos distribuídos nas suas plataformas?

Francisco Brito Cruz — Depende do conteúdo, da plataforma e da veiculação. Não está claro o suficiente para mim hoje, nesse debate, qual é o "fato gerador" da remuneração: a indexação de um link por um mecanismo de busca? A publicação de um terceiro que acaba viralizando em uma rede social? O compartilhamento de um link em um aplicativo de mensagem? É muito importante chegar a uma conclusão de quais são as hipóteses que devem gerar remuneração e por quê.

O modelo adotado na Austrália é um exemplo de como pagar. Ele envolve barganha direta: quem deve pagar negocia com quem deve receber e oferece algum acordo para "utilizar" o conteúdo. Isso também está relativamente claro no Brasil. O que não está claro é: o que é "utilizar"?

Eu não parto do pressuposto de que as plataformas estão roubando dinheiro dos veículos de notícia. Mas tenho certeza que as plataformas causaram uma ruptura na forma como esses veículos conseguem ganhar dinheiro. Se a atividade jornalística é de interesse público e precisa se sustentar para que a democracia consiga funcionar, a sociedade precisa achar um jeito de transferir recursos e tornar essa atividade minimamente sustentável.

Para isso, é preciso entender quem vai remunerar, como vai remunerar e como essa remuneração vai de fato ser direcionada para a atividade jornalística de interesse público — e não para qualquer atividade que se julgue jornalística, mas que não tenha interesse público.

Esse tema corria junto ao PL das Fake News. Agora, foi fatiado em um projeto separado, de reforma da Lei de Direito Autoral. Mas, aos olhos do debate público, os temas ainda estão ligados e fazem parte do mesmo acordo. Não dá para discutir um sem discutir o outro. São de igual importância.

 

 

Nossas notícias em primeira mão para você! Link do grupo MIDIA HOJE: WHATSAPP



Comente esta notícia