Os recentes atentados a escolas em diversos estados brasileiros deram novo fôlego ao debate sobre a regulamentação das plataformas de redes sociais. O tema já vem sendo discutido oficialmente desde 2020, com o PL das Fake News (Projeto de Lei n° 2630/2020), com votação prestes a acontecer, e voltou aos holofotes com os atos golpistas no último 8 de janeiro.
Famílias esperavam com angústia o dia 20 de abril de 2023, em consequência de ameaças de novos ataques a escolas em diversos estados brasileiros, que circulavam por redes sociais e aplicativos de mensagem. Menos alunos compareceram às aulas e as escolas contaram com reforço policial.
Muitas vezes diretamente relacionados a comunidades de subcultura extremista na internet, esses atentados exigiram ação do Governo Federal. Após o ataque à creche Cantinho Bom Pastor, em Blumenau (SC), no dia 5 de abril, o Ministério da Justiça e Segurança Pública (MJSP) deflagrou a Operação Escola Segura, em integração com os estados.
Passe o cursor pelos cards e, para ver mais informações, clique e arraste a linha do tempo para o lado
A professora Elizabeth Tenreiro, 71 anos, foi esfaqueada em um ataque na Escola Estadual Thomazia Montoro, no bairro Vila Sônia, em São Paulo. Ela foi socorrida, mas não resistiu aos ferimentos. Outras quatro pessoas ficaram feridas.
Quatro crianças foram mortas e outras cinco ficaram feridas — uma delas em estado grave — em um ataque à creche Cantinho Bom Pastor, em Blumenau, no estado de Santa Catarina.
Uma professora e dois alunos foram feridos por um adolescente em um ataque a uma escola particular em Manaus. Os ferimentos foram superficiais e as três vítimas foram atendidas pelo Serviço de Atendimento Móvel de Urgência (Samu).
Três pessoas ficaram feridas no quarto ataque a escolas no Brasil em cerca de duas semanas. O caso ocorreu no município de Santa Tereza de Goiás (GO), no Colégio Estadual Doutor Marco Aurélio.
Duas meninas de nove anos foram feridas por um colega no dia 12 de abril em Farias Brito (CE), a 458,4 km de Fortaleza. O ataque ocorreu na Escola Municipal Isaac de Alcântara Costa.
Além disso, o MJSP editou a portaria nº 351/2023 para responsabilizar as plataformas digitais pela veiculação de conteúdos com apologia a violência nas escolas. Nela, o Ministério considera que as plataformas não são "simples exibidoras de conteúdos" postados pelos usuários. Elas seriam "mediadoras dos conteúdos exibidos para cada um dos seus usuários, definindo o que será exibido, o que pode ser moderado, o alcance das publicações, a recomendação de conteúdos e contas", e não agentes neutros.
A portaria considera essas plataformas como prestadoras de serviços por essa "atividade de intermediação de conteúdo" e ampara-se no Código de Defesa do Consumidor para, entre outros pontos, apontar o não fornecimento de segurança "dentro da expectativa razoável do consumidor" como um serviço defeituoso e o direito básico do consumidor à "proteção da vida, saúde e segurança contra os riscos provocados por práticas no fornecimento de serviços considerados perigosos ou nocivos".
O documento aponta diretrizes para as empresas, como a retirada imediata de conteúdos após a solicitação de autoridades competentes, avaliação sistêmica de riscos, adoção de medidas visando evitar a disseminação de novas ameaças às escolas e uma política de moderação ativa de conteúdos nas redes. A pasta também deve ser informada sobre as regras do algoritmo de recomendação utilizada pelas redes sociais.
Ao anunciar a portaria, Flávio Dino classificou a situação como "emergencial" por ter gerado epidemias de ataques, ameaças e difusão de pânico entre famílias e escolas. "Foi nesse contexto que resolvemos editar uma portaria, que traz medidas práticas, concretas, a fim de que haja uma regulação desse serviço prestado à sociedade, especificamente no que se refere à prevenção de violência contra escolas", disse o ministro.
A antropóloga Fernanda K. Martins, diretora da área de Desigualdades e Identidades do InternetLab, concorda que tanto os ataques às escolas quanto a invasão às sedes dos três poderes, em Brasília, em 8 de janeiro de 2023, são assuntos importantes e exigem uma atuação que leve em consideração a gravidade que eles têm.
Por outro lado, ela afirma que, quando se observa esses eventos de maneira isolada, não se consegue dar conta de como as plataformas estão relacionadas a outros temas de forma complexa. Ela questiona, exemplificando: no caso dos ataques às escolas, como não cair em uma situação em que alguns educadores culpabilizem as redes sociais e pessoas do setor privado apontem problemas estruturais na educação, eximindo-se da responsabilidade?
"Acho que tem uma coisa aí que é a responsabilidade compartilhada. Não é possível que pensemos em um só setor que seja responsável pelo que está acontecendo. E além dos diferentes setores é preciso também fazer uma contextualização do que vem acontecendo no Brasil politicamente", afirma Fernanda K. Martins.
Em uma das pesquisas do InternetLab sobre desinformação, a antropóloga explica que os resultados mostraram que as pessoas sabem o que são fake news e têm a noção de que precisam confirmar as informações a que têm acesso. Porém, há uma diferença — inclusive geracional — sobre o que se entende como fonte confiável.
"Isso demonstra o quanto esses fenômenos da desinformação, do discurso de ódio e dos ataques, que vão justificando a criação de regulações, estão associadas a algo mais amplo. A polarização política atravessou o País e também se coloca como uma dessas explicações. Portanto, (é) uma dessas causas para que estejamos assistindo a esses efeitos", afirma.
O professor Marcelo Guedes Nunes, coordenador do Núcleo de Direito e Tecnologia da Pontifícia Universidade Católica de São Paulo (PUC-SP), corrobora com esse argumento de que, apesar da urgência dos acontecimentos que têm motivado a discussão sobre a regulamentação, a questão é mais complexa. Ele propõe pensar se os eventos específicos são, realmente, consequência direta apenas das plataformas digitais.
"O 8 de janeiro, por exemplo. 'Ah, foi uma tentativa de golpe.' Bom, se tem uma coisa que existe ao longo da história do Brasil é tentativa de golpe. A República Brasileira é uma sucessão quase constante de rupturas institucionais. Então, acho que temos que tomar cuidado também para não culpar, vamos dizer assim, as plataformas por alguma coisa que diz respeito à nossa índole mesmo, à nossa natureza", afirma.
O mesmo vale para os ataques em escolas. O professor aponta que "não há dúvidas" de que as redes sociais facilitam a comunicação, mas há outros meios pelos quais essas pessoas poderiam organizar-se. "Consequentemente, o que estamos observando nas escolas pode não ser uma consequência das plataformas, mas de outras mudanças sociológicas, comportamentais que estamos observando na sociedade. É uma possibilidade", complementa.
Sobre esses atentados a ambientes escolares, Fernanda aponta que muitas vezes eles são motivados pelo que se entende como uma "masculinidade que se pauta na violência" e em uma busca por reconhecimento de pares. E as redes sociais um local para se encontrar semelhantes.
"Vamos buscar desde pessoas que leiam literatura de forma semelhante à nossa até, no caso desses jovens, pessoas que compreendem o mundo a partir de uma perspectiva semelhante. Não dá para dizer que as plataformas não têm falhado. Elas têm falhado em observar quais são as possibilidades de algo que se concentra na internet extravasar para o mundo exterior, e acho que isso é uma falha que passa não só pelo trabalho das plataformas", afirma.
Para a antropóloga, essa também é uma falha no momento de se criar políticas, e deve-se atentar para tudo que possa ferir os direitos humanos e os direitos fundamentais, independentemente da possibilidade de extrapolar ou não a esfera online.
Além de citar o Código do Consumidor, a portaria do MJSP traz os conceitos de "dever geral de segurança e cuidado" e "risco sistêmico", que ainda não existem no ordenamento jurídico brasileiro. Eles constam na nova versão do PL das Fake News, apresentada pelo relator, o deputado federal Orlando Silva (PC do B), e protocolada duas semanas após a publicação da portaria do Ministério.
Nesse contexto, o pesquisador sênior de Direito e GovTech do Instituto de Tecnologia e Sociedade do Rio (ITS Rio), João Victor Archegas, avalia a portaria como um ato ilegal. "Portaria é ato administrativo e ato administrativo não inova no ordenamento jurídico. O que inova no ordenamento jurídico é lei", pontua.
"Eu entendo o argumento de que é urgente tratar sobre esse assunto, mas não podemos legislar com base em exceção. Não é só regulando plataformas digitais que vamos resolver esse problema, e não podemos usar isso como desculpa, como justificativa para simplesmente criar uma legislação com base em portaria. Isso não pode acontecer em hipótese alguma", defende o pesquisador.
Segundo o pesquisador, o dever de cuidado olha mais para riscos de sistema do que para conteúdos específicos. "Queremos saber se, enquanto o sistema, produto, serviço, a rede social está ou não fazendo o suficiente para evitar que determinadas condutas e crimes aconteçam tanto na esfera on-line quanto na esfera off-line em razão desses conteúdos", afirma.
Ele continua: "no todo, ela está fazendo um bom trabalho ou não? O que ela precisa fazer? Precisa aprimorar alguns sistemas, modificar alguns padrões dos seus algoritmos para não recomendar certos conteúdos que são nocivos? Essa construção tem que ser feita em uma nova regulação de plataformas digitais, que no nosso caso é o PL 2630."
Ao utilizar esses conceitos, tanto a portaria quanto o PL das Fake News estão olhando para a União Europeia, explica João Victor, onde o Digital Services Act (DSA) entrou em vigor em novembro de 2022 e terá eficácia a partir de fevereiro de 2024. Além disso, a Online Safety Bill (OSB) está em tramitação no Reino Unido.
Para a antropóloga Fernanda K. Martins, a portaria preocupa pelos precedentes que se abre quando se dá permissão ao Poder Executivo para pressionar as plataformas e solicitar dados para essas empresas "quando esse papel não é do Executivo".
Ela também considera que classificar as plataformas como prestadoras de serviço não dá conta do desafio que é compreender a transformação causada por essas tecnologias e pela internet em geral na comunicação.
"Assim como é falho tentar enquadrar simplesmente a partir do que se entende como televisão ou rádio. A proposta é outra. O cenário é diferente, então não dá para tentarmos voltar a valores e a formas de compreensão anteriores e criar uma espécie de bode expiatório para colocar todas as culpas relacionadas aos problemas que estamos vivendo", afirma.
Clique nos destaques para habilitar as anotações e em outro local da tela para escondê-las
A coordenadora do InternetLab aponta alguns problemas que percebe no documento. A falta de consulta à sociedade civil é uma dessas questões.
Outra é a criação de um banco de conteúdos ilegais sem que se considere o Poder Judiciário nessa equação e sem levar em conta que os ataques a escolas, normalmente, são realizados por menores de idade. "Nessa forma de ver, você está a um passo de flertar com uma redução da maioridade penal", avalia.
Ela também critica o parágrafo em que se aponta, durante a operação, o impedimento da criação de novos perfis por endereços de protocolo de internet (endereços IP) em que já foram detectadas atividades "ilegais, danosas e perigosas" relacionadas a conteúdos que incentivem ataques a escolas.
"Sabemos, por exemplo, que em muitas casas só há acesso a um computador. Quem (vai) acabar sendo abarcado por esse tipo de situação, na tentativa de remediar o que está acontecendo, vão ser famílias que têm só um IP na residência. Você passa para um punitivismo que também é um punitivismo alargado. Então não é só sobre um jovem, é sobre uma família", opina Fernanda.
Atualmente, a principal normativa brasileira sobre o uso da internet no Brasil é o Marco Civil da Internet (MCI) — a Lei n° 12.965/2014 — , que aborda a responsabilização civil das plataformas no artigo 19. Ele estabelece que essa responsabilização por danos causados por publicações dos usuários só poderá ocorrer se as plataformas não apagarem os conteúdos agirem após ordem judicial específica.
João Victor Archegas destaca a importância do artigo 19 e afirma que, sem ele, entra-se em um território de responsabilização das plataformas por "absolutamente todo tipo de conteúdo ilícito postado pelos usuários". Nesse caso, há dois problemas: o primeiro é o volume de informações, que impede que as empresas moderem todas as publicações para identificar o que é ou não ilícito. O segundo é que, mais uma vez, essa competência deve ser do Poder Judiciário.
"Se a plataforma corre o risco de ser responsabilizada pelo conteúdo dos seus usuários a qualquer momento, ela vai começar a agir para remover mais conteúdo e tentar se proteger. Qualquer conteúdo denunciado, notificado, que pareça minimamente ilegal, ainda que não seja de fato, vai ser removido pela plataforma. E aí, pronto, você acabou de criar um ambiente de censura na internet", afirma.
Apesar disso, o pesquisador defende que apenas artigo 19 não é o suficiente. E, de acordo com ele, é para dar conta de um cenário em que há uma série de distorções em termos de moderação — como o próprio caso da incitação de violência nas escolas — sem enfraquecer a garantia do artigo 19 que entra o dever de cuidado.
Diretor da Associação Brasileira de Jurimetria (ABJ), Marcelo Guedes Nunes participou de audiência pública no Supremo Tribunal Federal (STF) sobre a constitucionalidade do artigo 19, realizada no último 28 de março. Na ocasião, ele apresentou resultados de uma pesquisa cujo objetivo era avaliar o impacto da normativa em métricas quantificáveis, como o volume de processos, tempo de julgamento das ações e o perfil delas antes e depois do MCI.
Foram analisados 9 mil processos de cinco tribunais estaduais com data entre 2009 e 2019. O professor explica que, quando as redes sociais começaram a ser mais amplamente utilizadas, por volta de 2010, houve muita dúvida sobre quem deveria ser responsabilizado pelos conteúdos e não havia lei para amparar esses casos. Antes do MCI, então, havia grande quantidade de processos.
"Observamos uma aceleração e um aumento muito grande na quantidade de casos. (Por um lado havia) pessoas que tinham dúvidas sobre quem processar, se tinham algum fundamento para processar, e (por outro lado) você tinha muitas ações oportunistas. Porque a partir do momento que uma empresa grande serviria como uma espécie de 'fiadora' de tudo que você escreve na internet, isso gera incentivos muito ruins. E o segundo efeito ruim é você também entrar com a ação frívola", comenta.
Ao determinar quando a plataforma pode ser responsabilizada de fato, o artigo 19 teve impacto para o ajuste desses indicadores, com controle no volume das demandas judiciais. O perfil das ações também mudou a partir de 2014. A quantidade de ações propostas contra autores do conteúdo aumentou de 50% para 60%.
Para Marcelo, qualquer que seja a decisão tomada sobre a regulação da plataforma — manter como está ou aumentar as hipóteses em que a plataforma possa ser responsabilizada —, o complicado é mexer na estrutura estabelecida pelo MCI: o conceito de que a regra geral é que as redes sociais não são responsáveis pelo conteúdo, e que existem exceções legais e contratuais em que elas removem preventivamente a publicação.
"Outra razão do sucesso desse modelo regulatório é que conseguir identificar as exceções, as hipóteses em que a lei prevê essa responsabilização de maneira objetiva", argumenta o professor. Ele defende que essas cláusulas não sejam baseadas em sentimentos ou sensações, como "conteúdo de ódio".
"O ideal é que a regulação, para ser bem operada, seja o mais objetiva possível. Acho que, com isso, conseguimos, talvez, seguir um caminho em que nós preservamos os ganhos que foram obtidos com um Marco Civil da Internet desde 2014 até hoje e eventualmente poderemos testar e ver se conseguimos incrementar novos ganhos, aperfeiçoar ainda mais o sistema como ele vem funcionando", finaliza.
Fernanda K. Martins explica que, nos últimos anos, a "aposta" tem sido a autorregulação das plataformas e que, quando o debate começa a girar em torno do PL 2630, há uma tentativa, por parte do poder público, de desfazer o artigo 19 do marco civil da internet.
Na avaliação dela, o debate tem que ser feito, mas não dá para fazê-lo "sem perceber, por exemplo, que falar em responsabilidade de plataformas em um país em que a justiça é acessada por tão poucos também não é suficiente".
Complexos que são, nenhum desses assuntos tem uma solução definitiva que seja fácil e rápida. Tanto o 8 de janeiro quanto os ataques às escolas, para a diretora do InternetLab, são consequências de um caminho que foi trilhado e não grandes exceções. Por isso, a resolução passa pela desnaturalização do discurso de ódio e pela educação midiática. Tudo isso começando desde a infância.
Fernanda destaca a necessidade de uma atuação multisetorial. "É preciso entender o que se passa no contexto e nos sistemas das plataformas, é preciso entender que não é algo pontual, que não é uma ou outro acontecimento. E, é claro, é preciso também entender quais são os protocolo de emergência."
Apesar de a liberdade de expressão ser sempre destacada, junto à necessidade de que um conteúdo tenha determinadas características para ser removido, ela aponta que, no caso dos atentados às escolas não parece haver tanta exceção.
"Existem ataques, existem vídeos circulando que incentivam, existem pessoas que também estão elogiando os ataques, subindo hashtags. Acho que não dá para que isso continue dessa forma, mas essas medidas de exclusão de conteúdo, de moderar o conteúdo, são todas bastante paliativas", avalia.
Por parte das plataformas, ela aponta ser possível melhorar o canal de denúncias e articulação com a sociedade civil e com as universidades. Das escolas, ela aponta a necessidade de entender que vigiar mais os estudantes não vai, necessariamente, deixá-los mais seguros.
"É preciso que esse trabalho seja feito desde a primeira infância e continue, para que você desnaturalize a violência como meio de comunicação. E acho que isso está nas redes sociais, está na internet, mas também está fora da internet", complementa.
João Victor Archegas, por sua vez, afirma que o Governo poderia ter adotado outras medidas que não a edição da portaria do MJSP. Ele explica, inicialmente, que a abertura de um processo administrativo, no âmbito do Direito do Consumidor, poderia ter sido feita sem a criação da portaria.
"Não vai dar conta do problema como um todo porque não temos, no Brasil, uma regulação de plataformas que seja eficiente pra lidar com esse tipo de problema. O Direito do Consumidor não vai dar todas as respostas. Pode ser uma possível resposta em um cenário de urgência e emergência porque você precisa fazer alguma coisa, mas tem que ter muito certo que não vai ser o suficiente", afirma.
Outro caminho seria a judicialização, como especifica o artigo 19 do Marco Civil da Internet. "Entendo que pode ser frustrante, inclusive para o Governo, que quer dar uma resposta para a sociedade, ter que explorar uma dessas avenidas que são possíveis respostas mas são insuficientes, às vezes são demoradas. Mas o Direito funciona dessa forma", complementa.
O pesquisador defende, então, que esse momento sirva como "catalizador" para que a proposta do PL 2630 seja levado "a sério" e aprovado "em um tempo razoável". "O que o País precisa é de uma regulação em plataformas. Precisamos de mais segurança jurídica em relação a esse tema e só uma nova lei vai nos dar isso", finaliza.