Marcelo Bechara /Diretor de Relações Institucionais e Regulação do Grupo Globo
Thaís Marçal / Especialista em Relações Institucionais e Regulação do Grupo Globo
O ano de 2023 ficará marcado como aquele em que as Supremas Cortes brasileira e estadunidense julgaram as pedras fundamentais do desenvolvimento da Internet. No Brasil, o artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014 – MCI); nos Estados Unidos, a Seção 230 do Communications Decency Act, de 1996, já não são mais capazes de lidar com os desafios atuais da responsabilização das gigantes de tecnologia em face de danos causados por conteúdos disponibilizados na rede.
Em março de 2023, o Supremo Tribunal Federal (STF) realizou audiência pública com especialistas para debater as regras do Marco Civil da Internet.
A matéria é objeto de dois Recursos Extraordinários – REs 1.037.396/SP e 1.057.258/MG – sob a relatoria dos Ministros Dias Toffoli e Luis Fux, respectivamente – que discutem a) o regime de responsabilidade de provedores de aplicativos ou de ferramentas de Internet pelo conteúdo gerado pelos usuários e b) a possibilidade de remoção de conteúdos que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas a partir de notificação extrajudicial
O cerne da questão é o Marco Civil da Internet, especificamente o artigo 19, que assim dispõe: “com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente”.
Além disso, o §1º do dispositivo determina que a exclusão de conteúdos fica condicionada, sob pena de nulidade, à ordem judicial que deverá indicar de forma clara e específica o conteúdo apontado como infringente para ser removido.
Uma das teses centrais dos diversos atores que advogam em defesa da constitucionalidade do art. 19 do MCI é de que, caso o dispositivo seja declarado inconstitucional pelo Supremo Tribunal Federal ocorrerá o chamado efeito resfriador ou chilling effect.
Isto é, a adoção pelas plataformas de postura favorável à supressão e à remoção de conteúdos de forma excessiva, com o fito de afastar que sejam responsabilizadas juridicamente pelo conteúdo publicado por terceiros.
Assim argumentam que o uso amplo do mecanismo de notice and takedown (mais recentemente atualizado para notice and take action), o qual se baseia somente em uma simples notificação extrajudicial, ao invés de promover a liberdade de expressão e de informação pode resultar na remoção de conteúdos lícitos.
Forçoso ressaltar que, o raciocínio do efeito resfriador foi amplamente abordado ao longo dos dois dias de Audiência Pública no tribunal.
Representantes enfatizaram que o chilling effect é muito mais intuitivo do que empiricamente demonstrado. Anderson Schreiber, representante da Clínica de Responsabilidade Civil, da Uerj, destacou que tal efeito ocorre comumente apenas nas notificações baseadas na violação de direitos autorais, mas não naquelas que tem por base a lesão a direitos da personalidade como a honra, a privacidade e a imagem.
Já Lincoln Macário, representante da ABCPública, em face da alegação reiterada das plataformas que sem o artigo 19, elas passariam a remover os conteúdos controversos, cravou que isso não seria crível, pois são justamente os conteúdos controversos que geram visualização e tem maior engajamento e, portanto, rentabilizam mais.
Ademais, coube ao representante da Associação Brasileira de Centros de Inclusão Digital (ABCID), trazer o entendimento internacional sobre o assunto.
Nas palavras dele:“(…) o professor Martin Eifert, da Universidade de Berlin e atual ministro da Corte Suprema Alemã, analisou também empiricamente os dados e apagamentos na seara Direitos autorais, nos Estados Unidos, em 2019, presente na obra ‘Fake News e Regulação’, ele afirma que os resultados são muito claros por lá, a tendência de excessivos apagamentos e bloqueios é evidente em procedimentos automatizados, em procedimentos manuais isso não é comprovado. Em artigo de 2013, publicado na William & Mary Law Review, Lesley Kendrick, da Universidade de Virgínia, diz que a teoria dos efeitos resfriadores é intuitivamente atraente, mas observa que ela se funda em nada mais, do que suposições empíricas não persuasivas. Em artigo de 2018, publicado na First Amendment Law Review, Mary Anne Franks, da Universidade de Miami, complementa que evidência objetiva de resfriamento é difícil de encontrar e que esse é um fato preocupante a luz de tanta influência que a teoria tem no Direito e nas decisões de políticas públicas (…) Anne Franks chega a dizer que o medo exagerado de efeitos silenciadores produziu, o que pode ser chamado, o efeito estufa, que seria exatamente uma abordagem excessivamente solícita para com a liberdade de expressão e que cultiva esse direito em ambiente artificialmente isolado”
Por outro lado, os que sustentam a inconstitucionalidade do art. 19 do Marco Civil da Internet apontam uma afronta direta a valores constitucionais, a exemplo da dignidade da pessoa humana (art. 1º, III), do direito de resposta, proporcional ao agravo, além da indenização por dano material, moral ou à imagem (art. 5º, V), da inviolabilidade da intimidade, da vida privada, da honra e da imagem das pessoas, assegurado o direito a indenização pelo dano material ou moral decorrente de sua violação (art. 5º, X) e da defesa do consumidor (art. 5º, XXXII).
Em resumo, o debate apresenta duas interpretações possíveis acerca do artigo 19: o ordenamento jurídico brasileiro faz deferência a liberdade de expressão e, portanto, estaria justificada a necessidade de ordem judicial para remoção de conteúdos; ou devese assumir o retrocesso da via judicial e aperfeiçoar o remédio para a tutela da dignidade da pessoa humana na rede.
A grande verdade é que o MCI mobiliza paixões. Nesse sentido, muitos adotaram uma postura de “sacralidade” frente ao Marco Civil não somente pela sua relevância para a governança do ecossistema da Internet no Brasil, mas também pelo contexto em que foi idealizado e apreciado.
O Marco Civil é fruto de um longo processo de discussão multissetorial originado em 2009, dois anos após a suspensão das atividades do Youtube no país, pelo período de 48 horas, por determinação judicial por não remover um vídeo que mostrava a modelo Daniela Cicarelli em momentos íntimos com seu então namorado em uma praia na Espanha.
O primeiro grande imbróglio jurídico relacionado a Internet brasileira a chegar no STF provocou uma enorme onda de protestos dos milhares de usuários da rede social de compartilhamento de vídeos do Google, que foram impossibilitados de acessar a plataforma em função de interesses particulares.
O trauma regulatório motivou o Comitê Gestor da Internet no Brasil (CGI.br) a elaborar a Carta de Princípios do CGI.br, que após 2 anos de intensos debates culminou, em 2009, na publicação dos “10 Princípios para a Governança e Uso da Internet”.
Por sua vez, o Decálogo de Princípios do CGI.br foi uma das referências para o discurso da então Presidente Dilma Rousseff na abertura da 68ª Assembleia Geral da ONU, em 2013.
O pronunciamento serviu como um recado para a comunidade internacional de como o país iria tratar a questão da vigilância da NSA, após as revelações de Eduard Snowden, mas também como resposta às manifestações populares de junho daquele mesmo ano e ao debate interno, já que na época estava em discursão o projeto de lei que tratava do Marco Civil da Internet.
O MCI tramitou por quatro anos no Congresso Nacional, e foi finalmente sancionado por Dilma em 2014, durante o evento Net Mundial sediado no Brasil, na cidade de São Paulo.
Todavia, observa-se um crescente movimento daqueles que entendem que o modelo de 2014 está em nítido descompasso com a conduta questionável das mídias sociais e com os conflitos associados à concentração de poder nas mãos dessas empresas. Torna-se embaraçoso constatar que o art. 19 tem sido usado como bula de remédio contra qualquer tentativa de tornar a Internet mais decente no Brasil.
Inspirado de forma equivocada pelo princípio #7 do Decálogo CGI.br, que trata da inimputabilidade da rede – e não das mídias sociais –, o dispositivo acabou por criar um regime de responsabilidade em que, na prática, blindou as plataformas digitais pelo seu negócio, salvo uma necessária ordem judicial.
Coube ao parágrafo 2º do art. 19 e ao art. 21 criarem exceções específicas: direito autoral e conteúdo íntimo de cunho sexual. Nesses casos, a responsabilidade das mídias sociais emergiria da ciência ou da notificação extrajudicial.
Eu me alinho com os que entendem pela inconstitucionalidade do art. 19 como se encontra. Isso porque o dispositivo cria um escudo em defesa não da liberdade de expressão, como se imaginava e muitos ainda defendem, mas do próprio negócio das empresas de tecnologia.
Enquanto não se obtém qualquer medida judicial, questões de racismo, discriminação, polarização política, discurso de ódio, disseminação de inverdades e a incitação à violação de direitos coletivos ficam expostos e são rentabilizados nas redes.
Indiscutivelmente, o artigo 19 do MCI relativiza importantes valores constitucionais, dando prioridade à liberdade de expressão em detrimento da privacidade e da intimidade, como observa-se no próprio caput do art. 19, sem restar dúvidas quanto a essa orientação.
Nesse sentido, Marcelo Bechara questiona os dispositivos legais que já se iniciam com explicações e complementa: “a liberdade de expressão é um dos princípios que norteiam toda a lei prevista, inclusive, no inciso I do art. 3º. (…) estamos falando de um valor consagrado como clausula pétrea constitucional”.
Frisa-se, o artigo 19 é um dispositivo que nasce com sua inconstitucionalidade, a partir do momento em que relativiza de forma irresponsável a dignidade da pessoa humana vilipendiando a sua honra e a sua imagem.
Vou deixar ainda mais claro: melhor ter uma foto íntima exposta na Internet ou um conteúdo de direito autoral publicado de forma ilegítima, pois basta uma simples notificação à plataforma para que ela seja responsável, do que ter a honra atacada, ser vítima de racismo ou ter a dignidade vilipendiada na rede, pois desta forma será preciso recorrer a uma ordem judicial.
Isso sem falar que a defesa do consumidor é escanteada, vez que o usuário hipossuficiente fica em segundo plano frente às plataformas digitais blindadas no regime de responsabilidade que, apesar de danos imediatos, ficam imunes até ordem judicial que trate da remoção.
A situação nos Estados Unidos, por sua vez, igualmente envolve dois casos: Twitter vs. Taamneh e Gonzalez vs. Google – que questionam a abrangência da Seção 230 do Communications Decency Act (CDA).
A legislação foi sancionada pelo ex-presidente norte-americano Bill Clinton como uma resposta do Congresso a dois processos judiciais julgados em Nova York, no início dos anos 90, que tiveram resultados conflitantes.
Muitos consideram que a Seção 230 do CDA impulsionou o desenvolvimento das plataformas digitais e a expansão da Internet, permitindo que se desenvolvessem como as conhecemos atualmente.
Contudo, a Seção 230 passou a ser percebida como garantidora de imunidades excessivas às plataformas, em especial após a ascensão e o gigantismo alcançado pelas big techs (FAANG, BAT, Twitter, Microsoft, TikTok, entre outras).
Nesse sentido, recentemente o presidente Joe Biden sugeriu que o Congresso Americano poderia encontrar um terreno comum entre democratas e republicanos para a proteção da privacidade dos cidadãos e pediu “ação bipartidária do Congresso para responsabilizar as big techs”, incluindo a alteração da Seção 230 para tornar as empresas mais responsáveis pelo conteúdo que hospedam.
A Seção 230 do CDA é dividida em duas partes: Seção 1) que fixa que as plataformas não podem ser responsabilizadas por conteúdos de terceiros, porque tais empresas não podem ser equiparadas a editores de conteúdos; e Seção 2) que concede imunidade para que as plataformas façam a moderação de conteúdos, removendo ou restringindo conteúdo de seus serviços que considerem obsceno, lascivo, excessivamente violento, assediante ou censurável, independentemente de tal material estar protegido constitucionalmente, desde que ajam “de boa fé” nessa ação.
Em geral, os tribunais dos EUA adotaram a abordagem de que as plataformas digitais que possibilitam comentários não são responsáveis pelas postagens de seus usuários, bem como também entendem que as plataformas têm amplos direitos para remover qualquer conteúdo, e foi assim, por exemplo, que após a invasão do Capitólio em janeiro de 2021 por apoiadores de Donald Trump, todas as grandes plataformas decidiram remover publicações e suspender a conta do ex-presidente estadunidense.
A propósito, esse evento é um exemplo claro e recente do debate em torno do poder das redes sociais decidirem o conteúdo que pode ser veiculado, quem pode usá-las para publicar e qual alcance deve ser dado a cada informação.Outra situação ocorreu em junho de 2016, no referendo sobre o Brexit.
Naquela ocasião, as redes sociais já tinham dado mostras da sua capacidade de influenciar a opinião pública mediante o impulsionamento de conteúdo pago e direcionado para determinados grupos, o alto engajamento promovido pelos algoritmos para conteúdos polêmicos e os perfis-robôs, além dos falsos.
Damian Collins, presidente da Comissão de Cultura, Digital, Mídia e Esporte da Câmara dos Comuns – órgão que interrogou o Facebook por vários meses, no âmbito de uma investigação sobre o fenômeno das fake news e seu impacto no referendo – destacou na ocasião de que era necessária uma mudança radical no equilíbrio de poder entre as plataformas e as pessoas, uma vez que “a era da autorregulação inadequada deve chegar ao fim”.
Remoção de conteúdo também ocorreu durante a pandemia da COVID-19, uma vez que as redes sociais como o YouTube, Facebook e Instagram excluíram conteúdos gerados por seus usuários mundo afora rotulados pela própria plataforma de fake news ou hate speech, sem prévia notificação, porém conforme parâmetros dos termos de serviço, de uso e de conduta das próprias plataformas.
Além de excluir conteúdo, as big techs também recomendaram postagens para grupos e comunidades específicas com desinformação eleitoral e propaganda terrorista.
As primeiras sessões dos casos Gonzalez vs. Google e Twitter vs. Taamneh foram realizadas, respectivamente, nos dias 21 e 22 de fevereiro, de 2023, quando os juízes puderam ouvir os argumentos das partes a favor e contra o regime de responsabilidade e obrigações das redes sociais.
As decisões para ambos os casos são esperadas até o final de junho, contudo vale manter uma informação em mente: a composição da Suprema Corte mudou sob o mandato de Donald Trump, que durante a sua gestão nomeou três juízes alterando, assim, o equilíbrio entre conservadores e liberais no tribunal.
Cenário confirmado por estudo publicado pela revista da National Academy of Science (PNAS), que indicou que a corte nos últimos dois anos “tornou-se muito mais conservadora do que o público americano”.
Os Estados Unidos e o Brasil têm muito em comum e caminham juntos no desafio de finalmente levar a julgamento, nas mais altas cortes de seus países, o mesmo tema: responsabilidade das plataformas digitais.
Trata-se de um esforço regulatório que pode aproximar o Brasil e os EUA da Europa, que aprovou, em abril de 2022, a Lei dos Serviços Digitais (DSA – Digital Services Act, em inglês) para controlar o poder das plataformas digitais.
Christel Schaldemose, deputada dinamarquesa e relatora DAS no Parlamento Europeu, destacou que a lei impõe novas regras para responsabilizar as big techs pela disseminação de conteúdos ilegais e pelos riscos suscitados pelos seus serviços para a sociedade e os cidadãos.
Dentre as medidas, o principal destaque é que as empresas de tecnologia terão que fornecer informações às autoridades reguladoras e aos pesquisadores independentes sobre a moderação de conteúdo e os algoritmos de recomendação.
Nas palavras dela: “Durante muito tempo, os gigantes da tecnologia se beneficiaram da ausência de regras. O mundo digital se transformou em um Velho Oeste, com os maiores e mais fortes definindo as regras. Mas há um novo xerife na cidade – o DSA.
Agora regras e direitos serão fortalecidos. Estamos abrindo a caixa preta dos algoritmos para que possamos dar uma olhada adequada nas máquinas de fazer dinheiro por trás dessas plataformas sociais.”
O sentimento geral é de que mudanças são necessárias, vez que a imunidade criada nos longínquos anos 90 pela Seção 230 e a evolução do Caso Cicarelli que resultou no MCI, não atendem mais aos anseios da sociedade.
Com a lentidão dos processos legislativos e situações como terrorismo, ódio, insurreição, ataques no mundo real orquestrados e estimulados pelo virtual, caberá às Supremas Cortes modularem os níveis de responsabilidade para uma Internet bem diversa do passado.
Nos EUA, o evento do Capitólio em janeiro, de 2021, que resultou em mortes mostrou onde uma sociedade inflamada por desinformação pode chegar. Não muito diferente, por aqui, o fatídico 8 de janeiro de 2023 resultou na depredação nas sedes dos Poderes, inclusive judiciário.
O mesmo plenário do STF que foi absolutamente destruído, logo recomposto, servirá de palco para apreciação do artigo 19 do MCI.Passados 28 anos da Internet comercial, 27 da Seção 230 e quase 10 do Marco Civil da Internet é chegada a hora dos Ministros se debruçarem sobre a dimensão, importância e influência desses negócios disruptivos e inovadores em nossas vidas.
No fundo, julgarão se precisamos salvar a Internet de si própria.A Internet nasceu e ainda sofre influência de valores libertários. A leitura da Declaração de Independência do Ciberespaço de 1996, em Davos por John Perry Barlow19, consegue nos dar uma noção de como era a fase romântica da grande rede.
Naquele horizonte ninguém imaginava a concentração de poder e dados nas mãos de poucas gigantes globais conglomeradas em atividades diversas.O mundo mudou muito e a Internet muito mais, contribuindo decisivamente para moldar essa mudança.
A liberdade que se almejava ainda é um valor a ser perseguido. Contudo, as ferramentas de imunidade importantes para chegarmos até aqui não servem mais.
E já há algum tempo.O elemento balizador para preservação da liberdade é a responsabilidade. A Suprema Corte Americana já discute a Seção 230 e, recentemente, o STF pautou para o dia 17 de maio de 2023 o julgamento dos REs 1.037.396/SP e 1.057.258/MG, que discutem a responsabilização de provedores de aplicativos, plataformas digitais e afins, por danos decorrentes de atos ilícitos de seus usuários, além da possibilidade de remoção de conteúdos que possam ofender direitos de personalidade, incitar o ódio ou difundir notícias fraudulentas a partir de notificação extrajudicial.
A medida ocorre após pressão das big techs para que o Projeto de Lei (PL) nº 2630/2020, que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, não seja deliberado no Congresso Nacional.
Como serão os resultados dos julgamentos nas Supremas Cortes somente o tempo dirá. Contudo, mesmo que os dispositivos sigam inalterados por decisão da maioria de seus membros, jamais serão os mesmos.
Indubitavelmente serão debatidos e, possivelmente, alterados pelos parlamentos americano e brasileiro, seguindo os passos da Europa.
Se há um consenso que se forma pelo mundo como um todo é que algo deve ser feito. E quando esse consenso se formar é porque já estaremos atrasados.
_______________________
1 Tema 987 de Repercussão Geral no STF, versando “sobre a constitucionalidade do art. 19 da Lei 12.965/2014 (Marco Civil da Internet) que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros”. https://portal.stf.jus.br/jurisprudenciaRepercussao/verAndamentoProcesso.asp?incidente=5160549&nu meroProcesso=1037396&classeProcesso=RE&numeroTema=987 Acesso em 19 de abril de 2023.
2 Tema 533 de Repercussão Geral no STF, que discute o “dever de empresa hospedeira de sítio na internet fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerando ofensivo, sem intervenção do Judiciário”. https://portal.stf.jus.br/jurisprudenciaRepercussao/tema.asp?num=533 Acesso em 19 de abril de 2023.
3 Vozes da Regulação: Audiência Pública no STF – Transcrição do segundo dia, 29 de março. Página 17. https://itsrio.org/wp-content/uploads/2023/04/Vozes-da-Regula%C3%A7%C3%A3o_-Audi%C3%AAnciaP%C3%BAblica-no-STF_29-03-2023.pdf Acesso em 21 de abril de 2023.
4 Vozes da Regulação: Audiência Pública no STF – Transcrição do primeiro dia, 28 de março. Página 75. https://itsrio.org/wp-content/uploads/2023/04/Vozes-da-Regula%C3%A7%C3%A3o_-Audi%C3%AAnciaP%C3%BAblica-no-STF_28-03-2023-.pdf Acesso em 21 de abril de 2023.
5 Vozes da Regulação: Audiência Pública no STF – Transcrição do segundo dia, 29 de março. Página 13. https://itsrio.org/wp-content/uploads/2023/04/Vozes-da-Regula%C3%A7%C3%A3o_-Audi%C3%AAnciaP%C3%BAblica-no-STF_29-03-2023.pdf Acesso em 21 de abril de 2023
6 Princípios para a governança e uso da Internet do Comitê Gestor da Internet no Brasil – CGI. Br https://principios.cgi.br/ Acesso em 19 de abril de 2023.
7 Íntegra do discurso da Presidente Dilma Rousseff na ONU (2013). https://www.gov.br/mre/ptbr/centrais-de-conteudo/publicacoes/discursos-artigos-e-entrevistas/presidente-darepublica/presidente-da-republica-federativa-do-brasil-discursos/discurso-da-presidenta-da-republicadilma-rousseff-na-abertura-do-debate-geral-da-68-assembleia-geral-das-nacoes-unidas Acesso em 21 de abril de 2023.
8 Marcelo Bechara. Uma verdade inconveniente para a pirataria. Blog pessoal. https://marcelobechara.com.br/uma-verdade-inconveniente-para-a-pirataria/ Acesso em 21 de abril de 2023
9 HOBAIKA, M. “Buracos Negros Digitais: A responsabilidade como defesa à livre expressão e combate à censura na internet”. Produção Independente (2020). p.9
10 Twitter, Inc., Petitioner v. Mehier Taamneh, et al. Case number: 1817192. https://www.supremecourt.gov/docket/docketfiles/html/public/21-1496.html Acesso em 23 de abril de 2023
11 Reynaldo Gonzalez, et al., Petitioners v. Google LLC. Case number: 1816700. https://www.supremecourt.gov/docket/docketfiles/html/public/21-1333.html Acesso em 23 de abril de 2023
12 Communications Decency Act, 47 U.S.C. §230. http://www.columbia.edu/~mr2651/ecommerce3/2nd/statutes/CommunicationsDecencyAct.pdf Acesso em 19 de abril de 2023
13 Caso CompuServe vs. Cubby (1991) e Stratton Oakmont vs. Prodigy Servs (1995) Resumo dos casos: https://www.lawpipe.com/U.S.-Federal-Courts/Cubby_Inc_v_CompuServe_Inc.html e https://www.lexisnexis.com/community/casebrief/p/casebrief-stratton-oakmont-v-prodigy-servs-co Acesso em 24 de abril de 2023
14 Republicans and Democrats, Unite Against Big Tech Abuses. The Wall Street Journal. 2023. https://www.wsj.com/articles/unite-against-big-tech-abuses-social-media-privacy-competition-antitrustchildren-algorithm-11673439411?utm_source=The+Shift+Newsletter&utm_campaign=26e69cb78fEMAIL_CAMPAIGN_2023_01_23_09_43&utm_medium=email&utm_term=0_-26e69cb78f- %5BLIST_EMAIL_ID%5D Acesso em 24 de abril de 2023
15 Original Seção 230: “(2) Civil liability – No provider or user of an interactive computer service shall be held liable on account of— (A) any action voluntarily taken in good faith to restrict access to or availability of material that the provider or user considers to be obscene, lewd, lascivious, filthy, excessively violent, harassing, or otherwise objectionable, whether or not such material is constitutionally protected; or (B) any action taken to enable or make available to information content providers or others the technical means to restrict access to material described in paragraph (1). Acesso em 24 de abril de 2023
16 Após escândalo do Facebook, Reino Unido quer órgão regulador para redes sociais. 2022 https://oglobo.globo.com/economia/tecnologia/apos-escandalo-do-facebook-reino-unido-quer-orgaoregulador-para-redes-sociais-23460799 Acesso em 24 de abril de 2023
17 A decade-long longitudinal survey shows that the Supreme Court is now much more conservative than the public. Edited by Beth Simmons, University of Pennsylvania, Philadelphia (2022) https://www.pnas.org/doi/10.1073/pnas.2120284119 Acesso em 24 de abril de 2023
18 Íntegra da Lei de Serviços Digitais (Digital Services Act – DSA) https://eur-lex.europa.eu/legalcontent/PT/TXT/PDF/?uri=CELEX:32022R2065&from=EN Acesso em 22 de abril de 2023
19 A Declaration of the Independence of Cyberspace. John Perry Barlow. 1996. https://www.eff.org/ptbr/cyberspace-independence Acesso em 24 de abril de 2023