sábado, dezembro 14, 2024
- Publicidade -spot_imgspot_img
HomePolíticaDebate sobre punição de big techs tem Brasil no epicentro - 24/02/2023...

Debate sobre punição de big techs tem Brasil no epicentro – 24/02/2023 – Poder

O Brasil está no centro da disputa global entre os defensores de novas leis de internet para punir as plataformas por conteúdo ilegal e aqueles que veem essa regulação como o fim da liberdade de expressão nas redes.

Em conferência da Unesco que discutiu diretrizes para regulação das redes nesta semana, ficou claro que há consenso apenas sobre a necessidade de regular a internet –todo o resto gera controvérsia.

De um lado da trincheira, algumas ONGs de defesa de liberdade de expressão, as plataformas e especialistas como David Kaye, ex-relator especial da ONU para o tema, advertem que punir as plataformas por conteúdos de terceiros, como pretende fazer a legislação em discussão pelo governo brasileiro, irá levar as empresas a remover postagens em excesso e acabará sendo uma autocensura. Eles também afirmam que governos usarão as diretrizes da Unesco para legitimar leis autoritárias contra fake news com o objetivo de silenciar opositores.

Já a prêmio Nobel da Paz Maria Ressa, a Unesco, autoridades europeias e brasileiras e parte das ONGs acham que sem responsabilização de plataformas por determinados conteúdos ilegais, elas vão continuar sem se esforçar para remover conteúdo de incitação à violência que ajudou a causar os ataques de 8 de janeiro no Brasil e 6 de janeiro de 2021 no Capitólio americano, além do genocídio dos muçulmanos rohyngia em Mianmar.

O ministro Luís Roberto Barroso, do STF (Supremo Tribunal Federal), posicionou-se no segundo grupo ao defender responsabilização das plataformas de internet antes de ordem judicial em casos de conteúdo que sejam incitação a crimes, terrorismo e pornografia infantil. Isso, na prática, seria uma flexibilização do Marco Civil da Internet.

O Marco Civil, de 2014, é a principal lei que regula a internet no Brasil e determina que as plataformas só podem ser responsabilizadas civilmente por conteúdos de terceiros se não cumprirem ordens judiciais de remoção.

Para Barroso, as empresas deveriam ter o dever de agir mesmo antes de ordem judicial em casos de postagens ilegais, inclusive conteúdo que viole a lei do Estado democrático de Direito, que proíbe pedidos de abolição do Estado de Direito, estímulo à violência para deposição do governo ou incitação de animosidade entre as Forças Armadas e os Poderes.

As medidas atualmente em discussão no governo brasileiro, que podem ser incorporadas ao projeto de lei 2630, o PL das Fake News, vão na mesma linha.

Um debate semelhante está em curso nos Estados Unidos, onde a seção 230 da Lei de Decência nas Comunicações de 1996 estabelece que as plataformas não podem ser responsabilizadas por conteúdos de terceiros, a não ser no caso de pornografia infantil.

Na época, era necessário criar essa imunidade, senão não haveria como as redes sociais prosperarem –poderiam ser processadas por qualquer conteúdo postado por terceiros. Agora, há um oligopólio de empresas gigantescas, mais poderosas que muitos governos.

Essa questão está em análise pela Suprema Corte dos EUA no caso Gonzalez x Google, em que a família de uma jovem morta em atentado terrorista em Paris quer que o YouTube seja responsabilizado pela morte, porque seu algoritmo de recomendação sugeria inúmeros vídeos de extremismo que poderiam ter radicalizado os terroristas.

O argumento é o de que o YouTube, pela seção 230, não é responsável pelo conteúdo terrorista de terceiros –mas o algoritmo de recomendação é de autoria do Google, então a empresa pode ser responsabilizada.

As diretrizes da Unesco enfatizam a necessidade de lidar com conteúdo que é ilegal e que representa ameaça à democracia e aos direitos humanos, ao contrário da versão atual do PL 2630, enquanto se garante a liberdade de expressão e o acesso à informação.

“A conferência mostra uma inflexão, um chamado urgente para repensar a legislação atual. Na esteira de ataques a jornalistas, como no caso da Maria Ressa, as minorias, em Mianmar, e à democracia, como ocorreu no Brasil, ficou claro como a estrutura de incentivos das plataformas recompensa a desinformação e o ódio, e não os fatos e a integridade da informação. Isso pode gerar consequências nefastas para os direitos individuais e nossa democracia”, diz Laura Schertel Mendes, presidente da comissão de direito digital da OAB e pesquisadora sênior da Universidade Goethe. “Precisamos achar o equilíbrio fundamental de cuidar do conteúdo ilícito, mas com base na lei, na proporcionalidade e liberdade de expressão.”

Ela diz acreditar que o PL 2630 não aborda muitas das questões sugeridas pela Unesco.

Em linha com algumas ideias em gestação no executivo brasileiro, essas diretrizes da Unesco geram resistência em parte de defensores da liberdade de expressão.

A Artigo19 afirmou ter “sérias preocupações” a respeito das diretrizes e exortou a Unesco a não propor as regras para os países, dizendo que elas “podem ser usadas por governos ao redor do mundo para justificar medidas repressivas”.

A entidade é contrária a qualquer flexibilização do Marco Civil ou da seção 230. “Não queremos dar ainda mais centralidade a plataformas, que terão mais incentivos para decidir que tipo de conteúdo retirar”, diz Paulo José Lara, coordenador de Direitos Digitais da Artigo19.

David Kaye acha que as leis existentes de direitos humanos dariam conta de muito do que se pretende fazer e que a Unesco deveria repensar a necessidade e urgência de publicar diretrizes.

No entanto, sem leis específicas, empresas continuarão isentas da maioria das punições por causa da imunidade conferida por leis como o Marco Civil e a seção 230.

A proposta do Ministério da Justiça, que deve ser incorporada ao PL das Fake News, prevê responsabilização e remoção proativa de conteúdos pelas plataformas. No entanto, não estabelece que as empresas seriam responsabilizadas civilmente por determinadas postagens em violação. As plataformas só seriam multadas se houvesse descumprimento generalizado do “dever de cuidado”.

São semelhantes a medidas previstas no DSA, legislação europeia adotada este mês, e a Lei de Segurança Online, em tramitação no Parlamento no Reino Unido.

“Considerando a realidade no Brasil de hoje, não dá para continuar achando que seja possível as plataformas não terem nenhum tipo de responsabilidade pelo conteúdo”, diz Bia Barbosa, integrante da Coalizão Direitos na Rede.

“Há 10 anos, quando o Marco Civil entrou em vigor (2014), era completamente diferente; hoje, com o uso que extremistas e governos autoritários fazem das plataformas, não dá para dizer que as empresas não podem ser responsabilizadas por esse conteúdo.”

A questão, diz Barbosa, é como regular. Ela defende que a lei brasileira defina de forma bastante específica que tipo de conteúdo as plataformas precisam derrubar. Em primeiro lugar, se a empresa lucra com esse conteúdo, tem que ser responsabilizada, acredita.

“Há lives no YouTube pedindo golpe de Estado e sendo monetizadas, anúncios que violam direitos; se houver crime, plataformas, além dos autores, poderão ser punidos.”

Para ela, não adianta deixar para as plataformas interpretarem a lei do Estado democrático de Direito e decidirem como vão moderar conteúdo. “É preciso uma lei específica para o ambiente digital, definindo de forma bem concreta o que configuraria atentado à democracia.”

E, para ela, é preciso ter um órgão regulador independente que vai fiscalizar se as plataformas estão implementando suas regras de forma diligente, mas sem violar liberdade de expressão. Esse órgão precisa ter representantes de todas as alas da sociedade, não pode ser só o governo. A mesma medida consta das diretrizes da Unesco.

No governo brasileiro, no entanto, não há consenso sobre o formato e a necessidade de criar um órgão regulatório que iria determinar se as plataformas cumpriram seu dever de cuidado e, caso contrário, deveriam ser alvos de multas.

Uma ala aponta que abordar conteúdo é necessário, mas não suficiente. A regulação deveria abordar o modelo de negócios das plataformas, os incentivos para as empresas amplificarem conteúdo que gera mais engajamento, que normalmente é aquele mais extremo ou polarizador.

Isso, no entanto, não resolve um problema central –hoje, os maiores disseminadores de incitação à violência são políticos e chefes de Estado como Donald Trump e Jair Bolsonaro. Eles têm contas com milhões de seguidores –não precisam de bots, microdirecionamento ou automação para amplificar suas mensagens.

“Se houver uma gradação do Marco Civil, precisamos de salvaguardas para não haver remoção indevida de conteúdo, como o direito a recorrer das decisões, por exemplo”, diz. “Mas é valido questionar por que o Marco Civil tem exceções nos casos de imagens íntimas não consensuais e direito autorais, mas não para outras coisas muito graves.”

Segundo Guilherme Canela, chefe da área de liberdade de expressão e segurança de jornalistas da Unesco, é preciso encarar a liberdade de expressão da maneira abrangente –liberdade não apenas para se expressar, mas, também, para procurar e obter informação.

“Quando somos inundados por desinformação e discurso de ódio, isso ameaça nosso direito a buscar e receber informação. É preciso ter um equilíbrio entre o direito à liberdade de expressão e outros direitos. Alguns discursos ameaçam a vida das pessoas.”


Entenda o que está em debate

Qual o debate sobre a regulação das redes sociais? Sob o impacto dos atos golpistas do 8 de janeiro, o governo Lula elaborou proposta de medida provisória que obriga as redes a removerem conteúdo que viole a Lei do Estado Democrático, com incitação a golpe, e multa caso haja o descumprimento generalizado das obrigações. Diante da resistência do Congresso, o Planalto recuou e discute incluir essas medidas do PL 2630, o chamado PL das Fake News.

O que é o Marco Civil da Internet? É uma lei com direitos e deveres para o uso da internet no país. O artigo 19 do marco isenta as plataformas de responsabilidade por danos gerados pelo conteúdo de terceiros, ou seja, elas só estão sujeitas a pagar uma indenização, por exemplo, se não atenderem uma ordem judicial de remoção. A constitucionalidade do artigo 19 é questionada no STF.

Qual a discussão sobre esse artigo? A regra foi aprovada com a preocupação de assegurar a liberdade de expressão. Uma das justificativas é que as redes seriam estimuladas a remover conteúdos legítimos com o receio de serem responsabilizadas. Por outro lado, críticos dizem que a regra desincentiva as empresas e combater conteúdo nocivo.

A proposta do governo impacta o Marco Civil? O entendimento é que o projeto abra mais uma exceção no Marco Civil. Hoje, as empresas são obrigadas a remover imagens de nudez não consentidas mesmo antes de ordem judicial. O governo quer que conteúdo golpista também se torne uma exceção à imunidade concedida pela lei, mas as empresas não estariam sujeitas à multa caso um ou outro conteúdo violador fosse encontrado na plataforma.

Como funciona em outros países?

  • EUA: A legislação imuniza as plataformas por conteúdos de terceiros, e também não responsabiliza as empresas caso o conteúdo seja removido em boa-fé. O texto foi criado para evitar que as redes sociais fossem processadas por qualquer conteúdo postado. Agora, projetos e ações na Justiça discutem ampliar a responsabilidade das plataformas.
  • União Europeia: A diretiva de e-commerce da UE, de 2000, estabelece que as redes só podem ser responsabilizadas por conteúdo de terceiros se souberem da existência dele e não remover, ou seja, só é necessário retirar a publicação, por exemplo, se receber uma denúncia de um usuário e não agir. A lei de serviços digitais, vigente a partir deste mês, mantém essa imunidade, mas estabelece uma série de obrigações que devem ser cumpridas pelas plataformas, como relatórios de transparência, e demonstração de conteúdos danosos removidos.
  • Reino Unido: Empresas não podem ser punidas por danos causados por conteúdo de terceiros. Uma proposta em tramitação estatui que as plataformas terão o “dever de cuidado” de remover conteúdo ilegal mesmo antes de receberem denúncias. As empresas precisam garantir que seus próprios termos de uso são aplicados. E os usuários têm o direito de recorrer das decisões de moderação.

Fonte: Câmara dos Deputados

LEIA MAIS
- Publicidade -spot_img

Mais Lidas