Quando uma plataforma escolhe impulsionar alguma
informação, deveria ser responsável
O Supremo Tribunal Federal volta nesta semana ao julgamento
do artigo 19 do Marco Civil da Internet. A primeira frase, assim posta, parece
coisa em burocratês do tipo muito difícil de entender. Mas não é difícil de
entender que a decisão pode mudar radicalmente a maneira como entendemos
internet no Brasil. O que está em jogo é o debate que temos todos,
coletivamente, tido insistentemente nos últimos anos: qual a responsabilidade
das plataformas digitais pelo que é publicado nelas.
A interpretação habitual do artigo 19 diz que é nenhuma:
— O provedor somente poderá ser responsabilizado civilmente
por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial
específica, não tomar as providências.
É o que diz o texto da lei. Quer dizer, a não ser que venha
uma ordem de juiz, devidamente assinada e com todos os carimbos, as redes
sociais não são obrigadas a fazer nada.
Ainda assim, com alguns tipos de conteúdo,
elas escolhem fazer um bocado. Ninguém encontra pornografia no YouTube. Ou
no Instagram.
Ou no TikTok.
Não é porque ninguém tente botar esse tipo de coisa lá. Muitos tentam, muitos
milhares de vezes por hora. No primeiro trimestre de 2023, segundo números da
própria plataforma, o YouTube retirou 9,1 milhões de vídeos que violavam suas
regras internas. Porção significativa eram vídeos adultos que ninguém jamais
viu. Os algoritmos do sistema reconhecem pornografia imediatamente. Quem sobe o
vídeo não consegue torná-lo público. Ocorre o equivalente no Instagram ou
no Facebook.
Ainda assim, há uma quantidade considerável de desinformação
no mundo digital. Há conteúdo que radicaliza a população, principalmente os
jovens. Há material que leva adolescentes a crises muitas vezes dolorosas,
algumas vezes fatais, a respeito de seus corpos. Há crianças vendo anúncio de
casas de apostas digitais, as bets. Há toda sorte de problema nas plataformas.
Só que, da maneira como o artigo 19 é interpretado hoje, elas são terra sem
lei. Não são responsáveis por nada, a não ser que um juiz diga o que devem
fazer.
É o que está em julgamento. A lei é assim mesmo? Vale como
está e assim ficará? É constitucional?
A Advocacia-Geral da União pediu que o artigo 19 fosse
declarado inconstitucional por inteiro. Alguns advogados que acompanham o
processo temem que os ministros decidam seguir esse caminho. É ruim. Nenhuma
plataforma terá segurança jurídica para nada, talvez o incentivo as torne
excessivamente censoras. Além disso, exigiria posição de um Congresso Nacional
onde esse tipo de tema é inflamável.
Quando a lei surgiu, a internet era diferente. Já havia
algoritmos, claro, mas eles eram incipientes. Não faziam cócegas. Conteúdo
publicado por terceiros era, principalmente, comentário em blogs. Mesmo as
postagens nas redes eram vistas, principalmente, pelos amigos. Por gente que
conhecia quem publicava. Os algoritmos mudaram o jogo. Por meio deles, as
plataformas criam grandes audiências. Os algoritmos decidem qual conteúdo será
visto por milhões e qual terá visibilidade zero. Quando um TikTok ou um Insta
decidem que um vídeo com desinformação alcançará grandes audiências, a
responsabilidade não é só de quem se filmou mentindo. É também de quem escolheu
mostrar aquilo para gente à beça.
Há soluções alternativas. Uma é criar uma lista de temas
delicados. Desinformação sobre vacinas em meio a pandemia, por exemplo. É como
já fazem com pornografia por vontade própria. Para certos assuntos, as
plataformas têm um tipo de responsabilidade legal. É o que já acontece com
direitos autorais. Ninguém ganha dinheiro explorando a música de terceiros.
Elas seriam legalmente responsáveis naqueles temas da lista. Para outros
assuntos, vale a regra atual.
Outra possibilidade intermediária é a notificação
extrajudicial. Alguém se sentiu prejudicado por alguma postagem? Notifica por
meio do sistema. A partir daquela notificação, a plataforma é responsável por
quaisquer danos que houver.
No fim das contas, é o ônus de fazer negócios. Jornais são
juridicamente responsáveis por quaisquer danos que venham do que publicam.
Quando uma plataforma escolhe impulsionar alguma informação, deveria ser
responsável. Porque impulsionar, mostrar para muita gente, é essencialmente uma
decisão editorial. É igual ao jornal que escolhe qual artigo publicar e qual
não.
Derrubar por completo é ruim. Organizar a interpretação do
artigo 19 é a melhor solução.

Nenhum comentário:
Postar um comentário