Carlos Alves Müller, O Globo
Há dias, “The Australian”, um dos principais jornais da
Austrália, publicou reportagem sobre um documento da filial do Facebook sobre
como identificar adolescentes emocionalmente frágeis. A “metodologia” teria
sido oferecida a anunciantes como ferramenta de marketing segmentado,
procedimento passível de ser enquadrado criminalmente como abuso contra pessoa
vulnerável.
O Facebook respondeu que “não oferece ferramentas para
chegar a pessoas com base em seu estado emocional”, mas admitiu a existência de
uma “análise, feita por pesquisador australiano com o objetivo de ajudar
marqueteiros a entender como as pessoas se expressam no Facebook”.
Não é a primeira vez que o Facebook, como outras redes
sociais e buscadores, recorre a chicanas para eximir-se de responsabilidade.
Foi o que ocorreu com recentes casos de assassinato (de um idoso nos EUA, e de
um bebê, na Tailândia) cujas imagens foram postadas ao vivo; com grupos de
pedofilia no mesmo Facebook, como denunciado pela BBC, e com anúncios
(inclusive públicos), exibidos em sites promotores de ódio e terrorismo. E é o
caso da propagação em escala industrial de notícias falsas e fraudes nos dados
de visualização de publicidade, com o uso de robôs.
O argumento para eximir-se de responsabilidade é tão falso
quanto a “notícia”: “Marisa fotografada na Itália. Morte da mulher de Lula é
mentira, Entenda!”, difundida pelo site “Pensa Brasil”, notória fonte de
notícias falsas, como revelado pela “Folha de S.Paulo” em 19/2 último. Não por
acaso, se você digitar “Pensa” no Google, como fiz em 07/5, a primeira opção
oferecida pelo buscador é... “Pensa Brasil”.
Não há neutralidade técnica ou axiológica nas redes sociais
e buscadores como pretendem. Os resultados são frequentemente manipulados.
São provas disso o processo contra o Google que tramita na
União Europeia, evidenciando que sites de negócios do próprio buscador têm
prioridade sobre os dos concorrentes, e as notícias falsas disseminadas pelo
Facebook na campanha eleitoral americana.
O argumento também é falso porque alega que “é o
algoritmo...”. Ocorre, assim, uma antropomorfização de um programa de
computador, ao mesmo tempo transformado em força telúrica contra a qual os
mortais nada podem. Já os humanos que o desenvolveram e tomam as decisões nas
empresas perdem a humanidade, escravos de uma “inteligência artificial”.
Na verdade, algoritmos fazem o que foram programados para
fazer. É possível criar parâmetros para que façam algumas “opções”, mas tão
limitados que o algoritmo tanto ignora a pedofilia em certas imagens (exceto as
muito explícitas) quanto censura foto de campanha de aleitamento materno porque
associa seio à mostra a pornografia. Correções de casos como estes só acontecem
quando cobradas por internautas.
O problema de fundo é que só humanos podem discernir o que
algoritmos não detectam. Redes sociais e congêneres se negam a reconhecê-lo,
pois isso implica admitir que são empresas de mídia e não plataformas (o que
tem consequências, inclusive jurídicas), abala seu “modelo de negócio”,
causando uma explosão de custos.
É preciso gente para produzir e editar conteúdo, evitando
que crimes sejam praticados e exibidos, para que o anúncio vá para o público
desejado, e não para outro seguidor de canais criminosos. É preciso gente
habilitada para fazer jornalismo conforme as boas práticas numa sociedade
democrática.
E é preciso gente educada e com senso crítico para entender
a importância dessas diferenças e não aceitar o que o algoritmo imoral lhe
oferece.
Via Blog do Noblat
Nenhum comentário:
Postar um comentário