sexta-feira, 12 de maio de 2017

O ALGARITMO IMORAL

Carlos Alves Müller, O Globo
Há dias, “The Australian”, um dos principais jornais da Austrália, publicou reportagem sobre um documento da filial do Facebook sobre como identificar adolescentes emocionalmente frágeis. A “metodologia” teria sido oferecida a anunciantes como ferramenta de marketing segmentado, procedimento passível de ser enquadrado criminalmente como abuso contra pessoa vulnerável.
O Facebook respondeu que “não oferece ferramentas para chegar a pessoas com base em seu estado emocional”, mas admitiu a existência de uma “análise, feita por pesquisador australiano com o objetivo de ajudar marqueteiros a entender como as pessoas se expressam no Facebook”.
Não é a primeira vez que o Facebook, como outras redes sociais e buscadores, recorre a chicanas para eximir-se de responsabilidade. Foi o que ocorreu com recentes casos de assassinato (de um idoso nos EUA, e de um bebê, na Tailândia) cujas imagens foram postadas ao vivo; com grupos de pedofilia no mesmo Facebook, como denunciado pela BBC, e com anúncios (inclusive públicos), exibidos em sites promotores de ódio e terrorismo. E é o caso da propagação em escala industrial de notícias falsas e fraudes nos dados de visualização de publicidade, com o uso de robôs.
O argumento para eximir-se de responsabilidade é tão falso quanto a “notícia”: “Marisa fotografada na Itália. Morte da mulher de Lula é mentira, Entenda!”, difundida pelo site “Pensa Brasil”, notória fonte de notícias falsas, como revelado pela “Folha de S.Paulo” em 19/2 último. Não por acaso, se você digitar “Pensa” no Google, como fiz em 07/5, a primeira opção oferecida pelo buscador é... “Pensa Brasil”.
Não há neutralidade técnica ou axiológica nas redes sociais e buscadores como pretendem. Os resultados são frequentemente manipulados.
São provas disso o processo contra o Google que tramita na União Europeia, evidenciando que sites de negócios do próprio buscador têm prioridade sobre os dos concorrentes, e as notícias falsas disseminadas pelo Facebook na campanha eleitoral americana.
O argumento também é falso porque alega que “é o algoritmo...”. Ocorre, assim, uma antropomorfização de um programa de computador, ao mesmo tempo transformado em força telúrica contra a qual os mortais nada podem. Já os humanos que o desenvolveram e tomam as decisões nas empresas perdem a humanidade, escravos de uma “inteligência artificial”.
Na verdade, algoritmos fazem o que foram programados para fazer. É possível criar parâmetros para que façam algumas “opções”, mas tão limitados que o algoritmo tanto ignora a pedofilia em certas imagens (exceto as muito explícitas) quanto censura foto de campanha de aleitamento materno porque associa seio à mostra a pornografia. Correções de casos como estes só acontecem quando cobradas por internautas.
O problema de fundo é que só humanos podem discernir o que algoritmos não detectam. Redes sociais e congêneres se negam a reconhecê-lo, pois isso implica admitir que são empresas de mídia e não plataformas (o que tem consequências, inclusive jurídicas), abala seu “modelo de negócio”, causando uma explosão de custos.
É preciso gente para produzir e editar conteúdo, evitando que crimes sejam praticados e exibidos, para que o anúncio vá para o público desejado, e não para outro seguidor de canais criminosos. É preciso gente habilitada para fazer jornalismo conforme as boas práticas numa sociedade democrática.
E é preciso gente educada e com senso crítico para entender a importância dessas diferenças e não aceitar o que o algoritmo imoral lhe oferece. 
Bookmark and Share

Nenhum comentário:

Postar um comentário