É provável que os Estados Unidos tenham usado
inteligência artificial para ter certeza da localização do aiatolá
Quão legítimo é o uso de inteligência artificial numa
guerra? Da semana passada para cá, essa discussão veio para o centro do debate
político americano. E, pela primeira vez, o Vale do Silício rachou. Mais que
isso. O CEO da Anthropic, Dario Amodei, disse “não” ao governo Donald Trump.
Nunca um líder havia dito “não” para esta Casa Branca, bem pelo contrário. No
último ano e pouco, houve um festival de homenagens, elogios e até troféus
dados ao presidente por CEOs da alta tecnologia. Ainda assim, mesmo tendo
havido ruptura formal, a tecnologia da Anthropic fez parte do arsenal americano
neste ataque ao Irã. Em quê? Ainda não sabemos.
Das três principais companhias de IA — na
lista ainda estão OpenAI e Google —, a
Anthropic era a principal fornecedora do Pentágono, o Departamento de Guerra
americano. Mas mantinha uma posição clara, devidamente registrada em contrato,
a respeito dos limites de uso. Sua IA, o Claude, não poderia ser usada em campo
de batalha, nem para ajudar a definir alvos para uso letal à distância. Além
disso, a Anthropic não queria sua tecnologia em armas autônomas, que definem
alvos e atacam, sem participação de humanos na decisão. E, naturalmente, veto
completo para vigilância em massa de cidadãos americanos. (Que seria ilegal,
diga-se.)
Esses usos diversos se dividem em dois grupos. A IA, no
estado atual, já seria bastante útil para agilizar a tomada de decisões durante
uma batalha. Assim como para processar dados que levem à definição dos alvos
ideais para ataques à distância — um ataque desses matou o aiatolá Ali Khamenei
durante o fim de semana. Definir quem está onde, num país tão fechado quanto o
Irã, depende de espiões, naturalmente. E Teerã se tornou a cidade com mais
espiões por habitante do mundo nestes últimos anos. Mas não só. A informação
precisa ser confirmada. Para isso se conta com dados de satélite, fotografias,
conversas interceptadas. É uma massa de informação que, com um modelo
particularmente bom de processamento de dados como o Claude, é imensamente
facilitada sem perder precisão. Não sabemos se os Estados Unidos usaram a IA
para ter certeza da localização do aiatolá no momento do ataque. É bastante
provável que sim.
Outra coisa bastante distinta é o uso desses modelos para
armas autônomas. Um drone que levante voo, vá a algum canto, selecione onde
atacar — e puxe o gatilho por conta própria. Dispare sem que um ser humano
participe da conversa, entenda por que a IA decidiu tal coisa e corrobore se é
mesmo para disparar. Inteligências artificiais falham. Falham feio. Vidas
humanas não deveriam estar “nas mãos” de modelos como os que temos hoje.
É preciso compreender a natureza da Anthropic. Amodei e seu
time estavam na equipe que desenvolveu o GPT 1 e, principalmente, o 2. Foi essa
a primeira versão a deixar claro que IAs eram capazes de sustentar conversas
tal qual seres humanos. Esse núcleo de engenheiros deixou a OpenAI por ter a
impressão de que a empresa era relapsa com questões éticas e de segurança. De
que punha a velocidade de desenvolvimento na frente. Todo o branding da
Anthropic se baseia na ideia de que a segurança, de que responsabilidade ética
são princípios essenciais. De que humanos estarão sempre no comando. Quando o
Pentágono exigiu a remoção de determinadas cláusulas, o comando da empresa se
viu perante uma decisão existencial. Ou rompia com seus princípios fundadores,
ou dizia “não” ao governo Trump. Disse “não”.
A OpenAI disse “sim”. Segundo o CEO Sam Altman, o governo
não usará o GPT para vigilância em massa de cidadãos americanos nem para armas
autônomas. Então, qual é a diferença? Que fronteira a Anthropic se recusou a
ultrapassar, mas a OpenAI topou? É possível que a diferença esteja nas firulas
jurídicas, na maneira como as palavras se arranjam nas frases e abrem espaço a
interpretações diversas. Os dois CEOs sabem, perfeitamente, quem é Donald
Trump. Que ele é imprevisível. Que toma decisões no rompante, com frequência
irresponsavelmente.
Os Estados Unidos não ordenaram um ataque militar que
culmina com a morte de um chefe de Estado no pós-guerra. Operações da CIA, nos
anos 1960, houve. Mas eram secretas, nada assumido. Que se deixe claro:
Khamenei era um dos piores ditadores do mundo. Só nos últimos cinco anos, a ONU
e a Anistia Internacional documentaram estupros em série contra manifestantes,
homens e mulheres, presos nas cadeias iranianas. Uma das vítimas tinha 12 anos.
Chibatadas seguidas de choques elétricos. Em janeiro deste ano, o governo
ordenou que se abrisse fogo, de metralhadoras, contra passeatas. Morreram por
baixo 30 mil pessoas. São raras as ditaduras que abrem fogo aberto contra
passeatas. Nas que tivemos aqui na América Latina, nenhuma fez isso. Ainda
assim, o assassinato de um chefe de Estado é uma linha que não se cruza
impunemente. Abre a porteira para que se faça de novo, de novo e de novo. Ainda
mais quando os critérios de tomada de decisão não estão claros.
A inteligência artificial que os Estados Unidos desenvolvem
estará nas mãos de um governo que toma decisões graves sem objetivo claro e sem
permissão do Congresso? Por que o Pentágono quis extirpar do contrato a
proibição de uso para espionagem em massa de cidadãos americanos?
Essa conversa apenas começou.

Nenhum comentário:
Postar um comentário