segunda-feira, 8 de abril de 2024

A (des)Inteligência artificial em Gaza!

Imagine um futuro sem privacidade, onde todos os cidadãos são fichados e monitorados. O estado militarizado hi-tech de Israel controla tudo e todos, pronto para prender ou assassinar quem julgar necessário. No entanto, reportagens publicadas pelo Intercept Brasil sobre tecnologias e equipamentos de vigilância têm sido comprados e utilizados por polícias e autoridades de investigação. Logo, numa sociedade punitivista, com valores “bandido bom, é bandido morto” é difícil mostrar as pessoas porque esse tipo de investimento em tecnologia pode ser usado para violar seus próprios direitos. Mas uma reportagem bombástica publicada nesta semana sobre como ferramentas de inteligência artificial são usadas para massacrar palestinos em Gaza nos ajuda a entender o tamanho desse estrago.

Israel é um pólo de desenvolvimento de tecnologias de defesa, e vende muito para vários países do mundo. O “First Mile” que rastreia a localização de alvos, foi usado no escândalo de espionagem da Abin (A investigação da Policia Federal monitorou um jantar entre os ex-deputados Rodrigo Maia, na época presidente da Câmara, e Joice Hasselmann com um advogado e Antonio Rueda, dirigente do PSL, que promoveu um racha no partido que fez Bolsonaro sair do PSL. Além disso, o Pegasus, que invade dispositivos, são exemplos de tecnologias israelenses de espionagem e vigilância, não foi por acaso, que as vendas de muitos deles por aqui explodiram no governo Bolsonaro.


Sendo assim, sabe-se que Israel tem utilizado inteligência artificial em Gaza, a partir de ferramentas desenvolvidas pelo próprio exército israelense e empresas dirigidas por ex-soldados que, com base nos dados coletados em anos de espionagem, orientam os militares a definirem alvos de acordo com a “possibilidade” de eles serem do Hamas. Logo, baseado em “possibilidades” a IA entende como alvo, seres humanos ou prédios (onde estão seres humanos).


Nesta semana, o Intercept Brasil expôs informações de jornalistas palestinos e israelenses, revelando detalhes de como funciona esse sistema, com declarações de militares, onde Israel usa o monitoramento em massa de reconhecimento facial para juntar um enorme volume de dados sobre os palestinos e, com ajuda de algoritmos, usa esses padrões para tentar definir os alvos em potencial.


“Os humanos muitas vezes serviam apenas como um ‘carimbo’ para as decisões da máquina”, conta uma fonte citada na reportagem.


Segundo o Intercept, o jornal britânico The Guardian, 37 mil alvos foram identificados em Gaza pelas supermáquinas de Israel por um sistema batizado candidamente de Lavender (lavanda).


Os oficiais ouvidos pela reportagem afirmam confiar mais nas máquinas do que em um soldado sob emoção. "A máquina fez aquilo friamente, e tornou muito mais fácil", declarou um deles. "Economizou muito tempo".


Segundo os militares ouvidos, o exército israelense tinha, para alguns tipos de alvos, uma pré-autorização: 15 ou 20 civis podiam morrer por cada militante de baixa patente do Hamas atingido. Já um comandante valeria mais de 100 inocentes.


Esses ataques aos militantes mais desimportantes eram feitos com bombas "bobas", não guiadas, mais baratas e que geram mais mortes colaterais, destruindo casas inteiras e seus ocupantes. "Você não quer gastar bombas caras em pessoas desimportantes", disse um dos militares ouvidos.


Os ataques não aconteciam apenas quando os supostos terroristas estavam em atividade – mas também em suas casas. "É muito mais fácil bombardear uma casa de família. O sistema é feito para procurá-los nestas situações", disse um dos oficiais ao Guardian. Segundo as fontes, havia pressão dos superiores para bombardear mais e mais.


Assim que um alvo era atingido, havia uma fila de 36 mil outros esperando – graças ao sistema de inteligência artificial, que mapeou supostos inimigos automaticamente em escala industrial. Especialistas em conflitos ouvidos pelo Guardian dizem que a técnica pode explicar o absurdo número de civis mortos em Gaza, que já chega a 33 mil.


Seguindo a lógica matemática utilizada pela IA, a decisão de cometer o genocídio foi tomada por humanos, mas a escolha de quais vítimas morrerão hoje é feita pelos robôs. Com isso, Israel está vários passos à frente em relação ao futuro distópico militarizado e assassino, mas não está tão longe de nós assim. Mapear toda uma sociedade para pinçar os indivíduos “potencialmente” problemáticos foi o que Israel fez em Gaza, e é o que governos tecnoautoritários têm feito aqui no Brasil também.


É só você relacionar as guerras que acontecem diariamente nas comunidades das grandes cidades brasileiras, que apresentam um número de “indivíduos potencialmente perigosos”, ignorando a grande massa trabalhadora, que por estar sempre a margem das políticas públicas, torna-se alvo dos projéteis policiais e de criminosos. No entanto, quando algum(a) trabalhador(a) ou criança é alvejada, a morte é justificada com um razo discurso noticiado pela grande mídia da seguinte forma: “mais uma vítima de bala perdida”.


Logo, transformar ferramentas que utilizam Inteligência Artificial sem critérios rigorosos de pesquisa em algo comum, é aceitar a farra da indústria de vigilância que, transformará pessoas em um possível alvo, dando ao robô o poder identificar quem deve ser morto. Assim, seguindo essa lógica e analisando o depoimento da Deputada Renata Souza do PSOL, que pediu para IA gerar um desenho de uma mulher negra em um cenário de favela e a ferramenta gerou uma mulher com uma arma na mão. Nos mostra que, a IA segundo as informações que inseridas nela, a mesma criminaliza moradores de favelas. E ainda, num futuro próximo, essas as pessoas podem ser transformadas em indivíduos “potencialmente perigosos”, justificando assim as mortes que acontecerão num confronto entre policiais e criminosos.