(pt) France, Union Communiste Libertaire AL #299 - Technopolice: fronteiras virtuais, controles reais (en, fr, it)[traduccion automatica]

a-infos-pt ainfos.ca a-infos-pt ainfos.ca
Terça-Feira, 26 de Novembro de 2019 - 07:41:21 CET


Como parte da campanha da Technopolice sobre vigilância digital de nossas vidas, o que 
acontecerá com as fronteiras  ? A substituição dos controles humanos por verificações 
automáticas baseadas na coleta de informações ou no reconhecimento facial, longe de 
eliminar o viés, torna as fronteiras particularmente discriminatórias. ---- Estamos na 
fila há um tempo para pegar a alfândega no aeroporto, as malas em uma mão, o passaporte e 
a passagem na outra. Estamos nos movendo lentamente em direção a pórticos automatizados 
que substituíram os controladores e outros viajantes estão ficando impacientes. A multidão 
repentinamente volta sua atenção para um dos pórticos: ela se recusa a abrir e dois 
policiais pedem que o passageiro seja reprimido - um árabe que fica em quarentena, tão 
surpreso quanto ansioso - para segui-los gentilmente . O homem em questão não tem 
absolutamente nada com que se reprovar e pode-se facilmente imaginar seu desconforto e o 
que poderia ter passado pela mente da maioria dos espectadores. A cena é fictícia, mas 
teve que acontecer mil vezes na Inglaterra, Austrália ou Estados Unidos. Na França, a 
coisa ainda é marginal - não por muito tempo.

Previsão de risco
A marginalização desse passageiro em um aeroporto é resultado da digitalização de 
fronteiras e da substituição do controle humano por processamento algorítmico, assim 
automatizado. Desde o início dos anos 2000, os Estados Unidos, pioneiros na vigilância de 
populações, estabeleceram nos aeroportos um "  sistema automatizado de segmentação "(ATS), 
que só foi revelado ao público em 2006. Desenvolvido ao longo do tempo, este sistema de 
computador coleta dados relativos a cada viajante e viajante (viagens anteriores, 
transações bancárias, pedidos de visto, escolha de um menu específico, até mesmo 
comportamento nas redes sociais) e analisá-los para mostrar sinais de perigo em potencial 
e determinar a resposta adotada pelas autoridades aeroportuárias: impor ao passageiro uma 
entrevista completa ou até proibir o embarque.

A intromissão do dispositivo é obviamente escandalosa, mas o pior está em outro lugar. Uma 
pontuação de alto risco pode ser devida, por exemplo, a uma refeição halal no avião ea 
alguém que viajou para uma zona de guerra entre seus contatos, duas características que 
não constituem nenhum caso, um crime, mas poderia ser suficiente para desencadear uma 
investigação completa. O sistema de controle é, assim, sistematicamente diferenciado para 
atingir determinadas categorias de pessoas, o que tem como consequência a impressão desses 
padrões na consciência das pessoas suspeitas e do público ; Tudo acontece como se uma 
forma de justiça preventiva condenasse e jogasse estigma sobre as pessoas a priori, sem 
que um crime tivesse sido cometido.

O governo Obama teve que explicar essas práticas em um tribunal em 2015, quando cidadãos 
muçulmanos dos EUA foram repentinamente proibidos de voar depois de se recusarem a servir 
como indicadores do FBI, e da mesma forma quando viajantes ou viajantes que foram 
afastados por causa de seu envolvimento com a lei não recuperaram o direito de roubar após 
serem absolvidos. Isso não impediu o Reino Unido de tentar implementar um sistema 
semelhante, primeiro denominado "   fronteira eletrônica " .  "(Fronteira eletrônica), 
depois Serviço Digital na Fronteira (DSAB), gastando enormes somas sem chegar no momento 
para implementá-lo efetivamente. O estado francês ainda não investiu nesse tipo de 
sistema, dado o custo e o atraso do outro lado do canal, mas apostamos que ele não atrasará.

As tecnologias de direcionamento e reconhecimento facial contribuem para a produção de 
estigmas, amálgamas e identidades coletivas dominadas.
Outro motivo poderia explicar a retirada de nosso passageiro fictício: o reconhecimento 
facial. Nos últimos dez anos, os projetos de reconhecimento biométrico baseados no 
reconhecimento facial, em vez da identificação de impressões digitais, floresceram nos 
aeroportos dos países ricos. Em 2018, em parceria com os aeroportos de Thales, Roissy, 
Orly e Nice, bem como a Gare du Nord, em Paris, criaram portões automatizados presenciais 
para o controle das fronteiras em vôos e trens internacionais. o espaço Schengen - e isso 
deve ser testado nos portões para todos os tipos de passageiros de 2019 a 2020 em Orly, 
pelo menos. O objetivo é otimizar passagens e limitar erros humanos na verificação de 
identidade ; mas pode-se temer que esse seja um passo simples em direção à generalização 
do reconhecimento facial, o que aumentaria a capacidade do estado de monitorar populações.

Novamente, esse processamento automatizado pode estigmatizar alguns grupos sociais mais do 
que outros. Os algoritmos de reconhecimento facial não são neutros: a pesquisadora Joy 
Buolamwini publicou recentemente um estudo [1]revelando que as máquinas eram muito mais 
difíceis de identificar o sexo das mulheres do que os homens, ou que as pessoas brancas 
tinham uma probabilidade significativamente maior de serem identificadas corretamente do 
que as pessoas de cor, e que esses dois vieses se combinavam para alcançar taxas de erro 
muito altas de quase 30% em mulheres de pele escura - esse tipo de viés é devido a um 
defeito na fase de treinamento do algoritmo. Pode ser particularmente violento ser parado 
na fronteira quando todos ficam sem preocupações. Apesar do tratamento com algoritmos sem 
emoção, as pessoas de cor, principalmente as mulheres, são mais propensas a serem vítimas 
do que os homens brancos.

Reconhecimento Facial
Seja o resultado de sistemas preditivos de avaliação de risco ou reconhecimento facial 
tendencioso, a digitalização das fronteiras legais dos estados os redobra como fronteiras 
simbólicas que estigmatizam e reprimem grupos já dominados pela população. Certamente é 
justo apontar a dimensão invasiva dessas tecnologias de focalização e reconhecimento 
facial, e o reforço do poder repressivo do Estado que elas permitem, bem como a injustiça 
da discriminação, mas as críticas também devem levar em consideração sua participação em a 
produção de estigmas, amálgamas e identidades coletivas mais dominadas em geral.

Marco (UCL Indre)

[1] Joy Adowaa Buolamwini, "   Tons de gênero: avaliação fenotípica e demográfica 
interseccional de classificadores de dados e gênero  " ,  Instituto de Tecnologia de 
Massachusetts, 2017.

https://www.unioncommunistelibertaire.org/?Technopolice-Frontieres-virtuelles-controles-bien-reels


Mais informações acerca da lista A-infos-pt