(pt) France, Union Communiste Libertaire AL #299 - Technopolice: fronteiras virtuais, controles reais (en, fr, it)[traduccion automatica]
a-infos-pt ainfos.ca
a-infos-pt ainfos.ca
Terça-Feira, 26 de Novembro de 2019 - 07:41:21 CET
Como parte da campanha da Technopolice sobre vigilância digital de nossas vidas, o que
acontecerá com as fronteiras ? A substituição dos controles humanos por verificações
automáticas baseadas na coleta de informações ou no reconhecimento facial, longe de
eliminar o viés, torna as fronteiras particularmente discriminatórias. ---- Estamos na
fila há um tempo para pegar a alfândega no aeroporto, as malas em uma mão, o passaporte e
a passagem na outra. Estamos nos movendo lentamente em direção a pórticos automatizados
que substituíram os controladores e outros viajantes estão ficando impacientes. A multidão
repentinamente volta sua atenção para um dos pórticos: ela se recusa a abrir e dois
policiais pedem que o passageiro seja reprimido - um árabe que fica em quarentena, tão
surpreso quanto ansioso - para segui-los gentilmente . O homem em questão não tem
absolutamente nada com que se reprovar e pode-se facilmente imaginar seu desconforto e o
que poderia ter passado pela mente da maioria dos espectadores. A cena é fictícia, mas
teve que acontecer mil vezes na Inglaterra, Austrália ou Estados Unidos. Na França, a
coisa ainda é marginal - não por muito tempo.
Previsão de risco
A marginalização desse passageiro em um aeroporto é resultado da digitalização de
fronteiras e da substituição do controle humano por processamento algorítmico, assim
automatizado. Desde o início dos anos 2000, os Estados Unidos, pioneiros na vigilância de
populações, estabeleceram nos aeroportos um " sistema automatizado de segmentação "(ATS),
que só foi revelado ao público em 2006. Desenvolvido ao longo do tempo, este sistema de
computador coleta dados relativos a cada viajante e viajante (viagens anteriores,
transações bancárias, pedidos de visto, escolha de um menu específico, até mesmo
comportamento nas redes sociais) e analisá-los para mostrar sinais de perigo em potencial
e determinar a resposta adotada pelas autoridades aeroportuárias: impor ao passageiro uma
entrevista completa ou até proibir o embarque.
A intromissão do dispositivo é obviamente escandalosa, mas o pior está em outro lugar. Uma
pontuação de alto risco pode ser devida, por exemplo, a uma refeição halal no avião ea
alguém que viajou para uma zona de guerra entre seus contatos, duas características que
não constituem nenhum caso, um crime, mas poderia ser suficiente para desencadear uma
investigação completa. O sistema de controle é, assim, sistematicamente diferenciado para
atingir determinadas categorias de pessoas, o que tem como consequência a impressão desses
padrões na consciência das pessoas suspeitas e do público ; Tudo acontece como se uma
forma de justiça preventiva condenasse e jogasse estigma sobre as pessoas a priori, sem
que um crime tivesse sido cometido.
O governo Obama teve que explicar essas práticas em um tribunal em 2015, quando cidadãos
muçulmanos dos EUA foram repentinamente proibidos de voar depois de se recusarem a servir
como indicadores do FBI, e da mesma forma quando viajantes ou viajantes que foram
afastados por causa de seu envolvimento com a lei não recuperaram o direito de roubar após
serem absolvidos. Isso não impediu o Reino Unido de tentar implementar um sistema
semelhante, primeiro denominado " fronteira eletrônica " . "(Fronteira eletrônica),
depois Serviço Digital na Fronteira (DSAB), gastando enormes somas sem chegar no momento
para implementá-lo efetivamente. O estado francês ainda não investiu nesse tipo de
sistema, dado o custo e o atraso do outro lado do canal, mas apostamos que ele não atrasará.
As tecnologias de direcionamento e reconhecimento facial contribuem para a produção de
estigmas, amálgamas e identidades coletivas dominadas.
Outro motivo poderia explicar a retirada de nosso passageiro fictício: o reconhecimento
facial. Nos últimos dez anos, os projetos de reconhecimento biométrico baseados no
reconhecimento facial, em vez da identificação de impressões digitais, floresceram nos
aeroportos dos países ricos. Em 2018, em parceria com os aeroportos de Thales, Roissy,
Orly e Nice, bem como a Gare du Nord, em Paris, criaram portões automatizados presenciais
para o controle das fronteiras em vôos e trens internacionais. o espaço Schengen - e isso
deve ser testado nos portões para todos os tipos de passageiros de 2019 a 2020 em Orly,
pelo menos. O objetivo é otimizar passagens e limitar erros humanos na verificação de
identidade ; mas pode-se temer que esse seja um passo simples em direção à generalização
do reconhecimento facial, o que aumentaria a capacidade do estado de monitorar populações.
Novamente, esse processamento automatizado pode estigmatizar alguns grupos sociais mais do
que outros. Os algoritmos de reconhecimento facial não são neutros: a pesquisadora Joy
Buolamwini publicou recentemente um estudo [1]revelando que as máquinas eram muito mais
difíceis de identificar o sexo das mulheres do que os homens, ou que as pessoas brancas
tinham uma probabilidade significativamente maior de serem identificadas corretamente do
que as pessoas de cor, e que esses dois vieses se combinavam para alcançar taxas de erro
muito altas de quase 30% em mulheres de pele escura - esse tipo de viés é devido a um
defeito na fase de treinamento do algoritmo. Pode ser particularmente violento ser parado
na fronteira quando todos ficam sem preocupações. Apesar do tratamento com algoritmos sem
emoção, as pessoas de cor, principalmente as mulheres, são mais propensas a serem vítimas
do que os homens brancos.
Reconhecimento Facial
Seja o resultado de sistemas preditivos de avaliação de risco ou reconhecimento facial
tendencioso, a digitalização das fronteiras legais dos estados os redobra como fronteiras
simbólicas que estigmatizam e reprimem grupos já dominados pela população. Certamente é
justo apontar a dimensão invasiva dessas tecnologias de focalização e reconhecimento
facial, e o reforço do poder repressivo do Estado que elas permitem, bem como a injustiça
da discriminação, mas as críticas também devem levar em consideração sua participação em a
produção de estigmas, amálgamas e identidades coletivas mais dominadas em geral.
Marco (UCL Indre)
[1] Joy Adowaa Buolamwini, " Tons de gênero: avaliação fenotípica e demográfica
interseccional de classificadores de dados e gênero " , Instituto de Tecnologia de
Massachusetts, 2017.
https://www.unioncommunistelibertaire.org/?Technopolice-Frontieres-virtuelles-controles-bien-reels
Mais informações acerca da lista A-infos-pt