Por que é tão difícil combater o abuso facilitado por tecnologia
Humanos e Tecnologia

Por que é tão difícil combater o abuso facilitado por tecnologia

De carros inteligentes controlados remotamente a mensagens ameaçadoras na Netflix, o abuso acompanha os tempos atuais.

Depois de Gioia ter a sua primeira filha com o então marido, ele instalou câmaras de vigilância por toda a casa em Massachusetts “para ver o que estávamos a fazer”, diz ela, enquanto ele ia trabalhar. Quando ela as desligava, ele ficava irritado. Assim que o terceiro filho do casal fez sete anos, Gioia e o marido já estavam divorciados, mas ele continuava a encontrar formas de monitorizar o seu comportamento. Num Natal, ele ofereceu à filha mais nova um relógio inteligente. Gioia mostrou o dispositivo a um amigo com conhecimentos em tecnologia, que descobriu que o relógio tinha uma função de localização ativada. Essa função só podia ser desativada pelo proprietário do relógio, o seu ex-marido.

“O que é que eu deveria dizer à minha filha?”, pergunta Gioia, que usa um pseudónimo nesta reportagem por questões de segurança. “Ela está tão entusiasmada, mas não percebe que [aquilo é] um dispositivo de monitorização para ele ver onde estamos.” No fim, ela decidiu não lhe tirar o relógio. Em vez disso, disse à filha para o deixar em casa sempre que saíssem juntas, justificando que assim ele não se perderia.

Gioia afirma ter informado um tribunal de família sobre este e muitos outros episódios em que o seu ex-marido usou ou pareceu usar tecnologia para a perseguir, mas até agora isso não ajudou a garantir a guarda total dos filhos. A falha do tribunal em reconhecer estas táticas facilitadas pela tecnologia como formas de manter poder e controlo deixou-a tão frustrada que chegou a desejar ter hematomas visíveis. “Queria que ele estivesse a partir-me os braços, a dar-me socos na cara”, diz ela, “porque assim as pessoas podiam ver.”

Diversas pessoas com quem falei para esta reportagem descreveram o combate ao abuso facilitado por tecnologia como “enxugar gelo”. Quando se aprende a alertar alguém sobre o partilhar de localização pelo telemóvel, surgem os carros inteligentes.

Este sentimento é, infelizmente, comum entre pessoas que vivenciam o que passou a ser conhecido como “Technology-Facilitated Abuse” ou TFA, a sigla em inglês para “abuso facilitado por tecnologia”. Definido pela Rede Nacional para o Fim da Violência Doméstica (National Network for the End of Domestic Violence, no original) como “o uso de ferramentas digitais, plataformas online ou dispositivos eletrónicos para controlar, assediar, monitorizar ou prejudicar alguém”. Este tipo de abuso, frequentemente invisível ou discreto, inclui o uso de spyware e câmaras escondidas; a partilha de imagens íntimas sem consentimento nas redes sociais; o acesso e esvaziamento de contas bancárias online do parceiro; e o rastreamento de localização através de dispositivos, como fez o ex-marido de Gioia com o relógio da filha.

Como a tecnologia está presente em todo o lado, o TFA ocorre, na maioria dos casos de violência, entre parceiros íntimos. E aqueles cuja função é proteger as vítimas e responsabilizar os agressores enfrentam dificuldades para lidar com este problema multifacetado. Um estudo australiano de outubro de 2024, baseado em entrevistas detalhadas com vítimas e sobreviventes de TFA, revelou uma “lacuna considerável” na compreensão do fenómeno entre profissionais da linha da frente, como polícias e prestadores de serviços às vítimas. Como resultado, a polícia frequentemente ignorava as denúncias de TFA e não identificava estes casos como exemplos de violência doméstica. O estudo também apontou uma escassez significativa de financiamento para especialistas, isto é, cientistas informáticos capacitados para realizar varreduras de segurança nos dispositivos de pessoas que enfrentam este tipo de abuso.

A falta de compreensão é particularmente preocupante porque acompanhar as múltiplas formas do abuso tecnológico exige conhecimento técnico e vigilância constante. Com a popularização de carros e casas conectados à internet e a normalização do rastreamento de localização, surgem novas oportunidades para usar tecnologia para perseguir e assediar. Durante a investigação desta reportagem, ouvi relatos perturbadores de agressores que trancaram remotamente as suas parceiras nas suas próprias “casas inteligentes”, por vezes aumentando o aquecimento da casa para causar sofrimento adicional. Uma mulher que havia fugido do parceiro abusivo encontrou uma mensagem ameaçadora ao aceder à sua conta da Netflix a quilómetros de distância: “Vadia, estou a observar-te” escrito no espaço onde deviam estar os nomes dos perfis da conta.

Apesar da variedade de táticas, uma revisão de estudos focados em TFA realizada em 2022, em diversos países de língua inglesa, mostrou que os resultados se alinham diretamente com a “Roda do Poder e Controlo”, uma ferramenta desenvolvida em Duluth, Minnesota, nos anos 1980, que categoriza as diversas formas pelas quais parceiros abusivos exercem poder e controlo sobre as vítimas: económico, emocional, através de ameaças, do uso dos filhos, entre outras. Michaela Rogers, autora principal do estudo e professora sénior na Universidade de Sheffield, no Reino Unido, afirma ter observado entre sobreviventes de TFA sintomas como “paranóia, ansiedade, depressão, trauma e TEPT, baixa autoestima… e automutilação”, após vivenciarem abusos que frequentemente invadiam todos os aspetos das suas vidas.

Este tipo de abuso é exaustivo e difícil de enfrentar sozinho. Prestadores de serviço e defensores das vítimas esforçam-se por ajudar, mas muitos não têm competências técnicas e não podem impedir que as empresas de tecnologia lancem novos produtos no mercado. Alguns trabalham junto dessas empresas para ajudar a criar mecanismos de proteção, mas há limites para o que o setor privado pode fazer para responsabilizar agressores. Para estabelecer proteções reais e aplicar consequências sérias, são necessários marcos legais robustos.

O progresso tem sido lento, mas houve esforços coordenados para enfrentar o TFA em cada um destes níveis nos últimos anos. Alguns estados norte-americanos aprovaram leis que proíbem o uso de tecnologias de carros inteligentes ou rastreadores de localização, como o Apple AirTag, para perseguição e assédio. Empresas de tecnologia, incluindo Apple e Meta, contrataram pessoas com experiência em serviços de apoio a vítimas para orientar o desenvolvimento de proteções nos seus produtos, e defensores de vítimas e sobreviventes estão a procurar formação mais especializada em tecnologia.

Mas a natureza sempre em transformação da tecnologia torna quase impossível criar uma solução definitiva. Pessoas com quem falei para esta matéria compararam este esforço a “enxugar gelo”. Quando se aprende a alertar sobre o partilhar de localização em telemóveis, surgem os carros inteligentes. Quando se proíbe a perseguição com AirTags, surge uma ferramenta mais nova e eficaz que pode rastrear legalmente o ex-parceiro. É por isso que grupos dedicados exclusivamente ao combate ao TFA, como a Clínica para Acabar com o Abuso Tecnológico (CETA, ou Clinic to End Tech Abuse, em inglês), da Cornell Tech, em Nova Iorque, estão a trabalhar para criar uma infraestrutura permanente. Um problema que normalmente é visto como um foco secundário para organizações de serviços pode finalmente receber o tratamento que merece como um aspeto omnipresente e potencialmente fatal da violência entre parceiros íntimos.

Suporte técnico voluntário

A CETA atendeu o seu primeiro cliente há sete anos. Numa pequena sala branca no campus da Cornell Tech, na Roosevelt Island, dois cientistas informáticos reuniram-se com uma pessoa cujo agressor estava a aceder às fotos do seu iPhone. Ela não sabia como isso estava a acontecer.

“Trabalhámos com a nossa cliente durante cerca de uma hora e meia”, conta um dos cientistas, Thomas Ristenpart, “e percebemos que provavelmente se tratava de um problema com a funcionalidade de Partilha Familiar do iCloud.”

Na altura, a CETA era uma das apenas duas clínicas no país criadas para lidar com TFA (a outra era a Clínica de Controlo Coercivo com Tecnologia Habilitada, localizada em Seattle). E a CETA continua na vanguarda deste tema.

Imagine um diagrama de Venn, com um círculo a representar cientistas informáticos e outro prestadores de serviços a vítimas de violência doméstica. São quase dois círculos separados, com a CETA a ocupar apenas uma pequena faixa de interseção. Especialistas em tecnologia tendem a procurar empresas lucrativas ou instituições de investigação, em vez de ONGs do setor social. Por isso, foi inesperado que dois investigadores académicos identificassem o TFA como um problema e decidissem dedicar as suas carreiras a combatê-lo. O trabalho gerou resultados, mas a curva de aprendizagem foi intensa.

A CETA surgiu do interesse em mapear o “ecossistema de software espião da internet” explorado na violência entre parceiros íntimos, conta Ristenpart. Ele e a cofundadora Nicola Dell imaginaram, inicialmente, que poderiam ajudar desenvolvendo uma ferramenta para analisar telemóveis em busca de software intrusivo. Mas rapidamente perceberam que isso, por si só, não resolveria o problema e poderia até comprometer a segurança das vítimas se feito de forma descuidada, pois poderia alertar o agressor de que a sua vigilância tinha sido detectada e estava a ser combatida.

Em vez disso, Dell e Ristenpart passaram a estudar as dinâmicas do controlo coercivo. Conduziram cerca de 14 grupos focais com profissionais que trabalhavam diariamente com vítimas e sobreviventes. Estabeleceram ligações com organizações como o projeto “Anti-Violência” (Anti-Violence Project) e os Centros de Justiça Familiar de Nova Iorque para receber indicações de atendimento. Com a pandemia de Covid-19, a CETA passou a operar virtualmente e manteve-se assim. Os seus serviços hoje assemelham-se a um “suporte técnico remoto”, diz Dell. Um pequeno grupo de voluntários, muitos deles a trabalhar na big tech, recebe as informações iniciais dos clientes e orienta-os, por exemplo, sobre como interromper o partilhar indesejado de localização nos seus dispositivos.

O suporte remoto tem sido suficiente porque, em geral, os agressores não realizam ataques sofisticados que só poderiam ser resolvidos desmontando o dispositivo. “Na maioria dos casos, as pessoas estão a usar ferramentas padrão do modo como foram projetadas”, afirma Dell. Por exemplo, alguém pode esconder um AirTag num carrinho de bebé para rastrear a sua localização (e a da pessoa que o empurra), ou atuar como administrador de uma conta bancária online partilhada.

Embora a CETA se destaque como uma organização de apoio centrada na tecnologia para vítimas, grupos de combate à violência doméstica enfrentam o TFA há décadas. Quando Cindy Southworth começou a sua carreira na área, nos anos 1990, ouviu relatos de abusadores que faziam rastreio rudimentar de localização usando o odómetro do carro. A quilometragem podia sugerir, por exemplo, que alguém que dizia ir ao mercado, na verdade, tinha saído da cidade à procura de apoio. Mais tarde, quando Southworth ingressou na Coligação contra a Violência Doméstica da Pensilvânia (Pennsylvania Coalition Against Domestic Violence), a comunidade de ativistas passou a analisar o identificador de chamadas como “uma ferramenta incrivelmente poderosa para as vítimas verem quem está a ligar”, recorda, “mas também uma tecnologia potencialmente perigosa, se o abusador puder vê-lo.”

À medida que a tecnologia evoluiu, as formas de abuso também se tornaram mais sofisticadas. Ao perceber que a comunidade de ativistas “não acompanhava os avanços tecnológicos”, Southworth fundou, em 2000, o projeto Rede de Segurança (Safety Net) da Rede Nacional para Acabar com a Violência Doméstica (National Network to End Domestic Violence), para oferecer um currículo de formação abrangente sobre como “usar a tecnologia para ajudar vítimas” e responsabilizar abusadores pelo seu uso indevido. Hoje, o projeto disponibiliza recursos online, como kits de ferramentas com orientações sobre estratégias como criar palavras-passe fortes e perguntas de segurança. “Quando estás num relacionamento com alguém”, explica a diretora Audace Garnett, “essa pessoa pode saber o nome de solteira da tua mãe.”

Proteções da Big Tech

Mais tarde, os esforços de Southworth estenderam-se ao aconselhamento a empresas de tecnologia sobre como proteger utilizadores que passaram por violência entre parceiros íntimos. Em 2020, ingressou no Facebook (hoje Meta) como chefe de segurança para mulheres. “O que realmente me atraiu no Facebook foi o trabalho com abuso de imagens íntimas”, afirma, observando que a empresa criou uma das primeiras políticas contra sextorsão em 2012. Hoje, trabalha com o conceito de “hashing reativo”, que adiciona “impressões digitais” a imagens já identificadas como não consensuais, de modo que a vítima precise denunciar apenas uma vez para que todas as cópias sejam bloqueadas.

Outras áreas de preocupação incluem o “cyberflashing”, em que alguém pode enviar fotos explícitas não solicitadas. A Meta tentou prevenir isso no Instagram, impedindo que contas enviem imagens, vídeos ou mensagens de voz, a menos que sigam a pessoa. Ainda assim, muitas das práticas da Meta relacionadas a abusos potenciais parecem mais reativas do que preventivas. A empresa afirma remover ameaças online que violem as suas políticas contra bullying e que promovam “violência offline”. No entanto, no início deste ano, a Meta flexibilizou as suas políticas sobre discurso nas plataformas. Agora, os utilizadores estão autorizados a referir-se a mulheres como “objetos domésticos”, segundo informou a CNN, e a publicar comentários transfóbicos e homofóbicos que antes eram proibidos.

Um dos principais desafios é que a mesma tecnologia pode ser usada tanto para o bem como para o mal: uma funcionalidade de rastreio que representa perigo para alguém perseguido pelo parceiro pode ajudar outra pessoa a monitorizar os movimentos de um perseguidor. Quando perguntei às fontes o que as empresas de tecnologia deveriam fazer para mitigar o abuso facilitado pela tecnologia, investigadores e advogados demonstraram ceticismo. Uma das fontes mencionou o problema dos agressores usarem controlos parentais para monitorizar adultos em vez de crianças, e que as empresas não irão remover esses recursos importantes para a segurança infantil. Existem limites para o que podem fazer quanto ao uso ou mau uso dos seus produtos. Garnett, do Safety Net, disse que as empresas deveriam projetar as suas tecnologias com a segurança em mente “desde o início”, mas reconheceu que, para muitos produtos já consolidados, já é tarde demais. Alguns cientistas informáticos apontaram a Apple como exemplo de medidas eficazes de segurança: o seu ecossistema fechado bloqueia aplicações terceiras suspeitas e alerta utilizadores sobre rastreios. Mas esses especialistas também reconhecem que nenhuma dessas soluções é infalível.

Nos últimos dez anos, grandes empresas tecnológicas sediadas nos Estados Unidos — incluindo Google, Meta, Airbnb, Apple e Amazon — criaram conselhos consultivos de segurança para lidar com este dilema. As estratégias adotadas variam. No Uber, por exemplo, os conselheiros oferecem feedback sobre “pontos cegos potenciais” e influenciaram o desenvolvimento de ferramentas de segurança personalizáveis, segundo Liz Dank, responsável pela área de segurança pessoal e das mulheres na empresa. Um dos resultados desta colaboração é o recurso de verificação por PIN: o passageiro tem de informar ao motorista um número exclusivo gerado pela aplicação para iniciar a corrida. Isso garante que está a entrar no carro certo.

A abordagem da Apple incluiu um guia detalhado de 140 páginas chamado “Manual do Utilizador para Segurança Pessoal”. Numa das secções, “Quero escapar ou estou a considerar sair de uma relação que não parece segura”, há ligações para páginas sobre bloqueio, recolha de provas e “etapas de segurança que incluem alertas de rastreio indesejado.”

Abusadores criativos podem contornar este tipo de precaução. Recentemente, Elizabeth (para preservar a sua privacidade, usamos apenas o primeiro nome) encontrou um AirTag que o seu ex-companheiro tinha escondido dentro do para-lamas do carro, preso com um íman e envolto em fita adesiva. Meses após o lançamento do AirTag, a Apple recebeu tantas denúncias de rastreio indesejado que introduziu uma medida de segurança permitindo que utilizadores alertados sobre a presença de um AirTag pudessem localizá-lo através de um sinal sonoro. “Foi por isso que ele envolveu em fita adesiva”, conta Elizabeth. “Para abafar o som.”

Legislação corre atrás do prejuízo

Se as empresas tecnológicas não conseguem conter o TFA, a aplicação da lei deveria, mas as respostas variam. “Já vi polícias dizerem a uma vítima: ‘Não devias ter enviado essa foto’”, relata Lisa Fontes, psicóloga e especialista em controlo coercivo, sobre casos de partilha não consensual de imagens íntimas. Quando vítimas levaram à polícia câmaras escondidas, instaladas pelos seus agressores, Fontes ouviu respostas como: “Não podes provar que ele comprou [a câmara] ou que realmente te estava a espiar. Então não há nada que possamos fazer.”

Locais como o Centro de Justiça Familiar do Queens, em Nova Iorque, procuram resolver estas falhas institucionais. Ao circular pelos corredores labirínticos do espaço, é impossível não esbarrar em advogados, assistentes sociais e gestores de caso, como ocorreu quando a diretora executiva Susan Jacob guiou a reportagem após a visita à CETA. Isto é intencional. O centro, um entre mais de 100 nos Estados Unidos, oferece múltiplos serviços para pessoas afetadas por violência doméstica e baseada no género. Ao sair, a repórter passou por um polícia escoltando um homem algemado.

A CETA está em processo de transferir os seus atendimentos para este centro e depois, para unidades nos outros quatro distritos de Nova Iorque. Ter clínicas tecnológicas nestes locais colocará os especialistas lado a lado com advogados que podem estar a conduzir ações judiciais. Provar a identidade de autores de assédio tecnológico anónimo, como publicações em redes sociais ou chamadas com números falsos, é complicado, mas a ajuda técnica especializada pode facilitar a construção de casos para mandados de busca e ordens de proteção.

Advogados que lidam com casos envolvendo tecnologia muitas vezes não têm um arcabouço legal que os suporte. Ainda assim, leis em vigor na maioria dos estados dos EUA proíbem o rastreio remoto e oculto, bem como a partilha não consensual de imagens íntimas. Outras legislações sobre invasão de privacidade, crimes cibernéticos e perseguição podem abranger aspetos do TFA. Em dezembro, o estado de Ohio aprovou uma lei tornando crime o uso de AirTags para perseguição, e a Flórida avalia uma emenda que aumentaria a punição para quem usar dispositivos de rastreio para “cometer ou facilitar crimes perigosos”. No entanto, acompanhar o ritmo da tecnologia exige leis mais específicas. “A tecnologia vem primeiro”, explica Lindsey Song, diretora associada do projeto de direito de família do centro do Queens. “As pessoas aprendem a usá-la bem. Os abusadores aprendem a usá-la mal. E a legislação e as políticas vêm muito, muito, muito depois.”

A Califórnia lidera os esforços legislativos contra o assédio via veículos inteligentes. Sancionada em setembro de 2024, a Lei do Senado 1394 exige que carros conectados notifiquem o utilizador se alguém acedeu ao sistema remotamente, além de fornecer uma forma para o condutor bloquear esse acesso. “Muitos legisladores ficaram chocados ao saber quão comum é este problema”, afirma Akilah Weber Pierson, senadora estadual que co-redigiu a proposta. “Quando expliquei como sobreviventes estavam a ser perseguidos ou controlados por funções projetadas para conveniência, houve muito apoio.”

Ao nível federal, a Lei de Conexões Seguras, sancionada em 2022, exige que operadoras de telefonia atendam a solicitações de sobreviventes para se desvincularem de planos partilhados com abusadores. Em 2024, a Comissão Federal de Comunicações começou a avaliar como incluir o abuso via carros inteligentes no âmbito da lei. Já em maio, o presidente Trump sancionou uma lei proibindo a publicação online de imagens sexualmente explícitas sem consentimento. Mas houve pouco progresso em outras frentes. O projeto de lei “Segurança tecnológica para vítimas de violência doméstica, violência no namoro, agressão sexual e perseguição” previa a criação de até 15 clínicas de TFA num programa piloto liderado pelo Departamento de Justiça, através do Escritório de Violência contra a Mulher. No entanto, desde a sua introdução na Câmara dos Deputados em novembro de 2023, o projeto não avançou.

O abuso tecnológico não é sobre tecnologia

Diante da lentidão das mudanças legislativas, a proteção de sobreviventes de TFA segue maioritariamente nas mãos de quem está na linha da frente. Rahul Chatterjee, professor assistente de ciência da computação na Universidade de Wisconsin–Madison, adotou uma abordagem prática. Em 2021, fundou a Madison Tech Clinic, após trabalhar na CETA como estudante de pós-graduação. Ele e a sua equipa estão a desenvolver uma ferramenta física capaz de detetar câmaras escondidas e outros dispositivos de monitorização. A proposta é usar componentes baratos como Raspberry Pi e ESP32, para manter o custo acessível.

Chatterjee encontrou produtos à venda online que prometem oferecer este tipo de proteção, como detectores de frequência de rádio por 20 dólares e aparelhos de luz vermelha que dizem localizar câmaras invisíveis. Mas são soluções falsamente milagrosas, diz ele. “Testámos no laboratório, e não funcionam.”

Com a administração Trump a cortar recursos para a educação e pesquisa, quem opera clínicas de tecnologia expressa preocupação com a sustentabilidade destas iniciativas. Pelo menos Dell recebeu um apoio de 800 mil dólares da Fundação MacArthur em 2024, parte do qual pretende usar para lançar novas clínicas inspiradas na CETA. A clínica de tecnologia no Queens recebeu verba inicial da própria CETA para o primeiro ano, mas “está em busca ativa de financiamento para continuar o programa”, diz Jennifer Friedman, advogada da ONG Santuário para Famílias (Sanctuary for Families), responsável pela operação da unidade.

Nossos tópicos