As redes sociais estão a contaminar a sociedade e a moderação sozinha não resolverá o problema
Humanos e Tecnologia

As redes sociais estão a contaminar a sociedade e a moderação sozinha não resolverá o problema

As empresas já possuem os sistemas necessários para avaliar os seus impactos mais profundos na camada social.

Todos nós queremos ser capazes de falar o que pensamos online, seja para sermos ouvidos pelos nossos amigos ou responder aos nossos rivais. Ao mesmo tempo, não queremos ser expostos a discursos inapropriados ou que ultrapassem os limites. As empresas de tecnologia lidam com esse enigma estabelecendo padrões para a liberdade de expressão, uma prática protegida por lei federal. Contratam moderadores internos para examinar partes individuais de conteúdo e removê-los se as publicações violarem regras predefinidas estabelecidas pelas plataformas.  

Essa prática claramente tem problemas: assédio, desinformação sobre tópicos como saúde pública e declarações falsas de eleições legítimas seguem desenfreados. Mas mesmo que a moderação de conteúdo fosse implementada perfeitamente, ainda assim, deixaria passar toda uma série de problemas que muitas vezes são retratados como problemas de moderação, mas na verdade não são. Para lidar com esses problemas não relacionados ao discurso, precisamos de uma nova estratégia: tratar as empresas de rede social como potenciais poluidoras da camada social e medir e mitigar diretamente os efeitos que as suas decisões têm sobre as populações humanas. Isso significa estabelecer uma estrutura de políticas – talvez por meio de algo semelhante a uma Agência de Proteção Ambiental (EPA) ou Administração de Alimentos e Medicamentos (FDA) para as plataformas sociais – que possa ser usada para identificar e avaliar os danos sociais gerados. Se esses danos persistirem, esse grupo poderá ser dotado da capacidade de impor essas políticas. Mas para transcender as limitações da moderação de conteúdo, tal regulação teria que ser motivada por evidências claras e ser capaz de ter um impacto demonstrável sobre os problemas que se propõe a resolver.  

A moderação (seja automatizada ou humana) pode funcionar potencialmente para o que chamamos de danos “graves”: aqueles causados diretamente por partes individuais de conteúdo. Mas precisamos dessa nova abordagem porque também há uma série de problemas “estruturais” — questões como discriminação, redução da saúde mental e declínio da confiança cívica — que se manifestam de maneira ampla na plataforma, e não em qualquer conteúdo individual. Um exemplo famoso desse tipo de problema estrutural é a experiência de “contágio emocional” do Facebook em 2012, que mostrou que o afeto dos utilizadores (o seu humor medido pelo seu comportamento na rede social) mudou de forma mensurável dependendo de qual versão do produto foram expostos.  

Na reação que se seguiu depois que os resultados se tornaram públicos, o Facebook (agora Meta) encerrou esse tipo de experiência deliberada. Mas só porque pararam de medir tais efeitos não significa que tenham parado.  

Problemas estruturais são resultados diretos de escolhas de produtos. Os gestores de produto de empresas de tecnologia como Facebook, YouTube e TikTok são incentivados a se concentrar principalmente em maximizar o tempo e o engagement nas plataformas. E a experiência ainda está muito viva: quase todas as mudanças de produtos são implantadas em pequenos públicos de teste por meio de ensaios controlados randomizados. Para avaliar o progresso, as empresas implementam processos de gestão rigorosos para promover as suas missões centrais (conhecidas como Objetivos e Resultados-Chave, ou OKRs), chegando até mesmo a usar esses resultados para determinar bónus e promoções. A responsabilidade de lidar com as consequências das decisões sobre o produto é muitas vezes atribuída a outras equipas que geralmente são subsequentes e têm menos autoridade para lidar com as causas-raiz. Essas equipas geralmente são capazes de responder a danos graves, mas muitas vezes não conseguem lidar com problemas causados pelos próprios produtos.  

Com atenção e foco, essa mesma estrutura de desenvolvimento de produtos poderia ser voltada para a questão dos danos sociais. Considere o testemunho no Congresso de Frances Haugen no ano passado, juntamente com as revelações nos media sobre o suposto impacto do Facebook na saúde mental dos adolescentes. O Facebook respondeu às críticas explicando que havia estudado se os adolescentes sentiam que o produto tinha um efeito negativo na sua saúde mental e se essa percepção os fazia usar menos o produto, e não se o produto realmente tinha um efeito prejudicial. Embora a resposta possa ter encaminhado essa controvérsia específica, demonstrou que um estudo voltado diretamente para a questão da saúde mental, em vez do seu impacto no envolvimento do utilizador, não seria um grande esforço.  

Incorporar avaliações de danos sistémicos não será fácil. Teríamos que definir o que podemos realmente medir de forma rigorosa e sistemática, o que exigiríamos das empresas e quais questões priorizar em tais avaliações.  

As próprias empresas podem implementar protocolos, mas os seus interesses financeiros muitas vezes encontrariam limitações significativas no desenvolvimento e crescimento de produtos. Essa realidade é um caso padrão para regulação que opera em nome do público. Seja por meio de um novo mandato legal da Federal Trade Commission ou diretrizes de mitigação de danos de uma nova agência governamental, o trabalho do regulador seria estar junto às equipas de desenvolvimento de produtos das empresas de tecnologia para projetar protocolos implementáveis mensuráveis durante o desenvolvimento do produto para avaliar sinais significativos de dano.  

Essa abordagem pode parecer complicada, mas adicionar esses tipos de protocolos deve ser simples para as maiores empresas (as únicas às quais a regulamentação deve se aplicar), porque já construíram ensaios controlados randomizados no seu processo de desenvolvimento para medir a sua eficácia. A parte mais demorada e complexa seria definir os padrões. A execução real dos testes não exigiria nenhuma participação regulatória. Exigiria apenas fazer perguntas de diagnóstico ao lado de perguntas normais relacionadas ao crescimento e, em seguida, tornar esses dados acessíveis a revisores externos.  

Quando produtos que atingem dezenas de milhões são testados quanto à sua capacidade de aumentar o engagement, as empresas precisariam garantir que, pelo menos em conjunto, também obedecessem ao princípio “não piore o problema”. Com o tempo, padrões mais agressivos podem ser estabelecidos para reverter os efeitos existentes de produtos já aprovados.  

Existem muitos métodos que podem ser adequados para este tipo de processo. Isso inclui protocolos como o medidor de efeito fotográfico, que tem sido usado em diagnósticos para avaliar como a exposição a produtos e serviços afeta o humor. Plataformas de tecnologia já estão a ser usadas em pesquisas para avaliar mudanças de produtos. De acordo com as jornalistas Cecilia Kang e Sheera Frankel, Mark Zuckerberg analisa as métricas de crescimento baseadas em pesquisas para quase todas as decisões de produtos, cujos resultados fizeram parte da sua decisão de reverter a “melhor” versão do algoritmo de feed de notícias do Facebook após as eleições de 2020.  

Seria razoável perguntar se a indústria de tecnologia vê essa abordagem como viável e se as empresas lutariam contra ela. Embora qualquer regulamentação em potencial possa gerar tal resposta, recebemos feedback positivo das primeiras conversas sobre essa estrutura, talvez porque, sob a nossa proposta, a maioria das decisões de produtos seria aprovada. (Causar danos mensuráveis do tipo descrito aqui é uma barreira muito alta, que a maioria das escolhas de produtos eliminaria.) E, diferentemente de outras propostas, essa estratégia evita a regulação direta do discurso, pelo menos fora dos casos mais extremos.  

Ao mesmo tempo, não precisamos esperar que os reguladores tomem medidas. As empresas poderiam implementar prontamente esses procedimentos por conta própria. Estabelecer o caso para a mudança, no entanto, é difícil sem primeiro começar a coletar o tipo de dados de alta qualidade que estamos descrevendo aqui. Isso porque não se pode provar a existência desses tipos de danos sem medição em tempo real, criando um desafio do ovo e da galinha. A monitorização proativa de danos estruturais não resolverá os problemas de conteúdo das plataformas. Mas poderia nos permitir verificar de forma significativa e contínua se o interesse público está a ser subvertido.  

A Agência de Proteção Ambiental dos EUA é uma analogia adequada. O propósito original da agência não era legislar a política ambiental, mas promulgar padrões e protocolos para que políticas com resultados acionáveis pudessem ser feitas. Desse ponto de vista, o impacto duradouro da EPA não foi resolver os debates sobre políticas ambientais (não resolveu), mas torná-los possíveis. Da mesma forma, o primeiro passo para corrigir as redes sociais é criar a infraestrutura necessária para examinar os resultados na fala, bem-estar mental e confiança cívica em tempo real. Sem isso, seremos impedidos de resolver muitos dos problemas mais prementes que essas plataformas criam. 

Nossos tópicos