Governação de algoritmos e Comitê de Ética de IA
Governança

Governação de algoritmos e Comitê de Ética de IA

Por Eduardo Magrani

Atualmente, a Inteligência Artificial (IA) não é uma novidade, incluindo para os próprios legisladores como se observa na contínua criação de projetos normativos para regular esta nova realidade, e onde se incluem o Regulamento da Inteligência Artificial (AI Act), e o Regulamento dos Serviços Digitais (DSA). 

Segundo o Parlamento Europeu, a Inteligência Artificial corresponde à “capacidade de uma máquina para reproduzir competências semelhantes às humanas como é o caso do raciocínio, a aprendizagem, o planeamento e a criatividade”. Por outras palavras, corresponde a um programa informático desenvolvido com uma ou várias das técnicas e abordagens (elencadas no anexo I do AI Act), capaz de, tendo em vista um determinado conjunto de objetivos definidos por seres humanos, criar resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interagem. 

Este sistema pode trazer enormes benefícios, tanto para os utilizadores individuais como para as empresas. Nestas últimas, a IA intervém com sistemas de automatização, catalisadoras de produtividade, com os algoritmos de recomendação e até na realização de tarefas na área dos recursos humanos, através, por exemplo, da utilização de chatbots. Assim, a IA permite poupar tempo e reduzir os custos de um processo normal de recrutamento e seleção. 

Em contrapartida, existem riscos inevitáveis que emergem da utilização de Inteligência Artificial, visto que a sua capacidade de “reproduzir competências semelhantes às humanas” não os torna humanos e sim imitadores das características observadas na sociedade, onde se inclui o preconceito. 

Deste perigo surge reforçada a importância de garantir a robustez e segurança, a responsabilidade, transparência e respeito pelos direitos fundamentais, nomeadamente o direito à privacidade de cada um. É por esta necessidade que o AIA (Artificial Intelligence Act) no seu Título III, referente aos sistemas de IA de risco elevado, e Título IV, alusivo a determinados sistemas como aqueles “destinados a interagir com pessoas singulares”, inclui obrigações de transparência a ser respeitadas pelas pessoas/entidades reguladas por estas normas.  

 Não obstante estas regras, tal não parece ser suficiente para as empresas controlarem, de forma ética, segura e transparente, a Inteligência Artificial antes, durante, e após a sua implementação. Conclui-se, assim, pela imprescindibilidade de uma governança em IA, que se define como as práticas, políticas e estruturas que pretendem promover e garantir o desenvolvimento, implantação e utilização de IA de forma ética, responsável e segura, no âmbito da lei.  

Desta urgência surgiram diversas propostas de governança, entre elas a “Recomendação da OCDE sobre Inteligência Artificial” (2019), que promove a implementação de alguns princípios, cumulativamente, pelos membros e não-membros desta organização, tais como transparência e explicabilidade, robustez e segurança, responsabilidade, princípios estes também mencionados no “Princípios para o uso Ético da Inteligência Artificial no Sistema das Nações Unidas” das Nações Unidas em 2022. Em 2021, também a UNESCO surge com a “Recomendação sobre a Ética da lnteligência Artificial” onde refere, entre outras recomendações, que os Estados-Membros devem “monitorizar e avaliar com credibilidade e transparência as políticas, os programas e os mecanismos relacionados com a ética da IA, utilizando uma combinação de abordagens quantitativas e qualitativas”.  

Uma publicação particularmente relevante é a CapAI, lançado em 2022 e que contém uma lista de verificação abrangente, a ser seguida rigorosamente pelos programadores dos sistemas ao longo de todo o processo (design, desenvolvimento, avaliação, operação e reforma/retirada), como também a sugestão de criação de funções específicas para cada fase do procedimento. 

Além destas diversas alternativas de governança de IA, existe também a sugestão de formação de um Comité de Ética, um grupo capaz de prevenir, detetar e mitigar os potenciais riscos emergentes da IA, entre outros. Esta estrutura, referenciada na recomendação da UNESCO, pode adotar diferentes formas, ter poderes variados e até possuir membros de numerosas especialidades. Simultaneamente, pode servir de auxílio às outras formas de governança de IA, anteriormente referenciadas, e vice-versa.  

A importância de um Comité de Ética acentua-se no contexto de uma empresa de grande dimensão ou que trabalhe com Inteligência Artificial de risco elevado, sistemas estes que necessitam de supervisão humana constante durante e após implementação, encontrando-se regulados pelo AIA, nomeadamente nos artigos 6º e seguintes do diploma (Título III anteriormente referido). 

No recém-publicado estudo desenvolvido pelo Centro de Ensino e Pesquisa em Inovação da Fundação Getúlio Vargas (FGV) propôs-se um “Framework para Comitês de Ética em IA, que visa analisar a Governação de Inteligência Artificial (IA) nas diferentes organizações. O estudo faz parte de um programa de governação e gestão de riscos, que segue as tendências regulatórias da Europa, EUA e Brasil. 

Quanto ao esqueleto do comité, este pode constituir um órgão interno da empresa subordinado à direção ou departamento específico da empresa, ou a um órgão externo à mesma. Este último pode estar vinculado (à organização, a uma rede de organizações com interesses semelhantes ou até mesmo ao poder público) ou possuir uma completa independência. Na situação dos órgãos internos, existirá um maior conhecimento e relacionamento com a empresa, ao passo que nos externos, apesar de um certo afastamento, a imparcialidade aparenta ser mais garantida. 

Relativamente à competência e finalidade do comité, este pode representar diversos papéis, uns mais ativos do que outros, de forma individual ou conjunta. Numa ótica menos presente, existe o poder meramente elucidativo, que visa informar o que se define como boas práticas e quais os princípios mais vantajosos a adotar para o contexto empresarial. Depois existe o poder norteador, onde o objetivo é propor os comportamentos e princípios éticos a adotar pela organização, auxiliado de um acompanhamento direto na gestão da empresa. Numa lógica mais preventiva, o comité pode assumir a função de evitar e mitigar os riscos éticos da tecnologia, implementada ou por executar, onde entrará a supervisão para garantir a não existência de qualquer enviesamento. 

Numa luz mais ativa, fala-se no poder normativo, onde a missão é a elaboração de normas obrigatórias, não supletivas, a serem seguidas por todos os membros da empresa. Por fim, um comité com poder decisório tem a competência para impedir a continuidade de um projeto e avaliar o comportamento de quem faz parte da empresa. 

Os comités de ética não são uma novidade, existindo alguns exemplos de empresas relacionados com órgãos de governança que possuem alguns dos poderes mencionados anteriormente. O comité de ética e conselho de revisão ética da IA pode acumular o poder de fazer recomendações, mas também o de interromper a execução de alguma tecnologia que não cumpra com os princípios de responsabilidade, accountability e transparência. O comité de ética pode ainda ter um papel mais preventivo, intervindo principalmente na avaliação dos riscos de todos os projetos que envolvam IA. 

Possuindo uma ideia da base e dos poderes de um comité de ética, importa perceber a sua composição. Não obstante os membros serem internos (provenientes da própria empresa), externos ou uma mistura de ambos, o mais importante é a especialidade de cada um e como essa sabedoria individual pode marcar a diferença. Um informático, por exemplo, oferece a sua perspetiva sobre os algoritmos em si e a sua probabilidade de sucesso, enquanto um jurista ou advogado auxilia na área do Compliance. Um profissional em Ética seria fundamental para detetar possíveis riscos e ajudar a preveni-los, enquanto alguém especialista em diferentes contextos sociais conseguia detetar possíveis impactos sociais.  

Não se pode esquecer, no entanto, de estrategas e gestores porque o contexto é empresarial, e o lucro será sempre, ou maioritariamente, importante. Com estes especialistas, a balança dos prejuízos e benefícios equilibrar-se-ia, para a tomada de decisões ser proporcional e informada. Ademais, seria vantajoso ter uma pessoa sem uma especialização relacionada com a empresa, para oferecer a perspetiva do potencial destinatário da tecnologia a implementar. Quanto mais multidisciplinariedade o comité possuir, mais eficaz e abrangente será. 

Não existe uma regra para o número de membros, que podem ingressar voluntariamente ou participar num processo seletivo, como também receber, ou não, remuneração. Dependerá da empresa e do comité em questão. Não obstante, a importância de um órgão semelhante a este é inquestionável, tal como a possibilidade de cooperação entre as várias formas de governança de IA, já que todas elas visam reforçar os requisitos essenciais de transparência, responsabilidade, segurança e respeito pelos direitos fundamentais de cada ser humano. 

Dado o atual avanço dos benefícios e riscos da IA, a formação de Comités de Ética para IA em empresas é hoje uma importante tendência que visa reforçar os requisitos essenciais de governação de IA, mitigando riscos existentes e garantindo um bom alinhamento com as tendências regulatórias. 

Nossos tópicos