ASSINE
search button

Europa lança diretrizes éticas para o uso da inteligência artificial

O termo inteligência artificial é empregado para caracterizar sistemas que ofertam serviços a partir de uma sofisticada capacidade de processamento de informação

Marcelo Camargo/Agência Brasil -
Os sistemas de IA devem ser "robustos" e "seguros", de modo a evitar erros ou a terem condição de lidar com estes, corrigindo eventuais inconsistências
Compartilhar

Um grupo de especialistas da União Europeia divulgou nesta semana um documento com diretrizes éticas para nortear o desenvolvimento de tecnologias de inteligência artificial. Estas são utilizadas em diversas atividades, da seleção as publicações mostradas nas redes sociais a sistemas de avaliação de crédito.

O termo inteligência artificial é empregado para caracterizar sistemas que ofertam serviços a partir de uma sofisticada capacidade de processamento de informação, semelhante ou até superior à de seres humanos. Determinadas tecnologias já tiveram desempenhos melhores do que de pessoas, seja em um jogo, em um diagnóstico ou no reconhecimento de imagens ou textos.

Macaque in the trees
Os sistemas de IA devem ser "robustos" e "seguros", de modo a evitar erros ou a terem condição de lidar com estes, corrigindo eventuais inconsistências (Foto: Marcelo Camargo/Agência Brasil)

O documento faz parte de um processo da União Europeia para estabelecer uma visão “centrada em humanos” para a construção de soluções “confiáveis” desse tipo de sistemas. Esta pode se materializar tanto em legislações e normas administrativas como em orientações gerais para os fabricantes e projetos de pesquisa.

Uma diretriz é a relevância da participação e do controle dos seres humanos, com objetos técnicos que promovam o papel e os direitos das pessoas, e não prejudiquem estes. Uma orientação complementar é a garantia de que os sistemas considerem a diversidade de segmentos e representações humanas (incluindo gênero, raça e etnia, orientação sexual e classe, entre outros), evitando atuações que gerem discriminação.

Segundo o documento, os sistemas de IA devem ser “robustos” e “seguros”, de modo a evitar erros ou a terem condição de lidar com estes, corrigindo eventuais inconsistências. Esses problemas podem ter sérios impactos na sociedade, como a discriminação de pessoas no acesso a um serviço ou até mesmo quedas de bolsas cujas compras e vendas de ações utilizam essas tecnologias.

Ao mesmo tempo, o texto destaca a necessidade de assegurar a transparência dos sistemas. Isso porque a opacidade dessas tecnologias pode trazer riscos, uma vez que seu caráter inteligente torna mais difícil entender porque determinada operação ou decisão foi tomada de uma determinada maneira e não de outra. Assim, os autores defendem que um sistema de IA deva ser “rastreável” e “explicável”, para que não haja dificuldades na compreensão de sua atuação.

Pelo documento, essas soluções técnicas devem assegurar a privacidade e o controle dos cidadãos sobre seus dados. As informações coletadas sobre um indivíduo não podem ser utilizadas para prejudicá-lo, como em decisões automatizadas que o discriminam em relação a alguém. Estudos já mostraram como essas tecnologias podem incorporar vieses, privilegiando, por exemplo, pessoas brancas em detrimento de negros na caracterização ou na oferta de um serviço.

O vice-presidente para o Mercado Único Digital da União Europeia, Andrus Ansip, destacou a importância do tema. “A dimensão ética da Inteligência Artificial não é só um luxo ou um acréscimo. É somente com confiança que nossa sociedade pode se beneficiar plenamente dessas tecnologias. Uma IA ética é uma proposta que traz ganhos e que pode ser uma vantagem competitiva para a Europa: ser uma líder de tecnologias de IA centradas em pessoas que usuários possam confiar”.