A notícia recente sobre a utilização de funcionários remotos na Índia pela Amazon para garantir o funcionamento do sistema "Just Walk Out" (ou “apenas saia”, na tradução ivre) trouxe à tona questões cruciais sobre ética na Inteligência Artificial.
Na teoria, a tecnologia de visão computacional prometia, segundo a empresa, automatizar todo o processo de compra, sem nenhuma interação humana. Bastava entrar na loja, adicionar os produtos no carrinho e sair. A cobrança seria feita automaticamente. No entanto, depois da polêmica, a empresa disse haver uma supervisão humana “apenas para validação”. Mas é fato que nunca saberemos ao certo.
Esse é apenas um caso de muitos que podemos ter questionamentos com relação ao uso da IA. Até por essa razão, muitos governos estão trabalhando para regular o uso dessa tecnologia e definir conceitos como explicabilidade, ética e viés, com o objetivo de promover uma IA mais justa e - por que não? - “livre de polêmicas”.
O caminho para uma IA mais ética e transparente
Esse relato sobre a Amazon acabou me incomodando profundamente. É que, como outras tecnologias que desenvolvemos aqui no Venturus, já houve questionamentos de clientes sobre a possibilidade de uma solução semelhante, que automatizaria todo o processo do negócio. Mas como saber o quão precisa ou efetiva era a solução da Amazon?
Como profissional da área de tecnologia, participei de diversos avanços inovadores ao longo dos anos e testemunhei a ascensão da IA – algo que está aos olhos de todos agora. Esse caso levanta preocupações sobre a transparência e a responsabilidade no desenvolvimento e uso dessa tecnologia.
É daí que surge a ideia da explicabilidade como uma necessidade legal iminente, exigindo transparência e prestação de contas nos algoritmos de IA. Mas o que significa isso?
Segundo os professores Cristiano Colombo e Wilson Engelmann a explicabilidade pode ser entendida como a garantia de que serão desenvolvidos mecanismos para assegurar a transparência dos algoritmos que compõem os sistemas de IA. Para eles, esse requisito será tanto uma tendência quanto LLM, IA Generativa e outros termos que estamos nos acostumando a ouvir.
Quando a ética entra na tecnologia
Em um conceito mais amplo, a ética na inteligência artificial refere-se ao desenvolvimento e aplicação de sistemas de IA de uma forma que seja moralmente correta e que respeite valores éticos fundamentais.
Isso inclui garantir que a IA não perpetue preconceitos ou discriminações (os chamados “viés”), seja transparente em suas operações e decisões (explicabilidade), e que suas implicações e usos sejam considerados em termos de impacto social e moral.
Além disso, a IA Ética também envolve questões sobre privacidade de dados, consentimento para uso de informações pessoais e responsabilidade pelas ações e decisões tomadas por sistemas de IA.
O viés na inteligência artificial
O viés foi um dos primeiros pontos polêmicos levantados pelos algoritmos de IA. Esse tema começou a ganhar destaque na última década, especialmente quando a IA se tornou mais integrada na vida cotidiana e em processos decisórios importantes.
O reconhecimento de que algoritmos podem perpetuar ou até amplificar preconceitos sociais e raciais existentes emergiu com casos notáveis e estudos acadêmicos, levando a uma crescente conscientização sobre a importância da ética e da justiça na IA.
As preocupações se concentram em como os dados usados para treinar esses algoritmos podem conter preconceitos históricos ou culturais, influenciando assim o comportamento e as decisões da IA.
A Pesquisadora Joy Buolamwini foi uma das pioneiras nesse campo, e por si só, é um assunto que cabe vários artigos. Mas já existe um excelente documentário chamado “Coded Bias” que conta muito bem essa história!
A Estratégia Brasileira de Inteligência Artificial (EBIA)
A Estratégia Brasileira de Inteligência Artificial, do qual o Venturus faz parte, trouxe muito desse debate, conforme Relatório Final do Eixo 6, de Pesquisa, Desenvolvimento e Inovação.
No documento, a EBIA propõe cerca de 11 ações para definir uma IA ética, segura e regulada. Dentre elas, o uso de Living Labs Regulatórios, nos quais poderá testar na realidade das organizações, os modelos de autorregulação regulada estruturados a partir de princípios.
Outro ponto importante é termos mais intercâmbios tecnológicos para que possamos ter no Brasil a adoção de princípios que hoje estão sendo estabelecidos na Europa, China e EUA por exemplo. Mais do que tudo, fica uma reflexão levantada nos grupos de trabalho a respeito da Regulação de IA: o uso da IA tem que ser ético!