A Inteligência Artificial já causou um enorme impacto no Brasil e no mundo. De acordo com pesquisa do MIT Sloan Management Review Brasil e Instituto Locomotiva, mais de 91% das empresas utilizam IA em sua operação no nosso país. Essa adoção em massa se explica pelos benefícios que a ferramenta acrescenta no dia a dia das pessoas.
Contudo, à medida que essa inovação avança, surge uma preocupação sobre a necessidade de regular a IA para garantir que seu uso seja ético, transparente e seguro. Dúvidas como a formatação de algoritmos e a chamada “caixa-preta” ainda pairam sobre essa tecnologia, além de possíveis preconceitos e desinformações eradas pelas ferramentas.
Em todo mundo já há debates para regulações estatais na inteligência artificial. Na Califórnia, por exemplo, uma proposta de legislação mais rígida foi barrada, gerando discórdia sobre o impacto que isso teria na inovação local pelo fato de abrigarem gigantes da tecnologia, como OpenAI, Meta e Google.
Para o Brasil, precisamos tomar cuidados parecidos. Atuando como coordenador do Eixo 6 da Estratégia Brasileira de Inteligência Artificial (EBIA), tenho visto de perto o desafio de criar uma regulação que incentive a inovação sem comprometer a segurança.
O tema central da regulação da IA deve ser pautado pela ética e transparência. Regular a IA não deve ser confundido com censura. Pelo contrário, trata-se de criar um ambiente que favoreça a inovação de forma responsável, garantindo que o desenvolvimento de soluções seja seguro e alinhado com princípios éticos claros.
"Apesar dos exemplos internacionais, precisamos de uma legislação própria, adaptada à realidade local. Não basta copiar modelos estrangeiros."
No EBIA, um dos pilares que tem sido trabalhado para garantir uma IA ética e segura é a implementação dos chamados "Living Labs Regulatórios". Esses laboratórios permitem testar modelos de autorregulação antes que eles cheguem ao mercado. Com isso, é possível inovar e experimentar soluções de forma controlada, ajustando os mecanismos de regulação conforme necessário, sem sufocar o potencial de crescimento tecnológico.
A experiência internacional mostra que há um equilíbrio delicado a ser mantido entre incentivar a inovação e criar regras para um desenvolvimento saudável da IA.
Indo para a parte prática, o Brasil está em um momento crucial para definir seu papel no cenário global da IA, especialmente com o PL 2.338/2023, apelidado de Marco Legal da IA. No entanto, o projeto vem se arrastando há meses na comissão especial do Senado e ainda carece de um estudo de impacto regulatório para o setor, como foi feito na Europa.
Devemos avançar com uma regulação que seja, ao mesmo tempo, justa, eficiente e que incentive o desenvolvimento tecnológico. A criação de um marco regulatório sólido é essencial para que possamos explorar todo o potencial da IA, sem deixar de lado a ética e a transparência, que são fundamentais para o seu uso responsável e uma adesão universal.
Por Marcelo Abreu, CTO do Venturus