LEI DA INTELIGÊNCIA ARTIFICIAL NÃO DEVE ABORDAR RESPONSABILIDADE CIVIL, SUGEREM ESPECIALISTAS

Especialistas ouvidos pela comissão de juristas que elabora um anteprojeto para regulação da inteligência artificial (IA) no Brasil recomendaram aos integrantes do colegiado que o tema responsabilidade civil não seja incluído na futura norma. O assunto foi debatido num painel, na manhã desta sexta-feira (13), no Senado.

Os profissionais ouvidos chamaram a atenção para a infinidade de aplicações, as gradações de risco e o grau de autonomia da tecnologia utilizada, que trazem diferentes consequências na hora de responsabilização de eventuais danos causados. O professor Anderson Schreiber, da Universidade do Estado do Rio de Janeiro (UERJ), e a advogada Gisela Sampaio foram enfáticos na dificuldade a ser enfrentada pelos legisladores, caso queiram incluir a temática numa futura lei:

— O PL [projeto de lei] não deve de jeito nenhum tratar de responsabilidade civil. Para isso, teria que passar por especificar as várias hipóteses e situações, o que acabaria por desnaturá-lo. O projeto deve ter caráter mais geral, neste primeiro momento da IA no Brasil, e seria impossível fazer esse tipo de especificação. A responsabilidade civil acabaria engolindo o PL — opinou Anderson Schreiber.

Os dois especialistas — assim como os professores Caitlin Mulholland, da Pontifícia Universidade Católica do Rio de Janeiro (PUC/RJ), e Nelson Rosenvald, do Instituto Brasileiro de Estudos de Responsabilidade Civil — defenderam também o estabelecimento de um seguro obrigatório para os usos de inteligência artificial que implique alto grau de risco.

Regulação

A reunião desta sexta-feira debateu também possíveis arranjos institucionais de fiscalização, regulação responsiva e a criação de um órgão regulador.

O professor Fernando Filgueiras, da Universidade Federal de Goiás (UFG), explicou que os Estados Unidos (que já discutem uma lei de responsabilidade algorítmica e uma carta de direito para questões do mundo digital) atribuem a regulação a agências reguladoras setoriais já existentes, num modelo mais descentralizado, diferentemente da Europa, que está indo para um caminho mais centralizador.

— Um modelo policêntrico é mais adequado. Regular a inteligência artificial não é regular a tecnologia em si, mas os modelos de negócios que usam a tecnologia para atingir um determinado fim. Regular a inteligência artificial na área de saúde é muito diferente da regular a IA usada na regulação de mercado e combate a conluios feita, por exemplo, pelo Cade [Conselho Administrativo de Defesa Econômica] — explicou.

Códigos éticos

Os debates continuam na parte da tarde, a partir das 14h, quando os convidados vão discutir questões relativas a códigos éticos, melhores práticas e avaliações de impacto. Foram convidados representantes do Ministério da Economia, do Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio internacional (Ibrac), de universidades e da iniciativa privada.

Com prazo para funcionar até 9 de agosto, a comissão foi formada para subsidiar a elaboração de uma minuta de substitutivo para instruir a apreciação de projetos de lei, em tramitação no Senado, que regulam o desenvolvimento e a aplicação da inteligência artificial no Brasil (PLs 5.051/2019, 21/2020 e 872/2021).

Fonte: Agência Senado

 

 

Artigos e Notícias