Inteligência artificial: regulação prevê direito à privacidade e proíbe análise da personalidade

Foto: imagem ilustrativa/ deepak pal/Flickr
Foto: imagem ilustrativa/ deepak pal/Flickr

A regulamentação do uso da inteligência artificial (IA) no Brasil é um dos temas que serão discutidos no Senado Federal nesta semana. Uma sessão para debater o assunto, que interessa também a setores da economia, e, em especial, o Projeto de Lei (PL) de autoria do presidente do Congresso que regulamenta o uso dessa tecnologia está convocada para terça-feira (11) no plenário.

O evento foi solicitado pelo relator da proposição de Rodrigo Pacheco (PSD-MG), senador Eduardo Gomes (PL-TO), para que, ouvindo os senadores, possa aperfeiçoar o seu relatório ao projeto.

Gomes apresentou o relatório na última sexta-feira (7), dois dias depois do previsto. No documento, ele vota pela aprovação da proposição na forma de um substitutivo.

A proposta de Gomes cria normas gerais de caráter nacional para a concepção, o desenvolvimento, implementação, utilização, adoção e governança responsável de sistemas de IA no país, com o objetivo de proteger os direitos fundamentais, estimular a inovação responsável e garantir a implementação de sistemas seguros e confiáveis, em benefício das pessoas, da democracia e do desenvolvimento social, científico, tecnológico e econômico.

Para as finalidades da lei a ser criada, sistema de IA é entendido como o “sistema baseado em máquina que, com graus diferentes de autonomia e para objetivos explícitos ou implícitos, infere, a partir de um conjunto de dados ou informações que recebe, como gerar resultados, em especial, previsão, conteúdo, recomendação ou decisão que possa influenciar o ambiente virtual, físico ou real”.

Já agentes de IA são desenvolvedores, fornecedores e aplicadores que atuem na cadeia de valor e na governança interna de sistemas dessa tecnologia.

A lei não se aplicaria ao sistema de IA usado por pessoa para fim exclusivamente particular e não econômico, e àquele desenvolvido e utilizado exclusivamente para fins de defesa nacional.

O substitutivo diz ainda que a pessoa ou grupo afetado por sistema de IA, independentemente do seu grau de risco, tem:

  • Direito à informação prévia quanto às suas interações com sistemas de inteligência artificial, de forma acessível, gratuita e de fácil compreensão, inclusive sobre caráter automatizado da interação, exceto nos casos em que se trate de sistemas de IA dedicados única e exclusivamente à cibersegurança e à ciberdefesa;
  • Direito à privacidade e à proteção de dados pessoais, em especial os direitos dos titulares de dados, nos termos da Lei nº 13.709, de 14 de agosto de 2018, e da legislação pertinente;
  • Direito à determinação e à participação humana em decisões de sistemas de inteligência artificial, levando-se em conta o contexto, o nível de risco do sistema e o estado da arte do desenvolvimento tecnológico;
  • Direito à não-discriminação ilícita e abusiva e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos.

O substitutivo proíbe a implementação e o uso de sistemas de inteligência artificial que empreguem técnicas subliminares com objetivo ou efeito de induzir o comportamento da pessoa ou de grupos de maneira que cause ou seja provável que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros.

São proibidos também sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público, com exceção de determinas hipóteses; sistemas de armas autônomas (SAA); e a implementação e uso de sistemas de IA que:

  • Possibilitem a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes;
  • Avaliem os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência.

O poder público não pode implementar e usar os sistemas de IA “para avaliar, classificar ou ranquear as pessoas naturais, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional”.

O texto ainda cria o Sistema de Regulação e Governança de Inteligência Artificial (SIA). Entre os objetivos e fundamentos deste, estão valorizar e reforçar as competências regulatória, sancionatória e normativa das autoridades setoriais em harmonia com as correlatas gerais da autoridade competente que coordena o SIA; e harmonização e colaboração com órgãos reguladores de temas transversais.

O SIA será integrado pela autoridade competente a ser designada pelo Executivo federal, que é o órgão de coordenação do Sistema, e também por órgãos e entidades públicos federais responsáveis pela regulação de setores específicos da atividade econômica e governamental, além de um Conselho de Cooperação Regulatória de Inteligência Artificial (Cria).

O substitutivo determina que, antes da introdução e circulação no mercado, emprego ou utilização de sistemas de IA, o desenvolvedor e aplicador deles realizem avaliação preliminar que determinará o grau de risco do sistema.

Os de risco excessivo são proibidos. Em relação aos de alto risco, caberá ao SIA regulamentar a classificação da lista desses sistemas de IA.

Os agentes de inteligência artificial de sistemas de alto risco deverão indicar um encarregado de governança; fazer testes para avaliação de níveis apropriados de confiabilidade, performance consistente, segurança, proteção e robustez conforme o setor e o tipo de aplicação do sistema de IA; adotar medidas de gestão de dados para mitigar e prevenir vieses discriminatórios; e registrar fontes automatizadas e o grau de supervisão humana que tenham contribuído para os resultados apresentados pelos sistemas de IA.

O texto estabelece ainda que a avaliação de impacto algorítmico de sistemas de inteligência artificial é obrigação dos agentes de IA, sempre que o sistema for considerado de alto risco pela avaliação preliminar.

Está prevista também a possibilidade de os agentes de IA se associarem “voluntariamente sob a forma de pessoa jurídica de direito privado sem fins lucrativos para promover a autorregulação com o objetivo de incentivar e assegurar melhores práticas de governança ao longo de todo o ciclo de vida de sistemas de inteligência artificial”.

Entre as funções que a autorregulação pode compreender, está estabelecer critérios técnicos dos sistemas de IA aplicada, inclusive de padronização, prudenciais e de atuação concertada dos entes associados, desde que não impeçam o desenvolvimento tecnológico e em conformidade com a lei criada pelo projeto e as normas vinculantes do SIA.

Sanções administrativas

De acordo com o substitutivo proposto por Eduardo Gomes, os agentes de IA, em razão das infrações cometidas às normas previstas na lei a ser criada, ficam sujeitos a sanções administrativas aplicáveis pela autoridade competente, entre as quais:

  • Advertência;
  • Multa simples, limitada, no total, a R$ 50 milhões por infração, sendo, no caso de pessoa jurídica de direito privado, ou de até 2% de seu faturamento bruto, de seu grupo ou conglomerado no Brasil no seu último exercício, excluídos os tributos;
  • Publicização da infração após devidamente apurada e confirmada a sua ocorrência;
  • Proibição ou restrição para participar de regime de sandbox regulatório previsto na lei, por até cinco anos;
  • Suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial; e
  • Proibição de tratamento de determinadas bases de dados.

Direitos de autor e conexos

O texto diz que o desenvolvedor e o aplicador de sistema de IA que usarem conteúdo protegido por direitos de autor e conexos no seu desenvolvimento deverão informar quais conteúdos protegidos foram utilizados nos processos de treinamento dos sistemas.

O titular de direitos de autor e conexos poderá proibir o uso dos conteúdos de sua titularidade no desenvolvimento de sistemas de inteligência artificial.

Canais de diálogos mantidos abertos

No relatório, Eduardo Gomes diz que a análise das proposições submetidas à Comissão Temporária Interna sobre Inteligência Artificial no Brasil, além do extenso material de referência produzido ou organizado, “deixam claro que a regulação da inteligência artificial é uma das missões mais complexas que o Parlamento enfrenta atualmente”.

Segundo o senador, “o desafio de propor uma norma que seja capaz de proteger suficientemente direitos e garantias e de, ao mesmo tempo, fomentar a inovação e o desenvolvimento tecnológico é enorme”.

Gomes assinala que os canais de diálogo foram mantidos “permanentemente abertos” para a construção coletiva da regulação da IA. “Todos os parlamentares envolvidos no processo estiveram acessíveis e disponíveis para receber manifestações diversas sobre o tema, muitas vezes antagônicas entre si, mas que, articuladas em seu conjunto, permitem alcançar um resultado harmônico”, acrescenta.

Ele relembra que, em 24 de abril, publicou um texto preliminar do substitutivo que vai levar para votação na Comissão Temporária Interna do Senado, “dando ainda mais transparência ao processo, e possibilitando, outra vez, o recebimento de sugestões e críticas, de modo a garantir a plena participação democrática”.

O relator pontua também que a apresentação do relatório na sexta “consiste em mais um passo nas discussões da matéria, que ainda ficará aberta para debates antes de sua deliberação nessa Comissão, e que, posteriormente, seguirá o devido processo legislativo”.

Ele explica que o substitutivo apresentado é um “texto agregador” de pontos trazidos nos projetos relacionados ao tema da IA em tramitação na comissão. Colaboraram com a construção do texto o governo federal, por meio da presidência da República e dos ministérios, e entidades como a Associação Brasileira de Inteligência Artificial (Abria), a Associação Brasileira da Indústria de Tecnologia para Saúde (Abimed), a Federação Brasileira de Bancos (Febraban) e a Fecomercio.

A comissão tem até o dia 17 de julho para votar o relatório de Eduardo Gomes e, assim, encerrar os trabalhos.

Preocupações de setores

Em entrevista ao SBT News, Rony Vainzof, consultor em proteção de dados da Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FecomercioSP), disse que a entidade está acompanhando todas as discussões regulatórias que ocorrem sobre inteligência artificial no Congresso desde 2020.

Segundo Rony, o principal desejo da federação em relação à IA é “o que todo mundo quer: não impedir a inovação, não impedir a transformação digital e, ao mesmo tempo, proteger direitos e garantias fundamentais”.

“E, na nossa perspectiva, a gente está num momento de observar e talvez não regular”, aponta.

Segundo Rony, não há dúvida de que a IA traz novas discussões sobre potenciais riscos que existem, como o de erro por parte da tecnologia e sobre deepfakes, mas é preciso analisar se as leis existentes já não cobrem eles. Ele ressalta que ao falar de reconhecimento facial, por exemplo, está se falando de dado pessoal, e a Lei Geral de Proteção de Dados já cobre isso.

“E se a IA serve para uma relação de consumo, por exemplo, num chatbot, que conversa com o consumidores para trazer respostas mais assertivas, a gente tem o Código de Defesa do Consumidor. Se não envolver relações de consumo, a gente tem o Código Civil. Fora as regulações setoriais todas e a própria autorregulação”, explica.

Dessa forma, pontua, a primeira discussão que precisa ser feita em relação à IA é se existe urgência na regulação. “Porque a inteligência artificial é uma tecnologia de propósito geral, como a internet é, por exemplo. E de acordo com seu uso, a gente tem que analisar o risco e se há já legislações existentes”.

Essa análise precisa ser feita, acrescenta, porque ao falar de regulação de tecnologia, é necessário entender que pode haver impactos na inovação.

“Porque quanto maior for a carga regulatória, quanto maior for a governança, quanto maior for o risco de responsabilidade civil que se crie, a gente pode ter um desestímulo e um desincentivo à inovação e à transformação digital”, diz.

As preocupações foram levadas ao senador Eduardo Gomes. Rony salienta que o processo para construção da regulamentação na comissão do Senado “está sendo super democrático”.

Questionado sobre qual a importância da IA para o comércio, Rony disse que essa tecnologia, em média, “gera 66% de eficiência a mais para qualquer profissional”.

“Isso envolve eficiência em programações, na redação de documentos, em marketing, em vendas, em trabalhos que são burocráticos e repetitivos, isso envolve você gerar, principalmente para empresas de pequeno porte, uma competitividade colossal”, descreve.

De acordo com o consultor, cada vez mais as empresas de pequeno porte, as quais são “a grande realidade no Brasil”, precisam ter ciência da importância do uso da ferramenta.

“É nesse sentido que a gente explora, na Fecomércio, que a tecnologia existe, precisa ser utilizada, se não for utilizada, é um perigo à competitividade, e ela precisa ser usada de forma responsável”, pontua.

“E daí que a gente caminha no sentido da ponderação sobre a necessidade de novas cargas regulatórias que podem desestimular esse uso que é necessário para as empresas de pequeno porte”.

Em nota enviada à reportagem, a Confederação Nacional da Indústria (CNI), por sua vez, disse que o Projeto de Lei de autoria do senador Rodrigo Pacheco que regulamenta o uso da IA integra a Pauta Mínima da Agenda Legislativa 2024 da confederação. “Trata-se de uma proposição, contudo, da qual a CNI é divergente com ressalvas, ou seja, da forma como está, carece de aprimoramentos”.

De acordo com a entidade, a regulamentação da inteligência artificial “é prioritária para o processo de reindustrialização e de maior integração internacional da economia brasileira”.

Mas essa nova legislação precisa estar baseada em análise de risco e não impor “limites severos ao desenvolvimento e uso de aplicações baseadas em IA, aliada às necessárias salvaguardas para a garantia dos direitos individuais e coletivos, em consonância com a abordagem predominante nos debates legislativos que estão ocorrendo nos países líderes nesta tecnologia”.

A CNI ainda ressalta que “é importante não confundir IA com redes sociais; e o foco deve ser dado ao uso e aplicações da IA para a produtividade da indústria, não apenas o mau uso desse tipo de ferramenta”.

Já a Associação Brasileira de Internet (Abranet) disse à reportagem que o processo de regulação da IA no país precisa olhar para temas como competitividade, emprego e inovação.

“A regulação deve ser uma viabilizadora do papel de protagonismo que o país quer alcançar e para isso não deve impor obrigações que oneram de forma desproporcional as empresas que desenvolvem e disponibilizam aplicações de IA nos mais diversos setores”, diz.

A associação pontua que essa tecnologia não é um setor em si, mas já está e estará “cada vez mais presente nos mais diferentes setores: de transporte à saúde, do comércio eletrônico aos serviços financeiros”. “Tudo contará com algum elemento de IA e por isso as decisões sobre regulação precisam levar em consideração as peculiaridades e as demandas de cada setor”.

A Associação Brasileira de Medicina Diagnóstica (Abramed) afirma que, para assegurar que a inteligência artificial seja usada de forma ética e segura, “é fundamental estabelecer normas gerais para desenvolvimento, implementação e uso responsável da tecnologia”.

A entidade salienta que esse é um dos principais objetivos do Projeto de Lei de autoria de Pacheco. “Não há como negar a importância do respeito às singularidades de cada setor, sobretudo pela transversalidade dos sistemas de IA. Neste sentido, a participação dos agentes da cadeia de saúde para auxílio no amadurecimento da norma é essencial”, pontua.

A Abramed tem acompanhado o PL e contribuído para o desenvolvimento dele por meio do Comitê de Proteção de Dados.

 

Com informações do SBT News

Confira as redes sociais do O Estado Online no  Facebook e Instagram

 

Leia mais:

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *