Debate sobre desinformação adia votação de projeto que regula IA

A votação do projeto de lei que pretende regular a Inteligência Artificial (IA) no Brasil foi adiada em Comissão do Senado, nesta terça-feira (3), devido à posição contrária de parlamentares da oposição sobre a exigência de que os sistemas de IA respeitem a integridade da informação e combatam a desinformação.

Por Arlei Silveira (mtb 0020630) em 03/12/2024 às 17:24:27
Foto: Agência Brasil - EBC

Foto: Agência Brasil - EBC

A votação do projeto de lei que pretende regular a InteligĂȘncia Artificial (IA) no Brasil foi adiada em Comissão do Senado, nesta terça-feira (3), devido à posição contrĂĄria de parlamentares da oposição sobre a exigĂȘncia de que os sistemas de IA respeitem a integridade da informação e combatam a desinformação. Foi dado um prazo até a próxima quinta-feira (5) para que a Comissão Especial criada para analisar o tema chegue a um consenso.

"Existem ainda pontos do relatório cuja redação gerou questionamentos por parte da oposição e do governo. Esses pontos o relator concordou que darĂĄ 48 horas para que os dois lados se manifestem e nós faremos a votação na próxima quinta-feira (5)", explicou o presidente da Comissão, o senador Carlos Viana (Podemos-MG).

De acordo com o relator, o senador Eduardo Gomes (PL-TO), parlamentares da oposição são contrĂĄrios aos trechos do projeto que exigem a integridade da informação produzida por inteligĂȘncia artificial.

O artigo 2Âș do projeto de lei 2.338 de 2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), determina que o desenvolvimento e o uso dos sistemas de IA tĂȘm como fundamento a "integridade da informação mediante a proteção e a promoção da confiabilidade, precisão e consistĂȘncia das informações".

Em outro trecho, o projeto de lei determina que, antes de disponibilizar um sistema de IA no mercado, é preciso demonstrar, por meio de testes, que o sistema pode identificar e reduzir riscos à integridade da informação e contra "a disseminação de desinformação e de discursos que promovam o ódio ou a violĂȘncia".

Debate

Assim como ocorreu no debate sobre o chamado projeto de lei das fake news durante a tramitação na Câmara dos Deputados, parlamentares de oposição tĂȘm argumentado que a inclusão desses dispositivos poderia levar à censura de conteĂșdos na internet.

O senador Marcos Rogério (PL-RO) apresentou emenda para suprimir a exigĂȘncia de integridade da informação em sistemas de IA, alegando que a autoridade criada para supervisionar a IA no Brasil teria o poder de definir quais conteĂșdos as plataformas teriam que remover.

Ao realizar modificações no texto, o relator Eduardo Gomes afirmou que "o conceito de integridade da informação foi revisto para deixar explĂ­cito que é instrumental para a promoção da liberdade de expressão, e não ser instrumentalizado para fins de censura ou violação a outros direitos fundamentais".

O especialista em direito digital Alexandre Gonzales, que atua na Coalizão Direitos na Rede, organização que reĂșne 50 entidades que militam por direitos na internet, destacou à AgĂȘncia Brasil que o argumento de que o combate à desinformação é censura não é vĂĄlido porque a anĂĄlise da integridade da informação não seria feita em casos ou perfis especĂ­ficos com risco de censura, mas no sistema de IA como um todo.

"Essa parte do projeto exige por parte das grandes empresas, por meio da autoridade que vai coordenar esse processo de governança e regulação, que elas apresentem um mĂ­nimo de avaliação de relatório sobre como elas percebem que os sistemas delas estão atuando em relação a uma série de possĂ­veis riscos", explicou.

Ainda nesta terça-feira (3), o relator do projeto Eduardo Gomes excluiu os sistemas de IA usados por plataformas digitais, as chamadas big techs, do rol de IAs consideradas de alto risco.

Projeto

De autoria do presidente do Senado, Rodrigo Pacheco (PSD/MG), o texto estabelece os princĂ­pios fundamentais para o desenvolvimento e uso de IA. Ele define que a tecnologia deve ser transparente, segura, confiĂĄvel, ética, livre de vieses discriminatórios, respeitando os direitos humanos e valores democrĂĄticos. Além disso, o projeto exige que sejam contemplados o desenvolvimento tecnológico, a inovação, a livre iniciativa e a livre concorrĂȘncia.

O projeto ainda define quais sistemas de IA devem ser considerados de alto risco e, por isso, precisam de uma regulação mais rĂ­gida, além de proibir o desenvolvimento de tecnologias que causem danos à saĂșde, segurança ou outros direitos fundamentais.

Também proĂ­be que o poder pĂșblico crie sistemas que classifiquem ou ranqueie pessoas com base no comportamento social para acesso a bens e serviços e polĂ­ticas pĂșblicas "de forma ilegĂ­tima ou desproporcional" ou que facilite o abuso ou exploração sexual de crianças e adolescentes.

Governança

Duas estruturas de governança para regulação da tecnologia estão previstas para fiscalizar a aplicação da legislação, com a criação do Sistema Nacional de Regulação e Governança de IA (SIA), responsĂĄvel por "exercer competĂȘncia normativa, regulatória, fiscalizatória e sancionatória plena para desenvolvimento, implementação e uso de sistemas de inteligĂȘncia artificial para atividades econômicas em que não haja órgão ou ente regulador setorial especĂ­fico".

CaberĂĄ ao SIA ainda regular a classificação dos sistemas de IA de alto risco, aqueles que devem ter um monitoramento mais rĂ­gido, incluindo anĂĄlises permanentes do impacto algorĂ­tmico, ou seja, uma avaliação de como o algoritmo estĂĄ atuando.

O outro órgão é o Conselho de Cooperação Regulatória Permanente (CRIA), ligado ao Ministério do Trabalho, e que deve regular as relações trabalhistas impactadas por IA. Entre os objetivos do CRIA estĂĄ o de valorizar as negociações coletivas, potencializar os efeitos positivos da IA aos trabalhadores, além de "mitigar os potenciais impactos negativos aos trabalhadores, em especial os riscos de deslocamento de emprego e oportunidades de carreira relacionadas a IA".

Além dessas estruturas ligadas ao Poder Executivo, os agentes que trabalhem com IA deverão, de acordo com o projeto, ter estruturas internas de governança e anĂĄlise dos riscos potenciais que podem ser causados pelas ferramentas desenvolvidas. Esses agentes privados também precisarão classificar os sistemas de IA de acordo com os nĂ­veis de risco, com regras mais rĂ­gidas de aplicação e monitoramento para os sistemas considerados de alto risco.

Comunicar erro
02

ComentĂĄrios

03
Universitarias Club Goiania
Buscar acompanhantes:
{"titulo":"Quer receber notifica\u00e7\u00f5es em tempo real e n\u00e3o perder nenhuma not\u00edcia importante?","subtitulo":"Voc\u00ea pode cancelar quando quiser","cor":"#CA0A00","botao":"Aceito","logo":"https:\/\/regional24h.com.br\/hf-conteudo\/uploads\/layout\/logo_aac869f9fea7f5fa08d02afd0dabd940.png"}