“Inteligência artificial para disparos em massa deve seguir princípios éticos”
Após encabeçar a relatoria de uma das principais pautas de costumes do governo Bolsonaro, o homeschooling [educação domiciliar], a deputada Luísa Canziani (PTB-PR) está agora à frente de outra proposta que deve gerar polêmica: o marco da inteligência artificial no Brasil...
Após encabeçar a relatoria de uma das principais pautas de costumes do governo Bolsonaro, o homeschooling [educação domiciliar], a deputada Luísa Canziani (PTB-PR) está agora à frente de outra proposta que deve gerar polêmica: o marco da inteligência artificial no Brasil.
O texto pretende estabelecer parâmetros éticos para a aplicação da inteligência artificial nas atividades cotidianas, como serviços de telemarketing, sugestão de conteúdos na internet e até disparo de mensagens em massa.
“O que a gente quer evitar é que uma plataforma use a IA [inteligência artificial] e incentive comportamentos racistas ou discriminatórios, por exemplo”, disse a deputada, em entrevista a O Antagonista.
A intenção da parlamentar é que o texto esteja pronto para votação ainda este ano. Caso isso ocorra, a regulamentação das atividades de inteligência artificial poderá impactar até nas eleições do ano que vem, já que a norma abre margem para a aplicação de sanções contra quem abusa do uso de robôs para propagação de mensagens que incentivem o ódio ou que possam desequilibrar a democracia.
Leia os principais trechos da entrevista:
O marco da inteligência artificial vai tratar especificamente sobre o quê? É necessário criar uma regulação desse tema?
Na verdade, é uma legislação extremamente principiológica, que vai fomentar o uso da tecnologia no Brasil. Terá como ponto central a experiência do usuário, a melhora da qualidade de vida, do bem-estar dos nossos cidadãos.
Como isso será feito?
O texto vai estabelecer esses princípios, direitos, os deveres, os instrumentos de governança para a inteligência artificial. É um norte para quem produz inteligência artificial no país. E, obviamente, se algum ‘player’ não estiver seguindo esses princípios e diretrizes, cada entidade setorial temática – no caso das instituições financeiras, o Bacen, da aviação civil [Anac], poderão estabelecer estruturas de regulação próprias visando o restabelecimento dos princípios gerais da lei, no caso o Marco Civil da Internet, para fazer as devidas sanções.
Mas como isso vai acontecer na prática, deputada? Como o cidadão vai sentir a diferença em relação ao que ocorre hoje?
Vamos auxiliar a aplicação da inteligência artificial como tomada de decisão. No momento em que uma plataforma usar de inteligência artificial para qualquer tipo de atividade, ela terá que seguir certos princípios. O que a gente quer evitar é que uma plataforma use a inteligência artificial e incentive comportamentos racistas ou discriminatórios, por exemplo. Existem casos em que uma pessoa acaba por ensinar à máquina determinado tipo de comportamento que é nocivo à sociedade pelo fato de reproduzir esse tipo de comportamento. Queremos tentar coibir esse tipo de prática. Não queremos engessar a atividade no Brasil, mas é preciso ter parâmetros claros.
Como será essa regulação? Quais serão esses parâmetros?
O que vamos dar são instrumentos para as instituições já existentes regular a inteligência artificial. Por exemplo: quem melhor que o Banco Central para discutir questões do mercado financeiro? Temos a Anvisa, para questão de medicamentos ou relacionadas à saúde; a Anac, para questões de aviação; e assim por diante. Então, o que vamos fazer: não é criar um órgão para regulamentar isso, mas dar princípios e diretrizes para que as organizações tutelem essas plataformas.
O projeto vai prever algum tipo de sanção ou terá apenas um caráter de orientação?
O projeto é de caráter instrutório. A sanção vai caber a cada órgão ou instituição. Vamos dar as diretrizes a serem seguidas. Elas vão indicar quando e como os órgãos devem interferir no que diz respeito à inteligência artificial, sempre visando as boas práticas.
O projeto não corre o risco de virar “letra morta”?
Não, porque vamos trazer a premissa da prudência. Não há necessidade de inventar roda. Já temos padrões internacionais para nortear essa discussão, como nos Estados Unidos e Europa. Nada mais natural que o Brasil possa beber dessas fontes e estabelecer critérios e padrões que guiem o uso da inteligência artificial no país.
Quando se fala de inteligência artificial, normalmente se pensa nos atuais serviços de telemarketing. Mas uma preocupação latente é o uso de robôs nas eleições. O projeto vai tratar disso?
Precisamos entender que, quando falamos sobre inteligência artificial, falamos sobre um aspecto bastante amplo de questões e não apenas de telemarketing e uso de robôs. IA é utilizada no dia a dia de todos e tem um imenso potencial de apoiar a sociedade a encontrar respostas para desafios complexos.
A gente não vai dispor sobre o processo eleitoral especificamente. Porém, nossos parâmetros poderão ser usados pelo TSE para estabelecer regulamentações específicas que versem sobre o uso de inteligência artificial nas eleições.
Vamos apresentar um projeto para nortear os princípios gerais de quem trabalha com inteligência artificial. São princípios e diretrizes baseadas em ações que possam, de alguma maneira, trazer transformações sociais, econômicas e políticas. Obviamente que, no centro de tudo isso, vamos tentar construir um marco que vislumbre as integridades física e moral dos nossos cidadãos, zelando por questões sensíveis como a proteção de dados, fazendo uma interface com o Marco Civil da Internet ou da Lei Geral de Proteção de Dados.
Ainda que não entre especificamente em eleições, existe uma preocupação do uso da inteligência artificial para difundir conteúdos que são nocivos à sociedade? Como isso será disciplinado? É possível fazer isso?
O projeto vai abarcar tudo o que envolve a inteligência artificial. Então, se a inteligência artificial for usada para disparo de mensagens em massa, esses princípios e diretrizes [integridades física e moral, por exemplo] terão que ser seguidos. É uma pauta muito transversal, atinge vários setores, como a educação, o agronegócio, a medicina.
O projeto do marco da inteligência artificial já tem um prazo para ser apresentado e votado na Câmara?
Essa é uma discussão importantíssima na nossa sociedade contemporânea, e, inclusive, precisamos dar mais visibilidade. Vamos submeter a proposta a uma discussão em várias audiências públicas na Comissão de Ciência e Tecnologia, além de fazer ciclos de debates. Como o projeto já está com o pedido de urgência aprovado, essa foi a solução que encontramos para ampliar a discussão sobre o tema e conseguir produzir um relatório que seja o mais democrático possível. Mas é algo que vai ser discutido ao longo do semestre.
Há um objetivo de que o texto seja aprovado para ter vigência em 2022?
Correto. Queremos uma articulação conjunta entre Câmara e Senado sobre esse assunto. Estamos conversando com o Eduardo Gomes [líder do governo no Congresso], com outros senadores e deputados para alinhar um texto conjunto.
A sua proposta de homescholling sofreu resistências na Câmara da ala bolsonarista e quando se fala em regulação de inteligência artificial, os bolsonaristas são radicalmente contrários. Como contornar isso? Veremos outra briga?
Não, não teremos briga. Essa é uma pauta central para o desenvolvimento do país e precisamos entender que a inovação tecnológica deve trazer transformação, não intensificar as desigualdades sociais. A gente não vai entrar em choque. Esse é um projeto de país do futuro. É uma política pública de Estado. De maneira alguma vamos engessar quem trabalha com inteligência artificial no Brasil. A gente quer é dar segurança jurídica.
Os comentários não representam a opinião do site; a responsabilidade pelo conteúdo postado é do autor da mensagem.
Comentários (0)