Vandermir Francesconi Júnior é 2º vice-presidente do Ciesp e 1º diretor secretário da Fiesp
No último artigo, discorremos sobre como a Inteligência Artificial está tomando conta do nosso cotidiano, no lazer e no trabalho, e impactando a sociedade. Os questionamentos que esta tecnologia têm suscitado são tantos, por seu poder de manipulação e desinformação, que o debate do momento, seja na Europa, nos Estados Unidos ou no Brasil, é sobre como regulamentá-la.
São muitas as vozes que têm feito alertas sobre os perigos de deixar a IA evoluir sem qualquer regra. Em março, mais de mil acadêmicos, especialistas e executivos do setor de tecnologia publicaram uma carta aberta, em tom de preocupação, pedindo uma pausa de seis meses no desenvolvimento de novas ferramentas. Assinaram o texto Elon Musk, dono do Twitter, Steve Wozniak, cofundador da Apple, o pesquisador e escritor Yuval Noah Harari, entre outros. Neste prazo, seriam criados e implementados protocolos de segurança para modelos avançados de IA.
“Os sistemas de Inteligência Artificial contemporâneos estão se tornando competidores dos humanos em tarefas generalizadas, temos que nos perguntar: vamos deixar as máquinas inundarem nossos canais de informação com propaganda e inverdades? Devemos automatizar todas as profissões? Devemos desenvolver cérebros não-humanos que podem eventualmente nos exceder em número e inteligência, nos tornar obsoletos e nos substituir? Devemos perder o controle da nossa civilização?”, diz um trecho da carta. O apelo não foi atendido.
No mês passado, em audiência no Congresso americano, o CEO da empresa que criou a ferramenta de IA mais famosa, o ChatGPT, pediu aos legisladores que regulamentem a tecnologia. Entre os seus temores, está a utilização da Inteligência Artificial para manipular os eleitores e direcionar a desinformação – os EUA terão eleições no ano que vem. Uma das sugestões dele é a criação de uma agência governamental para licenciar empresas aptas a desenvolver a tecnologia, garantindo que elas cumpram os padrões de segurança, como testar sistemas antes de lançá-los e publicar os resultados.
Quem saiu na frente foi o Parlamento europeu, que está criando o primeiro arcabouço legal sobre o assunto. O Ato de Inteligência Artificial já passou por comissões, depois será votado em plenário e terá de ser referendado pelos países. Entre as preocupações, a disseminação de conteúdos perigosos, a manipulação de opinião por meio da criação de imagens falsas e os modelos de vigilância em massa. O objetivo é conter os excessos da Inteligência Artificial sem limitar a inovação.
O texto prevê que as empresas que criam Inteligências Artificiais que geram textos, códigos ou imagens, terão de deixar claro que o conteúdo é fruto da tecnologia, além de produzir relatórios com avaliações de risco do negócio e identificar os textos e autores que auxiliaram no treinamento da máquina, para que sejam remunerados. O Ato impede ainda que governos usem reconhecimento facial em tempo real.
O Brasil está alinhado a essas preocupações. Com base num trabalho elaborado por uma comissão especial de juristas, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou um Projeto de Lei que regulamenta os sistemas de Inteligência Artificial e estabelece regras para a utilização dessas tecnologias pelo poder público.
O projeto defende os direitos das pessoas, que são impactadas pela IA em vários aspectos, desde recomendações de conteúdo na internet e redes sociais até análise de dados para tomada de crédito. O texto proíbe a utilização de técnicas subliminares que induzam a pessoa a se comportar de forma prejudicial ou perigosa à saúde ou segurança.
É um tema sério, complexo e que precisa ser debatido para que a regulamentação atenda aos interesses da sociedade.