Este artigo é sobre Tecnologia
A inteligência artificial habita o imaginário humano desde que foi apresentada ao grande público por Hal 9000, o supercomputador concebido pelo escritor inglês Arthur C. Clarke e pelo cineasta norte-americano Stanley Kubrick em "2001: Uma Odisseia no Espaço", obra-prima de ficção científica imortalizada pelo cinema, em 1968. Na história, Hal é responsável por todo o funcionamento da espaçonave Discovery One, que seguia em missão para Júpiter. Após um erro de análise, sua infalibilidade é questionada pelos astronautas e a máquina mata a tripulação. Só um escapa, David, que consegue desligá-la. Antes, em sua defesa, Hal alega que “se existe uma falha, ela é humana” — o que se confirmaria no livro subsequente, "2010: Uma Odisseia no Espaço II".
Novamente, a ficção se antecipou à realidade — e os próprios Clarke e Kubrick anteviam a causa do problema, já vislumbrando um necessário debate sobre o uso responsável e ético da inteligência artificial e possíveis consequências provocadas pela falta de governança. O problema não é a tecnologia, mas sim o seu uso pela sociedade, que tem o seu regramento estabelecido pelo Estado de Direito. Logo, é fundamental que exista a consciência de que é preciso regular a utilização da IA, com responsabilização civil e até criminal em relação ao seu mau uso e respectivas consequências.
Em julho, a União Internacional da Telecomunicação das Nações Unidas promoveu a cúpula global “Inteligência Artificial para o Bem”, reunindo governos, pesquisadores, indústrias e ONGs, em Genebra. Às preocupações da ONU, juntam-se as do Congresso Nacional.
No Senado, uma comissão de juristas liderada pelo ministro Ricardo Villas Bôas Cueva, do Superior Tribunal de Justiça, elaborou uma proposta de marco legal para a inteligência artificial no Brasil — que tramita sob a forma do projeto de lei 2.338, apresentado neste ano pelo presidente da Casa, Rodrigo Pacheco.
O texto propõe o respeito a princípios éticos no uso da inteligência artificial e à Lei Geral de Proteção de Dados, determina que o funcionamento dos algoritmos seja transparente e devidamente explicado por quem os explora à população, estabelece responsabilização civil e visa a evitar impactos sociais negativos derivados da sua operação.
A proposta ainda destaca a proteção aos direitos fundamentais, à democracia e à implementação de instrumentos de segurança para garantir a sua governança — termo citado 20 vezes ao longo do projeto e com um capítulo inteiro dedicado ao tema, o que demonstra a preocupação sobre a exploração da IA por empresas e instituições.
Tal cuidado é essencial para garantir a transparência nos processos de tomada de decisão e atribuir responsabilidades claras em caso de erros ou consequências negativas. À medida que a IA se torna mais autônoma, surgem questões sobre quem deve responder por decisões erradas ou danos causados por sistemas autônomos. A atribuição dessa responsabilidade legal e ética é um desafio.
Paralelamente, outro projeto de lei (21/2020) tramita na Câmara dos Deputados como primeira resposta à larga disseminação de desinformação que já tomava conta do país três anos atrás, prejudicando a confiança na mídia e nas instituições. O próprio presidente da Câmara, deputado Arthur Lira, defendeu recentemente uma legislação dura para o uso de IA.
Esse nível de compreensão avançada da complexidade da questão pelo Congresso Nacional poderá pôr o Brasil em posição de vanguarda ao trazer a ética para o centro de uma legislação sobre inteligência artificial dentro do Estado Democrático de Direito.
Lidar com limites éticos é e sempre foi um desafio da humanidade. A IA deve ser vista como algo que exige uma atenção permanente, assegurando que a sua utilização envolva governos, empresas, pesquisadores e a sociedade em geral. A implementação responsável da inteligência artificial exige a criação de regulamentações adequadas, padrões éticos e diretrizes claras para garantir que a tecnologia seja usada para o bem comum e benefício da humanidade. O receio de fazermos algo ruim não pode ser um impeditivo para tudo o que queremos fazer de bom, mas devemos monitorar de perto o que não entendemos e definirmos o caminho a seguir.
Este artigo é sobre Tecnologia
Compartilhar: