Entre o avanço técnico e o retrocesso jurídico: Desafios da inteligência artificial para os Direitos Humanos
Por Aurislene Olegário de Morais Barros, Advogada e Procuradora Municipal.
Vivemos uma era em que a inteligência artificial (IA) avança de forma acelerada, transformando setores como a saúde, finanças, educação e até mesmo o entretenimento. A inovação, embora traga consigo oportunidades, também levanta preocupações éticas e jurídicas no que diz respeito à proteção dos direitos fundamentais dos indivíduos.
Os direitos fundamentais não são apenas pontos abstratos de lei; são as garantias de dignidade humana inscritas em instrumentos nacionais e internacionais, como a Declaração Universal dos Direitos Humanos, e protegidos pela Constituição Federal. Eles protegem liberdade, igualdade, privacidade e justiça social. A tarefa agora é não permitir que o desenvolvimento tecnológico, particularmente da IA, diminua essas garantias, mas, ao contrário, aumentá-las.
A linha tênue entre IA e direitos fundamentais está numa interface que é um equilíbrio delicado. Por um lado, sistemas inteligentes podem apoiar a inclusão e a eficiência; por outro lado, correm o risco de reproduzir desigualdades e fornecer um veículo para a promoção de automação discriminatória. As máquinas aprendem com dados, e, se os dados que alimentamos para elas contêm preconceitos históricos, elas simplesmente produzirão esses mesmos preconceitos, agora sancionados pela tecnologia.
Esse fenômeno é agravado pelo acúmulo, processamento e dispositivos de informações pessoais impulsionados por ferramentas de inteligência artificial. Desde o início da pandemia, o uso da internet disparou, assim como o número de indivíduos que usam serviços digitais e compartilham seus dados pessoais, por vezes sem controle e compreensão dos riscos envolvidos. As violações de dados que assolaram gigantes como Facebook e Twitter destacam ainda mais a vulnerabilidade da privacidade digital e como os dados dos usuários podem ser abusados e explorados.
É nesse contexto que a importância de estruturas legais bem elaboradas se torna aparente. A Lei Geral de Proteção de Dados (LGPD) é um avanço do sistema legal brasileiro, pois fornece diretrizes para o tratamento dos dados pessoais. No entanto, mesmo alcançar a plena eficácia prometida ainda está distante. Essas disposições não são específicas o suficiente e necessitam de supervisão e proteção mais rígidas.
Certamente agora, mais do que nunca, a proteção de dados deve ser conduzida por órgãos independentes com poder e independência para monitorar empresas privadas e órgãos públicos. Criar uma agência que cubra a proteção de dados e a regulação da IA deve ser uma medida indispensável para garantir segurança jurídica e a confiança dos cidadãos.
E que a ética esteja incorporada na tecnologia, pois a IA precisa ser orientada por princípios, respeitando a privacidade, não discriminação, transparência e responsabilidade. A vigilância humana permanente e a aplicação clara e forte das leis podem evitar que decisões injustas sejam feitas por algoritmos e garantir que a tecnologia seja usada para nosso benefício, e não o contrário.
Estamos num ponto de virada, uma vez que a maneira como enfrentamos os desafios colocados pela inteligência artificial determinará o futuro de nossa democracia, liberdade e direitos. Precisamos de políticas públicas consistentes, boas regulamentações e, principalmente, uma sociedade informada e atuante, só assim podemos garantir que o avanço tecnológico venha junto com a salvaguarda dos direitos fundamentais.
A inteligência artificial não pode ser abordada como uma coisa neutra, já que os seres humanos a fazem e, por esse motivo, devem ter algum controle sobre os próprios valores ao permitir que a tecnologia avance sem tirar nossa liberdade; deixar que a criatividade ande de mãos dadas com a responsabilidade, e, acima de tudo, deixar os humanos no centro de todas as decisões.



Publicar comentário