Fábio Medina Osório
A partir do PL 2338/2023, o compliance em inteligência artificial (IA) no Brasil deve garantir uma estrutura que alie segurança da informação, transparência e responsabilidade ética, alinhando-se a normas internacionais como a ISO/IEC 42001:2023, que estabelece padrões para IA segura e confiável. O foco principal será evitar riscos como discriminação, opacidade e vulnerabilidades de segurança cibernética.
Segurança da Informação
A segurança da informação será um ponto crucial no compliance. As empresas deverão adotar medidas rígidas de proteção de dados, conforme as diretrizes da Lei Geral de Proteção de Dados (LGPD) e normas internacionais, evitando vazamentos e acessos indevidos. Além disso, sistemas de IA deverão garantir privacidade por design (privacy by design), com algoritmos que tratem dados sensíveis de forma segura e responsável.
Mecanismos de monitoramento e controle devem ser implementados, garantindo que qualquer dado processado por IA seja armazenado e tratado de maneira segura, e as decisões tomadas por esses sistemas estejam auditáveis. Esse aspecto também está diretamente conectado às normas da ISO/IEC 27001:2022, que trata da gestão de segurança da informação, aplicada aqui no contexto do uso de IA.
ISO e IA
A ISO/IEC 42001:2023 é uma norma dedicada especificamente à Inteligência Artificial, focando em transparência, segurança, explicabilidade, robustez e confiabilidade dos sistemas de IA. Sob o PL 2338/2023, as empresas que utilizam IA no Brasil precisarão seguir esses padrões para assegurar que seus sistemas não apenas sejam eficientes, mas também éticos e seguros, evitando preconceitos e garantindo transparência no processo decisório.
Ademais, essas normas exigem que os sistemas de IA passem por auditorias regulares, com uma análise detalhada dos algoritmos e dos processos envolvidos, especialmente para evitar discriminação algorítmica e vulnerabilidades cibernéticas. As empresas precisarão estabelecer políticas internas robustas para monitorar e avaliar o impacto dos seus sistemas de IA, assegurando o cumprimento de padrões internacionais de segurança e ética.
Auditorias e Avaliação de Riscos
Uma parte fundamental do compliance será a condução de avaliações contínuas de risco dos sistemas de IA, especialmente em áreas sensíveis como finanças, saúde e segurança pública. Essas avaliações devem levar em conta potenciais impactos negativos, tanto em termos de segurança de dados quanto no risco de decisões automatizadas que possam violar direitos fundamentais.
O processo de auditorias internas e externas garantirá que as organizações estejam em conformidade com as normas estabelecidas pelo PL 2338/2023 e por padrões internacionais como as ISOs específicas para IA. As auditorias também ajudarão a identificar eventuais falhas nos sistemas de IA, permitindo a correção antes que os riscos se concretizem.
Conclusão
O compliance em IA a partir do PL 2338/2023 deve ser uma ferramenta estratégica para garantir o uso seguro, ético e transparente da IA no Brasil. A integração com normas internacionais como a ISO/IEC 42001:2023 e a ISO/IEC 27001:2022 ampliará a capacidade das empresas de manterem a segurança da informação, além de minimizar riscos operacionais e éticos.