Lorem ipsum dolor sit amet consectetur adipisicing elit. Vero voluptate

Obrigado por entrar em contato, nossa equipe entrará em contato. Fique atento aos meios de comunicações informados

Fábio Medina Osório, exclusivo: PL 2338 e normas ISO aplicáveis à Inteligência Artificial

Jurista analisa o compliance em inteligência artificial (IA) no Brasil

Fábio Medina Osório

A partir do PL 2338/2023, o compliance em inteligência artificial (IA) no Brasil deve garantir uma estrutura que alie segurança da informação, transparência e responsabilidade ética, alinhando-se a normas internacionais como a ISO/IEC 42001:2023, que estabelece padrões para IA segura e confiável. O foco principal será evitar riscos como discriminação, opacidade e vulnerabilidades de segurança cibernética.

Segurança da Informação

A segurança da informação será um ponto crucial no compliance. As empresas deverão adotar medidas rígidas de proteção de dados, conforme as diretrizes da Lei Geral de Proteção de Dados (LGPD) e normas internacionais, evitando vazamentos e acessos indevidos. Além disso, sistemas de IA deverão garantir privacidade por design (privacy by design), com algoritmos que tratem dados sensíveis de forma segura e responsável.

Mecanismos de monitoramento e controle devem ser implementados, garantindo que qualquer dado processado por IA seja armazenado e tratado de maneira segura, e as decisões tomadas por esses sistemas estejam auditáveis. Esse aspecto também está diretamente conectado às normas da ISO/IEC 27001:2022, que trata da gestão de segurança da informação, aplicada aqui no contexto do uso de IA.

ISO e IA

A ISO/IEC 42001:2023 é uma norma dedicada especificamente à Inteligência Artificial, focando em transparência, segurança, explicabilidade, robustez e confiabilidade dos sistemas de IA. Sob o PL 2338/2023, as empresas que utilizam IA no Brasil precisarão seguir esses padrões para assegurar que seus sistemas não apenas sejam eficientes, mas também éticos e seguros, evitando preconceitos e garantindo transparência no processo decisório.

Ademais, essas normas exigem que os sistemas de IA passem por auditorias regulares, com uma análise detalhada dos algoritmos e dos processos envolvidos, especialmente para evitar discriminação algorítmica e vulnerabilidades cibernéticas. As empresas precisarão estabelecer políticas internas robustas para monitorar e avaliar o impacto dos seus sistemas de IA, assegurando o cumprimento de padrões internacionais de segurança e ética.

Auditorias e Avaliação de Riscos

Uma parte fundamental do compliance será a condução de avaliações contínuas de risco dos sistemas de IA, especialmente em áreas sensíveis como finanças, saúde e segurança pública. Essas avaliações devem levar em conta potenciais impactos negativos, tanto em termos de segurança de dados quanto no risco de decisões automatizadas que possam violar direitos fundamentais.

O processo de auditorias internas e externas garantirá que as organizações estejam em conformidade com as normas estabelecidas pelo PL 2338/2023 e por padrões internacionais como as ISOs específicas para IA. As auditorias também ajudarão a identificar eventuais falhas nos sistemas de IA, permitindo a correção antes que os riscos se concretizem.

Conclusão

O compliance em IA a partir do PL 2338/2023 deve ser uma ferramenta estratégica para garantir o uso seguro, ético e transparente da IA no Brasil. A integração com normas internacionais como a ISO/IEC 42001:2023 e a ISO/IEC 27001:2022 ampliará a capacidade das empresas de manterem a segurança da informação, além de minimizar riscos operacionais e éticos.
 

Fale
Conosco

Dispomos de vários canais de atendimento para que você possa entrar em contato com nossa equipe.

Fale Conosco