O debate sobre o Projeto de Lei 2.338/2023 (o Marco Regulatório da Inteligência Artificial) está em fase decisiva na Câmara dos Deputados. Para o setor de saúde, estamos diante de uma mudança regulatória de grande impacto e iminente.
O texto do projeto é claro: sistemas de IA usados para diagnósticos, auxílio a procedimentos médicos e outras aplicações em saúde serão classificados, por definição, como de ALTO RISCO.
Isso significa que a inovação em IA virá acompanhada de um pacote robusto de regulações. Não se trata de frear o avanço, mas de controlar o impacto. Estamos falando de exigências rigorosas em:
- Governança de dados e algoritmos;
- Transparência das decisões automatizadas;
- Supervisão humana obrigatória;
- Testes rigorosos de segurança e mitigação de vieses.
O papel da ANVISA.
Aqui está o ponto de atenção máximo para a indústria e prestadores de serviço: essa nova regulação não atuará no vácuo. Ela irá operar em conjunto (e, por vezes, sobreposta) às resoluções da ANVISA, especialmente as que tratam de “Software as a Medical Device” (SaMD).
Se sua empresa desenvolve, distribui ou utiliza um software para diagnóstico ou monitoramento de pacientes, prepare-se para um novo nível de escrutínio. A validação, o registro e o monitoramento de produtos de IA na saúde se tornarão exponencialmente mais complexos.
Não podemos encarar o PL 2.338/2023 como “mais uma lei”. Ele redesenhará as fronteiras da responsabilidade civil e do compliance no setor.
Esperar a publicação da lei para começar a adaptar produtos e processos internos não é uma opção estratégica; é um risco operacional.
A hora de mapear o portfólio, revisar os modelos de IA em uso e preparar a governança para auditorias rigorosas é agora.
Sua empresa está tratando a regulação da IA como uma prioridade de compliance ou ainda como um item secundário de tecnologia?