Estive no Vale do Silício na última semana, integrando a missão oficial da Comissão Especial sobre IA – Inteligência Artificial (PL 2338/23), para acompanhar de perto como grandes empresas e centros de referência lidam com os temas de inovação, ética e governança em inteligência artificial.
O tour incluiu reuniões e visitas à OpenAI, Anthropic, NVIDIA, Palantir, Scale AI, Apple, xAI, Universidade de Stanford e 1X Technologies, além de conversas com especialistas como Jerry Kaplan.
Lições imediatas trazidas dessa missão
1. Governança de modelos em larga escala (OpenAI / Anthropic)
É possível conciliar inovação e segurança em IA quando existem regras claras de accountability, auditoria externa e mecanismos de mitigação de riscos.
2. Qualidade e governança de dados (Scale AI / Palantir)
A segurança dos sistemas de inteligência artificial depende da curadoria dos dados. Padrões e certificações são fundamentais para empresas que operam com grandes conjuntos de dados.
3. Infraestrutura e soberania tecnológica (NVIDIA)
A capacidade computacional é estratégica: ampliar a oferta e diversificar fornecedores reduz riscos e fortalece a soberania digital.
4. Privacidade desde o design (Apple)
Proteção de dados não é um obstáculo à inovação. É um princípio de engenharia. A regulação deve assegurar o privacy-by-design como requisito obrigatório em produtos e serviços de IA.
5. IA em sistemas físicos (1X Technologies / Palantir)
Aplicações robóticas e críticas exigem normas de segurança específicas e processos rigorosos de certificação para proteger cidadãos e empresas.
6. Concorrência e incentivo a novas entrantes (xAI, criadora do Grok)
Políticas que incentivem a concorrência são essenciais para evitar concentração de mercado e estimular um ecossistema de startups em inteligência artificial.
7. Fundamentação acadêmica e impactos socioeconômicos (Stanford / Jerry Kaplan)
Uma regulação eficaz deve ser baseada em evidências, avaliações de impacto sobre emprego e desigualdade, além de contar com mecanismos ágeis de atualização regulatória.
O desafio brasileiro
A regulação da inteligência artificial no Brasil não pode se transformar em uma camisa de força. Precisa ser proporcional, revisável, proteger os direitos dos cidadãos e, ao mesmo tempo, permitir que o país avance e seja competitivo no cenário global.
Essa foi a mensagem clara recebida nas reuniões com empresas e centros de referência no Vale do Silício: segurança e inovação podem caminhar juntas quando a governança é bem desenhada.
Nosso grande desafio agora é traduzir esses aprendizados para o contexto brasileiro, construindo um marco regulatório moderno de IA, que ofereça segurança jurídica e posicione o Brasil como protagonista no mapa global da tecnologia.








