Por Celso de Morais
Advogado | Filósofo | Mestrando em Inteligência Artificial e Negócios | Especialista em Direito Digital, em Segurança Digital, Governança e Gestão de Dados | DPO.
Nos é sabido, que o ano de 2026 desponta como um marco para a maturidade da Inteligência Artificial. Após anos de avanços rápidos e experimentações, as empresas entram em um ciclo de consolidação, em que o uso responsável, transparente e estratégico da Inteligência Artificial passa a definir a sobrevivência no mercado.
Considerando, que o ano de 2025 foi o ano da adoção, 2026 será o ano da integração, ano em que a Inteligência Artificial se tornará parte estrutural dos processos decisórios, da análise de dados e da própria criação de valor. A diferença entre sucesso e obsolescência estará na capacidade de alinhar tecnologia, governança e propósito.
É possível dizer, que essa transição vai exigir mais do que investimentos em softwares: vai requerer mudança de mentalidade, educação corporativa, e revisão das estruturas de governança. A Inteligência Artificial não é apenas uma ferramenta, é um fenômeno social, jurídico e ético que redefine o modo de existir das organizações.
Ao se falar em tendências da Inteligência Artificial, para 2026, três grandes eixos direcionarão o desenvolvimento e o uso da Inteligência Artificial nas empresas:
O primeiro deles, diz respeito à consolidação da Inteligência Artificial Generativa, e, nesse sentido, ferramentas baseadas em LLMs – Large Language Models e Generative AI, deixarão de ser experimentais para se tornarem infraestrutura corporativa. Elas serão integradas a sistemas de ERP – Planejamento de Recursos Empresariais; de CRM’s – Gestão de Relacionamento com o Cliente, plataformas de marketing, atendimento, jurídico e mesmo financeiro.
Outro ponto interessante é que empresas mais maduras já adotam modelos híbridos de infraestrutura, parte deles hospedados em nuvem, parte localmente, para equilibrar eficiência e segurança dos dados.
De certo que, no ambiente jurídico e administrativo, veremos a expansão do conceito de Inteligência Artificial assistiva, onde modelos generativos auxiliam na redação de contratos, elaboração de pareceres, de relatórios e de comunicações empresariais, (só lembrando), sob supervisão humana qualificada.
O segundo eixo, diz respeito à Inteligência Autônoma e o 5G corporativo, pois com a difusão do 5G e da Internet das Coisas (IoT), surgem as redes autônomas: que são sistemas capazes de se autogerenciar, diagnosticar e corrigir falhas.
Essas estruturas dependem de Inteligência Artificial para operar com uma mínima intervenção humana, mas também requerem mecanismos de governança algorítmica, pois já se percebeu que decisões automatizadas podem gerar impactos jurídicos, financeiros e reputacionais.
Mas há ainda, o terceiro eixo, pois nesse caso, a ética digital entra como um diferencial competitivo, onde as empresas mais valorizadas em 2026, não serão aquelas que apenas dominam a tecnologia, mas as que demonstrarem integridade digital.
Investidores, consumidores e órgãos reguladores passam a exigir transparência algorítmica, responsabilidade sobre vieses e políticas de uso ético da Inteligência Artificial.
A ética, portanto, deixa de ser discurso e se torna ativo estratégico.
E, sob o viés do novo papel do Direito e da Regulação e ainda, em se tratando do que há de mais recente em termos regulação do tema no Brasil, é claro que não podemos deixar de falar sobre o fato de que, o avanço tecnológico impulsionou a formulação de um novo marco jurídico no Brasil: o Projeto de Lei nº 2.338/2023, que institui o Marco Legal da Inteligência Artificial.
Inspirado em iniciativas da União Europeia e em princípios da OCDE, o projeto estabelece que os sistemas de Inteligência Artificial devem operar de acordo com valores como transparência, explicabilidade e supervisão humana.
Somam-se a ele: A já existente, LGPD – Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), que regula o tratamento de dados pessoais. No mesmo sentido, ainda, o Marco Civil da Internet (Lei nº 12.965/2014), que assegura direitos e deveres no ambiente digital e que, desde lá, já assegura a garantia transparência e de privacidade quanto aos dados dos usuários da internet, além de obrigações impostas aos provedores de conexão e de conteúdo.
E, quanto às Diretrizes de Boas Práticas emitidas pela ANPD (2023), que ampliam a noção de accountability digital, que nada mais é, do que a prestação de contas, transparência e responsabilidade no ambiente digital, considerando-se que vale, tanto para os indivíduos quanto para organizações.
Pode-se dizer, que essa teia normativa, exige que as empresas criem estruturas internas de compliance digital, comitês de governança de Inteligência Artificial e relatórios de impacto algorítmico.
Entende-se que não basta “usar” Inteligência Artificial com responsabilidade, é preciso provar que ela é usada de forma segura, auditável e proporcional ao risco envolvido.
Percebe-se ainda, que empresas preparadas para 2026 compartilham uma característica comum: não tratam a Inteligência Artificial como projeto isolado, mas como eixo estratégico de transformação e isso é uma demonstração de um novo padrão de maturidade digital empresarial.
Esse nível de maturidade, conhecido como AI Readiness, que em resumo, é a capacidade de uma organização implementar e adotar a inteligência artificial de forma eficaz, segura e responsável, envolve quatro dimensões fundamentais:
A da Cultura e Educação – que passa pela criação de programas de treinamento contínuos sobre Inteligência Artificial, ética digital e proteção de dados, desde a alta gestão até o nível operacional.
A da Governança e Conformidade – que passa pela nomeação de um DPO – Data Protection Officer, no Brasil, chamado de Encarregado de Proteção de Dados ou simplesmente “Encarregado” e, pela criação de comitês multidisciplinares que revisem decisões automatizadas.
Também, a dimensão da Infraestrutura e Segurança – que se inicia com a adoção de data lakes protegidos (aqui cabe explicar, que estes datas lakes são uma espécie de repositório centralizado que armazena grandes volumes de dados brutos em seu formato original), além de criação de ambientes de teste ético e protocolos de cibersegurança integrados.
E por fim, a dimensão do Propósito e da Sustentabilidade – que em síntese, é o uso da Inteligência Artificial para gerar valor social, reduzir desperdícios e promover inclusão digital.
A experiência mostra que a Inteligência Artificial não substitui pessoas, ela exige pessoas melhores, mais críticas e conscientes do papel humano no ecossistema tecnológico.
E nisso, temos dito:
“A Inteligência Artificial não veio para tirar o emprego das pessoas, o que vai tirar o emprego das pessoas, são os profissionais que utilizam Inteligência Artificial, pois estes desenvolvem suas habilidades, produzem mais e com maior eficiência”.
Celso de Morais, 2025.
Assim, passa-se à análise do risco algorítmico e a responsabilidade corporativa, pois com o avanço da automação decisória, cresce a preocupação com o chamado risco algorítmico, o potencial de um sistema de Inteligência Artificial gerar danos a consumidores, funcionários ou parceiros.
Esse risco não é teórico: decisões enviesadas, classificações erradas ou uso indevido de dados podem gerar responsabilidade civil objetiva, conforme dispõe o Código Civil.
A mitigação desse risco depende de práticas de auditoria algorítmica contínua, que garantam rastreabilidade e documentação de todas as decisões automatizadas.
Empresas que adotam Inteligência Artificial precisam manter logs, relatórios de treinamento de modelos e políticas claras de revisão humana, sob pena de responsabilização jurídica.
Em 2026, muito provavelmente, veremos a consolidação do princípio da responsabilidade compartilhada: ou seja, não será apenas o desenvolvedor que responde pelos danos, mas também quem usa, supervisiona e se beneficia da tecnologia.
Se, por uma outra ótica, tivermos que analisar o fator humano: ética, filosofia e liderança em tempos da Inteligência Artificial, É possível dizer que: a Inteligência Artificial inaugura um novo paradigma de poder e responsabilidade.
Preparando sua empresa para o uso da Inteligência Artificial em 2026.
Para se posicionar à frente, as empresas devem adotar um plano estruturado de preparação estratégica. E aqui, arriscamos indicar, os principais passos:
Diagnóstico de maturidade digital:
Avaliar o grau atual de uso de dados, automação e segurança da informação.
Ferramentas como o AI Maturity Model ajudam a identificar lacunas e definir prioridades.
Revisão contratual e política interna:
Atualizar contratos de fornecedores, termos de uso e políticas internas para incluir cláusulas sobre o uso de Inteligência Artificial, tratamento de dados e responsabilidades conjuntas.
Treinamento corporativo e cultura de Inteligência Artificial:
Implementar programas de conscientização sobre IA ética, segurança de dados e boas práticas de governança.
O conhecimento deve ser democratizado: todos os colaboradores precisam entender o que é Inteligência Artificial e quais riscos ela envolve.
Estruturação da governança algorítmica:
Criar um comitê permanente de supervisão de uso da Inteligência Artificial, com representantes jurídicos, técnicos e administrativos.
Essa governança deve assegurar a revisão humana das decisões automatizadas e a elaboração de RIPD – Relatórios de Impacto à Proteção de Dados.
Implementação de ferramentas seguras e auditáveis:
Priorizar soluções com certificações reconhecidas (ISO 42001, ISO 27001) e capacidade de explicabilidade (Explainable AI).
A transparência técnica é o novo sinônimo de segurança jurídica.
Empresas que seguirem esses passos estarão não apenas em conformidade, mas prontas para inovar com segurança, ética e competitividade.
Conclui-se, portanto, que, a Inteligência Artificial de 2026 não será apenas mais poderosa, será mais próxima da essência humana.
Ela aprenderá a interpretar emoções, contextos e intenções, mas continuará precisando de algo que nenhuma máquina possui: consciência moral.
O papel das empresas, dos advogados e dos líderes é garantir que a inteligência artificial não substitua o discernimento humano, mas o amplifique.
“Não há que temer o uso da Inteligência Artificial; há que temer o uso indevido da Inteligência Artificial.”
Celso de Morais, 2025
Dito isso, em um mundo cada vez mais digital, o diferencial competitivo das organizações será sua capacidade de unir tecnologia, ética e humanidade.
O futuro das empresas e da própria sociedade, dependerá de líderes que compreendam que a Inteligência Artificial é apenas tão sábia quanto os princípios de quem a programa.
Conclusão final: o futuro é humano, mesmo quando digital.
Celso de Morais