As empresas, principalmente as startups que exploram IA generativa, precisam compreender os limites jurídicos e regulatórios da criação e uso de vídeos com o Sora 2.
A evolução do Sora 2, modelo da OpenAI que gera vídeos realistas a partir de comandos de texto, vem transformando o mercado audiovisual. Empresas nos setores de marketing, educação, entretenimento e customer experience encontram na ferramenta novas formas de criar conteúdo e engajar o público. Porém, o uso comercial de vídeos criados por IA exige atenção jurídica rigorosa para evitar riscos de violação de direitos e infrações regulatórias.
O primeiro desafio é a titularidade e proteção autoral. A legislação brasileira ainda não define claramente quem detém direitos sobre obras geradas por IA, se o usuário que insere os comandos, se a plataforma ou se tais obras não são protegíveis. Em geral, o entendimento mais aceito é que produções puramente geradas por IA não são abrangidas pela proteção autoral tradicional, já que exigem autoria humana para reconhecimento jurídico. Assim, as empresas e as startups precisam prever cláusulas contratuais específicas sobre uso, exploração e licença de vídeos criados com IA, especialmente em projetos de monetização e licenciamento.
Outro ponto sensível diz respeito ao uso de imagem e à responsabilidade civil por deepfakes. Casos recentes, como o da investigação policial sobre o uso indevido da imagem da modelo Gisele Bündchen em vídeos falsos para fraudes digitais no Brasil, demonstram o potencial danoso dessas tecnologias. A utilização de rostos, vozes ou ambientes reconhecíveis sem consentimento, configura violação de direitos da personalidade, podendo gerar responsabilidades civis e criminais.
Do ponto de vista regulatório, o cenário está em rápida evolução. No Brasil, o Projeto de Lei nº 2.338/2023, que estabelece o marco legal para o uso ético e responsável da inteligência artificial, propõe princípios de transparência, segurança, governança e responsabilidade pelo impacto de sistemas automatizados. Já na União Europeia, o AI Act, em vigor desde agosto de 2025, impõe obrigações de transparência, mitigação de riscos e divulgação dos dados usados para treinar modelos de IA, especialmente os de finalidade geral como o Sora 2. Tais normas influenciam diretamente práticas globais e devem servir como referência para a adequação das startups brasileiras.
Além disso, empresas que utilizam IA generativa precisam estabelecer políticas internas de compliance digital. Apesar de filtros implementados pela OpenAI, a empresa usuária pode ser responsabilizada por conteúdos ilícitos, enganosos ou discriminatórios produzidos pela ferramenta. Medidas recomendadas incluem revisão dos termos de uso, implementação de due diligence sobre dados e imagens utilizados, e capacitação das equipes de criação e marketing para uso ético das tecnologias generativas.
Em um mercado cada vez mais regulado e atento à reputação digital, o uso estratégico do Sora 2 deve vir acompanhado de análise jurídica preventiva e assessoramento contínuo. Ao desenvolver MVPs ou campanhas que envolvem conteúdo audiovisual gerado por IA, startups prudentes combinam inovação com governança, protegendo ativos intangíveis e credibilidade perante consumidores e investidores.
Fontes:

Priscila Ferreira
Colunista ABStartups

