Sora 2 da OpenAI: oportunidades e riscos legais com os vídeos gerados por IA

As empresas, principalmente as startups que exploram IA generativa, precisam compreender os limites jurídicos e regulatórios da criação e uso de vídeos com o Sora 2.

A evolução do Sora 2, modelo da OpenAI que gera vídeos realistas a partir de comandos de texto, vem transformando o mercado audiovisual. Empresas nos setores de marketing, educação, entretenimento e customer experience encontram na ferramenta novas formas de criar conteúdo e engajar o público. Porém, o uso comercial de vídeos criados por IA exige atenção jurídica rigorosa para evitar riscos de violação de direitos e infrações regulatórias.

O primeiro desafio é a titularidade e proteção autoral. A legislação brasileira ainda não define claramente quem detém direitos sobre obras geradas por IA, se o usuário que insere os comandos, se a plataforma ou se tais obras não são protegíveis. Em geral, o entendimento mais aceito é que produções puramente geradas por IA não são abrangidas pela proteção autoral tradicional, já que exigem autoria humana para reconhecimento jurídico. Assim, as empresas e as startups precisam prever cláusulas contratuais específicas sobre uso, exploração e licença de vídeos criados com IA, especialmente em projetos de monetização e licenciamento.

Outro ponto sensível diz respeito ao uso de imagem e à responsabilidade civil por deepfakes. Casos recentes, como o da investigação policial sobre o uso indevido da imagem da modelo Gisele Bündchen em vídeos falsos para fraudes digitais no Brasil, demonstram o potencial danoso dessas tecnologias. A utilização de rostos, vozes ou ambientes reconhecíveis sem consentimento, configura violação de direitos da personalidade, podendo gerar responsabilidades civis e criminais.

Do ponto de vista regulatório, o cenário está em rápida evolução. No Brasil, o Projeto de Lei nº 2.338/2023, que estabelece o marco legal para o uso ético e responsável da inteligência artificial, propõe princípios de transparência, segurança, governança e responsabilidade pelo impacto de sistemas automatizados. Já na União Europeia, o AI Act, em vigor desde agosto de 2025, impõe obrigações de transparência, mitigação de riscos e divulgação dos dados usados para treinar modelos de IA, especialmente os de finalidade geral como o Sora 2. Tais normas influenciam diretamente práticas globais e devem servir como referência para a adequação das startups brasileiras.

Além disso, empresas que utilizam IA generativa precisam estabelecer políticas internas de compliance digital. Apesar de filtros implementados pela OpenAI, a empresa usuária pode ser responsabilizada por conteúdos ilícitos, enganosos ou discriminatórios produzidos pela ferramenta. Medidas recomendadas incluem revisão dos termos de uso, implementação de due diligence sobre dados e imagens utilizados, e capacitação das equipes de criação e marketing para uso ético das tecnologias generativas.

Em um mercado cada vez mais regulado e atento à reputação digital, o uso estratégico do Sora 2 deve vir acompanhado de análise jurídica preventiva e assessoramento contínuo. Ao desenvolver MVPs ou campanhas que envolvem conteúdo audiovisual gerado por IA, startups prudentes combinam inovação com governança, protegendo ativos intangíveis e credibilidade perante consumidores e investidores.

Fontes:

https://g1.globo.com/google/amp/rs/rio-grande-do-sul/noticia/2025/10/01/grupo-suspeito-de-usar-video-com-deepfake-da-modelo-gisele-bundchen-para-aplicar-golpes-com-vendas-de-produtos-e-alvo-de-operacao-policial-no-rs.ghtml

https://www.gov.br/mcti/pt-br/acompanhe-o-mcti/noticias/2025/10/mcti-e-congresso-fortalecem-cooperacao-para-regulacao-e-avanco-da-inteligencia-artificial-no-brasil

https://noticias.portaldaindustria.com.br/noticias/inovacao-e-tecnologia/cni-e-parlamentares-defendem-aperfeicoamentos-em-projeto-e-texto-equilibrado-para-regular-ia-no-brasil

Colunista ABStartups

Compartilhe:

LinkedIn
X
WhatsApp
Threads
Facebook

Notícias relacionadas: