O que pode sair da plataforma de vídeos curtos da OpenAI

Imagem de um mergulhador, feito por inteligência artificial com o Sora. Um homem está mergulhado no mar, com um balão de oxigênio, em meio a corais

Imagem de um mergulhador, feito por inteligência artificial com o Sora

A OpenAI, empresa dona do ChatGPT, lançou o aplicativo Sora na terça-feira (30). Semelhante ao TikTok, a plataforma é uma rede social que exibe vídeos curtos. A diferença é que todos eles são gerados por inteligência artificial. Atualmente, o aplicativo está disponível somente no Canadá e nos Estados Unidos para usuários de iOS. 

Apesar da geração de vídeos por IA não ser uma novidade, a semelhança com conteúdos reais está cada vez mais próxima. Em conjunto com o lançamento do aplicativo, a OpenAI também anunciou o Sora 2, modelo que promete ser “fisicamente mais preciso, realista e mais controlável do que os sistemas anteriores”.

Neste texto, o Nexo apresenta como o Sora funciona, explica a proliferação de vídeos por IA nas redes sociais e as preocupações de especialistas com esse cenário. 

O aplicativo Sora

Sora é uma rede social que permite que usuários façam e compartilhem vídeos gerados por IA de até 10 segundos – 15 para usuários Pro. 

O modelo inicial do Sora foi lançado em fevereiro de 2024, sendo o primeiro gerador de vídeos por comandos de texto da OpenAI. Ele é capaz de animar elementos a partir de uma imagem estática, mudar o estilo do conteúdo e ampliar filmagens gravadas na vida real. 

O uso do modelo é, majoritariamente, para fins artísticos e criativos. A empresa também argumenta que o Sora é capaz de atuar cientificamente, ajudando pesquisadores a entenderem como determinados objetos ou materiais respondem no mundo real. 

Uma das principais adições para o Sora 2 é a capacidade de gerar áudio sincronizado com o vídeo, em diferentes línguas e efeitos sonoros. O vídeo abaixo foi inteiramente feito com o modelo Sora 2, incluindo a presença de Sam Altman, CEO da empresa. 

Uma das funcionalidades mais divulgadas é o Cameo, em que deepfakes do usuário e de outras pessoas são incluídos nos conteúdos. Um teste de áudio (como contar números) e de vídeo (mexer a cabeça) é feito para assegurar que é a pessoa. Quando o Sora validar os testes, o usuário pode definir quem poderá usar sua imagem: somente ele ou, mediante aprovação, seguidores ou todos. 

A imagem de figuras públicas, como atores ou políticos, só poderão ser retratadas caso elas tenham feito o upload na plataforma e permitido o uso para demais usuários. Apesar de seu potencial criativo de entretenimento, Andrea Willemin, professora e pesquisadora em IA e proteção de dados na Universidade de Santiago de Compostela, na Espanha, afirmou que o deepfake do Sora é um grande risco. 

“Essa tecnologia pode ser usada para criar vídeos falsos extremamente convincentes, envolvendo pessoas reais em situações que nunca aconteceram, o que pode gerar danos à reputação, chantagens, fraudes e desinformação política em escala inédita”, disse ao Nexo. Segundo Willemin, é necessária uma fiscalização robusta pela plataforma. 

Segundo Altman, o algoritmo do feed do Sora será personalizado de acordo com as preferências do usuário. O aplicativo também terá funcionalidades de controle parental, como a proibição de mensagens diretas e a não recomendação de perfis de adolescentes para adultos. 

A proliferação de vídeos de IA

A criação de vídeos por meio de inteligência artificial generativa já é uma realidade na internet. No dia 25 de setembro, por exemplo, a Meta lançou o Vibes, rede social com premissa semelhante ao Sora. Outro exemplo é o Veo 3, IA do Google que viralizou em maio por seu realismo, sendo utilizada também para um trailer de um roteiro criado por Salvador Dalí

Em dois anos, a evolução da geração de vídeos por inteligência artificial foi exponencial. Além de uma melhor aplicação da física, os conteúdos se tornaram cada vez mais realistas. Uma das principais dificuldades da IA era para fazer mãos com mais de cinco dedos e movimentação diferente do habitual. Isso quase não é mais perceptível. 

Um dos exemplos mais práticos da evolução da IA é o teste “Will Smith comendo macarrão”. Em 2023, um usuário no Reddit fez uma publicação mostrando como o modelo de texto para imagem Stable Diffusion era pouco exitoso em desenvolver tal comando. O vídeo abaixo mostra as melhorias anuais até o lançamento do Veo 3. 

A evolução ajudou na proliferação de postagens com inteligência artificial na internet. De acordo com relatório de outubro de 2024 do banco de imagens Freepik, o YouTube era a plataforma com maior número de conteúdos com hashtags relacionadas à geração por IA, sendo a maior parte relacionada a deepfakes. 

1.794.394

era o número de vídeos com hashtags relacionadas à inteligência artificial no YouTube em outubro de 2024

Na sequência da pesquisa do Freepik, estavam as plataformas X (antigo Twitter), Instagram, Facebook, Pinterest, TikTok e LinkedIn como as com a maior quantidade de publicações com referências à IA. 

“Quando você tem uma multiplicação de formas de produzir esse conteúdo e amadores conseguem fazer conteúdos profissionais, que é o que a gente está conseguindo agora com a inteligência artificial, multiplica-se a vontade, o desejo, a necessidade, a demanda de ter esse tipo de conteúdo circulando por aí”, afirmou Fabro Steibel, diretor-executivo do ITS Rio (Instituto de Tecnologia e Sociedade), ao Nexo.

Os problemas da proliferação

Para Andrea Willemin, o realismo das produções por IA torna-as praticamente indistinguíveis. “Pequenos detalhes técnicos ainda denunciam alguns casos, mas isso está mudando mês a mês. A linha entre o real e o sintético está se tornando cada vez mais tênue, o que exige atenção tanto das plataformas quanto das autoridades regulatórias”, afirmou a professora da Universidade de Santiago de Compostela. 

Os vídeos feitos por inteligência artificial têm grande potencial de desinformação. Em setembro de 2023, a equipe de jornalistas da rede pública britânica BBC levantou mais de 50 canais em diferentes idiomas que disseminavam teorias da conspiração e pseudociências em conteúdos ditos educativos criados por IA.  

Já a revista Wired mostrou, em agosto de 2025, uma tendência de conteúdos que mostram artistas de Hollywood, como Denzel Washington (“Gladiador 2”), Keanu Reeves (“Matrix”) e Mark Wahlberg (“Boogie Nights: Prazer sem limites”) debatendo e atacando apresentadores de talk shows noturnos dos EUA – algo que não aconteceu. 

Outra tendência é o chamado “AI slop” (“lixo de IA”, em tradução livre). São milhares de fotos e vídeos de baixa qualidade e apelativos, gerados por inteligência artificial, visando ao engajamento massivo. Publicações no Facebook são exemplos da “internet zumbi”, conceito em que usuários e robôs interagem nas plataformas. 

De acordo com uma reportagem de agosto do jornal britânico The Guardian, nove dos 100 canais de YouTube que apresentaram maior crescimento no mês anterior eram exclusivos de conteúdos feitos por IA. Um exemplo é o canal Super Cat League, focado em animações de gatos humanoides, que soma 148 milhões de visualizações desde o seu lançamento, em julho. 

Em junho, o Nexo fez um vídeo para explicar a viralização dos memes “brain rot” (“podridão cerebral”, em tradução livre), outro exemplo de vídeos criados por inteligência artificial. 

O TikTok foi uma das primeiras plataformas a exibir quando um vídeo foi feito por inteligência artificial, em setembro de 2023. A partir de maio de 2024, a identificação não se restringiu aos efeitos digitais da própria rede social, mas também vindos de outros aplicativos.  

A Meta segue padrões semelhantes, mas depende que o usuário indique quando um vídeo foi gerado por IA fora da sua plataforma. O YouTube, por sua vez, deixa para que os criadores identifiquem se certo conteúdo foi ou não criado ou alterado por inteligência artificial, principalmente os realistas. 

“O que as plataformas acabaram vendo é que se você permite a entrada de conteúdo por IA e de bots, você vai ter um crescimento exponencial de canais, conteúdos e likes. Mas isso, possivelmente, abaixa o engajamento dos influenciadores que já estavam lá”, afirmou Fabro Steibel, do ITS Rio. 

Segundo Carlos Rafael Neves, professor do curso de Ciências de Dados e Negócios da ESPM (Escola Superior de Propaganda e Marketing), a falta de credibilidade do ecossistema digital não permite a plena confiança na identificação. “Sem o uso de ferramenta especializada, é muito difícil dizer o que é gerado por IA do que é real. E, mesmo com as ferramentas, tem técnicas para distorcer um pouco a imagem e gerar falsos positivos ou falsos negativos”, disse ao Nexo

Outras alertas com o cenário 

Além das preocupações com os deepfakes, uma preocupação a respeito do Sora é a perpetuação de estereótipos. “O principal risco de geração de vídeos é uma homogeneização do conteúdo alheio à cultura brasileira”, afirmou Marcos Raimundo, pesquisador e professor do Instituto de Computação da Unicamp (Universidade Estadual de Campinas), ao Nexo

Raimundo continua com exemplos de sua pesquisa: “Quando não descrita a raça, o padrão da geração de imagens em situações prazerosas é de retratar pessoas brancas, enquanto pessoas negras estão associadas a certas atividades, como domésticas”. 

A questão dos direitos autorais também é uma incerteza em relação ao Sora. Após o lançamento do aplicativo, vídeos de personagens da cultura pop em locais não habituais começaram a surgir nas redes sociais. Um exemplo foi de um dos ícones da Nintendo: Pikachu, da franquia “Pokémon”.  

Para evitar que os personagens estejam no Sora, os detentores de direitos autorais devem enviar um pedido para que eles não sejam incluídos no machine learning (aprendizado de máquina) do modelo. Segundo a agência de notícias Reuters, a Disney já se posicionou para não ter seu uso vinculado ao aplicativo.