Sim, o vídeo que mostra um canguru no aeroporto com uma passagem aérea em mãos foi criado por inteligência artificial.
Apesar de parecer real, a gravação não mostra nenhum animal de verdade, nem pessoas, nem cenário. Tudo foi gerado com tecnologia de IA, inclusive o áudio da discussão entre duas mulheres.
O vídeo foi publicado pelo perfil Infinite Unreality, que se define como um artista de efeitos visuais. A ferramenta Hive Moderation analisou o conteúdo e apontou 99,9% de chance de ter sido gerado por IA. Já o áudio, avaliado pela plataforma Hiya, recebeu pontuações de 16 e 29 numa escala de 0 a 100 em autenticidade, o que indica um provável deepfake.
Canguru no aeroporto com IA: Como isso foi possível?
Esse tipo de tecnologia já não está restrito a laboratórios e estúdios profissionais, qualquer pessoa com acesso à internet pode usar. Com a popularização de ferramentas como Runway, Sora, Gen-2 e Pika Labs, criar conteúdos fictícios com aparência realista se tornou algo possível com poucos cliques e comandos de texto.
Essas ferramentas utilizam modelos generativos treinados com grandes volumes de dados para produzir vídeos, imagens, vozes e até simular interações humanas. O desafio é que, quanto mais realistas esses conteúdos se tornam, mais difícil é distinguir o que é autêntico do que é artificial.
E a pergunta que fica é:
Se até um canguru feito por IA conseguiu enganar tanta gente, como saber em quais informações confiar hoje em dia?
Confira abaixo as principais ferramentas de IA para geração de imagem e vídeo:
Essas plataformas permitem gerar cenas completas com personagens realistas, falas, movimentos e ambientações como aeroportos, shoppings ou ruas movimentadas.
Como descobrir se um vídeo foi feito com IA?
Ferramentas como:
…ajudam a verificar se uma imagem, vídeo ou voz foi gerada artificialmente.
Quer testar você mesmo?
Se quiser criar um vídeo com IA, experimente ferramentas como:
- Pika Labs – https://pika.art
- Runway ML – https://runwayml.com
- Luma AI – https://lumalabs.ai
Basta descrever o que você quer ver em cena (ex: “um canguru com uma passagem no aeroporto”) e a IA gera o vídeo para você em segundos.
Mas atenção: IA também pode ser usada para enganar
Por isso, é importante sempre verificar as fontes e pensar duas vezes antes de compartilhar qualquer vídeo muito “perfeito” ou fora do comum.
Além disso, vale lembrar: dados gerados por IA podem conter viés, erros ou inconsistências, dependendo das fontes utilizadas no treinamento dos modelos. Tomar decisões com base em informações não validadas, sem contexto ou histórico confiável, é um risco crescente, especialmente no mundo corporativo.
O uso de IA para gerar relatórios, projeções e análises está crescendo. Mas o que garante que essas informações estão corretas? O que valida a origem dos dados? Como saber se a IA está se baseando em fontes confiáveis e atualizadas?
A resposta está no controle da fonte: é essencial ter acesso aos dados certos, armazenados e gerenciados com clareza, governança e rastreabilidade.
Então, não se esqueça:
Cangurus podem até embarcar em vídeos virais, mas não são fontes confiáveis de informação.