Home
Categories
EXPLORE
True Crime
Society & Culture
Education
History
News
Business
Comedy
About Us
Contact Us
Copyright
© 2024 PodJoint
00:00 / 00:00
Sign in

or

Don't have an account?
Sign up
Forgot password
https://is1-ssl.mzstatic.com/image/thumb/Podcasts221/v4/79/32/5c/79325c52-ed47-1699-53f2-38cda7a46420/mza_13599428255098218760.jpg/600x600bb.jpg
Deu Tilt
UOL
101 episodes
2 days ago
Podcast sobre tecnologia para os humanos por trás das máquinas.
Show more...
Technology
RSS
All content for Deu Tilt is the property of UOL and is served directly from their servers with no modification, redirects, or rehosting. The podcast is not affiliated with or endorsed by Podjoint in any way.
Podcast sobre tecnologia para os humanos por trás das máquinas.
Show more...
Technology
https://is1-ssl.mzstatic.com/image/thumb/Podcasts221/v4/79/32/5c/79325c52-ed47-1699-53f2-38cda7a46420/mza_13599428255098218760.jpg/600x600bb.jpg
Veo 3 x Sora 2; IA derruba a produtividade; Grokipedia, a Wikipédia do Musk; As startups da fé
Deu Tilt
51 minutes
3 days ago
Veo 3 x Sora 2; IA derruba a produtividade; Grokipedia, a Wikipédia do Musk; As startups da fé
Veo 3 ou Sora 2? Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, colocou frente a frente as duas ferramentas que estão puxando a nova onda de vídeos hiper-realistas feitos por IA. Aposta do Google, o Veo 3 funciona integrado ao Gemini: você escreve um prompt e recebe um vídeo de até 8 segundos. Já o Sora 2, da OpenAI, parece um rival da Meta: cria vídeos de 10 segundos em uma rede social disponível só nos Estados Unidos e para convidados. O desafio é simples: submeter pedidos diretos, do jeito que as pessoas fariam, sem engenharia de prompt ou detalhes técnicos e ver qual plataforma vai melhor. Além do embate, há uma discussão sobre os riscos dos vídeos realistas. O uso indevido da imagem de figuras públicas em situações vexatórias, ofensivas ou completamente contrárias à sua história já provocou saias justas. O Sora 2 foi usado para criar vídeos racistas de Martin Luther King, removidos só depois de pedidos formais da família. O mesmo ocorreu com o ator Bryan Cranston, o Walter White de “Breaking Bad”. Tudo isso levanta uma pergunta que ninguém na indústria parece disposto a responder: por que a plataforma não pede autorização prévia para usar a imagem dessas pessoas? A IA prometeu tudo em relação ao aumento da produtividade no trabalho, mas a entrega ainda está longe das expectativas. Na corrida para não ficar para trás, muita empresa adota IA movida por FOMO (medo de ficar por fora, na sigla em inglês), não por estratégia. O resultado aparece nos números: 95% dos projetos que adotaram a IA com o objetivo de aumentar a produtividade não trazem o retorno esperado. Helton Simões Gomes e Diogo Cortiz contam como a IA tem matado a produtividade do trabalho, diferente do que se esperava. Um estudo do Stanford Media Lab mostra que o problema tem nome: “work slop”. Sabe quando a pessoa delega para a IA algo que ela mesma deveria fazer, mas a IA entrega um trabalho incompleto, cheio de erros e que precisa ser revisado por outra pessoa? Pois é: “work slop”. Isso derruba a produtividade de equipes inteiras, do gerentes aos subordinados. E os efeitos financeiros são claros: funcionários gastam, em média, duas horas para refazer tarefas mal feitas pela IA. Os custos invisíveis podem chegar a US$ 9 milhões por ano, segundo estimativas de pesquisadores. E aí está o desafio central: como extrair o melhor da IA e dos humanos, sem que um atrapalhe o outro? A birra de Elon Musk com a Wikipedia, apelidada por ele de ‘wokepedia’, levou o magnata a criar sua própria enciclopédia: a Grokipedia. Deu Tilt conta qual a diferença entre as duas: do número de artigos (Wikipédia tem mais de 7 milhões, a Grokipedia tem cerca de 800 mil verbetes, todos produzidos pela própria IA) à produção (na Wikipedia, os textos são escritos e revisados de forma colaborativa por uma comunidade enorme de voluntários, e na Grokipedia não há transparência sobre as fontes). Se Musk queria evitar viés e politização, o resultado foi outro: no verbete sobre o “Black Lives Matter”, por exemplo, o Grok acusa o movimento de defender o fim da família nuclear, o que elevaria a criminalidade nas comunidades negras. A própria organização, em seu site, diz defender diferentes modelos de família, não o fim da estrutura familiar. Há outros problemas na Grokipedia, como fontes majoritariamente dos Estados Unidos,verbetes com vieses racistas, transfóbicos e com teorias conspiratórias. Diante disso, ficam as perguntas: o que pensaria Diderot, um dos criadores da enciclopédia moderna, ao se deparar com a Grokipedia? E mais: por que Musk resolveu investir numa enciclopédia? E outra: se hoje a Wikipedia é fonte crucial para IAs, o que acontece se esses modelos passarem a ser alimentados pelo Grok no futuro?
Deu Tilt
Podcast sobre tecnologia para os humanos por trás das máquinas.