Deu Tilt

UOL
Deu Tilt
Último episódio

Episódios Disponíveis

5 de 104
  • OpenAI é Banco Master da IA?; IA para detectar câncer; Google, o fogo amigo contra Nvidia
    A OpenAI está no meio de uma ciranda bilionária para continuar existindo. No novo episódio de Deu Tilt, o podcast do UOL para humanos por trás das máquinas, Diogo Cortiz e Helton Simões Gomes explicam os números que dimensionam a situação complexa da empresa que é a sensação da inteligência artificial. Segundo estudo do time de tecnologia e semicondutores do HSBC, a dona do ChatGPT ficará sem lucro até 2030 e precisará de US$ 207 bilhões para bancar infraestrutura, data centers, energia, água, profissionais e compromissos assumidos com big techs como Microsoft e Amazon. A receita até cresce, mas isso não significa lucro –principalmente quando cada novo modelo custa ainda mais que os anteriores. O Sora 2, por exemplo, só aumentou o tamanho do rombo. Para o HSBC, há caminhos para a empresa fechar as contas, mas todos tortuosos: dobrar a base de assinantes pagos, entrar pesado na publicidade digital e descobrir formas mais eficientes de usar IA. E a mais complexa delas: para empatar, a OpenAI teria de convencer 44% da população mundial a pagar por seus serviços até 2030, número que nenhuma rede social ou app alcançou até hoje. Se parece absurdo, lembra um pouco o caso do Banco Master: uma montanha de promessas e um buraco ainda maior. Uma startup brasileira criou uma IA capaz de identificar indícios iniciais de câncer de intestino usando apenas um exame de sangue. Em entrevista ao Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, a CTO da Huna Daniella Castro explicou que a pesquisa da Huna começou pelo câncer de mama e avançou para o de intestino –ambos alguns dos mais comuns no Brasil. Daniela ressalta que o desafio para o desenvolvimento da IA da Huna vai além da tecnologia: acessar dados de qualidade é fragmentado e contar com informações interoperáveis. Ela menciona estes pontos, porque o segredo da Huna é justamente o método criado para ensinar seu modelo de IA a encontrar sinais de câncer: primeiro, a equipe analisou resultados de colonoscopias e dividiu os pacientes em dois grupos (pessoas sem rastros de câncer e pessoas com lesões precursoras ou com tumor já instalado); depois, usou a IA para comparar os hemogramas desses dois grupos e identificar padrões de alteração que antecedem o câncer. A executiva explica que a mesma abordagem pode ser usada para rastrear outras doenças complexas, como diabetes e falência renal, um campo enorme que a IA ainda está começando a explorar. A vida da Nvidia não está nada fácil. Primeiro, foi proibida pelos EUA de vender chips para a China. Liberada, viu a China levantar barreiras. Agora, a empresa enfrenta fogo amigo dentro de casa: o Google entrou oficialmente no mercado de chips de inteligência artificial. No novo episódio de Deu Tilt, o podcast para os humanos por trás das máquinas, Diogo Cortiz e Helton Simões Gomes contam como o cenário aponta para uma reviravolta inevitável: o domínio absoluto da Nvidia está sob ameaça.
    --------  
    54:22
  • O ‘novo momento DeepSeek’ e o dilema da IA: quem paga para robô ser treinado no Brasil?
    Em entrevista ao Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, Pedro Henrique Ramos, diretor-executivo do Reglab, foi taxativo: o Brasil caminha para ser o mais restritivo do mundo no treinamento de inteligência artificial, o que afetará o PIB do país. Segundo levantamento do think tank especializado em políticas públicas em tecnologia, o país pode perder R$ 21 bilhões se aprovar uma legislação que impeça IAs generativas de serem treinadas com obras protegidas por direitos autorais. O mesmo vale para inferências. Mas existem três caminhos, diz Ramos: liberar amplamente o uso do que está aberto na internet; criar um regime intermediário, com possibilidade de fazer pedidos de retirada de obras; adotar uma linha mais dura, em que nada é usado sem pagamento. Só que a internet é global, e as leis, nacionais, diz. Se o Brasil aprovar uma proposta mais restritiva, empresas podem simplesmente levar seus data centers para outros lugares. Ramos não esconde que a liberação de informações protegidas para treinar IA é algo que beneficia as big tech norte-americanas, como Google e Meta, mas diz que a disputa, no fim das contas, é entre grandes conglomerados empresariais: quem treina modelos de IA versus quem detém direitos autorais. E os produtores de conteúdo podem até se dar bem com a IA, já que, segundo a pesquisa Futuros Criativos, a nova tecnologia pode até reduzir os royalties das indústrias criativas, mas, por outro lado, tende a elevar sua produtividade. Já Luca Schirru, advogado e consultor em direitos autorais, afirma que a regulação do uso de dados para o treinamento da IA depende de como, por quem e para quê eles estão sendo minerados. Há uma diferença entre a utilização de dados para pesquisas ou por instituições públicas e sem fins lucrativos e por grandes empresas de mercado, que geram lucro a partir desses dados ou oferecem obras que podem substituir o trabalho humano. Segundo ele, é possível combinar diferentes caminhos de remuneração pelo uso de dados e conteúdos criativos por grandes empresas, como autorizar certas formas de treinamento e, ao mesmo tempo, cobrar o pagamento apenas das big techs que lucram com a IA generativa. Startups, modelos abertos e projetos de pesquisa poderiam se beneficiar de modelos mais flexíveis. Schirru ressalta que ferramentas como a ProRata.AI já apontam para a possibilidade de identificar quais obras entraram no treinamento, criando uma base para modelos de remuneração mais transparentes. Para equilibrar os interesses, ele sugere mecanismos que vão além do licenciamento tradicional: taxas sobre receita, fundos para autores e veículos de imprensa, ou investimentos em capacitação. O objetivo é garantir sustentabilidade para quem cria, sem travar a inovação. Do nada, a China lançou um app que ultrapassou o Gemini, o ChatGPT e até o DeepSeek em número de acessos. Em uma semana, o Qwen bateu 10 milhões de downloads. Ele é do Alibaba, que os brasileiros conhecem pelo AliExpress, mas que também tem uma das maiores infraestruturas de computação em nuvem do mundo. O Qwen começou como um modelo de IA aberto, usado por empresas que preferem aproveitar uma base em vez de gastar tempo e dinheiro na fase de pré-treinamento da IA. Agora virou chatbot e, com o app, o Alibaba decidiu se apresentar ao consumidor global como uma companhia AI first, no melhor estilo Google. E tem mais: a empresa também lançou o Quark, um assistente pessoal de IA combinado com navegador. A mensagem é clara: o Alibaba não quer só disputar mercado, mas tomar a liderança na corrida tecnológica.
    --------  
    54:00
  • Giselle Beiguelman discute: arte com IA é arte? ‘Censura algorítmica’ e obsolescência desprogramada
    Em entrevista a Deu Tilt, a artista visual, professora universitária e pesquisadora Giselle Beiguelman desmonta a ideia de que existe “arte criada pela máquina”. Para ela, o que chamamos de arte com IA é sempre arte com tecnologia, feita com a máquina, e não por ela. A grande novidade, inédita na história da arte, é que a tecnologia agora toma decisões durante o processo criativo. Nenhum artista controla 100% seus instrumentos, mas a IA interfere nos rumos da criação. Quando alguém pergunta se arte com IA “é arte”, Giselle responde olhando para o processo. O prompt não é só descrição; é uma experiência que tensiona os meios de produção. A IA muda o campo artístico ao mesmo tempo em que amplia e ameaça. Copiar ficou fácil, criar continua difícil. No lugar do desvio de padrão, que sempre foi motor da arte, o risco é ficarmos presos numa jaula cibernética onde tudo é retroalimentado pelos mesmos arquivos hegemônicos. Arquivos inexistentes podem ser apontados, mas referências que fogem do padrão podem desaparecer. O repertório coletivo corre o risco de se diluir. Para Giselle, o debate gira em torno da democratização do acesso à arte, mas também em torno de quem controla os meios para criar –afinal, os melhores recursos já são pagos. A cultura do padrão reforça repertórios hegemônicos, e os maiores problemas da IA continuam sendo humanos: a reprodução de nossos vieses e modelos culturais.
    --------  
    52:29
  • Veo 3 x Sora 2; IA derruba a produtividade; Grokipedia, a Wikipédia do Musk; As startups da fé
    Veo 3 ou Sora 2? Deu Tilt, o podcast do UOL para os humanos por trás das máquinas, colocou frente a frente as duas ferramentas que estão puxando a nova onda de vídeos hiper-realistas feitos por IA. Aposta do Google, o Veo 3 funciona integrado ao Gemini: você escreve um prompt e recebe um vídeo de até 8 segundos. Já o Sora 2, da OpenAI, parece um rival da Meta: cria vídeos de 10 segundos em uma rede social disponível só nos Estados Unidos e para convidados. O desafio é simples: submeter pedidos diretos, do jeito que as pessoas fariam, sem engenharia de prompt ou detalhes técnicos e ver qual plataforma vai melhor. Além do embate, há uma discussão sobre os riscos dos vídeos realistas. O uso indevido da imagem de figuras públicas em situações vexatórias, ofensivas ou completamente contrárias à sua história já provocou saias justas. O Sora 2 foi usado para criar vídeos racistas de Martin Luther King, removidos só depois de pedidos formais da família. O mesmo ocorreu com o ator Bryan Cranston, o Walter White de “Breaking Bad”. Tudo isso levanta uma pergunta que ninguém na indústria parece disposto a responder: por que a plataforma não pede autorização prévia para usar a imagem dessas pessoas? A IA prometeu tudo em relação ao aumento da produtividade no trabalho, mas a entrega ainda está longe das expectativas. Na corrida para não ficar para trás, muita empresa adota IA movida por FOMO (medo de ficar por fora, na sigla em inglês), não por estratégia. O resultado aparece nos números: 95% dos projetos que adotaram a IA com o objetivo de aumentar a produtividade não trazem o retorno esperado. Helton Simões Gomes e Diogo Cortiz contam como a IA tem matado a produtividade do trabalho, diferente do que se esperava. Um estudo do Stanford Media Lab mostra que o problema tem nome: “work slop”. Sabe quando a pessoa delega para a IA algo que ela mesma deveria fazer, mas a IA entrega um trabalho incompleto, cheio de erros e que precisa ser revisado por outra pessoa? Pois é: “work slop”. Isso derruba a produtividade de equipes inteiras, do gerentes aos subordinados. E os efeitos financeiros são claros: funcionários gastam, em média, duas horas para refazer tarefas mal feitas pela IA. Os custos invisíveis podem chegar a US$ 9 milhões por ano, segundo estimativas de pesquisadores. E aí está o desafio central: como extrair o melhor da IA e dos humanos, sem que um atrapalhe o outro? A birra de Elon Musk com a Wikipedia, apelidada por ele de ‘wokepedia’, levou o magnata a criar sua própria enciclopédia: a Grokipedia. Deu Tilt conta qual a diferença entre as duas: do número de artigos (Wikipédia tem mais de 7 milhões, a Grokipedia tem cerca de 800 mil verbetes, todos produzidos pela própria IA) à produção (na Wikipedia, os textos são escritos e revisados de forma colaborativa por uma comunidade enorme de voluntários, e na Grokipedia não há transparência sobre as fontes). Se Musk queria evitar viés e politização, o resultado foi outro: no verbete sobre o “Black Lives Matter”, por exemplo, o Grok acusa o movimento de defender o fim da família nuclear, o que elevaria a criminalidade nas comunidades negras. A própria organização, em seu site, diz defender diferentes modelos de família, não o fim da estrutura familiar. Há outros problemas na Grokipedia, como fontes majoritariamente dos Estados Unidos,verbetes com vieses racistas, transfóbicos e com teorias conspiratórias. Diante disso, ficam as perguntas: o que pensaria Diderot, um dos criadores da enciclopédia moderna, ao se deparar com a Grokipedia? E mais: por que Musk resolveu investir numa enciclopédia? E outra: se hoje a Wikipedia é fonte crucial para IAs, o que acontece se esses modelos passarem a ser alimentados pelo Grok no futuro?
    --------  
    51:42
  • Novo podcast "Estrelas da Capa: As Histórias da Playboy" | Teaser
    A Playboy brasileira esteve no centro de debates sobre fama, desejo, moral, mercado editorial e transformação social. Em “Estrelas da Capa: As Histórias da Playboy”, os jornalistas Adriana Negreiros e Juca Kfouri resgatam memórias dos cinquenta anos desde que a revista foi lançada para entender o que ela dizia – e ainda diz – sobre o Brasil. A série mergulha nos bastidores da redação, nas negociações com as modelos de capa, no jornalismo ousado e nos códigos culturais que moldaram a publicação. Com depoimentos inéditos de editores e produtores, fotógrafos renomados como J.R. Duran e Bob Wolfenson, e entrevistas com as próprias estrelas — como Adriane Galisteu, Maitê Proença e Claudia Raia —, a série reconstrói a trajetória da revista e dá a resposta à questão acerca de como a Playboy, mesmo tendo sido encerrada em 2017, continua a moldar o imaginário brasileiro no que diz respeito à fama, desejo, poder e mídia. Estreia dia 24 de novembro no Spotify e em todas as plataformas do UOL.
    --------  
    2:25

Mais podcasts de Tecnologia

Sobre Deu Tilt

Podcast sobre tecnologia para os humanos por trás das máquinas.
Site de podcast

Ouça Deu Tilt, Pedro Doria - Vida Digital CBN e muitos outros podcasts de todo o mundo com o aplicativo o radio.net

Obtenha o aplicativo gratuito radio.net

  • Guardar rádios e podcasts favoritos
  • Transmissão via Wi-Fi ou Bluetooth
  • Carplay & Android Audo compatìvel
  • E ainda mais funções

Deu Tilt: Podcast do grupo

Informação legal
Aplicações
Social
v8.1.4 | © 2007-2025 radio.de GmbH
Generated: 12/16/2025 - 6:11:34 PM