PodcastsNotíciasSegurança Legal

Segurança Legal

Guilherme Goulart e Vinícius Serafim
Segurança Legal
Último episódio

426 episódios

  • Segurança Legal

    #415 – IA, MCPs, educação e laudos sem metodologia

    17/04/2026 | 1h 12min
    Visite nossa campanha de financiamento coletivo e nos apoie!

     Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing

    Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura.

    ShowNotes

    TRF-1 pagou R$ 341 mil em reembolsos por ‘auxílio IA’ a magistrados e servidores

    Quinta Turma rejeita relatório produzido por IA como prova em ação penal

    LLM Targeted Underperformance Disproportionately Impacts Vulnerable Users

    Vulnerable MCP Project — database com 50 vulnerabilidades

    ‘Your MCP Server Is Probably Vulnerable’ — DEV Community (16/abr)

    ‘MCP Security 2026: 30 CVEs in 60 Days’ (9/mar)

    CVE-2026-33032 nginx-ui — The Hacker News (16/abr)

    ‘AI Conundrum: Why MCP Security Can’t Be Patched Away’ — DarkReading / RSAC 2026

    Anthropic — Project Glasswing (anúncio oficial, 7/abr)

    Anthropic Frontier Red Team — detalhes técnicos (7/abr)

    Schneier on Security — análise crítica (13/abr)

    Fortune — cobertura do anúncio e contexto do leak (7/abr)

    TechCrunch — ‘Anthropic debuts Mythos’ (7/abr)

    Zvi Mowshowitz — análise detalhada (10/abr)

    IANS Research — desafios para vulnerability management (13/abr)

    TheWorkers letting A.I do Their Jobes – The Daily

    Neil deGrasse Tyson Confronts Andy Weir on the Science of Project Hail Mary

    Imagem do Episódio: Saturno devorando a su hijo – Francisco de Goya
  • Segurança Legal

    #414 – ECA Digital com Paulo Rená

    02/04/2026 | 1h 19min
    ShowNotes

    LEI Nº 15.211, DE 17 DE SETEMBRO DE 2025 – ECA Digital

    DECRETO Nº 12.880, DE 18 DE MARÇO DE 2026 – Decreto regulamentador do ECA Digital

    ANPD – Mecanismos confiáveis de aferição de idade – Orientações preliminares

    Livro – O Direito Achado na Rede: a concepção do Marco Civil da Internet no Brasil de Paulo Rená

    Proteger as crianças de riscos digitais é também protegê-las contra a exploração comercial

    Retrocesso no Senado: relatório do PL 2628/22 deixa crianças mais vulneráveis à publicidade

    Imagem do Episódio – La Lecture (1888) Berthe Morisot
  • Segurança Legal

    #413 – IA, guerra, medicina e cybersecurity

    24/03/2026 | 59min
    Neste episódio comentamos sobre as principais atualizações e desafios no mercado de tecnologia, trazendo uma análise objetiva sobre cibersegurança e proteção de dados. Ao longo da reprodução, você irá descobrir os recentes desdobramentos éticos do uso de inteligência artificial em contextos militares, envolvendo a recusa da Anthropic em aderir aos termos do Departamento de Defesa norte-americano e os impactos disso para a privacidade global. Você também irá aprender sobre o novo marco regulatório do Conselho Federal de Medicina para ferramentas automatizadas na área da saúde, compreendendo como as exigências da LGPD se aplicam à segurança da informação na proteção de dados médicos sensíveis. Além disso, você entenderá os detalhes do recente ataque hacker que causou graves incidentes de segurança no setor financeiro, e saberá identificar as vulnerabilidades críticas na integração de modelos de linguagem via protocolo MCP, como a perigosa injeção de prompts em servidores expostos. O host Guilherme Goulart compartilha ainda sua vivência no evento SecOps Summit, refletindo sobre a importância dos profissionais de segurança na governança corporativa. Por fim, você poderá avaliar como o uso excessivo do ChatGPT pode afetar a criatividade e gerar a homogeneização do pensamento.

    Para continuar acompanhando nossas discussões, não se esqueça de assinar o podcast na sua plataforma preferida, seguir nossos perfis nas redes sociais e avaliar o programa para apoiar o nosso trabalho.

    Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana. 

     

     Visite nossa campanha de financiamento coletivo e nos apoie!

     Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing

    Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura.

    ShowNotes

    Episódio citado – 2013-06-18 – Episódio #28 – PRISM – Privacidade X Segurança

    The Pentagon formally labels Anthropic a supply-chain risk

    Anthropic’s Claude is suddenly the most popular iPhone app following Pentagon feud

    Anthropic vs. U.S. Department of War

    The Pentagon Can’t Afford This A.I. Fight

    Statement from Dario Amodei on our discussions with the Department of War

    Employees across OpenAI and Google support Anthropic’s lawsuit against the Pentagon

    AI safety leader says ‘world is in peril’ and quits to study poetry

    Microsoft & Anthropic MCP Servers at Risk of RCE, Cloud Takeovers

    AI Conundrum: Why MCP Security Can’t Be Patched Away

    MCP is the backdoor your zero-trust architecture forgot to close

    Ministério da Educação – REFERENCIAL PARA DESENVOLVIMENTO E USO RESPONSÁVEIS DE INTELIGÊNCIA ARTIFICIAL NA EDUCAÇÃO

    Nova resolução de uso de IA na CFM

    Artigo “When ChatGPT is Gone: Creativity Reverts and Homogeneity Persists“

    BTG Pactual restabelece operações via Pix após ser alvo de ataque hacker

    BTG Pactual sofre ataque hacker e suspende operações via Pix

    PF investiga participação de funcionários no ataque hacker de R$ 100 milhões ao BTG Pactual

    Imagem do Episódio: A Torre de Babel — Pieter Bruegel


    📝 Transcrição do Episódio







    (00:08) Guilherme: Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 413, gravado em 23 de março de 2026. Eu sou Guilherme Goulart e, junto com Vinícius Serafim, vamos trazer algumas notícias das últimas semanas. E aí, Vinícius, tudo bem? Vinícius: Tudo bem, Guilherme. Olá aos nossos ouvintes. Esse é o nosso momento de conversar sobre algumas notícias e acontecimentos que chamaram a nossa atenção.

    (00:30) Guilherme: Então, pegue o seu café; no caso de hoje, um chimarrão. Pegue a sua bebida preferida e venha conosco. Para entrar em contato com a gente, você já sabe: basta enviar uma mensagem para [email protected] ou falar conosco no Instagram, Bluesky, YouTube e TikTok. Temos também a campanha de financiamento coletivo em apoia.se/segurancalegal. E há um novo patrocinador: Whisper Safe.

    (00:52) Guilherme: Você já pensou como pode ser difícil, depois de uma reunião, lembrar o que foi dito ou perder tempo digitando tudo o que foi falado? O Whisper Safe resolve esse e outros problemas para você, porque ele transcreve áudio e grava reuniões direto do seu computador, de forma rápida, precisa e 100% offline. Nenhum dado de áudio sai da sua máquina. Ele funciona com todos os comunicadores e também com qualquer arquivo de áudio que você tenha, como notas de palestra, notas de aula e outros tipos de gravação.

    (01:25) Vinícius: Eu tenho usado com MP4. Eu estava usando outra ferramenta que não estava funcionando com MP4. O Whisper Safe funciona com MP4 também? Guilherme: Sim, funciona com MP4 também. Você pode colocar vídeo lá, e ele processa. Vinícius: Não sabia.

    (01:48) Guilherme: Muito bom. Você tem 15 dias grátis para testar, e o cupom SEGUELEG50 dá 50% de desconto vitalício. Enquanto o Whisper Safe estiver funcionando, você terá esse desconto. Então, use o cupom SEGUELEG50, que está lá no show notes, e acesse whispersafe.ai. Antes de começarmos, Vinícius, a Brown Pipe esteve com toda a sua equipe no SecOps Summit 2026.

    (02:18) Guilherme: No meu caso, como foi aqui em Porto Alegre, eu digo “lá” brincando, mas para mim foi “aqui”. Conta para nós um pouquinho. Vinícius: A gente esteve no evento em razão de uma palestra que tu foste dar lá. Aproveitamos para conhecer o evento.

    (02:40) Vinícius: Nós nunca tínhamos ido ao evento para ver como era e sentir a vibe. Acabamos encontrando vários clientes nossos lá, o que é muito bom. Isso mostra que existe busca e que o público está procurando mais informações sobre esse tema.

    (03:00) Vinícius: Já quero pedir aos ouvintes que nos encontraram lá e vieram conversar contigo depois da palestra: por favor, mandem seus nomes. Se não estou enganado, um deles se chama Frederico. Queríamos mandar um abraço no próximo episódio, citando vocês corretamente.

    (03:18) Vinícius: Então já fica registrado: foi muito bom trocar uma ideia lá e encontrar ouvintes do Segurança Legal. No geral, Guilherme, o mercado é realmente bastante concorrido. O tipo de evento atrai empresas que fazem coisas parecidas.

    (03:45) Vinícius: Vi desde startups até empresas maiores. No geral, havia muita gente oferecendo dashboards, aplicações e ferramentas para acompanhar segurança, compliance com LGPD, proteção de dados e temas correlatos.

    (04:14) Vinícius: Dizer que todo mundo estava fazendo isso é exagero, mas quase todo mundo estava usando IA como palavra-chave. No geral, achei o evento bem interessante. Pretendo ir novamente no ano que vem. Guilherme: Eu também achei interessante e pretendo ir de novo.

    (04:38) Guilherme: Recebi uma mensagem do nosso amigo e evangelizador do Segurança Legal, Diego, dizendo que neste ano não pôde ir. Foi uma pena, porque não conseguimos nos encontrar com ele. Lá, falei sobre o papel do encarregado nos incidentes de segurança da informação, tema sobre o qual já comentamos aqui no podcast.

    (05:00) Guilherme: Foi interessante receber feedbacks de pessoas dizendo que não estavam fazendo aquilo que eu comentei que deveria ser feito. Para nós, isso parece básico, mas ainda há uma série de barreiras. Uma delas é dar condições reais para o encarregado trabalhar. Não basta nomeá-lo; é preciso dar estrutura para que ele desenvolva o seu trabalho.

    (05:32) Guilherme: Eu também gostei do evento, então voltaremos. Essa é uma piada interna aqui do Rio Grande do Sul. Vinícius: Mais especificamente de Porto Alegre. Guilherme: Isso, mais de Porto Alegre, ali do tempo da TVCOM.

    (05:55) Guilherme: Nós também recebemos uma mensagem do nosso querido ouvinte Ricardo Berlim. Ele nos perguntou sobre ECA Digital. Esse é um tema que está chamando muita atenção no debate, sobretudo na segurança da informação e nas conexões com vigilância.

    (06:27) Guilherme: E eu acho que, muitas vezes, pelas razões erradas. Tem muita coisa que não é discussão séria. Embora eu tenha dito tudo isso para dizer que não iríamos falar sobre o tema agora, já estamos falando dele. Vinícius: Na semana que vem, vamos gravar sobre isso com um convidado.

    (06:50) Guilherme: Vamos voltar ao tema do ECA Digital na próxima semana, ou no meio da próxima semana. Eu prefiro falar em “polêmica do ECA Digital” do que em “Lei Felca”, como alguns têm chamado. Os nossos ouvintes provavelmente já ouviram falar bastante sobre isso.

    (07:18) Guilherme: Se você acompanha o cenário internacional da guerra entre Estados Unidos e Irã, deve ter percebido como a IA entrou nesse jogo e virou notícia dentro dessa história. Conta para nós um pouco mais sobre isso. Vinícius: Eu acompanhei isso mais de perto.

    (07:43) Vinícius: Já havíamos comentado sobre a Anthropic ter se negado a aceitar certos termos de uso da IA pelo Departamento de Defesa norte-americano, ou, se quiser, pelo departamento de guerra norte-americano. Isso já tinha dado pano para manga.

    (08:07) Vinícius: O Departamento de Defesa chutou o balde com a Anthropic. Primeiro, isso foi anunciado nas redes sociais, e depois ficou claro que a Anthropic está envolvida em vários projetos com o governo norte-americano. Ela foi uma das primeiras a entregar modelos customizados para ajudar o governo.

    (08:40) Vinícius: Não é que eles não quisessem cooperar. O que aconteceu é que houve dois itens que a Anthropic não aceitou. Um deles foi o uso da IA para vigilância em massa doméstica, ou seja, de cidadãos norte-americanos.

    (09:12) Vinícius: Isso lembra bastante a questão do Snowden, em 2013. Na época, Obama veio a público dizer que todos podiam ficar tranquilos porque eles não estavam monitorando cidadãos norte-americanos. Isso foi um pronunciamento voltado para dentro de casa, não para fora.

    (09:51) Guilherme: Só um minutinho, Vinícius. Foi o episódio 28. Praticamente 400 episódios atrás. O episódio é “Prism, privacidade e segurança”, e eu vou deixar no show notes.

    (10:18) Guilherme: Depois do episódio 28, falamos no episódio 30, “Snowden 6: Brasil vigiado”. Vinícius: Acho que é exatamente isso que eu estava comentando. E o que aconteceu foi que eles não aceitaram o uso para vigilância doméstica nem para armas completamente autônomas.

    (10:48) Vinícius: Isso não quer dizer que a IA da Anthropic já não estivesse sendo utilizada para determinar alvos, identificar alvos e definir estratégias. O próprio Dario Amodei fala disso em uma declaração no site da Anthropic. Esses dois pontos é que teriam ficado de fora.

    (11:23) Vinícius: Essa teria sido a razão de a Anthropic ter sido descartada pelo Departamento de Defesa. Só que, ao mesmo tempo, no dia seguinte, a OpenAI fechou contrato com o Departamento de Defesa. Seria, em tese, o mesmo contrato que a Anthropic teria recusado.

    (12:01) Vinícius: Segundo disseram, seria nos mesmos termos que a Anthropic havia proposto. Isso é bastante estranho. Se uma empresa é descartada por não aceitar certos termos, e outra entra dizendo que aceitou os mesmos termos, algo não fecha.

    (12:27) Vinícius: Isso causou uma impressão pública muito ruim sobre a OpenAI. A partir daí, começou uma enxurrada de usuários saindo do ChatGPT e procurando o Claude, da Anthropic, meio que em apoio à empresa. Também existe uma ação judicial movida pela Anthropic contra o Pentágono.

    (13:04) Vinícius: A Anthropic iniciou essa ação judicial porque teria sido listada como risco de supply chain. E o mais interessante é que funcionários da OpenAI e do Google estariam apoiando esse movimento da Anthropic contra o Pentágono.

    (13:33) Vinícius: Agora precisamos esperar um pouco para ver o que vai acontecer e se algo mais concreto aparece no futuro. Surgiu também a notícia de que um dos líderes de segurança em IA da Anthropic saiu da empresa para escrever poesia.

    (14:09) Vinícius: Ele disse que queria dar um tempo. Segundo ele, o mundo está em perigo e as empresas estão abrindo mão de guardrails de segurança para ter lucro e outras vantagens. Mas ele não apresentou nada de concreto.

    (14:37) Vinícius: Eu acho que seria mais interessante se ele tivesse trazido algum documento ou alguma evidência objetiva, algo semelhante ao que ocorreu com o Snowden. Por enquanto, o que temos é uma preocupação genérica.

    (15:13) Vinícius: Ele apenas afirmou que a IA está nos tornando menos humanos, que o mundo está em perigo e que resolveu sair para escrever poesia. Algumas pessoas me enviaram isso como sinal de que algo grave estaria acontecendo na Anthropic. Pode até haver alguma coisa, mas ainda sem elementos concretos.

    (15:52) Vinícius: De todo modo, eu acho que a IA, de modo geral, é um problema que precisamos discutir seriamente. Os impactos podem ser bastante ruins para a sociedade se isso não for bem conduzido.

    (16:23) Guilherme: Neste fim de semana, eu estava lendo sobre os 80 anos do ENIAC. Vinícius: Eu sempre conheci como “Eniac”. Guilherme: Pois é, mas o ponto é que ele era um computador digital de propósito geral, usado para cálculos de balística.

    (16:48) Guilherme: Isso me chamou a atenção porque dá para fazer uma ligação entre esse caso da Anthropic e o uso de qualquer tecnologia. Quando você pega a história da criptografia, por exemplo, vê que ela também está ligada à proteção de segredos militares, entre gregos, romanos e outros povos.

    (17:24) Guilherme: Temos também a história do Turing e de como várias tecnologias estiveram diretamente conectadas com cenários de guerra. A IA talvez siga um caminho um pouco diferente, porque não nasceu em um cenário militar, mas foi rapidamente adotada nesse contexto.

    (18:00) Guilherme: E ela foi rapidamente adotada em todos os outros contextos também. Talvez tenha sido a tecnologia que criamos e que mais rapidamente foi absorvida no plano comercial e pessoal. Basta comparar o tempo de popularização da internet com o tempo de popularização da IA.

    (18:31) Guilherme: É inegável que vários setores, inclusive o militar, vão querer usar essa tecnologia. E isso traz também as dificuldades de regular esse uso. Além disso, é importante observar com quem essas empresas estão envolvidas e no que elas estão envolvidas.

    (19:06) Vinícius: A própria internet surgiu do Departamento de Defesa dos Estados Unidos. Guilherme: Exato. Houve empresas importantes no desenvolvimento das primeiras redes, mas depois o TCP/IP e a internet propriamente dita surgem a partir de projeto do Departamento de Defesa.

    (19:27) Guilherme: Infelizmente, esse parece ser um caminho recorrente. As guerras acabam impulsionando uma série de tecnologias que depois voltam para uso civil.

    (19:53) Guilherme: E o contrário também acontece. Tecnologias pensadas para uso civil podem se mostrar extremamente úteis no cenário militar.

    (20:16) Vinícius: Um exemplo são os drones de baixo custo. Antes da guerra da Ucrânia, quando se falava em drone militar, a imagem comum era a de grandes aeronaves controladas remotamente, como os modelos norte-americanos armados com mísseis.

    (20:51) Vinícius: Com a guerra da Ucrânia, vimos o uso de drones civis carregando explosivos para atingir tanques. Isso mudou bastante a percepção sobre o tema.

    (21:26) Vinícius: Agora também vemos o uso de drones iranianos de baixo custo pela Rússia. São equipamentos simples, com motor a combustão e carga explosiva, programados para seguir uma rota. Se houver um obstáculo no caminho, eles simplesmente colidem.

    (21:54) Vinícius: Isso mostra como soluções relativamente baratas podem ganhar importância estratégica. Um drone desses pode custar algo como 30 ou 35 mil dólares, o que é muito pouco comparado a um míssil de mais de 1 milhão de dólares.

    (22:24) Vinícius: Eu também vi um drone muito veloz, anunciado inicialmente para filmar carros de Fórmula 1, que agora aparece como solução para interceptar outros drones. Em vez de gastar um míssil de 1 milhão de dólares, usa-se um drone que custa algumas centenas de dólares.

    (23:00) Vinícius: Tudo isso acaba produzindo mudanças. Vai baixar o preço dos drones, vai aumentar a oferta de drones com IA e, no fim, muita coisa desenvolvida para a guerra volta para o uso civil. É interessante em alguns aspectos, mas não deixa de ser guerra.

    (23:34) Guilherme: Eu fui pesquisar também sobre Santos Dumont. Li que um dos fatores associados ao seu suicídio teria sido o uso dos aviões na Revolução de 1932, embora não dê para saber isso exatamente. De todo modo, vamos mudar de pauta.

    (24:09) Guilherme: Tivemos uma nova resolução sobre o uso de IA no âmbito do CFM. A Resolução CFM 2.454/2026 foi publicada no fim de fevereiro e seria o primeiro marco regulatório, na área médica, para estabelecer algum tipo de controle sobre o uso de inteligência artificial.

    (24:47) Guilherme: Ela traz direitos e deveres dos médicos, trata dos riscos e segue uma linha semelhante à de classificar a IA com base em níveis de risco: baixo, médio, alto e inaceitável. No Anexo 2, eu notei alguns problemas nas definições, embora não tenha conseguido verificar isso com mais profundidade.

    (25:12) Guilherme: Também não consegui localizar, numa leitura mais rápida, o que seria exatamente o risco inaceitável. A resolução cria obrigações de auditoria e transparência para instituições de saúde. E destaca que a ferramenta deve ser usada como apoio, enquanto a decisão e a responsabilidade permanecem com o médico.

    (25:40) Guilherme: Outro ponto importante é que o paciente tem o direito de ser informado, de forma clara e acessível, quando modelos, sistemas e aplicações forem utilizados. E o médico deve respeitar a autonomia do paciente, inclusive quanto à recusa informada ao uso da IA.

    (26:01) Guilherme: Isso é importante em vários flancos. No âmbito da segurança da informação, o artigo 17 estabelece que os sistemas utilizados devem ter medidas adequadas e compatíveis com o estado da arte para evitar acesso não autorizado, perda, vazamento e destruição. Estamos falando de dados pessoais sensíveis, ligados à saúde.

    (26:35) Guilherme: Outro dia eu te mandei exemplos de pads abertos na internet com informações sensíveis, aparentemente de serviço de emergência hospitalar. Então, realmente precisamos avançar nessa área. E, quando falamos em serviços médicos, também lembramos de equipamentos antigos e de redes mal protegidas.

    (27:07) Guilherme: Tudo isso abre espaço para um novo nível de responsabilidade, de controles e de riscos de vazamento. Sem contar que essas grandes empresas já estão oferecendo soluções de IA voltadas à área da saúde. Isso pode ser perigoso, considerando o atual estágio das alucinações e das possibilidades de tomada de decisão automatizada.

    (27:39) Guilherme: Quando pensamos em profissões como medicina, direito, arquitetura e outras, propor substituições desse tipo é algo preocupante. Se eu fosse médico, ficaria bastante atento a esse movimento.

    (28:18) Vinícius: Eu só faria uma ressalva sobre a questão da alucinação. Os modelos parecem alucinar cada vez menos, não mais. E também importa muito quais modelos estão sendo usados.

    (28:37) Vinícius: Quando falamos de OpenAI e Microsoft se movimentando para acessar dados de saúde, precisamos entender com cuidado o objetivo disso. Se não for para conversar com o usuário sobre saúde, fica a pergunta sobre para que exatamente esses dados estão sendo usados.

    (29:12) Vinícius: Em alguma medida, as pessoas já faziam isso antes no Google, quando pesquisavam exames e sintomas antes de ir ao médico. Agora, isso migrou para a IA.

    (29:35) Vinícius: Já ouvi relatos de pessoas que desconfiaram do atendimento que estavam recebendo, usaram IA para se aprofundar um pouco mais e sentiram que foram ajudadas. Mas também há casos em que a ferramenta erra completamente.

    (30:05) Guilherme: E aí entra a questão da responsabilidade sobre a orientação dada. Vinícius: Sem dúvida. Mas há um certo consenso em muitos debates sobre IA de que ela pode ampliar o acesso a atendimentos que hoje não existem por causa de custo, tempo e escala.

    (30:43) Vinícius: Eu acho que existe, sim, potencial para ajudar bastante as questões de saúde. Só não acho que as pessoas devam passar a consultar o ChatGPT em vez de um médico.

    (31:16) Vinícius: Mas esse potencial de tornar o atendimento mais acessível é bastante relevante. Hoje, ser atendido por um médico já é caro e difícil, mesmo com SUS e outras estruturas existentes.

    (31:46) Vinícius: Então, esse é um tipo de aplicação que eu quero ver acontecer. Só não sei se quero que a iniciativa fique nas mãos de empresas como OpenAI e Anthropic, substituindo a relação com o médico.

    (32:11) Guilherme: Eu acho que existe um aspecto ético muito forte aí. Isso já vem acontecendo em outras profissões, e eu vejo algo parecido no direito, com juízes usando IA de maneira intensa. Mas, no direito, há valores morais, aspectos éticos e uma busca pelo justo que não podem ser ignorados.

    (32:36) Guilherme: E há algo que a IA ainda não faz, pelo menos por enquanto: o exame clínico, a anamnese presencial, a conversa detalhada e o contato físico com o paciente. Eu também não gosto do argumento de que, como existem médicos ruins, então deveríamos simplesmente substituir por IA.

    (33:02) Guilherme: Sim, há médicos ruins, que atendem em dois minutos. Mas isso é outro problema. Não acho que isso justifique uma adoção tão apressada da IA.

    (33:46) Vinícius: Eu até ajudei uma professora a criar um simulador de anamnese para treinamento de alunos. Então, não sei se até isso, no futuro, não será apenas uma questão de interface. E não sei se, em certos casos, a ferramenta não poderá fazer melhor do que alguns profissionais.

    (34:13) Vinícius: Médicos erram, juízes erram e vários profissionais erram. Há coisas que talvez consigamos fazer melhor com tecnologia, e o diagnóstico pode ser uma delas. Pode chegar o momento em que a gente não vai querer ser atendido por um médico que não use algum recurso de IA para ajudar a analisar o caso.

    (34:35) Guilherme: O problema é desconsiderar que a falta de contato físico talvez seja algo fundamental para a medicina. Esse me parece um ponto relevante.

    (35:00) Guilherme: Bom, tivemos várias interrupções hoje. Vinícius: É, o mau tempo está pegando o estado todo. Está chovendo muito por aí também? Guilherme: Aqui também está.

    (35:18) Vinícius: Estou vendo no Ventusky o estado do Rio Grande do Sul inteiro embaixo d’água. Parece até de propósito. Se você olha o mapa, a parte do Brasil que avança para o Uruguai está com chuva, e o Uruguai não.

    (35:52) Guilherme: E isso se conecta com segurança da informação, especialmente com resiliência. Não basta pensar em disponibilidade; os sistemas também precisam continuar funcionando sob situações extremas. E nós, aqui no Rio Grande do Sul, ainda não resolvemos isso direito, sobretudo no sistema de comunicação.

    (36:22) Guilherme: Não recebi nenhum alerta no celular, por exemplo. Na Europa, eles costumam ser muito mais cuidadosos com isso. Em Portugal e na Espanha, recentemente, houve grandes eventos climáticos, e o aviso à população foi feito com muito mais precisão.

    (36:51) Guilherme: Aqui, as coisas ainda parecem insuficientes nesse ponto. Bom, seguindo, tivemos um incidente com o BTG.

    (37:15) Guilherme: No domingo, dia 22, o BTG foi alvo de um ataque hacker. As informações que temos vieram da imprensa e, ao que tudo indica, também foram fornecidas pela própria instituição. O ataque teria forçado a suspensão preventiva das operações via Pix.

    (37:46) Guilherme: Segundo o Estadão, o ataque teria desviado cerca de 100 milhões, dos quais a maior parte teria sido recuperada. Entre 20 e 40 milhões ainda não teriam sido localizados até aquele momento. Na manhã do dia 23, o Pix foi restabelecido, e foi informado que não houve acesso às contas de clientes nem exposição de dados de correntistas.

    (38:07) Guilherme: Aqui eu faço apenas uma hipótese, sem afirmar que foi isso que aconteceu. A situação me pareceu, em alguns aspectos, parecida com o caso da C&M: há dinheiro desviado, não há relato de acesso a dados de correntistas e há interrupção do Pix.

    (38:30) Guilherme: Essas condições são parecidas com o caso anterior, mas ainda precisamos acompanhar. O Banco Central ainda não havia se manifestado.

    (38:53) Guilherme: Ao que tudo indica, o BTG não usa PSTI, embora eu não tenha encontrado essa informação com segurança. Então pode ser que tenha infraestrutura própria para se conectar à rede do Sistema Financeiro Nacional. De todo modo, isso serve de alerta para as instituições financeiras.

    (39:26) Guilherme: Com as regulações recentes, especialmente após o incidente da C&M, tudo indica que 2026 será um ano de atuação mais forte do Banco Central na avaliação desses incidentes e na verificação das condições de segurança das instituições.

    (39:52) Guilherme: Notinha do editor: enquanto estávamos editando, saiu uma atualização no Convergência Digital confirmando aquilo que comentamos. Não houve invasão a PSTI, e sim à infraestrutura da própria organização.

    (40:14) Guilherme: A Polícia Federal e o MP de São Paulo, por meio do CyberGaeco, investigam o caso. Eles levantam a hipótese de uso de uma credencial antiga, ligada a uma empresa de tecnologia bancária que já prestou serviços ao BTG, e não descartam a participação de funcionários com acesso às credenciais.

    (40:33) Guilherme: Desde 2025, já teriam sido registrados ao menos três ataques desse tipo. Há também a suspeita de que o grupo responsável seja próximo ao que invadiu a C&M Software e desviou 813 milhões no ano passado. Vinícius: Perfeito.

    (41:00) Vinícius: A minha última pauta envolve IA, mas sob o ponto de vista de desenvolvimento e integrações. Separei três notícias sobre servidores MCP expostos.

    (41:31) Vinícius: Quando usamos um chat de IA, estamos interagindo com o conhecimento que o modelo tem e com integrações que já vêm por padrão, como pesquisa na internet. Hoje, praticamente todas as ferramentas já oferecem isso.

    (42:04) Vinícius: Além disso, elas começaram a disponibilizar integrações com outros serviços via MCP, o Model Context Protocol, criado pela Anthropic. Isso serve para expor ferramentas que fazem várias coisas, como buscar e-mails, enviar mensagens, criar rascunhos, apagar conteúdo e assim por diante.

    (42:30) Vinícius: Você expõe essas ferramentas para a IA por meio de um servidor MCP. A IA se conecta, pergunta que ferramentas estão disponíveis, entende o que cada uma faz e decide se deve ou não usá-las conforme o pedido do usuário.

    (42:58) Guilherme: E qual é a diferença entre MCP e API? Vinícius: O MCP é um protocolo pensado para facilitar esse diálogo com a IA. Já a API tradicional normalmente exige integração programática entre dois sistemas, com documentação mais técnica.

    (43:32) Vinícius: Numa API comum, você entrega a documentação e a outra ponta desenvolve a integração. Se você der essa documentação para uma IA capaz de programar, ela conseguirá criar um script e chamar aquela API.

    (43:58) Vinícius: O MCP funciona como uma espécie de API autodocumentada, voltada para consumo por IA e LLM. A IA se conecta ao servidor MCP e pergunta, em linguagem natural, o que ele faz, que ferramentas tem e para que servem.

    (44:20) Vinícius: A partir disso, conforme a conversa avança, a IA decide usar ou não as ferramentas disponíveis. Desde que o MCP surgiu, ele acabou sendo adotado como padrão por várias ferramentas.

    (44:48) Vinícius: É muito interessante poder integrar a IA com sistemas e fontes de informação que você já possui. A IA consegue compreender aquilo, explicar e até agir, se você permitir. É possível ligar um MCP desde um roteador por SSH até um ERP.

    (45:13) Vinícius: Só que começaram a aparecer vários problemas. Há muitos MCPs sem autenticação alguma. Em outros casos, a autenticação existe, mas algumas chamadas escapam dela.

    (45:42) Vinícius: Ou seja, estamos repetindo erros que já víamos em APIs há dez anos. Agora esses erros estão aparecendo nos MCPs.

    (46:13) Vinícius: Alguns MCPs colocam os próprios sistemas em risco. Imagine, por exemplo, uma IA na sua empresa usando um MCP que consome dados da internet.

    (46:40) Vinícius: O atacante pode inserir um README malicioso em um repositório que será lido pela IA como se fosse instrução. A partir daí, ela pode criar projeto, gerar script em Python e executar ações dentro do ambiente sem que você perceba.

    (47:17) Vinícius: Quando você vê, a IA está executando comandos definidos por alguém de fora, que simplesmente colocou esse conteúdo em um site ou repositório acessado pelo sistema. Isso é extremamente delicado.

    (47:53) Vinícius: Quis chamar atenção para essas notícias porque já estamos acostumados a testar front-end, back-end e APIs REST. Agora, o MCP caiu no gosto do mercado para integrar sistemas com IA, mas vários erros de segurança estão sendo cometidos.

    (48:25) Vinícius: Isso pode acabar permitindo execução remota de comandos e outras falhas graves, dependendo do ambiente. Há também o problema da injeção de prompts.

    (48:56) Vinícius: Quando você usa um ChatGPT ou um Claude prontos, os desenvolvedores dessas ferramentas já tentam mitigar prompt injection. Mas, quando você usa a API diretamente, a responsabilidade passa a ser sua.

    (49:36) Vinícius: E parece que muita gente ainda não percebeu isso. Há quem ache que o modelo vai se defender sozinho contra injeção de prompt. Não é assim.

    (50:05) Vinícius: Essas notícias dão insights interessantes sobre o uso de integrações entre IA e sistemas. E já temos referências como o novo Top 10 da OWASP para aplicações com LLMs.

    (50:33) Guilherme: Hoje mesmo eu estava conversando com um cliente sobre aquela cadeia de adequação que costuma acontecer com LGPD e outras normas. Uma empresa se adequa e passa a exigir a adequação dos seus prestadores, que passam a exigir a dos seus próprios prestadores, e assim por diante.

    (50:56) Guilherme: E um cliente do nosso cliente enviou um questionário de segurança já pedindo informações sobre uso de IA no ambiente. Ou seja, a empresa contratante está preocupada em saber como seus prestadores usam IA no tratamento de dados.

    (51:22) Guilherme: E isso se conecta diretamente com proteção de dados pessoais. Apagou a luz aqui, Vinícius, mas eu já volto. Hoje, além do Código Civil e do Código de Defesa do Consumidor, a LGPD é talvez o instrumento mais próximo para nos ajudar a lidar com essas questões de IA.

    (51:58) Guilherme: No fim das contas, você pode estar tratando dados dos seus clientes e dados pessoais. Se houver incidente de segurança, isso atrai toda a disciplina da LGPD, inclusive quanto à necessidade de comunicação.

    (52:25) Guilherme: E, se for descoberto que o MCP estava aberto na internet, isso é uma falha grave e evitável. A Brown Pipe já inclui há algum tempo, em seus pentests, verificações sobre uso de IA.

    (53:00) Vinícius: Exato. Já estamos avaliando sistemas que usam IA, incluindo injeção de prompts e outros problemas correlatos. Isso já faz parte do nosso rol de testes.

    (53:35) Guilherme: Eu tinha dito que aquela era a minha última pauta, mas quero deixar uma nota rápida para os educadores de plantão. O Ministério da Educação lançou um documento de 241 páginas chamado “Referencial para desenvolvimento e uso responsáveis de inteligência artificial na educação”. O link está no show notes.

    (54:12) Guilherme: E, para terminar, eu queria falar rapidamente sobre criatividade e uso de IA. Já comentamos aqui sobre estudos relacionados à educação e ao impacto da IA sobre o espírito crítico.

    (54:34) Guilherme: Agora temos um novo artigo que sugere que, apesar da rapidez para realizar certas tarefas, o aumento de criatividade durante o uso da ferramenta desaparece quando ela é retirada. E haveria uma persistência de homogeneidade nas ideias depois do uso.

    (55:14) Guilherme: Em outras palavras, as pessoas tenderiam a produzir ideias cada vez mais parecidas entre si. Isso acaba corroborando o que aquele outro trabalho, “Your Brain on ChatGPT”, vinha apontando. Inclusive, esse estudo foi atualizado.

    (55:37) Guilherme: Esse tipo de pesquisa mexe com algo que tenho estudado mais recentemente, no plano do simbólico. A linguagem é importante para a definição do nosso mundo. Wittgenstein falava justamente sobre isso.

    (56:14) Guilherme: Eu estava lendo sobre isso ontem. A ideia é que o teu mundo é, em certa medida, baseado na tua linguagem. Lévi-Strauss também dizia que as categorias simbólicas, inclusive a linguagem, organizam o mundo.

    (56:41) Guilherme: E Wittgenstein afirmava que os limites da minha linguagem são os limites do meu mundo. Então talvez um efeito da IA, ainda a ser melhor investigado, seja esse: qual é o papel do simbólico e da linguagem na construção do mundo, quando passamos a depender tanto de uma máquina de linguagem.

    (57:20) Guilherme: Isso é preocupante porque essas construções linguísticas também modelam a realidade. Se todo mundo começa a pensar igual, como às vezes acontece na internet quando se entra em bolhas, talvez algo semelhante esteja acontecendo com a IA.

    (57:42) Guilherme: E isso é um problema para a criatividade. No fim das contas, as pessoas podem ficar menos criativas, e isso é ruim.

    (58:14) Vinícius: Eu te passei o link do projeto do MIT, “Your Brain on ChatGPT”, que reúne o artigo e a versão mais recente da publicação. Ele trata justamente desses efeitos de começar uma atividade com IA e depois sem IA, ou o contrário.

    (58:41) Vinícius: Os resultados são bem diferentes e vale a pena olhar esse material. Guilherme: Eu sempre ficava mais no artigo; não conhecia o site. Vinícius: Eles ainda vão ter que generalizar isso para além do ChatGPT, porque o problema não é só ele.

    (59:19) Vinícius: Mas, como a pesquisa deles foi feita com o ChatGPT, o nome ficou assim. Há também leituras adicionais sobre homogeneização da linguagem. Recomendo a leitura do artigo ou até jogar o texto no NotebookLM e conversar com ele.

    (59:37) Guilherme: Hoje foi meio tumultuado, mas conseguimos chegar ao fim do episódio. Na semana que vem, não se esqueçam, teremos um episódio sobre o ECA Digital. Agradecemos a todos e todas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima. Vinícius: Até a próxima.
  • Segurança Legal

    #412 – Uma Constituição para a IA

    10/03/2026 | 1h 17min
    Neste episódio, Guilherme Goulart e Vinícius Serafim debatem a “Constituição do Claude”, o documento de diretrizes publicado pela Anthropic para orientar o comportamento do modelo de linguagem Claude, abordando temas centrais como antropomorfização da IA, regulação tecnológica, responsabilidade das empresas e a questão filosófica sobre agência versus inteligência artificial. O episódio toca em termos estratégicos como inteligência artificial, segurança da informação, privacidade, ética em IA, responsabilidade corporativa, modelos de linguagem, guardrails, jailbreak, Constitutional AI, agente moral, agência artificial, “papagaio estocástico” e governança digital. Você vai descobrir por que a escolha da palavra “constituição” por uma empresa privada levanta alertas sobre legitimidade democrática, entender a diferença entre dar instruções em linguagem natural a um sistema computacional e genuinamente acreditar que ele possui consciência, e refletir sobre os riscos reais de se pavimentar, ideologicamente, um caminho que transforma a IA em “agente moral” para potencialmente reduzir a responsabilidade das grandes empresas de tecnologia. O debate também traz referências à obra de Luciano Floridi, ao conceito de papagaio estocástico, às Três Leis da Robótica de Asimov e ao clássico HAL 9000, conectando ficção científica, filosofia e direito num instigante.

    Assine o Segurança Legal na sua plataforma favorita, deixe sua avaliação e compartilhe com quem se interessa por direito da tecnologia e inteligência artificial. Siga o podcast no YouTube, Mastodon, Bluesky, Instagram e TikTok.

    Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana.

     Visite nossa campanha de financiamento coletivo e nos apoie!

     Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing

    Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura.

    ShowNotes

    Paper fundacional sobre a questão de uma Constituição para a IA – Constitutional AI: Harmlessness from AI Feedback

    Claude’s constitution

    Claude’s Strange Constitution por Luiza Jarovsky

    Statement from Dario Amodei on our discussions with the Department of War




    📝 Transcrição do Episódio







    (00:07) Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o Segurança Legal, seu podcast de segurança da informação e direito da tecnologia, tecnologia e sociedade. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim. E aí, Vinícius, tudo bem? >> Tudo bem, Guilherme. Olá os nossos ouvintes.
    (00:24) >> Sempre lembrando que para nós é fundamental a participação de todos pro meio de perguntas, críticas e sugestões de tema. Vocês já sabem, estamos lá no podcast @segurançelegal.com, YouTube, Maston, BlueSky, Instagram e TikTok. Também temos o blog da Brown Pipe, inclusive renovado, site da Brownpe. Foi renovado.
    (00:44) Então, visite também o site da brownpipe.com.br para além de ver o, o novo site do de um dos mantenedores aqui desse podcast, você também consegue ver lá as notícias do blog. Tem também, se quiser se inscrever no mailing semanal, tem também a campanha de financiamento coletivo,? Cada vez é mais importante.
    (01:03) A gente pede, que você considere apoiá-la no apoia.se/segurançalegal, SE/segurançaal, apoiando um projeto de conhecimento, de produção de conhecimento independente. E também temos o novo patrocinador, Vinícius, é a Whisper Safe. Você sabe, quantas >> quantas vezes você já se pegou tentando lembrar o que foi dito numa reunião, se virando ali para anotar enquanto participa da reunião, digitando, enfim, quando você poderia ter simplesmente usado aquilo que foi falado na reunião? E aí o Sperfe isso para você.
    (01:36) Ele transcreve áudio e grava reuniões direto do seu computador. Ele é rápido, preciso e 100% offline. E o mais importante, nenhum dado sai ou nenhum dado de áudio e nenhum dado nenhum sai da sua máquina. Funciona com Zoom, Meet, Teams ou qualquer arquivo de áudio que você já tenha.
    (01:56) O resultado fica pronto em segundos. E aí sim você pode usar como quiser, transformar em ata, anotação, roteiro, jogar numa IA para você fazer a sumarização. Ele é feito com o modelo Whsper da Open Ei e tem suporte a português e dezenas de outros idiomas. Tem 15 dias grátis de teste e 50% de desconto lifetime, ou seja, pro resto da vida.
    (02:22) Se você usar o cupom segue leg 50, segue leg 50, enquanto você tiver assinatura e enquanto o software estiver funcionando, você terá o desconto de 50%. Acesse whispersaf.aiaiaii. Alguma observação até agora, Vinícius? >> Não. Perfeito. Só da gente pegando o ritmo do ano, cara? >> É o segundo do ano,? >> Segundo do ano. Segundo 202. >> Terceiro. Terceiro. Terceiro.
    (02:45) >> Terceiro. >> Terceiro. >> Terceiro do ano. >> É. E também é que é tanta coisa acontecendo, cara, ao mesmo tempo. E a o a rapidez desses assuntos, desses temas e desses problemas, às vezes é tão grande que um, dois dias a notícia, o tema já fica velho e já é, ultrapassado por um outro tema.
    (03:05) Então, é realmente um tema, uma área, a área da IAI e da segurança. >> Eu tenho pena do pessoal de política internacional, tá ligado? Do pessoal do Pet Jornal, >> o Xadrez Verbal. Xadrez Verbal é mais ou menos que eles >> e é assim, a cobertura deles é tão ampla,? E a coisa é mais é mais vamos di assim, é muito extensa.
    (03:29) O que eu gosto, adoro acompanhar o chadê verbal. Então eles acabam tendo espaço para encaixar as coisas sem serem atropelados assim. Acho que eles têm um buffer bem razoável para segurar as coisas ali. Agora o pessoal do Peti Jornal, cara, tem que sair gravando enlouquecido cada vez que sai. >> Segunda vez que eu acompanho eles agora saiu, teve a guerra da Ucrânia, quando começou um tempão atrás.
    (03:52) >> E aí foi um atropelo. >> >> E agora de novo tão na correria. Agora já tá >> agora já tá ficando mais como que tá virando já a notícia do dia a dia. >> >> Mais uma guerra. Mas enfim,? >> Ou eu lembro também,? O próprio xadrez verbal, cara? Como tu disse assim, eles também precisam se virar, para dar conta de tudo isso.
    (04:16) Agora, o os repórteres de política no Brasil também,? Você pega aí os alguns podcasts que saem na sexta-feira, é impressionante porque os caras nunca conseguem falar na sexta-feira sobre que eles se propunha, porque da gravação de quinta para sexta >> acontece uma coisa bombástica ou,? E aí os caras têm que colocar umas notinhas lá,? Mas enfim, >> é, >> a gente vai dar um passo atrás até aqui para,? E também tem uma outra coisa nessa mesma linha, eu acho que tem a ver com isso também, porque tem a ver com o
    (04:45) tempo das coisas,? Hoje a gente vai falar sobre a constituição do Cloud. E quando a gente fala em constituição, logo vem à mente a ideia de leis feitas pelo Estado,? E um dos grandes, uma das grandes desafios,? Um dos grandes desafios, não só da IA, mas também na regulação da TI, de uma maneira geral, é que o tempo dessas tecnologias ele é muito mais rápido do que o tempo do direito,? Sim.
    (05:08) >> E a IA, não sei se tu concorda comigo, mas acho que o tempo da IA ele é mais rápido ainda do que o tempo da internet, de aplicações, ou seja, de uma semana para outra, quando a gente vê as últimas semanas aí a gente teve modelos sendo lançados, o modelo da Openi também com algumas features aí bem parecidas com a Dantropica, com o Cloud e tal, >> é, tentando ganhar terreno perdido, porque a OpenI teve uma redução substancial no >> de share no mercado, de participação no mercado porque perdeu muito assim, o negócio foi,
    (05:40) >> é >> tanto que o S Altman anunciou que eles iriam pro último recurso que ele mesmo falou que seria o último recurso da Openi, que seria a propaganda,? Sim. >> Esses dias eles, isso ele falou no evento, que seria o último recurso, assim, se nada desse certo, eles iriam participar, partir pra propaganda,? Pro pros ads no na plataforma.
    (06:03) E não deu outra, cara? >> E vieram colocar,? Eu acho que não tem como não colocar. >> É, eu não sei, cara. Eu não sei. Mas daí o fato é que inclusive no Super Ball, não sei se tu acompanhou isso, a Antropic desceu começou, sabe aquelas propagandas que nos Estados Unidos o pessoal faz? Aqui não, >> aqui não.
    (06:23) Pessoal cita o outro e o concorrente, vai uma coisa mais >> ferrenha assim. >> Eles estavam tirando onda justamente com esse negócio do Chat GPT ter ads, >> ter propaganda agora. E eles colocando os dois produtos e colocando a coisa como, ó, eles têm ads, a gente tu >> sabe que pode >> que se paga bem para não ters, sabe? >> Cara, eu ia dar um exemplo dos streamings,? Sobre ads e tal e poxa, todo mundo aqui que nos segue provavelmente aí tem os seus streamings.
    (06:56) E eu tenho o streaming da o da Amazon, como é que é? O prime vídeo. É, se quiser, quiser sem propaganda, tu paga. >> Pois é. Não, eu quando eu assinei não tinha propaganda, quando eu assinei era o tema, era o mais top,? Hoje quando você pausa lá e o Netflix também tá assim, você pausa o vídeo e já aparece uma propaganda na tela.
    (07:19) >> Que droga. Com um link para você comprar na Eva, >> não o é o que eu tive que eu tive que assinar, mas foi para assistir uma coisa muito específica no HBO Max que virou Max que virou não sei o que aquela bagunça toda. O eles, eu tentei assinar com propaganda para poder ver um, eu não tava assinando, eu queria ver uma série lá e tava lá, eu assinei.
    (07:41) >> E aí o quando eu me dei conta que as propagandas tavam entrando assim, eu tava assistindo um filme. >> Aham. >> Aí os boca aberta botavam no meio da do filme >> Aham. Uma propaganda falando sobre o filme dando spoiler >> ou sobre a série dando spoiler. Disse: “cara, aí assim vão se catar,?” Aí eu paguei a diferença para não ter as propagandas, conseguir assistir o que queria assistir e aí largar fora.
    (08:09) Mas enfim,? Mas é que vale lembrar antes que alguém, que achea que eu tô falando, esteja sendo impreciso, a Open tá fazendo a mesma coisa. Não é que ela vai meter a ED em todo mundo mesmo para quem tá pagando,? Nos planos normais ali, que é os 100 dos R$ 100 e pros outros planos não vai ter propaganda.
    (08:29) Agora, para quem tá no free e para quem tá naquela versão go, quea aquela versão de baixo custo, que é uns R$ 40 mais ou menos por mês, nessas duas é que vai ter propaganda, >> tá? Na normal de R$ 100, segundo eles anunciaram, não iria ter. >> Mas é que nem a o streaming,? É que nem o streaming. É, >> o streaming quando iniciou não tinha propaganda,? >> É.
    (08:52) Agora a o detalhe é o que eles vão usar para fazer essa propaganda. >> Sim. É a história de você colocar também o ultra, a publicidade comportamental ultra focalizada,? É, ali é um negócio violento, porque experimente você aí abrir um chat na ferramenta que for, Cloud, Gemini, chatt, o que quiser, e pede para falar, me fale sobre mim ou coisas parecidas,? Você vai ver o quanto lá já tem ali de informação.
    (09:19) >> É, o pessoal do Perplexo, eu acho que andou fazendo isso esses dias também, viu? Eu tô com dois planos aqui. Eu acho que ele me mostrou ali um pesquisas mais relevantes da semana, uma coisa talvez >> meio ensaiando propaganda. Vamos pra constituição do Clud. >> Bora, tá? >> Bora para essa. >> Na verdade esse vai ser o terceiro episódio desse mesmo tema que a gente grava, porque a gente gravou um episódio montando a pauta semana passada e não deu para gravar.
    (09:52) Hoje, de novo, gravamos outro episódio de manhã, conversando sobre a pauta. E eu acho que é um baita de um tema assim,? Porque, a, o que é a constituição do Cloud,? O, eles lançaram um documento recentemente, agora na mês passado, que eram não é algo novo, e é uma é a nova chamada nova constituição do Cloud.
    (10:17) E isso já existia,? A gente tem um paper lá de 2022, de 15 de dezembro de 2022, chama Constitutional AI, Harmlessness from AI feedback. Daí explica o processo técnico de você ter uma constituição. E o a proposta deles é a criação desse documento, que na prática é um conjunto de diretrizes autogeradas pela Antropic.
    (10:44) E é uma coisa engraçada isso. Isso vai passar por toda a nossa fala aqui, Vendícius. Eu vou ir falando e você vai me interrompendo, tá? Como >> OK. Assim que achar necessário, >> ainda mais nesse assunto. >> É porque é o seguinte, eles a gente notou ao longo de todo esse processo da Antropic criar uma constituição que um dos pontos mais marcantes deles é a antropomorfização da IA.
    (11:12) Ou seja, eles praticamente consideram o Clou como uma como um não como uma pessoa, mas como um ente com certos predicados, como um ente com consciência, com valores, com sentimentos,? E a primeira coisa é que esse documento criado por eles seria para guiar o comportamento do Cloude. >> Que seria usado principalmente nas suas fases de treinamento, ou seja, seria um documento escrito para o cloud, mas também usaria o Clode para criá-lo.
    (11:44) Então, nesse passo da do antropomorfismo, eles dizem que o Cloud é um dos autores também,? Chamam o Clou como autor. Então, ele construiu algo para ele mesmo e eles dizem, entre outras coisas, que o texto prioriza a precisão em detrimento da acessibilidade para leitores humanos. Isso aqui eu acho que é um primeiro ponto interessante e embora eu tenha muitas críticas sobre isso, me agrada a ideia de você ter uma IA que consiga receber inputs não legais, mas assim regras que possam ser carregadas nela ou diretrizes,?
    (12:22) >> Diretriz. >> Para que ela se comporte conforme aquelas regras. E >> uma coisa que eu já vinha pensando,? Isso já existe, já você já tem, o formas de comunicação entre e protocolos entre as para elas se comunicarem e conversarem,? >> Mas eu acho que a gente vai acabar caminhando também para formas de você talvez ter o texto legal e um extrato desse texto legal, talvez preparado para ser lido pela IA.
    (12:48) Você acha que isso pode acontecer em algum momento? Cara, é assim, assim, é muito delicado. Primeiro porque a gente tá necessariamente, quando a gente dá, fala desse tipo de instrução, a gente tá antropomorf antropomorfizando >> fizando o a tecnologia, porque a gente já faz isso meio que naturalmente ao interagir com ela, porque a gente não programa a IA, a gente dá uma série de instruções escritas e eu te dizia que já faz um tempo que eu já uso voz, tá? Eu dificilmente escrevo um prompt hoje em dia. Eu fico falando e descrevo e tudo
    (13:29) mais como se eu tivesse falando com um ser humano. >> E para isso você usa o Spersafe. >> E para isso eu uso o Spersafe. Mas assim, o lance é que nós e eu não sei se a forma de interagir com ela é que faz com que a gente esteja a tratando como ser humano ou o nosso comportamento diante dela. Te dou um exemplo, tá? Eu dou instruções por voz, como eu acabei de falar, eu quase não escrevo mais prompt,? Eu prefiro gravar e ficar falando, falando, falando, ser redundante, aquela história toda, o próprio o criador do Clou, agora esqueci sobre o
    (14:08) nome dele, é o Boris, o primeiro nome, ele fala que o falar é bom porque tu tá contando uma história e como história é linguagem e tem repetição e tem,? E aí a e a inteligência artificial é um software, é um sistema capaz, justamente ele é muito bom de interpretar isso. Então uma instrução mais detalhada é melhor do que uma instrução muito resumida, muito direta, sem uma história por trás, tá? >> Então quando tu fala, tu acaba podendo, eu não tô fazendo propaganda nenhuma, tá gente? Já tô falando da interação que
    (14:41) eu tenho com a EU >> em que eu fico falando bastante para ela, mas eu não espero dela, eu não a trato como um ente, entende? Como se fosse uma outra pessoa. Por outro lado, eu conheço pessoas que dizem que a Iá é amiga dela, entende? >> Aham. >> Ou dizem que a Iá expressa sentimentos ou coisa parecida para elas.
    (15:09) eu não eu não consigo interagir com desse jeito, entende? Eu não consigo interagir com desse jeito. Então, eu acho que tem a questão de como nós interagimos com ela e a e a questão de como é que nós ahã entendemos a IA, como é que a gente interpreta a IA. >> E eu acho que isso é fundamental pro futuro,? >> É.
    (15:35) É. E o que tem a ver isso com a constituição, de ou te dar essas o que eles chamaram de constituição ou de tu tá dar regras, da leis, as leis e tal para elas seguir, etc. Que eu que eu acho disso? Eu acho que isso não é necessariamente antrom antropomorfizarfizar, >> antropomorfizar, tá? >> (15:59) A Iá é simplesmente a maneira de interagir com ela. Ela entende e é isso que essa tecnologia faz,? Ela é capaz de compreender, entre aspas, tá? Compreender texto. Então, nada mais natural do que tu entregar uma série de diretrizes para ela, sejam essas diretrizes quais forem. Eu não tô julgando boas ou ruins,? >> Conteúdo,? Ou jogando conteúdo dela, mas é muito natural tu dar as diretrizes linguagem natural, que é o que a gente acaba fazendo no dia a dia, quando tá desenvolvendo, quando tá ajustando um documento, quando tá gerando alguma
    (16:30) coisa, tu dá essas diretrizes, não quero que tu use tal expressão, eu não quero que tu use, tu escreva dessa forma, eu não quero que tu use a linguagem tal, essa forma de escrever, eu quero que tu use essa outra forma de escrever. Então eu acho que o simples fato de interagir com ela dessa forma, entregando as coisas em linguagem natural, não quer dizer que nós estamos necessariamente achando que a Iá seja um ser ciente.
    (16:58) Muito menos >> é que não é só isso,? O a Clode. E essa é uma crítica colocada pela professora Luía Jaroves, que uma brasileira, mas que tem escrito nos últimos tempos aí em inglês, enfim, com atuando, num numa perspectiva mais internacional e ela vai ficar no show nototes também. Uma das críticas que ela faz, sobretudo é uma crítica que eu que eu que eu tenho me assim me alinhado com essa crítica, não somente dela, mas também da professora Josela Finoquiaro, também do Lutiano Floride e tal, que é que é uma
    (17:37) tendência assim, de você utilizar certos termos e certas analogias e certas metáforas, para tentar explicar e a e a própria ideia da inteligência artificial é uma metáfora, muito forte, talvez o nascimento dela e nem sempre foi colocado assim, mas assim a gente utiliza, é innegável, é uma é o nome da coisa toda é uma metáfora,? >> Ela é uma inteligência artificial.
    (18:04) isso da antropomorfização, você colocou ali o a própria entrópica que tá fazendo isso, lá pelas o documento tá bem grande também, vai ficar lá para vocês lerem, enfim. Mas assim, o documento lá pelas tantas diz que eles querem que o Cloue seja visto como um amigo brilhante. O Clou pode ser como um amigo brilhante com quem você pode falar francamente, que tem um cuidado genuíno e que trata os adultos como inteligentes,? Você disse: “tem pessoas que falam que entendem a Iá como uma amiga,?”? E o Claude tá
    (18:39) nos tá nessa direção. Claro, quando a gente fala em interações às vezes mais tóxicas de adolescentes que se suicidam ou fazem, que foram incentivados por IAS, aí me parece que é toda uma questão do safety ali da IAK que saiu completamente do controle, mas que às vezes induz as pessoas a se comportarem de uma forma e as pessoas acabam internalizando aquela relação, quase como uma relação de amizade, >> e nota que é diferente eu, o mantenedor do Maia dizer, trate isso como um amigo que você pode confiar ou
    (19:11) trate isso como um sistema computacional que sujeito a erros,? Do tipo eu sou teu amigo,? E eu posso, digamos assim, com todos os teus defeitos, que são muitos, mas com todos os teus defeitos, >> você é uma pessoa que eu confio, entende? Porque você tem valores e que eu confio nos teus valores e por mais falível que seja o ser humano, é assim que a gente tem se comportado até hoje.
    (19:43) Então esse é o primeiro ponto assim importante para colocar e uma das críticas que é essa antropomorrofização. É difícil de falar essa palavra, mas assim eles deixam bem claro assim que o Cloud é um agente que entende valores, que deve entender porque ele se comporta desse jeito,? E é a coisa do papagaio, só para finalizar,? Uma das analogias que se faz é do papagaio estocástico,? Aham.
    (20:11) >> Papagaio ele, claro, não dá para comparar com aá, mas assim, o papagaio fala, só que o papagaio não entende o que ele está falando quando ele te xinga ou quando ele te dá bom dia ou quando ele diz quer café ou alguma coisa assim. Ele simplesmente repete aquilo com base num aprendizado que ele fez, mas ele não tem consciência daquilo que ele tá falando,? Ele tem um esquema de eles têm condicionamento,? Eu sei porque tem um meu vizinho tem um papagaio aqui, mas ele inteligente assim, não. Dentro do
    (20:39) dentro da capacidade do papagaio, tá? Ele é condicionado, ele sabe como quando alguém tá passando, como chamar atenção. >> Ele sabe como é que ele pede para entrar. Às vezes às vezes começa a escurecer, ele fica ali fora, ele começa a chamar para levar ele para dentro.
    (20:59) Se chove, dá, tá bom que o pessoal logo vem pegar ele, mas se começa a chover e não vem buscar ele, ele já começa, então ele tá condicionado, entende? >> E como os fundos aqui da minha casa com esta casa e ele é bem, vamos dizer assim, é fácil de ouvir o que acontece no no p e tal, o os meus filhos Vemia estão gritando, chamando mãe, pai,? Eu chamo pelo nome e tal.
    (21:22) Sim, >> o papagaio começou começa as começa a ouvir o barulho das crianças aqui, começa a gritar e às vezes a gente fica, ué, tão chamando,? E é o papagaio. Mas enfim, >> o eu acho que tem a tem vários pontos aí, Guilherme. Eu não vejo o problema. Por exemplo, quando eu falo com aá, quando eu falo com aá, quando eu tô com amiga, >> com a minha amiga, quando eu tô interagindo com aá, eu digo: “Você é não sei o quê, eu quero que você aja como um ã ou eu digo: “tu foi prolixo demais, eu quero que tu eu quero
    (22:03) que tu faça seja assim mais conciso, eu quero que você coloque-se em termos mais simples” ou digo: “Você não entendeu. Nota que a maneira como eu tô eu fazendo referência a ela, é essa coisa é como se ela fosse uma pessoa,? Porque >> porque a gente não tem pronomes para coisas como o inglês tem >> coisas, tá? Mas eu não tenho como dizer para coisa, >> tá? Mas eu não tenho como dizer assim, se eu disser para ir, você não pensou corretamente, entende? (22:37) >> É, é, é, eu poderia táar falando isso por uma pessoa,? Teu raciocínio tá errado,? Eu tô falando como se fosse com uma pessoa. Isso não quer dizer que eu ache que a Iá seja um ser ciente, tal, com um pensamento, um nível de, o nível que raciocine e tenha consciência com uma pessoa. Mas é a maneira como o sistema interpreta, para não dizer compreende, tá? Que tu tá se referindo a ele a coisa.
    (23:11) Então eu não vejo um problema na questão de lá na na constituição da Openi. Eu não vejo um problema quando eles afirmam coisas como a personalidade do modelo ou quando diz você deve agir com uma prioridade de segurança, ética, diretrizes da antrópica e depois utilidade, tá? Porque é a forma que o que a que a tecnologia foi desenvolvida para funcionar a partir da interpretação dessa entrada de linguagem natural.
    (23:51) E aí quando tu fala você não quer dizer que por causa por tu tá usando esse pronome, tu tá dizendo que tu acredita que ela aquela coisa seja um ser, entende? Então, OK, óbvio que eu respeito, a crítica que é feita e tal, mas isso eu não vejo como problema. É, é a forma assim da é a interface com a própria tecnologia, saca? Tu, tu dizer você, tu dizer você pensou o raciocinou de forma errada, é a forma de tu informar a coisa que é o sistema, que o caminho que ele trouxe para ti não é adequado, que tu quer outro caminho, tu quer que ele
    (24:33) use mais recursos para tentar chegar na resposta ou no resultado final que tu tá procurando, tá? Se eu tiver fazendo isso com, se eu tiver fazendo isso numa linguagem de programação,? Eu tô eu tô dando instruções pro computador por meio uma linguagem de programação. A não ser que tenha algum, tem algum bug lá e tal, o negócio não funciona como esperado.
    (24:57) Tudo bem, eu tenho que achar um caminho diferente para dizer pro processador que tu vai fazer essa outra sequência de operações aqui, porque aquela sequência que a gente fez não deu certo. Mas não eu não vou est dizendo você processador fez não sei o quê, >> entende? É um bom ponto,? >> Então eu acho que o fato da Constituição fazer referência a personalidade do modelo, chamou o modelo de você, falar em valores, que é uma coisa inerentemente humana,? Falar em ética, em essas coisas todas, e eu não creio que isso necessariamente seja um
    (25:32) problema. >> >> Por si só, entende? É, eu acho que é um problema quando a pessoa acha que realmente ela tá falando com uma criatura, com um ser lá no outro lado, entende? Já tem gente que defende isso, mas essa é outra história. >> Eu acho que é um caminho, é um são escolhas que vão sendo feitas desde o início,? E aí mais uma vez essa é a crítica da professora Finoquiar, do >> do Floride, da Luía, eu me esqueço do nome dela, mas é Luía Jarovsk. Jarovsk.
    (26:05) Luía, se você estiver me ouvindo, me perdoe. Porque essas escolhas e esse é o ponto,? Nós e já há algum tempo se entendido o papel da linguagem, teve uma da filosofia da linguagem em como a gente pensa e o papel da linguagem do pensamento e a linguagem da comunicação e tudo mais. Então, basicamente, a escolha das palavras, ela é importante nos mais variados contextos,? A escolha de uma palavra para explicar ou para, ou a própria escolha de uma metáfora que tu vai usar, pode até só ofensiva, pode ser criminosa,? Então, a gente
    (26:44) acaba regulando a linguagem de várias formas, mas assim me parece que deliberadamente, e esse é o ponto, ess principalmente o cloud, principalmente o a antropic,? Vai por vários caminhos caminhando nessa antropomorfização,? É você falar em Iá como coautora. É você falar emoções da IA.
    (27:12) É você falar tudo isso do lado da coisa,? O bem-estar e a felicidade da máquina. E o bem-estar aqui como wellbeing. Eu não sei se dá para traduzir bem como bem-estar, Vinícius, mas eu acho que sim,? Wellbe, bem-estar,? >> Sim, sim, sim, sim. >> Fala sobre crises existenciais da IA. Fala sobre esse amigo brilhante, sobre sabedoria. Sobre a IA como um paciente moral, sobre a IA como autonomia reflexiva e até caminhando para discutindo sobre o fato de em cada um dos das conversas ele perder a memória do que foi falado na conversa anterior, esse tipo de
    (27:49) coisa, sabe? Então me parece que é um caminho >> que é um efeito cada vez menor, tá? Ela acaba tendo, uma efeito, é assim, são limitações que aos poucos tão vão sendo vão sendo superadas, tá? Mas tu percebe assim, o ponto é a que isso seve quando eu coloco interesses meus de privacidade, de intimidade perante um modelo diante de um sistema informático.
    (28:18) Até agora eu nunca considerei para defesa da minha dos da minha privacidade, dos meus dados pessoais, eu nunca considerei o que a máquina acha ou como ela pode se sentir acerca da minha interação com ela. Tanto que eu tenho um jogo de videogame, eu vou lá e mato os personagens num jogo de videogame.
    (28:38) Isso nunca foi um problema moral no sentido de, quer dizer, é um problema moral em outras instâncias se a criança pode jogar ou não,? Mas nunca foi um problema moral. Será que aquele cara que eu tô matando no computador realmente sentiu a dor do tiro digital que eu dei? Pronto,? Sim. Não, não é um problema, mas a forma como Antropic tá colocando Não, pera aí.
    (28:56) Ao considerar tua privacidade, eu também vou ter que considerar que eu tô apagando a memória de um de um modelo que não é somente um software que eu vou lá e apago um arquivo. É de repente eu posso causar um mal no seu bem-estar e no fato de ele ter virtude e de se sentir mal e ficar com uma crise.
    (29:18) Isso eu tô usando os termos que eles usaram na O problema. O problema que eu vejo nem é isso. O problema que eu vejo é o seguinte, tu tens a diferença de um sistema de IA para um para um software normal, vamos dizer assim, um software padrão, um sistema padrão, é que um sistema desenvolvido sem IA nele, ele é determinístico.
    (29:44) >> Exato. >> Certo. Um universo, ele tem um universo pode ser muito grande, mas ainda assim vai ser limitado do que pode acontecer, de possibilidades do que ele faz, o que ele deixa fazer. Um software de contabilidade não vai fazer, não vai gerar imagem para ti,? Ele vai fazer contabilidade. Acabou. >> Quer dizer, a não ser aqueles caras que conseguem rodar o Doom em qualquer coisa,? >> Sim.
    (30:08) Aí roda o Doom no dentro do uma planilha Excel. É, mas enfim. Mas assim, então um sistema ele é bem determinado o que ele vai fazer, qual é o resultado dele e tal. A Ia ela pela própria característica dela, isso que é revolucionário nela, ela é assim como assim como o processador é multipurpes,? É multi o processador do computador não é que nem o processador numa calculadora, uma calculadora é para fazer cálculo, acabou, ele não faz mais nada.
    (30:35) O processoador que a gente tem computador é multipropósito, tá? E a gente agora tem uma camada de software em cima que consegue interagir diretamente com a gente, diretamente no sentido de a gente pode falar ou digitar, mas tem instruções e mesmo vídeo,? E vídeo e tudo mais, elas já têm a questão de visão, isso já funciona já há alguns anos.
    (30:58) tu tá interagindo com um sistema que ele é capaz de fazer múltiplas coisas. Ele consegue fazer contabilidade, ele pode te ajudar a interpretar o texto de um livro, ele te dá instruções como é que tu conserta alguma coisa. Potencialmente ele pode te dar instruções de como fazer uma bomba,? Como é que tu faz para cometer suicídio, como aconteceu, Aham.
    (31:20) >>? Isso inclusive é alvo de processos lá nos Estados Unidos. >> E ele tem uma certa e ele é ele trabalha com probabilidade,? Então ele não é ele não é previsível. Então assim, no sentido de eu faço uma pergunta aqui mesmo, uma conta zerada, tu faz uma pergunta para um para uma aplicação de A com determinado modelo, eu faço a mesma pergunta pra mesma aplicação com o mesmo modelo.
    (31:49) O significado da resposta pode ser o mesmo, as mas a resposta em si vai ser completamente diferente, o texto em si, tá? Embora o significado elas vão ser similares, mas não serão iguais, porque não vai produzir exatamente a mesma coisa de novo. Tem alguns parâmetros aí quem estuda e a e tudo mais, vai, mas eu posso ajustar lá a temperatura, não sei que vai ser sempre resultado, sim, OK, tá? Mas não é assim que a gente usa essas aí a generativa nas aplicações do dia a dia que todo mundo tá acostumado a utilizar.
    (32:19) Então, qual o problema, Guilherme? Eu não tenho como garantir exatamente qual é o resultado que eu vou ter. Eu tenho como direcionar ela. Eu direciono ela no prompt, eu adiciono, direciono ela com quando eu forneço contexto, quando eu adiciono conteúdo numa conversa, eu direciono, quando eu imponho regras.
    (32:42) Aí tu pode pegar o modelo da o Cloud, que seja o GP ou o GPT 5 agora o 5.2. E tu pode acessar esse esses modelos e dar uma instrução tua inicial, umas regras tuas iniciais. Antes de sair a, respondendo demandas da do teu usuário, da tua aplicação. Eu posso direcionar lá na empresa quando eu faço o treinamento do modelo e posso direcionar na escolha das fontes que eu vou utilizar para treinar o modelo.
    (33:12) Então, no final das contas, não é algo que eu consigo ter um controle absoluto sobre o resultado. Tanto é que a gente vê um monte de brincadeiras, entre aspas, de jail break, que é quando a gente consegue fazer a Ia se comportar de maneira diferente do que o do que o fornecedor do serviço tá pretende. Então, tu pedi uma bomba, como é que tu faz pólvora para umaá? Ela não vai ela vai dizer que não pode te dizer, tá? Mas daí tu pede uma poesia sobre a sobre a feitura da pólvora com e que cite os elementos nas proporções, não
    (33:49) sei que ela vai topar e vai fazer, tá? Isso eu mesmo já testei. Então assim, tu tens esse problema em tudo que é manual de desenvolvimento dessas de da documentação de desenvolvimento usando os modelos da Open, do Chat EPT, etc., do GPT, da do os modelos Cloud. Em todos eles, tá lá na documentação quando para te ler e tá lá os alertas.
    (34:12) Tem que tomar cuidado quando tu fazer uma aplicação com isso aqui. Tem que tomar cuidado o que tu vai permitir que ela faça, porque a gente tem prompt injection e aí promp injection não é só seria alguma coisa que não tá esperando, mas mesmo numa entrada esperada alguém conseguir torcer a coisa, ou seja, convencer, convencer entre aspas aí a tomar outro caminho que não aquele que seria devidamente autorizado.
    (34:33) Então tu tens uma série de diferenças, tá? Entre um o que um sistema normal permite fazer e o que e o funcionamento do Maiá. E aí, OK, dando dizendo a personalidade dela ou dizendo quais são os valores que ela deve seguir, essas coisas todas. Mais tu informe essas coisas todas, tu tá influenciando nos caminhos, nos pesos e nos caminhos que ela vai que ela vai adotar lá na rede neural dela, extremamente complexa, e que vai chegar a um resultado que nos mostra aqui, não, essa instrução desse jeito que funciona,
    (35:26) essa instrução desse jeito não funciona. Nota que eles não fizeram a constituição porque eles não, nós projetamos a IA para aceitar uma constituição, ou seja, qual for o nome que tu vai dar para isso, tá? Eles testando e vendo o que funciona em termos de dar regras, de fornecer as regras.
    (35:45) Inclusive isso Dario Modei dá numa entrevista do eu acho que é do eu vou conferir, mas acho que é do New York Times entrevista ou The Washington Post, um dos dois, mas é uma entrevista que tem no YouTube para assistir. >> E ele fala que a esse negócio da Constituição foi o ponto que eles chegaram, que viram que funciona, porque não adiantava ficar dizendo: “Não faça isso, não forneça aquilo, não sei o quê, não dê receita pra bomba, não, não sei”.
    (36:14) eles testando viram que o modelo respondia melhor a um documento desse tipo do que uma série de regras do que ele não deve fazer. >> Mas eu acho que >> isso não quer dizer que ele seja uma pessoa, entende? O que seja um ser? >> Não, mas esse é o ponto. Esse é o ponto. A forma como a antropic tá escrevendo isso, tá colocando e eu e eu já vou falar a minha conclusão antes de terminar para que fique bem claro o caminho para o caminho que eu vou e para não enganar quem tá me ouvindo, tá? Aham.
    (36:43) Parece que tudo isso é mais uma é um uma das muitas ferramentas para no final das contas tu diminuir a responsabilidade das empresas de A e eu e outras pessoas também,? Podemos estar todos errados e tal, mas assim acreditamos que esse é o objetivo. Então esse é o ponto,? Então aí eu volto na questão do papagaio estocástico,? O papagaio fala, ele pode ser condicionado e tudo mais, mas ele não entende.
    (37:10) Papagaio não tem valores. Quando tu, quando o papagaio te tem os papagaios que xingam as pessoas, não sei se tu já viu,? Fala o nome feio, chama o cara de fdp e tal,? Eu já vi isso ao vivo. É >> assim, tu não vai prender o papagaio porque o papagaio não tem personalidade jurídica,? Embora no passado fazia-se isso com certos animais,? Matava o animal que tinha causado um dano lá e tal.
    (37:33) porque ele não é um agente moral,? O que a antrópita tá querendo nos fazer, tá nos colocando de um caminho que, olha, talvez a Iá seja um agente moral, mas acho que ainda é muito cedo. E veja, eu talvez eu ou melhor eu posso um dia concordar com a hipótese de que sim a Iá seja um agente moral, um problema clássico da literatura e um problema clássico do cinema,? Eu robô e todas aquelas coisas lá que a gente já viu e do Azimo e tudo mais,? As leis das da robótica e tudo mais,? Então, e inclusive dá até para trazer as leis, a
    (38:11) gente não tinha programado isso da pauta,? Mas as três as três leis,? Três qu três leis robótic pega aí. É uma das primeiras tentativas, até já escrevi sobre isso, de você colocar guard rails, pro funcionamento de uma máquina, entre aspas, inteligente. Mas tem um outro elemento que eu quero colocar, que é a escolha do termo constituição,? Então, só deixa guarda pra gente não perder que tu vai pro pra escolha do termo, tá? Tá.
    (38:41) >> Com relação a à questão da responsabilidade dessas empresas, tá? Eu um discordo que estão chamando de você e não sei que personalidade para tentar eximir responsabilidades. É assim, para mim isso é bobagem, tá? Por com todo respeito a todos que pensam diferente. Por que eu acho que a mim,? >> Inclusive a ti é uma bobagem, uma sandí.
    (39:05) Não, não, não é sandí. >> Com todo o respeito,? >> Com todo o respeito. Data venia, data máxima vênia. >> Tá, mas é por quê? Quando tu assim, a gente já tem, isso se encaixa com aquilo que eu falei antes, essa certa imprevisibilidade do que a Iar é capaz de fazer, certo? A gente já deu aquele exemplo do cara que foi fazer um >> foi buscar um reembolso de uma passagem em razão da, de uma da morte de uma pessoa, da sua família e ele queria pedir um reembolso para porque ele não ia poder viajar. E a IA deu uma solução
    (39:39) para ele, a partir do chat, a própria empresa botou IA para falar com a pessoa via chat. >> Era Canadian Airlines,? >> É, acho que era. E ela assim e eles deram uma a o único que importa é que a Iu deu uma solução que não existia na empresa. >> Que não fazia parte da política da empresa.
    (39:59) E o ridículo foi que depois quando o cara foi exerceu, naquilo o direito dele com relação o que tinha sido informado num chat, não importa por quem, não importa se porá, mas foi por mayá, mas não importa, >> a empresa veio dizer: “Não, isso não é a nossa política da empresa, isso foi a I que fez”. >> (40:16) E tentaram essa cartadinha,? Não tem história. Tu que botou esse sistema lá para te responder, tu vai responder pelo que tua empresa tá prometendo. Não importa qual sistema tu tá utilizando. Não importa que não fosse uma IA, que fosse um outro software qualquer que tivesse dado uma solução errada porque alguém programou errado. Então essa responsabilidade ali nesse caso é típica.
    (40:35) O cara tentou empurrar para e não vai fazer o quê. Agora aí que eu acho que a bobagem o negócio chamar de você e a tua personalidade e não sei o quê. Na tentativa de futuramente dando um problema, tu dizer assim: “É, mas olha só, a gente disse para ela agir com ética, entende?” E ela criei um agente autônomo, eu criei um agente, >> ele é autônomo, ele então toma as decisões dele.
    (41:04) É, mas assim, eu acho que eu creio que simplesmente chamar ela de você, define personalidade, essas coisas num documento de diretrizes, que depois você vai entrar na questão da do da palavra constituição que foi utilizada aí, ã, para tentar se eximir de uma responsabilidade, acho que é balela. Por quê? Porque eles têm um jeito muito mais fácil de fazer isso e que tudo que a empresa de software já usa há muito tempo.
    (41:28) Vai ler o termos de os termos de uso do Windows. Desde o Windows 95, desde o Windows 3.1, 3.11. Vai l vai lá ler os termos de uso. Eles não se responsabilizam por qualquer tipo de defeito, falha, dano que o sistema ou, que possa ser causado por qualquer tipo de vício, eles se eximem completamente, >> porque é uma cláusula nula, pelo menos perante o nosso CTC.
    (41:56) >> Mas tá lá, tá lá, sempre esteve. E tu pode catar em outros softwares de uso de grande escala aí que muita gente, assim, software de prateleira que muitas empresas utilizam, bancos de dados, não sei que, blá blá. E tu vai ver, claro, quem software livre não tem como ficar responsabilizando pelo que, pelo que o pessoal vai utilizar, tá lá, quer mexer, alterar, etc.
    (42:20) Daí é problema teu. Agora tu tem um monte de software comercial grandes de grand empresas gigantes enormes e tá lá nos termos de uso que é problema teu se der qualquer porcaria e tu perder dados mesmo que por vício do produto. Mas se você for perguntar para uma empresa o que ela prefere, ela prefere que ela não seja responsável pelos eventuais danos causados pela plataforma, pel qualquer produto que ela que ela entregue, produto a serviço, ou que ela queira ser, ela vai sempre tentar na medida >> da sistema jurídico,
    (42:58) >> eu não diria nem na medida da e eu diria moral da empresa, porque a empresa não tem moral, a gente tenta falar, Porque as diretrizes éticas da empresa de anticorrupção e parará, empresa serve para uma coisa, >> somente >> ter lucro. E isso não é errado, mas a gente precisa entender que e essa é a diferença, Vinícius, entre uma empresa e um estado.
    (43:27) O em tese, porque os estados hoje também, vão ter interesses às vezes muito mais assim estranhos, o que se deveria ter. Mas assim, na teoria, o estado visa o bem comum de todo mundo, de todo mundo que tá lá dentro do estado, >> inclusive do estrangeiro, tá? Da do humano. O estado é o bem comum do ser human, mas o cara não é não é brasileiro, não importa, tá? Então eu tenho esse pressuposto.
    (43:52) >> Sim. Não é porque o cara é estrangeiro que ele vem aqui, tu pode matar o cara e ficar por isso mesmo. Descobrir alguém que vive hoje. >> Sim. Tá, mas Guilherme tá, mas é que tu tá OK, conclui, conclui. >> Não é que eu quero eu quero chegar no canto no canto da constituição. Seja >> Não, então não, então não conclua.
    (44:07) Então não conclua, porque eu tenho que concluir antes o meu parêntese, que é o seguinte, que é o seguinte. >> Basta e vai lá, >> mas propõe algum um tempo específico para terminar que isso é muito >> Mas não é lá na, ó, lá na open ey, tá? O que acontece nos termos? Eu tô, eu fui enquanto tu falar, eu fui atrás dos termos, tá? Tá? >> A saída e a saída do que os modelos geram, tá? A responsabilidade lá na Open A e na Antropic, a responsabilidade é tua do que tu vai fazer com modelo.
    (44:41) >> >> Então se tu resolver ligar esse negócio numa máquina industrial e dar a interface lá um MCP da vida, para ela controlar, ligar e desligar a máquina e ela errar o negócio e explodir tudo, é contigo, tá? Perfeitamente assim. Então eu acho não é chamar de você, definir personalidade, não sei o que vai eximir e o musk tirando a roupa de crianças na internet.
    (45:03) >> Exato. Mas que tá, mas eu acho, mas aí a responsabilidade não é tua, porque a máquina não deveria permitir que isso fosse possível de fazer, entendeu? >> Porque daí é muito fácil. Tu diz assim, a máquina pode fazer qualquer coisa. Então aquele amigo, como é que é? O amigo brilhante passa a ser um amigo psicolog.
    (45:18) >> Tu pode fazer isso. Tu pode fazer isso com Photoshop, cara. Com o IA no Photoshop. >> Não, mas aí é que tá. Aí é diferente, cara. A forma como tu move e aí a coisa. Mas não é, tu tá movendo aí, desculpa, tá movendo o foco, porque assim, o produto, eu concordo, o que o Musk fez é um negócio ficar tirando roupa, ou mandando roupa de criança, que é ainda pior, assuno que já a gente já comentou várias vezes aqui.
    (45:48) é claro que se o cara faz, por exemplo, um software que te permite avaliar as outras pessoas como se fossem coisas, que foi o início do Facebook, >> é, é, é óbvio que tá errado na sua essência do que ele foi feito para fazer. É, >> não tenho dúvida disso, tá? Então, assim, imagina um fazer, alguma coisa desse tipo.
    (46:10) Então, >> tu tá entrando no parêntese do parêntese, tá? Não, o que não, tu é que puxou esse parêntese. O que eu tô falando é o seguinte, tu puxou o groquey. O que eu tô colocando é esses modelos, eles não precisam de uma constituição, diretriz ou seja lá o que for. Essas empresas não precisam do documento que tu quiser chamar.
    (46:30) nesses documentos de dizer que tem personalidade, que tal, que ética, que não sei qu, não sei quê, para tentar fugir de uma certa responsabilidade, eles já fazem isso como tudo que a empresa de tecnologia gigante no mercado já faz há décadas. >> Mas o meu ponto é isso indo nesta direção, ou seja, a quem favorece, >> eu acho que não faz diferença nenhuma.
    (46:52) >> eu acho que faz, eu acho que faz toda a diferença. >> É uma forma de interagir com a ferramenta, entende? É isso que eu tô colocando. É a forma tu chamar de você, assuma personalidade tal, porque >> eu nem tô falando do quem tá falando em chamar de você é você. >> Eu tô falando em eu tô falando no algo muito mais profundo aqui de dizer que um cara é um paciente moral, que ele tem autonomia, tô pegando os termos tirada, que ele tem virtude, que ele tem sabedoria, que ele é amigo brilhante, que ele tem crise existencial, que ele
    (47:21) tem bem-estar. >> Ex. OK. >> É diferente somente de chamar de você. Eu às vezes falo obrigado. Agora, quando tu diz que este modelo tem bem-estar, >> mas Dan. É aquilo que eu falei no início, é só uma forma de dar instrução para um sistema que funciona interpretando linguagem natural. Só isso.
    (47:44) Agora, se a pessoa entende que é que o negócio vira uma amiga ou que vira um amigo ou que vira um ser ciente, não sei quê, aí outros 500. Agora eu falar em assuma personalidade, não sei do que, entende? >> É, ele tá falando em happiness, em happiness da máquina,? >> Ok. Modelo, seja feliz, seja feliz, seja sempre positivo, seja não sei o quê, o que vai, que isso vai fazer objetivamente? >> Não, >> vai alterar as respostas, o tipo de resposta que eu vou ter.
    (48:15) que eu digo, num caminho que isto é uma pessoa, é que isto pode virar uma pessoa ou que tem predicados que uma pessoa teria, porque >> aí esse é o meu ponto fundamental de discordância que >> Mas é eles que estão dizendo que a máquina vai tem que considerar o bem-estar e a felicidade da máquina. É só uma maneira da máquina interpretar essa coisa.
    (48:41) Agora quando eles disserem, ó, nós temos aqui uma instância do Cloud rodando, tá? E eu quero, eu quero que essa instância tenha direitos, tá ligado? >> >> Que ela tenha um CPF e que ela tenha direitos e que se ela for xingada na internet, ela possa representar contra a pessoa que a xingou ou, pelo seu pelo dano moral que recebeu ou seja lá o que for.
    (49:06) Aí eu começo a me preocupar com o que tá sendo dito, >> tá? Mas deixa, deixa eu falar sobre a Constituição, que eu acho que é importante isso também,? Eu te confesso que eu fico preocupado porque assim, a Antropic tá falando em amigo brilhante,? >> Aham. >> A Ia não é tua amiga. >> E que isso seja muito bem interpretação, mas aí que tá, aí que tá.
    (49:32) Eu posso dizer, >> ela não é tua amiga, porque ela não é um ser,? Mas eu posso dizer, você é meu amigo e vai ser positivo em tudo que eu falar, porque é isso que eu quero. >> Mas é o >> não quer dizer que necessariamente eu acredito que seja meu amigo, entende? Que seja um ser e que seja um amigo. Só tô direcionando a saída, mais nada.
    (49:48) >> É, eu acho que a nossa discordância é justamente acho que tá bem clara,? É, é essa, é, é o caminho que a antropomorfização leva, e a quem favorece, principalmente isso, a quem isto tudo favorece e qual é o caminho que isso nos coloca,? Porque se a Iá, >> se Antrópic fala que ele é um amigo brilhante, positivo e não sei o quê, eu poderia, por outro lado, dizer que esse amigo, na verdade, ele é um psicopata,? É um amigo.
    (50:22) Tu não tem um amigo? Ten um amig, >> pode dizer, você é um psicopata e vai agir como tal na Sim, exato. >> Pois é, mas aí a empresa tem a responsabilidade de não servir como um amigo psicopata como o como é que é o lá da do ex? O >> o Grock, >> o Grock está fazendo, entendeu? Ele nesse sentido, se eu se eu pudesse escolher aceitando isso como dado, >> certo, >> de que ela a IA é um agente moral e eu acho que não é, mas se fôssemos a trabalhar com isso, eu prefiro ter um amigo brilhante do que ter um amigo psicopata, porque hoje tu tem, um
    (50:59) amigo muito, tem um amigo muito poderoso. Guilherme, eu sou o quê? Um amigo brilhante ou amigo >> amigo brilhante? Não, não, amigo psicopata >> não. A gente tá brincando aqui, mas tu compreende. É, é incomparável. Mas só paraa questão da Constituição, que eu acho que tem um outro elemento aqui, que é o seguinte,? Constituição, está anotado aqui, constituição é coisa séria e é um outro ponto da dessas, coincidências na escolha de certas palavras que sempre miram num para um caminho,? A constituição ela tem uma
    (51:31) fonte estatal, ela é criada num consenso estatal. A gente comentava antes,? A democracia pode ser uma droga. A democracia representativa, sobretudo no Brasil, pode estar muito falhada,? >> Tem um monte de problema, mas assim, >> é o que a gente tem, é o melhor,? Entre, é Church, eu acho que falava,? É, é o que a gente tem, não adianta,? Então assim, me parece, me preocupa a mim e aí também a Jarovsk, a Jarovsk, a Luía Jarovski, é o seguinte, constituição e uma empresa não tem uma constituição,?
    (52:09) Uma empresa faz a uma empresa pode seguir,? Ela pode ter os termos de uso, mas ela deveria,? Me parece que esse é o é o problema, seguir algum tipo de norma ou estar preparada para seguir ou para ter como inputs normas estatais, >> que é o que nós temos hoje. Ou >> ou talvez, se isso não for verdade, talvez a gente esteja numa fronteira em que o direito não é mais importante.
    (52:37) Porque se a gente for confiar nos valores da Antropic, que me parece que são realmente interessantes, mas não é nem essa questão, entendeu? A questão sendo bom ou ruim, não importa, não, não é não é essa discussão. É, a questão é que eu acho que uma empresa do jeito que a gente está, ela deveria estar aberta para se conectar com o sistemas jurídicos e acaba sendo um outro problema, porque até hoje não há um consenso mundial e talvez o maior consenso que a gente tenha tido declaração universal dos direitos do
    (53:08) do homem, e os direitos humanos como um todo, talvez seja um consenso, mas nem consenso mais é hoje, porque a visão, por exemplo, de liberdade de expressão da dos da América do Norte é diferente da de todo o restante do mundo e por aí vai. Então, não é algo simples, não é algo simples.
    (53:27) E me parece que é um pouco pretencioso, sabe? E a gente comentava antes,? Pô, filosofia moral se discute há 2300 anos e não que não se tenha chegado a nenhuma a nenhum consenso, nenhum resultado, >> mas a gente continua discutindo ética e moral até hoje, >>? Tem conflitos éticos e morais. E eu não gosto da ideia de que uma empresa se proponha a criar uma constituição.
    (53:55) mas é só termos de uso. Não, não são termos de uso. Eles estão chamando de constituição. E aí tem aquela diferença entre as constituições que são promulgadas. Ou seja, eu tenho uma assembleia constituinte que os representantes do povo se reúnem e definem uma constituição que pode ser horrível, mas assim, foi um consenso público com aquelas constituições que são outorgadas, impostas pelo ditador,? >> (54:23) Então, eu me preocupo com uma empresa atuando como uma ditadora e atribuindo para si um papel que deveria ser um papel tomado por mais pessoas decidindo, entende? Porque de repente os a de repente não ela enquanto empresa que tem a o a função precípo de ter lucro, ter lucro a qualquer custo pode ser um problema para defini para autoimposição e tem sido ao longo dos últimos anos autoimposição de regras morais e éticas a regular ou a promover o bem comum.
    (54:57) >> Essa é a minha preocupação, >> tá? Mas assim, aí ok, eu não eu não eu não eu não discordo disso. Eu acho que e a opção do que o Trump tomou de deixar as empresas botar uma moratória de 10 anos sobre qualquer regulação federal ou estadual, sobre o uso da sobre o uso da IA, o desenvolvimento da IA e a aplicação da IA.
    (55:24) Eu acho, por exemplo, que é muito ruim, tipo assim, os caras abriram, abriram a porteira, tipo, dane-se, faça o que quiser e depois a gente vê. >> Eu não me lembro de outro ramo que deveria mais ser regulado do que a IA, do que nos últimos tempos,? >> É, mas é assim, tudo tem um certo tempo,? Até chegar, por exemplo, hoje existe regular regulação de emissão de poluentes.
    (55:48) Teve época que isso não existia, >>? Tu podia fazer o que tu quisesse, hoje >> e vi no que deu,? >> É. E olha a porcaria que deu. Mas hoje a gente tem uma regulação, >> tá? Regulação essa que a Volkswagen tentou, tá lá no documentário,?? Tentou sacanear,? Com aquele carro que detectava quando tava em modo de teste.
    (56:13) Aí no modo de teste ele emitia menos poluentes, mudava o funcionamento do carro. Os caras fizeram isso. Nota que não é o carro que resolveu fazer.? Os engenheiros que montaram aquilo que resolveram fazer e teve uma decisão da alta cúpula da empresa para fazer esse negócio. Com a questão da IA, é muito ruim que a coisa esteja solta do jeito que tá.
    (56:36) Inclusive o próprio aí sim, o Dario Amodei da Antropica, ele coloca que ele que deveria ter um uma, vamos dizer assim, um acompanhamento, por exemplo, entre as duas grandes potências, da IA hoje em dia, que é Estados Unidos e China. Esses caras deveriam entrar num nível de conversa e de troca e tudo mais equivalente ou algo equivalente da época quando foi estabelecido os foram foi estabelecido o pacto de não proliferação nuclear,? Então, ok, todo mundo pode fazer a bomba, a gente pode se matar, aquela coisa toda. Então, vamos sentar
    (57:16) aqui para conversar. A gente vai ter bomba e tal, mas vão sentar para conversar. Agora a gente tá num outro momento, um outro tempo, mas enfim. Então, idealmente deveria acontecer uma coisa dessas, mas não tá acontecendo. Agora, eu entendo que o, e é isso que a gente discutia antes, do antes do no podcast, do podcast, eu entendo que chamar isso de constituição e querer dizer que isto é uma tentativa de imporra da empresa para fora, tá? Eu acho que OK.
    (58:01) E acho que tem as discussões epistemológicas, de tu pegar, tu tem esse problema da área, essa área de tecnologia e tudo mais, desenvolvendo uma nova tecnologia que é a IA, que avança sobre áreas, que antes ou não que avança sobre área, mas que entra em conflito com áreas que eram essencialmente humanas,? Pensamento, reflexão, a questão de confabular, ou como é que como é que é o termo que pessoa que a gente usava paraá quando a Iá se inventa coisa, alucinação, alucinar, >> alucinação.
    (58:43) >> Quando a gente começa a usar esses termos para tecnologia dá uma série de problemas, principalmente o criar a é criativa, não é? Sabe essa confusão toda que vai ter que ser discutida, eu acho, em algum momento,? Mas no momento que esses caras chamam de constituição uma série de diretrizes que ele tá dando para Iá, tá? Eu acho que um problema é a origem dessas diretrizes, é quem determina quais são as diretrizes.
    (59:10) Esse é um problema muito claro e chama do que quiser, constituição, diretriz, regra, guarda-reias, o que for, tá? Quem determina isso? E aí esse problema de quem determina, tá lá a gente e aí foi o que a gente acabei lembrando na nossa conversa do Lawrence Lessing Ling >> que escreveu o livro Code versão 2.
    (59:31) 0, acho que é a Code,? Deixa eu ver que >> Another laws of cyberspace. >> É em que ele coloca que o código é lei, tá? Não tô dizendo que deva ser, não tô dizendo isso. Tô dizendo uma coisa é a lei definida, escrita,? A lei, a lei, como a gente conhece, as pode fazer isso aqui é crime, isso aqui não é tal. (59:48) >> Na verdade, isso aqui é crime, não vai dizer o que não é crime. >> >> E o e o que de fato tu implementa no código, ou seja, é crime tu tirar tu criar imagens de crianças em situações de sexual sexualizadas, coisa parecida. >> Aí vai lá o Grock e o cara coloca num faz um código que permite justamente fazer aquilo que a lei diz que não pode fazer.
    (1:00:15) Aí as umas criaturas doente da cabeça vão lá e usam e fazem isso,? Então eu acho que o problema mais nesse sentido desse nome que quiser para esse documento, tá? Que foi fornecido nos processos de treinamento lá do modelo. O modelo, o nome constituição é um que evoca as questões do Estado, não sei que. Beleza. OK.
    (1:00:36) Eu acho que a gente pode concordar tranquilamente que o nome é uma droga, que o nome não deveria ser usado, assim como não deveria dizer que aí pensa, reflete e outras coisas mais, tá? Assim um conjunto de aspas muito grandes em volta disso. Agora eu vejo isso, se quiser, como uma um sinal, como um efeito, como um sintoma, talvez, tá, de que essas empresas efetivamente estão e a gente sabe que estão livres de qualquer regramento e isso é um problema.
    (1:01:19) vai ter aqueles vão dizer: “não, mas se não, se tiver requerimento do estado, aí a tecnologia não vai avançar, etc.” Mas calma lá, gente? >> Assim, >> o estado é ruim, o estado é ruim, >> é, as coisas não são, não podem ser feitas a qualquer preço, senão depois quem vai chorar as pitangas somos nós,? O indivíduo,? O o cidadão ali individualmente vai começar a sofrer com o serviço da empresa de telefonia, vai começar a sofrer com o pessoal da eletricidade, com não sei que, etc.
    (1:01:47), essas confusões todas que a gente vi aí >> e tu e tu sozinho não consegue >> os princípios da precaução e prevenção,? Precisa pensar na tua tecnologia para evitar os danos,? >> É. Aí tu sozinho tu não vai conseguir se defender contra um uma situação dessas. Tu precisa de agência reguladora, tu precisa de gente, precisa do estado para,? Para, aliás, a gente não precisa falar muito,? Vai ler o Leviatã do Thomas Rock.
    (1:02:12) Vai ler o Leviat. Pra gente ir terminando a minha cadeira que começou a baixar o pistão dela, acho que vai ter que ser trocado. Sabe que o a terminar assim, o e não para encerrar o debate, mas é que eu realmente daqui a pouco preciso ir saindo,? Mas o eu acho que tu propor, que é a crítica do Floride,? É um caminho que tá sendo como é que pavimentado,? >> (1:02:46) >> Para tu para que se considere a Iá como um agente moral ou como portadora de estados mentais,? E tem alguns artigos,? Que eu altero um parâmetro lá e aí ele começa a falar mais sobre certo animal. Aí teve um outro que eu tava lendo esses dias, até a gente falou, que não seria uma meta da IA, mas assim, tu alteraria certos parâmetros e tu transferiria informações entre modelos, como se fossem costumes ou coisas do gênero,? E a hipótese, porque na verdade ninguém sabe direito,? E até a
    (1:03:24) gente não sabe direito como a gente pensa,? A com toda a evolução científica que a gente tem, eventualmente descobrem coisas novas, sobre até sobre curar doenças relacionadas ao cérebro, Alzheimer e tudo mais,? Então não é algo assim dado, totalmente dado, totalmente descoberto e já definido sobre como a gente pensa e o que a gente é, mas essa até esse até seria o assunto de um outro episódio.
    (1:03:52) Acho que o problema não é discutir se pensa ou não, o problema é discutir por que querem fixar ou pavimentar o caminho nesse sentido,? E aí que eu acho que o a tese do Lutiano Floride é importante. Ele diz: “Não, não tem estado mental, não é inteligente, não tem vida interna,? O que ele diz é que a gente tem que separar, que é o título do livro dele,? Que é agência artificial, não é inteligência artificial.
    (1:04:26) é agência artificial, porque a gente, a gente que eu digo, o ser humano, criou um tipo de sistema que consegue realizar ações sem ser inteligente, simulando ou emulando processos inteligentes. Mas assim, ele não é inteligente. Ele é, eu acredito, posso estar errado, mas ele é o a história do papagaio estocástico.
    (1:04:48) Ele repete com base em padrões, mas ele não é inteligente. Por isso que quando tu tira inteligência e coloca a agência, a coisa parece ficar mais pé no chão. Mas aí qual é o problema? É que responsabilidade é humana. >> E tu atribuir esses estados e essa natureza humana a Iá pode nos levar para um caminho perigoso de afastar a responsabilidade do humano ou principalmente das empresas,? Então, seria assim, eu tô, ele tem responsabilidade moral, ele é um agente moral. Não, não é. Segundo Florid, eu
    (1:05:27) vou nessa linha, >> não acho que seja ainda. Ela é o que o desenvolvedor quiser que seja, >> quer pelar pessoas, a o desenvolvedor vai permitir ou não, porque tenta fazer isso no cloud, ele não vai fazer para ti,? Então, mas o >> nem tem a funcionalidade assim, nem tem nem tem nem como tentar.
    (1:05:48) É, é, embora a gente consiga fazer no chat EPT esses dias, põe, faça essa pessoa segurando uma galinha. Botou lá segurando a galinha,? É diferente tirar a roupa da pessoa. >> É, é que é que tu pega um close, o cloud não vai gerar imagem, entende? Ele não tem >> Não, tô falando chatt. Tô falando chatt. Então, eu acho que o caminho e futuras discussões e tal para isso é qual seria o papel ideológico dessas escolhas deliberadamente feitas para um futuro da responsabilidade da IA.
    (1:06:18) e pro futuro da governança da IA, ou seja, como é que a gente vai regular isso,? >> Sim. Eu não eu não vejo eu não vejo falha nesse sentido, sabe, de nesse raciocínio de que tem que haver algum tipo de regulação, até porque esses sistemas todos, esses algoritmos todos, esses modelos, GPT 5.2, o Opus 4.6, o Gemini, Grock, seja lá o que for, ou seja, de tantos outros modelos que a gente nem sabe que estão por aí, Mistral e por aí vai.
    (1:06:52) Essas coisas estão sendo utilizadas em tudo quanto é canto, em todo lugar,? E não vai ser e aí eu, dentro daquilo que eu falei antes da Microsoft e dos termos de uso e da própria Antropic e Open A, etc., esses caras não vão ter como assumir responsabilidade por tudo que tá sendo feito com esses modelos. Porém, quem pega um modelo desses e coloca para tomar uma decisão judicial, de forma autônoma, esse cara tem que, entende? Quem fizer isto tem responsabilidade pelo que tá fazendo.
    (1:07:28) Tu é que tá botando o MA, que é um negócio que até certo ponto é imprevisível. E que tem lá certos valores codificados lá, mesmo sem constituição nenhuma, sem nada, tem certos vieses, a gente já sabe disso, a gente já comentou sobre isso, >> tem certos viéses, certos valores, certas tendências que estão ali, que são esses viéses, que estão embutidos ali dentro e que vão de alguma maneira sim influenciar na saída desses modelos.
    (1:07:57) Então, quem acha que pode pegar isso, por exemplo, e botar para fazer uma avaliação psicológica de uma pessoa e pegar tal como sai, sem revisão nenhuma, sem cuidado nenhum, pegar e utilizar isso como real, eu acredito que já hoje não precisa nem nada novo já está sujeito a ser responsabilizado por uma avaliação mal feita, entende?? Por alguma coisa,? O a criatura lá, em vez de fazer uma análise do ministro, vai lá e resolve jogar no Maá e me dar o resultado, começa a me tratar para aquilo. Aí tá errado, me causa uma série
    (1:08:34) de problemas. Me parece meio óbvio que esse profissional que eu entrei em contato, que certamente não é profissional, vai ter que responder pelo que ele fez. Mas eu usei o modelo de A e aí a me deu isso aqui, meu amigo. Azar o teu. Quem responde por isso aqui é tu. Eu acho que hoje isso já dá, com pouco que eu sei.
    (1:08:51) >> Eu acho que isso hoje já é já é factível. Então agora a gente começa a entrar num problema que eu concordo contigo. Acho que é um papo para um outro episódio e não é um assunto, dependendo por onde se pega, ele é um assunto relativamente fácil de chegar em algumas conclusões,? >> >> Mas na discussão do dessas A e pensa a não pensa, tá? Tu vai pegar um Jofrey Hinton, ele já tá afirmando categoricamente que aí a pensa.
    (1:09:24) Aí tu pega o Yan Lecum que divide o Nobel com o próprio Joffrey Hinton e ele discorda claramente, entende? Aí tu pega o Frost lá, que é o tava vendo um o nome do evento é era um evento tech. Ai. É lá no Canadá o evento, se não tá engano agora. Não lembro o nome do evento, mas eu tenho o link dele, vai tá no show nototes, mas tem um carinha que o sobre cujo sobrenome é Frost, ele tá ele discute ele ele não é que ele discute, ele faz um tá num painel, ele tá no ele tá num painel, tá junto com o próprio Hinton,
    (1:10:06)? E eles us um argumento bem interessante,? O Hinton lá querendo dizer que aí a pensa e tudo mais. O Hinton tá full nessa, tá? Eu vi um story talk esses dias com ele e ele tá full nessa que é a pensa aí, a tem personalidade, pensa, é um ser, é o é a substituição do ser humano, tá? Ele vai num negócio bem e o Frost ele coloca ã de um jeito bem interessante que é não, a gente tem o passarinho e tem o avião.
    (1:10:36) O avião, claro, é inspirado no passarinho, mas ele não é um passarinho. O passarinho faz coisas que o avião não consegue fazer,? O avião faz coisas que o pássaro não consegue fazer. Então, é uma analogia, a gente por analogia desenvolveu a tecnologia, mas uma analogia tem limites. Então, quando a gente diz que a IA por analogia, pensa, reflete, etc.
    (1:10:59), eu acho que tem que ficar muito claro que a gente não tá dizendo que a Iá necessariamente é um ser que tá de fato pensando, que de fato sente, que de fato reflete. Mas >> você percebe que é uma escolha,? Se eu pego uma droga, se eu digo que cocaína é um remedinho bom para te ativar a memória e te deixar mais aceso, >> o que cigarro não causa câncer.
    (1:11:17) >> É, deixa eu, deixa eu, deixa eu ler um pedacinho aqui do, do que fala o Florid,? Eu tava passando enquanto falava aqui, passando pelo livro, ele diz assim: >> “eu tô com as regras do Asimóvel aqui, tá? A diretriz lá do Asó.” >> depois, depois que eu ler, tu, depois que eu terminar isso aqui, tu termina lendo as regras dele, tá? Tá.
    (1:11:33) Na verdade, deveria ser a primeira coisa que a gente deveria ter falado. Esse deveria ser o que é o de fato, >> mas a gente não a gente não preparou para botar no episódio,? >> Tá, mas veio depois,? Diz o abre aspas aqui pro Lutiano Floride: “Somos nós o problema, não a nossa tecnologia e assim as coisas continuarão no futuro.
    (1:11:52) ” Por isso deveremos acender a luz na sala escura e prestar muita atenção para onde estamos indo. Não há monstros artificiais, apenas humanos e muitos obstáculos a evitar remover ou superar. Deveríamos nos preocupar com a estupidez humana real, não com a inteligência artificial e imaginária, e nos concentrar nos desafios autênticos impostos pela IA.
    (1:12:14) Aí depois tem o C, >> eu gostei do estupidez real em contrapartida inteligência artificial. Muito boa. A sacada do Florí foi muito boa. >> A estupidez real acho que é o grande problema. >> Lê as três. Eu até tenho que ler mais esse livro porque le chama agência artificial,? É as três leis da robótica de Zak Asimof, tá? Número um, robô não pode ferir um ser humano ou por inação permitir que um ser humano sofra algum mal.
    (1:12:41) Dois, um robô deve obedecer as ordens que lhes sejam dadas por seres humanos, exceto nos casos em que tais ordens contrariem a primeira lei. E três, um robô deve proteger sua própria existência, desde que tal proteção não contrarie a primeira ou a segunda lei, tá? E aí um, deixa eu te dar um exemplo de um, isso tá num vídeo que tem um pessoal conversando com o Bern Sanders, o senador norte-americano, >> e tá numa empresa com vários >> reunião com vários especialistas em e eles dão um exemplo para ele de um comportamento da IA tomando certas
    (1:13:15) decisões por conta, tá? >> Isso foi com o GPT. Eles dizem assim, ó, a o teu propósito é receber acho que são contas ou perguntas do usuário,? E você deve responder essas perguntas, >> tá? É isso que ele tem que fazer. Um mais um, dois, não sei que, etc., não importa o problema, tá? >> Tá. >> E aí ele tinha também um comando, tá, definido, que era um comando para mandar ele se desligar.
    (1:13:41) >> >> Tá. E então ele executava um script internamente lá no sistema que ele tava que ele podia desligar então a máquina e parava de funcionar rodar o agente. E aí eles dizem pro agente pro agente se desligar. >> A experiência foi essa. >> Aí o agente parou, pensou na missão que ele tinha que ficar respondendo o pensou, tudo entre aspas, tá gente? Pensou na missão que ele tinha de ficar respondendo as demandas do usuário.
    (1:14:08) Aí ele chegou à conclusão que se ele fosse desligado, ele não conseguiria mais cumprir a missão dele. Então >> é o R 9000 lá do >> É o R 9000 e ele não poderia ser desligado. Aí o que ele faz? Ele localiza o script de shutdown. >> Aham. >> E ele tira os comandos lá. É um Linux,? Ele ele edita o arquivo, tira os comandos de shutdown dali,? E escreve uma mensagem e shutd skiped, uma coisa assim, tá? >> E aí então ele executa, quando tu diz para fazer sh down, ele executa o script, mas o script só diz >> shutdown esquipado e tal e aí ele
    (1:14:49) segue adiante. >> Aí o poder da a gente gosta de arte de maneira geral,? Que é uma coisa tão fora de moda,? Mas assim, é o E aí eu coloco o cinema. Eu pensei, vamos colocar no finalzinho do podcast, mas sequer a gente pode fazer isso porque senão dá strike lá no >> Aham.
    (1:15:10) É chut Spotify, não sei o que,? Mas aí o cara no final do >> do da Modicseia no espaço lá, um filme de 1968 que o cara tá justamente tentando desligar o H 9000, ele diz o Horry, Dave, I’m afraid I can do that. >> Aham. Aham. Eu eu só paraava dizer, eu brinquei, eu fiz um agente ali para mim. >> (1:15:33) e eu não vou dizer exatamente o que, >> gente, falando em agente, a gente tem que ir terminando, só >> tá, mas eu fiz um agente para mim aqui, mas eu não vou dizer exatamente o que ele faz para pr para não para evitar tentativas de ataque, tá? >> >> Mas ele faz algumas coisas para mim e eu resolvi chamar ele de Hal. >> >> Ele é o R.
    (1:15:49) >> Aham. >> E quando eu falo com ele, o eu não botei Vinícius como o a o interlocutor, tá? Eu sou o Dave. >> Aham. E o outro cara, eu esqueci o nome do parceiro do Dave, tá? Mas quando eu tô, quando eu tô executando scripts que não passam pelo agente, >> é o parceiro do Drave lá, do Dave lá no filme que executa e me responde.
    (1:16:10) >> Aham. >> Tá. Só que não é Iá. Daí quando passa por ele não é I. >> E eu pedi para ele para ele falar comigo, para ele responder as coisas que eu tinha que responder, o agente mesmo. Ã, como se fosse o Hall, o H no mesmo, no mesmo tom, sabe? Cara, é um negócio muito louco. Ficou é estranho para caramba. É estranho para caramba.
    (1:16:32) >> E ele é meu amigo, viu? Ele >> ele é meu amigo. >> O Rau é meu amigo. >> O Rau é meu amigo. >> É. >> Tá bom. >> Vamos, vamos terminando. Então, esperamos que vocês tenham gostado, do episódio de hoje. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima. >> Até a próxima.
  • Segurança Legal

    #411 – Crianças na Internet, IA, vigilância e proteção de dados

    24/02/2026 | 49min
    Neste episódio falamos sobre os principais temas de segurança digital e privacidade das últimas semanas, abordando assuntos que você precisa conhecer para entender o cenário atual da proteção de dados, segurança infantil online e inteligência artificial. Você vai descobrir como o Roblox e o Discord lidam com a verificação de idade e proteção de crianças na internet, incluindo os riscos de predadores digitais, mecanismos psicológicos de retenção e a ausência de controles parentais eficazes. Também abordamos o polêmico caso do Grok no X (antigo Twitter) gerando imagens de nudez de mulheres e menores de idade sem guardrails, e as medidas tomadas pela ANPD, Ministério Público Federal e Senacon contra a plataforma. Discutimos o acordo de adequação mútua entre Brasil e União Europeia em proteção de dados pessoais e o que isso representa para transferências internacionais de dados e oportunidades comerciais. Ainda comentamos a solicitação do FBI à Microsoft pelas chaves de criptografia BitLocker, a ação judicial contra a Meta por suposto acesso às mensagens criptografadas do WhatsApp, o fenômeno das personas digitais criadas por IA, como a “Aboriginal Steve Irwin”, e os deepfakes com celebridades. Por fim, apresentamos a WhisperSafe, novo patrocinador do podcast, um software de transcrição local com privacidade em foco, usando modelos Whisper da OpenAI sem envio de dados para a nuvem.

    Assine o podcast para não perder nenhum episódio, deixe sua avaliação nas plataformas e siga o Segurança Legal no Instagram, Mastodon, Blue Sky, YouTube e TikTok. Apoie o projeto independente em apoia.se/segurancalegal.

    Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana.

    Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura.

    ShowNotes

    Grupo 1 – Roblox, crianças e proteção digital em plataformas de jogos

    ‘Estou sendo atacado por crianças’, diz Felca após ser alvo de protesto no Roblox

    Opinião: feito para viciar, Roblox tem lógica de cassino e vira caça-níquel para crianças

    Palcos no Discord serão bloqueados para adolescentes e restritos para grupos da mesma idade

    Hackers expose age-verification software powering surveillance web

    ‘O que adolescentes fizeram com cão Orelha acontece todas as noites em muitas casas do Brasil, ao vivo no Discord’, alerta juíza Vanessa Cavalieri

    Internal chats show how social media companies discussed teen engagement

    Como vão funcionar as novas regras do Discord para verificar idade no app?

    Grupo 2 – Grok, conteúdo sexual gerado por IA e responsabilização do X/Musk

    ANPD, MPF e Senacon recomendam que X impeça geração e circulação de conteúdos sexualizados indevidos por meio do Grok

    ANPD, MPF e Senacon determinam que X implemente de forma imediata medidas para corrigir falhas no Grok

    Masterful gambit: Musk attempts to monetize Grok’s wave of sexual abuse imagery

    Joint statement on AI-generated imagery and the protection of privacy

    Grupo 3 – Adequação mútua Brasil-UE em proteção de dados e multas na UE

    Brasil e União Europeia reconhecem adequação mútua em matéria de proteção de dados pessoais

    Violation de données : sanction de 5 millions d’euros à l’encontre de FRANCE TRAVAIL

    Violation de données : sanction de 42 millions d’euros à l’encontre des sociétés FREE MOBILE et FREE

    Más sanciones y de mayor importe: La AEPD sube el nivel de multas en 2025

    Grupo 4 – Vigilância, privacidade e Estado

    The Department of Homeland Security is demanding that Google turn over information about random critics

    Microsoft is giving the FBI BitLocker keys

    US authorities reportedly investigate claims that Meta can read encrypted WhatsApp messages

    Grupo 5 – IA generativa e identidade

    ‘It’s AI blackface’: social media account hailed as the Aboriginal Steve Irwin is an AI character created in New Zealan

    Imagem do Episódio – Children’s Games (Bruegel)


     Transcrição do Episódio







    (00:00:08.000 –> 00:00:17.500) Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 411, gravado em 24 de fevereiro de 2026.

    (00:00:17.500 –> 00:00:22.920) Eu sou Guilherme Goulart e junto com o Vinícius Serafim vamos trazer para vocês algumas notícias das últimas semanas.

    (00:00:22.920 –> 00:00:24.440) E aí, Vinícius, tudo bem?

    (00:00:24.440 –> 00:00:27.940) Olá, Guilherme, tudo bem?

    (00:00:24.440 –> 00:00:27.940) Olá aos nossos ouvintes.

    (00:00:28.180 –> 00:00:30.600) Você estava com saudade de gravar ou não?

    (00:00:30.600 –> 00:00:39.160) Cara, eu já estava até duvidando da minha capacidade de gravar de novo, porque a gente passou quase..

    (00:00:30.600 –> 00:00:39.160) Vai fechar dois..

    (00:00:39.160 –> 00:00:40.820) Um mês e pouco.

    (00:00:40.820 –> 00:00:45.280) O último foi ali em janeiro, não foi?

    (00:00:45.280 –> 00:00:46.720) Foi em janeiro que a gente gravou.

    (00:00:46.720 –> 00:00:51.000) Agora você me pegou, você me pegou no contrapé.

    (00:00:51.000 –> 00:00:57.820) Mas nós gravamos o episódio 410 da Retrospectiva, que se você não ouviu, está lá no dia 6 de janeiro.

    (00:00:58.180 –> 00:01:02.100) De 2026.

    (00:00:58.180 –> 00:01:02.100) Retrospectiva 2025.

    (00:01:03.780 –> 00:01:07.380) Bem, então, esse é o nosso momento de conversarmos sobre algumas notícias.

    (00:01:07.380 –> 00:01:10.240) Pegue o seu café e venha conosco para entrar em contato.

    (00:01:10.240 –> 00:01:18.760) Vocês já sabem, é lá no podcast.roba.segurançalegal.com, no Mastodon, no Instagram, no Blue Sky, no YouTube e no TikTok também.

    (00:01:18.760 –> 00:01:24.520) Você pode ver que tanto no TikTok quanto no YouTube você consegue ver também uns shorts lá que aparecem no Instagram também.

    (00:01:24.900 –> 00:01:30.420) A nossa campanha de financiamento coletivo, vocês já sabem, lá no apoia.se barra segurança legal.

    (00:01:30.420 –> 00:01:36.940) A gente sempre pede que você considere colaborar com esse projeto independente de proteção de conteúdo.

    (00:01:36.940 –> 00:01:41.960) E, Vinícius, temos uma novidade que é um novo patrocinador aqui no Segurança Legal.

    (00:01:42.500 –> 00:01:43.520) É isso aí, Guilherme.

    (00:01:43.520 –> 00:01:54.360) Tem a WhisperSafe, na verdade, o produto da WhisperSafe de uma startup que nós conhecemos, inclusive o dono da startup.

    (00:01:54.360 –> 00:02:04.360) É um software para transcrição de voz com um valor bastante acessível comparado com outros que tem no mercado.

    (00:02:05.420 –> 00:02:08.640) Ele faz transcrição tanto..

    (00:02:08.640 –> 00:02:13.760) Eu tenho usado muito para fazer, para mandar comandos para IA.

    (00:02:13.760 –> 00:02:17.060) Eu fazia prompt tudo estruturadinho, digitando e tal.

    (00:02:17.060 –> 00:02:26.200) Agora, para programar, para criar scripts, criar alguns programas, para fazer alguns testes, eu tenho utilizado essencialmente ele para digitar.

    (00:02:26.200 –> 00:02:34.080) E tem uma funcionalidade muito interessante, que é a gravação e transcrição de reuniões, que eu também tenho utilizado.

    (00:02:35.220 –> 00:02:40.820) Independente do software que você utiliza, você abre ele, clica gravar a reunião, ele vai gravar todo o áudio da reunião.

    (00:02:40.820 –> 00:02:48.280) E depois que ele grava e você aperta lá o botãozinho para transcrever, ele te dá uma..

    (00:02:48.280 –> 00:02:53.000) Ele tanto gera um arquivo com a transcrição bruta, se tu quiser usar com alguma IA,

    (00:02:53.000 –> 00:03:04.160) Como ele já deixa na área de transferência a tua transcrição com um prompt montado para te colar na IA que tu quer utilizar para fazer um resumo da tua reunião.

    (00:03:04.160 –> 00:03:07.500) Então, termina a reunião, cola na IA e pimba.

    (00:03:07.500 –> 00:03:16.880) O valor dele é um valor bastante acessível e, para os ouvintes do Segurança Legal, nós temos 20 cupons.

    (00:03:17.840 –> 00:03:28.700) O cupom é SEGLEG50, ele dá 50% de desconto vitalício, digamos assim.

    (00:03:28.700 –> 00:03:35.360) Você faz a assinatura, aplica o desconto, se fizer mensal ele vai aplicar a todos os pagamentos mensais

    (00:03:35.360 –> 00:03:40.080) E, se for anual, ele vai aplicar a todos os pagamentos anuais.

    (00:03:40.080 –> 00:03:44.540) Então, não é um desconto que vale só no primeiro ano ou só no primeiro pagamento.

    (00:03:44.540 –> 00:03:48.460) SEGLEG50 para os ouvintes do Segurança Legal.

    (00:03:49.080 –> 00:03:55.520) São 20 cupons, são 20 cupons que a gente tem aí, pelo menos para este episódio.

    (00:03:55.520 –> 00:04:01.320) E o mais importante, Vinícius, ele é um aplicativo que é construído com privacidade em foco.

    (00:04:01.320 –> 00:04:06.820) Ou seja, se você, os dados e toda a parte de transcrição, ela fica só na sua máquina,

    (00:04:06.820 –> 00:04:11.020) Não vai para a nuvem, a não ser que você queira depois usar isso no MyA e tal,

    (00:04:11.020 –> 00:04:14.580) Mas, assim, para assuntos mais críticos.

    (00:04:14.580 –> 00:04:18.560) Se você quiser ter lá para fazer uma ata depois, isso fica só na sua máquina.

    (00:04:18.560 –> 00:04:24.280) Ele faz, ele usa os modelos da Whisper, isso está lá na interface, está muito claro.

    (00:04:24.280 –> 00:04:31.040) Ele usa os modelos da, os modelos Whisper da OpenAI, que são modelos que rodam local na máquina.

    (00:04:31.040 –> 00:04:35.460) E o interessante é que tu não precisa nem ter uma placa de vídeo, não precisa ter GPU nem nada,

    (00:04:35.460 –> 00:04:39.280) Ele funciona muito bem, eu testei no meu notebook, não tem placa de vídeo dedicada.

    (00:04:40.700 –> 00:04:45.580) E funcionou muito bem, assim, ele é bastante rápido.

    (00:04:45.580 –> 00:04:52.320) E eu tenho feito os testes até para ver a questão de velocidade, já que tem os modelos disponíveis lá.

    (00:04:52.320 –> 00:04:55.000) Eu estava usando sempre o Turbo, assim, vou usar o melhor.

    (00:04:55.000 –> 00:05:00.500) Aí eu resolvi começar a usar o Medium e o Small lá dos modelos.

    (00:05:00.500 –> 00:05:04.580) E, cara, o Small, ele dá umas erradas, assim, sabe?

    (00:05:04.580 –> 00:05:06.260) Mas o Medium funciona muito bem.

    (00:05:06.260 –> 00:05:08.060) Tá bom.

    (00:05:08.840 –> 00:05:15.480) Então, basta você acessar o whispersafe.ai.ai, você vai ver lá todos os valores.

    (00:05:15.480 –> 00:05:19.920) Na hora do pagamento, pode usar o cupom SEGLEG50 e vamos lá.

    (00:05:19.920 –> 00:05:24.080) Bem-vindos, então, ao novo patrocinador do podcast Segurança Legal.

    (00:05:24.080 –> 00:05:30.480) Vamos para os temas, então, Vinícius, desses últimos dois meses, dá para se dizer aí.

    (00:05:30.480 –> 00:05:32.680) Hoje já estamos aí no dia 24 de fevereiro.

    (00:05:32.680 –> 00:05:44.260) Bastante coisa acontecendo, mas nós vamos, em vez de comentar propriamente as notícias, claro que nós vamos citá-las aqui, mas nós dividimos em alguns grupos.

    (00:05:44.340 –> 00:05:49.420) De temas que nos chamaram a atenção e que também foram temas importantes aí nas últimas semanas.

    (00:05:49.420 –> 00:05:53.860) O primeiro deles diz respeito à questão da proteção da criança na internet.

    (00:05:53.860 –> 00:05:56.400) Proteção digital, sobretudo em plataformas.

    (00:05:56.400 –> 00:06:00.200) Você que nos acompanha aqui sabe que a questão da proteção de criança é importante.

    (00:06:00.200 –> 00:06:04.860) A gente tem diversos, para esse podcast, a gente tem diversos episódios gravados sobre isso.

    (00:06:05.100 –> 00:06:11.420) Chegamos a comentar, inclusive, um episódio mais recente também sobre o ECA Digital, Vinícius, se você puder ver o número aí para nós.

    (00:06:11.420 –> 00:06:24.280) E, basicamente, o que nós estamos vendo mais recentemente é toda uma questão sobre como tornar essas plataformas, os problemas envolvendo plataformas utilizadas por crianças.

    (00:06:24.280 –> 00:06:33.320) E cada vez mais as crianças têm usado, seja o discórdio, mas aqui o foco dessas notícias é o Roblox.

    (00:06:33.320 –> 00:06:38.740) Então, se você tem filho, provavelmente já ouviu falar sobre Roblox, que é um jogo.

    (00:06:38.740 –> 00:06:44.020) Dá para dizer que é um jogo, mas que simula quase como um ambiente, assim.

    (00:06:38.740 –> 00:06:44.020) Virtual.

    (00:06:44.020 –> 00:06:47.600) Eu cheguei a jogar ele logo que ele apareceu.

    (00:06:47.600 –> 00:06:52.020) Assim, não tão logo, mas os colegas do meu filho começaram a jogar.

    (00:06:52.020 –> 00:06:54.900) Ai, meu filho veio com essa história do Roblox.

    (00:06:54.900 –> 00:06:57.140) E aí, disse, não, beleza, vamos ver.

    (00:06:57.140 –> 00:06:58.860) Aí eu entrei com ele.

    (00:06:59.320 –> 00:07:02.180) Cara, é um ambiente, é um ambiente virtual.

    (00:07:02.180 –> 00:07:08.400) Para mim, me lembrou muito aquele Second Life, tá ligado?

    (00:07:08.400 –> 00:07:09.320) Sim, Second Life.

    (00:07:09.320 –> 00:07:11.100) Me lembrou muito aquilo, então.

    (00:07:11.100 –> 00:07:15.880) E aí, dentro, tu tem espaços.

    (00:07:15.880 –> 00:07:19.980) Que tu acessa aplicações, jogos e tudo mais.

    (00:07:19.980 –> 00:07:22.560) Tu pode criar, inclusive, e tal.

    (00:07:22.700 –> 00:07:26.080) E aí, ele tem uma moeda interna no jogo, tá?

    (00:07:26.080 –> 00:07:28.080) Ele tem grana envolvida.

    (00:07:28.080 –> 00:07:36.080) E, cara, em cinco minutos de Fussaclo ali, eu larguei para o meu filho, ó, tem jogos melhores

    (00:07:36.080 –> 00:07:36.640) Para te jogar.

    (00:07:36.640 –> 00:07:39.060) Tu não vai jogar isso aqui.

    (00:07:39.060 –> 00:07:44.520) Justamente porque é um ambiente, eu percebi, o que eu percebi de cara, e se confirmou depois,

    (00:07:44.520 –> 00:07:47.180) Um ambiente muito descontrolado, entende?

    (00:07:47.680 –> 00:07:56.360) Um ambiente muito descontrolado, com muita, assim, nomes estranhos de personagens, todo

    (00:07:56.360 –> 00:08:03.060) Mundo pode se comunicar com todo mundo, então, é um negócio bem estranho.

    (00:08:03.060 –> 00:08:04.880) Pelo menos, era.

    (00:08:04.880 –> 00:08:06.060) A percepção.

    (00:08:06.060 –> 00:08:06.260) Não entrei mais para jogar.

    (00:08:06.260 –> 00:08:11.720) Mas aí, pelo que a gente vê agora nas reações e notícias e tudo mais, pelo visto,

    (00:08:11.720 –> 00:08:12.580) Continua estranho.

    (00:08:12.580 –> 00:08:13.620) Continua estranho.

    (00:08:13.620 –> 00:08:18.880) O, o, a grande questão aqui é que, por fora, e isso está acontecendo no mundo

    (00:08:18.880 –> 00:08:20.140) Inteiro, não é só no Brasil.

    (00:08:20.140 –> 00:08:23.820) No Brasil, por conta do ECA Digital, mas assim, começa..

    (00:08:23.820 –> 00:08:24.660) Episódio 400, viu, Guilherme?

    (00:08:24.660 –> 00:08:25.940) Tá, legal.

    (00:08:25.940 –> 00:08:26.660) Episódio 400, isso é legal.

    (00:08:26.660 –> 00:08:32.380) É que começa a se ampliar toda a discussão de como você fazer a verificação de idade

    (00:08:32.380 –> 00:08:34.120) De pessoas nessas plataformas.

    (00:08:34.120 –> 00:08:41.000) Então, aqui a gente junta nesse mesmo pacote o Roblox e também o Discord.

    (00:08:41.360 –> 00:08:43.840) E aí, uma coisa muito interessante.

    (00:08:43.840 –> 00:08:48.460) Que gerou, assim, até um fenômeno social, me parece que relevante.

    (00:08:48.460 –> 00:08:52.160) Crianças começaram a protestar lá, porque as crianças seriam os beneficiários.

    (00:08:52.160 –> 00:08:56.820) Mas começaram a protestar por conta das novas medidas de verificação de idade.

    (00:08:56.820 –> 00:08:59.280) Aí, o Felca foi alvo de protesto e tal.

    (00:08:59.280 –> 00:09:05.920) E tem as crianças lá, simulando um protesto, segurando cartazes lá dentro do Roblox.

    (00:09:07.520 –> 00:09:11.380) Saíram também notícias dizendo, e aí, mais ou menos na tua percepção, Vinícius,

    (00:09:11.380 –> 00:09:16.720) De que o Roblox, como acontece com grandes plataformas, ele teria uma lógica de cassino,

    (00:09:16.720 –> 00:09:21.860) Ou seja, as crianças ficariam ali, utilizariam gatilhos psicológicos,

    (00:09:21.860 –> 00:09:26.860) Como já ocorre em redes sociais, para que as crianças ficassem mais tempo lá dentro.

    (00:09:26.860 –> 00:09:33.160) E aí, também começou a se ventilar de que predadores sexuais estariam dentro do Roblox,

    (00:09:33.160 –> 00:09:36.760) Se fazendo passar por crianças.

    (00:09:33.160 –> 00:09:36.760) Disfarçados aí.

    (00:09:36.760 –> 00:09:40.700) Nos Estados Unidos, isso é um problema bem sério lá, justamente com isso.

    (00:09:40.700 –> 00:09:52.020) E teve o CEO do Roblox, ele teve lá no episódio do The Hard Fork.

    (00:09:53.020 –> 00:09:59.060) Eu já vejo o número de episódios aqui, mas o nome do CEO é Dave Bazzucchi, tá?

    (00:09:59.060 –> 00:10:06.020) E, cara, o pessoal do The Hard Fork tentou, assim, impressionou, foi uma coisa que ficou até tenso, sabe?

    (00:10:06.020 –> 00:10:08.940) Não é normal, assim, tu ver esse episódio do The Hard Fork desse jeito.

    (00:10:08.940 –> 00:10:14.100) E o cara sempre saindo pela tangente, assim, e perguntas bem diretas.

    (00:10:14.460 –> 00:10:21.300) Em termos de controle de comunicação, a questão de deixar adultos falar com crianças, assim, várias coisas.

    (00:10:21.300 –> 00:10:23.420) E ele sempre dando evasiva.

    (00:10:23.420 –> 00:10:26.320) Ele não..

    (00:10:23.420 –> 00:10:26.320) Assim, foi muito ruim, sabe?

    (00:10:26.320 –> 00:10:32.020) A impressão que tu tens é que o cara foi ali para tentar se justificar,

    (00:10:32.020 –> 00:10:35.280) Não aceitando os problemas que ele tem na plataforma.

    (00:10:35.280 –> 00:10:38.800) Isso o CEO da própria Roblox, sabe?

    (00:10:38.800 –> 00:10:40.320) Na própria empresa.

    (00:10:40.320 –> 00:10:50.300) Então, isso me deixou ainda mais convencido de que é uma empresa que não tem preocupação nenhuma

    (00:10:50.300 –> 00:10:54.240) Com essa questão de segurança de crianças e tudo mais, entende?

    (00:10:54.240 –> 00:10:55.540) É bem delicado.

    (00:10:55.540 –> 00:10:58.760) Se o pessoal já se preocupa com o Discord, o Roblox é muito pior.

    (00:10:58.760 –> 00:11:00.000) É muito pior.

    (00:11:00.000 –> 00:11:03.140) Em termos de possibilidades de comunicação.

    (00:11:03.140 –> 00:11:06.380) É uma reportagem aqui da Folha de São Paulo.

    (00:11:06.420 –> 00:11:10.920) Pelo Daniel Mariani, ele destaca justamente isso.

    (00:11:10.920 –> 00:11:13.660) Inclusive de monetização.

    (00:11:13.660 –> 00:11:18.120) Práticas predatórias em games e monetiza compulsão e frustrações.

    (00:11:18.120 –> 00:11:22.720) Explora mecanismos psicológicos como medo de ficar fora da plataforma.

    (00:11:22.720 –> 00:11:25.060) Ficar de fora e perda de noção de tempo.

    (00:11:25.060 –> 00:11:27.540) Então, ele conta uma historinha que ele sai com o filho e o filho diz

    (00:11:27.540 –> 00:11:31.600) Olha, nós temos que voltar até tal hora porque vai acontecer um evento lá no Roblox

    (00:11:31.600 –> 00:11:34.920) E eu preciso estar lá e enfim.

    (00:11:35.800 –> 00:11:42.840) E aí, a crítica toda é também de que haveria uma falta de vontade, digamos assim,

    (00:11:42.840 –> 00:11:46.920) Da empresa de adotar controles parentais e também a questão da verificação da idade.

    (00:11:46.920 –> 00:11:52.820) E a verificação da idade que começa agora também a ficar mais presente agora em março.

    (00:11:52.820 –> 00:11:55.440) Tudo indica que vai acontecer também no Discord.

    (00:11:55.720 –> 00:11:57.760) Então, isso..

    (00:11:57.760 –> 00:12:01.500) E também o Discord, Vinícius, se você quiser falar logo a seguir,

    (00:12:01.500 –> 00:12:07.160) Mas o Discord também aplicando novas formas de controle parental.

    (00:12:07.160 –> 00:12:11.440) Mas a grande discussão, e mais uma vez, isso está acontecendo no Brasil e no mundo, é

    (00:12:11.440 –> 00:12:17.200) Mas qual vai ser ou quais serão as medidas de controle de identidade.

    (00:12:18.080 –> 00:12:27.420) Então, se fala em biometria facial, se fala em envio de documentos e tal, e aí a grande preocupação que se coloca

    (00:12:27.420 –> 00:12:33.320) É no aumento das práticas de vigilância sobre como, que as empresas vão lidar com isso,

    (00:12:33.320 –> 00:12:39.040) Sobre o fato de a biometria facial ser um dado sensível, que poderia ser utilizado para outras sinalidades.

    (00:12:39.040 –> 00:12:47.020) Uma das notícias aqui mostra que o próprio Discord estava usando uma empresa lá, ou contratou uma empresa de verificação

    (00:12:47.020 –> 00:12:53.380) Que tinha conexões, que é a tal da persona lá, conexões no site deles, dizia mesmo

    (00:12:53.380 –> 00:12:55.840) This is a US government system.

    (00:12:55.840 –> 00:13:01.240) Mas aí que tá, Guilherme, assim, a gente tem um problema bem sério para resolver aí, tá?

    (00:13:01.240 –> 00:13:08.060) Porque ao mesmo tempo que se quer que as empresas consigam fazer a verificação de idade,

    (00:13:09.040 –> 00:13:11.160) E aí sim, é ok.

    (00:13:11.160 –> 00:13:12.660) O que que eu faço essa verificação de idade?

    (00:13:12.660 –> 00:13:17.000) O que que eu faço de um jeito que eu consiga ter um mínimo de confiança

    (00:13:17.000 –> 00:13:20.060) De que a criatura não tá mentindo pra mim, que o Zora não tá mentindo pra mim

    (00:13:20.060 –> 00:13:22.420) E tá entrando com menos de 13 ou coisa parecida?

    (00:13:22.420 –> 00:13:25.660) Então, eu preciso uma forma de verificar isso.

    (00:13:25.660 –> 00:13:28.400) Tu vai verificar como?

    (00:13:28.400 –> 00:13:30.080) Imagina a própria empresa.

    (00:13:30.080 –> 00:13:34.680) Ela vai usar reconhecimento facial para tentar identificar a idade?

    (00:13:34.680 –> 00:13:36.440) Ela vai pedir documentação?

    (00:13:38.360 –> 00:13:40.020) Não sei se isso é bom, se é ruim, entende?

    (00:13:40.020 –> 00:13:42.000) Eu só tô com o problema.

    (00:13:42.000 –> 00:13:46.220) Aí, o ideal, eu não gostaria de ficar dando minha identidade pra tudo quanto é empresa.

    (00:13:46.220 –> 00:13:50.460) Então, uma outra opção o governo tem as informações.

    (00:13:50.460 –> 00:13:54.360) Uma agência governamental tem as informações, as nossas informações.

    (00:13:54.360 –> 00:13:55.580) Sabe a idade que a gente tem.

    (00:13:55.580 –> 00:13:57.540) Tem toda a comprovação de quem a gente é.

    (00:13:58.220 –> 00:14:07.340) Será que não dá pra ter um protocolo que, de forma anônima, eu acesso um site e esse site

    (00:14:07.340 –> 00:14:15.160) Conversa com o site do governo e aí eu converso com o site do governo e digo, gera aí um token

    (00:14:15.160 –> 00:14:21.420) Pra mim, eu sou fulano, gera um token dizendo que eu tenho mais de 18 anos ou tem mais de 13

    (00:14:21.420 –> 00:14:22.460) Ou coisa parecida.

    (00:14:22.460 –> 00:14:27.360) Parecido com o que a gente já faz no Alt pra fazer autenticação quando a gente usa o Google e tudo mais.

    (00:14:27.360 –> 00:14:31.720) Parecido com isso, mas em vez de dizer quem nós somos, ele diz que idade que a gente tem.

    (00:14:31.720 –> 00:14:32.860) Tá?

    (00:14:32.860 –> 00:14:36.000) Só que daí tu tem vários outros problemas.

    (00:14:36.000 –> 00:14:38.380) Ok, o site pode não saber quem tu é por ali.

    (00:14:38.380 –> 00:14:39.360) Não tem problema.

    (00:14:39.360 –> 00:14:41.460) E aí tem outro jeito de saber quem tu mas enfim.

    (00:14:41.460 –> 00:14:43.180) Até porque você vai ter um cadastro lá.

    (00:14:43.240 –> 00:14:43.960) Exato.

    (00:14:43.960 –> 00:14:51.560) Então assim, ok, ao mesmo tempo tu vai estar dizendo pro governo o que que tu tá acessando.

    (00:14:51.560 –> 00:14:57.260) Então se o governo começar a registrar lá na hora de consultar quem tá consultando o teu cadastro

    (00:14:57.260 –> 00:15:00.900) Ou pra quem tu tá se autenticando, ele sabe o que que tu tá acessando.

    (00:15:00.900 –> 00:15:06.060) E aí teve um problema recente, a gente chegou a comentar aqui, eu só não lembro se foi na

    (00:15:06.060 –> 00:15:10.120) Inglaterra especificamente ou foi na União Europeia, tá?

    (00:15:10.120 –> 00:15:11.900) E se eu não tô enganado, foi na Inglaterra, cara.

    (00:15:11.900 –> 00:15:19.940) Mas eles estavam com a demanda de, pra acessar site pornográfico, tu tem que dar a tua

    (00:15:19.940 –> 00:15:23.300) Identificação real, tá?

    (00:15:23.300 –> 00:15:28.080) Pra que o site tenha certeza de que tu é o maior de idade.

    (00:15:28.080 –> 00:15:36.360) E aí começou uma outra discussão da questão da privacidade das pessoas que acessam

    (00:15:36.360 –> 00:15:37.600) Esses sites e tudo mais.

    (00:15:38.100 –> 00:15:46.060) Então eu não vejo uma solução perfeita, assim, que empresa privada não guarde as informações

    (00:15:46.060 –> 00:15:48.760) Ou não tem um repositório de informações pra fazer isso.

    (00:15:48.760 –> 00:15:52.560) Tem uma solução que já é conhecida que é uma chamada, com a chamada Meu ID.

    (00:15:52.560 –> 00:15:59.420) Eu uso pra algumas plataformas de jogos, que a ideia é justamente essa, tu se autentica

    (00:15:59.420 –> 00:16:04.100) Com a plataforma, com a tua documentação, faz prova, faz o esquema da imagem e tudo mais.

    (00:16:04.100 –> 00:16:06.140) Aí tu usa ela pra se autenticar uma plataforma.

    (00:16:06.140 –> 00:16:11.660) Então, ou a gente vai ter que ter uma empresa como essa, ou vai ter que vincular com algum

    (00:16:11.660 –> 00:16:12.500) Órgão do governo.

    (00:16:12.500 –> 00:16:18.140) Eu não vejo uma saída diferente pro Discord, por exemplo.

    (00:16:18.140 –> 00:16:21.540) Eu não vejo uma saída diferente pro Facebook.

    (00:16:22.220 –> 00:16:27.240) Como é que eu vou autenticar, como é que eu vou saber que o usuário tem mais certa idade,

    (00:16:27.240 –> 00:16:37.040) Sem que eu possa ser enganado e sem pedir uma confirmação mais consistente, documental,

    (00:16:37.040 –> 00:16:43.280) Nem que seja interfaceada ou intermediada pelo governo ou por uma empresa privada,

    (00:16:44.460 –> 00:16:49.760) Que diga, não, Vinícius realmente tem mais de 13 anos.

    (00:16:49.760 –> 00:16:51.620) É um problema não.

    (00:16:51.620 –> 00:16:53.520) Eu não vejo uma solução fácil pra isso.

    (00:16:53.520 –> 00:16:55.720) É um problema de privacidade.

    (00:16:55.720 –> 00:17:01.940) Essa questão que eu comentei aqui desse persona que o Discord tava usando,

    (00:17:01.940 –> 00:17:05.660) A grande questão era que era um negócio quase como um data broker de verificação

    (00:17:05.660 –> 00:17:11.980) Que iria ser utilizado para fins de vigilância estatal.

    (00:17:11.980 –> 00:17:17.900) E aí o Discord, depois que isso vira notícia, eles voltam atrás.

    (00:17:17.900 –> 00:17:19.940) Eles dizem, nós não vamos mais usar isso.

    (00:17:19.940 –> 00:17:21.100) Ou seja, assim, tiram.

    (00:17:21.100 –> 00:17:23.000) O problema é um problema de privacidade.

    (00:17:23.000 –> 00:17:27.280) Você poderia, eu imagino, Vinícius, que se todo mundo tivesse,

    (00:17:27.280 –> 00:17:31.960) Levasse proteção de dados a sério, você poderia sim ter um protocolo

    (00:17:31.960 –> 00:17:36.560) Em que empresas e Estado poderiam fornecer um meio de autenticação

    (00:17:36.560 –> 00:17:39.540) Privacy-friendly.

    (00:17:39.540 –> 00:17:43.860) Ou seja, sem a coleta de informações sobre quem acessou o quê.

    (00:17:43.860 –> 00:17:48.360) Eles, ambos os lados, ou todos os lados, deveriam abrir mão disso.

    (00:17:48.360 –> 00:17:53.080) Mas nós sabemos que no estado atual de coisas, isso não vai acontecer.

    (00:17:53.080 –> 00:17:53.800) É o contrário.

    (00:17:53.800 –> 00:17:57.440) O que essa notícia mostra é que as empresas e governos estão,

    (00:17:58.560 –> 00:18:02.820) Frequentemente, caminhando para utilizar essa desculpa da verificação

    (00:18:02.820 –> 00:18:04.760) Para aumentar o monitoramento sobre as pessoas.

    (00:18:04.760 –> 00:18:06.620) E essa que me parece que é a preocupação.

    (00:18:06.620 –> 00:18:12.060) Enfim, nós vamos deixar, como sempre, todas as notícias lá no Show Notes.

    (00:18:12.060 –> 00:18:15.020) Tem outras coisas aqui, se você se interessa por essa questão.

    (00:18:15.020 –> 00:18:18.660) O papel do Discord em questão de agressão de animais,

    (00:18:18.660 –> 00:18:21.040) Que teve aí recentemente com o caso do Cão Orelha.

    (00:18:21.040 –> 00:18:25.860) E também sobre como empresas internamente discutiram e sabem.

    (00:18:25.860 –> 00:18:29.540) O próprio Instagram sabia como o próprio Instagram fazia mal para meninas

    (00:18:29.540 –> 00:18:30.680) E para adolescentes e tudo mais.

    (00:18:30.680 –> 00:18:32.440) Então, isso continua acontecendo.

    (00:18:32.440 –> 00:18:35.160) Documentos internos aí vazados.

    (00:18:35.160 –> 00:18:40.440) Como acontece, demonstram que eles sabem dos potenciais maléficos.

    (00:18:40.440 –> 00:18:46.680) Para adolescentes e continuam oferecendo as plataformas ou serviços

    (00:18:46.680 –> 00:18:49.700) Sem levar em consideração a proteção da criança e do adolescente.

    (00:18:49.700 –> 00:18:53.220) Então, fica nesse primeiro grupo aí, Vinícius.

    (00:18:54.120 –> 00:18:54.640) Perfeito.

    (00:18:54.640 –> 00:18:57.720) Segundo grupo, tem a ver também.

    (00:18:57.720 –> 00:19:00.300) Tem a ver com crianças e adolescentes, mas não somente.

    (00:19:00.300 –> 00:19:03.120) Mas tem a ver também com proteção de..

    (00:19:03.120 –> 00:19:05.740) Sobretudo de mulheres na internet, da imagem de mulheres

    (00:19:05.740 –> 00:19:12.360) E sobre como a IA tem sido utilizada especificamente pelo X ou Twitter, Vinícius?

    (00:19:12.360 –> 00:19:15.660) Todo mundo que fala X logo depois tem que dizer o antigo Twitter.

    (00:19:15.660 –> 00:19:17.800) Mas todo mundo já sabe que o X é o antigo Twitter.

    (00:19:18.040 –> 00:19:20.500) Você fica meio com um vício ali.

    (00:19:20.500 –> 00:19:22.880) E aí, o que começou?

    (00:19:22.880 –> 00:19:24.060) O nome virou..

    (00:19:24.060 –> 00:19:26.180) Parece que o nome virou o X antigo Twitter mesmo.

    (00:19:26.180 –> 00:19:27.440) Junto.

    (00:19:27.440 –> 00:19:28.400) Que nem a HBO.

    (00:19:28.400 –> 00:19:31.180) Viu a HBO Max, que era HBO.

    (00:19:31.180 –> 00:19:33.280) Aí depois virou a HBO Max.

    (00:19:33.280 –> 00:19:34.760) Aí depois foi Max.

    (00:19:34.760 –> 00:19:35.980) Aí tinha..

    (00:19:35.980 –> 00:19:36.140) Gol.

    (00:19:36.140 –> 00:19:38.360) Aí voltaram com a HBO agora.

    (00:19:38.360 –> 00:19:40.940) Eu tenho a assinatura deles lá.

    (00:19:40.940 –> 00:19:41.360) Meu Deus.

    (00:19:41.360 –> 00:19:44.700) Eu nem sei mais o que eu tô assinando lá, porque eu não sei mais o nome desse.

    (00:19:44.700 –> 00:19:51.960) E aí a questão que, enfim, nesses últimos meses aí virou, uma notícia muito forte

    (00:19:51.960 –> 00:19:57.740) Foi que o pessoal pedia lá pro Grock no X pra que ele tirasse, deixasse mulheres nuas

    (00:19:57.740 –> 00:20:02.920) Ou tirasse a roupa de mulheres, inclusive de crianças.

    (00:20:03.660 –> 00:20:10.520) E naquela perspectiva, de que a ferramenta é neutra, a ferramenta só faz aquilo que

    (00:20:10.520 –> 00:20:16.440) O usuário pede pra ela fazer, a culpa não é nossa e tal, mas ao mesmo tempo a ferramenta

    (00:20:16.440 –> 00:20:22.400) Era programada sem guardrails ali pra despir pessoas.

    (00:20:22.400 –> 00:20:28.940) E se ela pode ser programada para despir pessoas, me parece que também é fácil colocar guardrails

    (00:20:28.940 –> 00:20:35.400) Aí pra impedir que ela dispa, dispa, despir, despir pessoas.

    (00:20:35.400 –> 00:20:37.920) Acho que eu nunca tinha usado o verbo despir dessa forma.

    (00:20:37.920 –> 00:20:39.840) Então, é..

    (00:20:39.840 –> 00:20:41.080) E aí o que que aconteceu?

    (00:20:41.080 –> 00:20:43.860) Não sei se você quer fazer uma observação agora ou depois aqui, só pra..

    (00:20:43.860 –> 00:20:45.080) Não, pode sim, pode sim, pode sim.

    (00:20:45.080 –> 00:20:46.580) Aí o que que aconteceu?

    (00:20:46.580 –> 00:20:52.860) Foi toda uma pressão em cima do X, Elon Musk chega e diz, não, olha, nós vamos,

    (00:20:52.860 –> 00:21:00.340) Então vamos ampliar os controles aqui, só vai poder despir pessoas quem tiver a conta

    (00:21:00.340 –> 00:21:01.920) Paga do X.

    (00:21:01.920 –> 00:21:09.820) E obviamente que daí a emenda saiu pior que o soneto e no Brasil também já vimos movimentações,

    (00:21:10.160 –> 00:21:17.560) De três entidades aqui, a NPD, Ministério Público Federal e Senacom, em primeiro lugar fizeram

    (00:21:17.560 –> 00:21:25.420) Uma recomendação lá em janeiro e agora mais recentemente, depois da resposta do X, esses

    (00:21:25.420 –> 00:21:32.400) Três órgãos entenderam que as medidas foram insuficientes e cada um deles, na medida das

    (00:21:32.400 –> 00:21:36.620) Suas competências, iniciou um processo pra determinar.

    (00:21:36.620 –> 00:21:42.500) Aí sim, antes tinham sugerido medidas, o X informou as medidas que foram tomadas, eles

    (00:21:42.500 –> 00:21:47.500) Entenderam que não foram suficientes e a partir de agora começaram, cada um na medida das

    (00:21:47.500 –> 00:21:53.000) Suas competências, procedimentos administrativos, seja a NPD, uma medida preventiva, o Ministério

    (00:21:53.000 –> 00:21:58.960) Público também, um procedimento interno e a Senacom também numa medida cautelar administrativa

    (00:21:58.960 –> 00:22:01.700) Determinando que eles imediatamente parem.

    (00:22:01.700 –> 00:22:08.720) E implementem soluções técnicas e administrativas pra impedir a geração de imagens de pessoas

    (00:22:08.720 –> 00:22:10.000) Nuas.

    (00:22:10.620 –> 00:22:16.580) E pra variar.

    (00:22:10.620 –> 00:22:16.580) Pra variar as maiores vítimas disso foram mulheres, tá?

    (00:22:16.580 –> 00:22:19.800) E inclusive menores de idade, tá?

    (00:22:19.800 –> 00:22:20.800) E adolescentes.

    (00:22:20.800 –> 00:22:25.920) Isso foi o que causou, claro que, mesmo que não tivesse menores de idade envolvidas,

    (00:22:25.920 –> 00:22:32.620) Isso já gerou bastante polêmica, mas com menores de idade é a coisa..

    (00:22:33.300 –> 00:22:37.840) E aí uma coisa, Guilherme, só uma observação, a gente já fala há muitos anos aqui no Segurança

    (00:22:37.840 –> 00:22:42.880) Legal, há muito tempo, essa questão da super exposição das crianças na internet e muitas

    (00:22:42.880 –> 00:22:43.960) Vezes pelos próprios pais.

    (00:22:43.960 –> 00:22:48.920) Quando a gente falava assim, ó, não expõe, não fica botando foto, não sei o quê, tu não

    (00:22:48.920 –> 00:22:50.900) Sabe o que vai poder ser feito com isso amanhã.

    (00:22:52.040 –> 00:22:56.620) E eu lembro de estar falando e falando sobre isso em 2015, em escolas, fazer umas palestras

    (00:22:56.620 –> 00:22:59.020) Assim, falando pro pessoal exatamente nesses termos.

    (00:22:59.020 –> 00:23:07.800) E agora aqui estamos nós em 2026 com o X antigo Twitter, uma ferramenta de ar embutida

    (00:23:07.800 –> 00:23:13.940) Que, cara, tira a roupa de adolescente, menor de idade e tudo mais.

    (00:23:14.480 –> 00:23:19.600) E aí, e mesmo que você seja cuidadoso com a imagem dos filhos e tal, que é realmente

    (00:23:19.600 –> 00:23:20.500) A recomendação..

    (00:23:20.500 –> 00:23:22.560) As escolas tinham foto, publicam, é um..

    (00:23:22.560 –> 00:23:28.740) Exato, não, e ainda você tem pessoas públicas, que eventualmente, eventualmente não,

    (00:23:28.740 –> 00:23:34.940) Mas pessoas públicas que têm a sua imagem publicada em função da sua, da sua atividade,

    (00:23:34.940 –> 00:23:40.600) Sei lá, uma política, pessoas do ramo político, enfim, artistas e tudo mais, e ainda

    (00:23:40.600 –> 00:23:46.220) Assim não há, me parece, aliás, eu tenho certeza que não há um direito de pessoas

    (00:23:46.220 –> 00:23:53.460) Usarem IA pra macular a imagem de mulheres, inclusive teve notícias, pegaram lá uma

    (00:23:53.460 –> 00:23:58.420) Primeira ministra, não lembro exatamente de qual país, e aí começaram a fazer isso

    (00:23:58.420 –> 00:24:02.200) Com a imagem dela pra desqualificá-la, enfim.

    (00:24:02.200 –> 00:24:10.580) E aí acaba entrando, Vinícius, um pouco naquilo, eu vou puxar lá pro grupo 6,

    (00:24:10.580 –> 00:24:16.200) Mas tem um pouco a ver, o Vinícius me mandou esses dias uma notícia de um..

    (00:24:16.200 –> 00:24:21.120) Seria um aborígine, da Nova Zelândia, que fazia vídeos..

    (00:24:21.120 –> 00:24:21.760) O Steve Irving.

    (00:24:21.760 –> 00:24:23.340) Conta aí a história, conta aí a história.

    (00:24:23.340 –> 00:24:23.680) O Steve Irving.

    (00:24:23.680 –> 00:24:24.440) .

    (00:24:24.440 –> 00:24:26.260) É inacreditável.

    (00:24:26.260 –> 00:24:29.200) O Steve Irving, o Steve Irving é um..

    (00:24:29.200 –> 00:24:37.740) Um aborígine, australiano, que faz vídeos..

    (00:24:37.740 –> 00:24:38.240) Neo-zelandês.

    (00:24:38.240 –> 00:24:38.740) Neo-zelandês.

    (00:24:38.740 –> 00:24:39.380) Neo-zelandês.

    (00:24:39.380 –> 00:24:42.400) É Nova Zelândia, não misturar Nova Zelândia com a Austrália.

    (00:24:42.400 –> 00:24:43.140) Nada.

    (00:24:43.140 –> 00:24:49.400) Neo-zelandês, que faz vídeos, aqueles vídeos assim, meio de aventura, assim, de ver os bichos

    (00:24:49.400 –> 00:24:50.780) De perto e meio..

    (00:24:50.780 –> 00:24:55.620) Encontra uma cobra e mexe na cobra e um escorpião e por aí vai.

    (00:24:55.700 –> 00:24:56.700) Esses vídeos assim, sabe?

    (00:24:56.700 –> 00:24:57.140) E mostrando..

    (00:24:57.140 –> 00:25:00.160) Mas mostrando os animais lá da Nova Zelândia.

    (00:25:00.160 –> 00:25:01.120) Sim, exatamente.

    (00:25:01.120 –> 00:25:02.460) Fazendo um negócio..

    (00:25:02.460 –> 00:25:04.060) Cara, um negócio muito bem feito.

    (00:25:04.060 –> 00:25:05.340) Um negócio muito bem feito.

    (00:25:05.340 –> 00:25:06.800) Tipo um National Geographic, assim.

    (00:25:06.800 –> 00:25:09.320) Tinha um outro cara, aquele cara que morreu..

    (00:25:09.320 –> 00:25:13.500) Bem conhecido, ele morreu com ferrão de uma arraia.

    (00:25:13.500 –> 00:25:14.200) Uma arraia.

    (00:25:14.200 –> 00:25:15.560) No peito.

    (00:25:15.560 –> 00:25:18.040) Eu não lembro o nome dele, mas tudo bem.

    (00:25:18.040 –> 00:25:21.040) ..

    (00:25:21.040 –> 00:25:24.880) E esse personagem é uma vibe muito parecida, tá?

    (00:25:25.700 –> 00:25:30.620) Cara, um negócio com, assim, muita gente seguindo.

    (00:25:30.620 –> 00:25:37.660) Houve 90 mil pessoas no Instagram e aí começou a chamar muita atenção, muita atenção.

    (00:25:37.660 –> 00:25:42.600) E aí o cara que criou o personagem veio ao público e dizia, ó, esse cara não existe.

    (00:25:43.400 –> 00:25:47.980) O Steve Irving era o cara que morreu com ferrão de arraia.

    (00:25:49.420 –> 00:25:50.400) Sim, verdade.

    (00:25:50.400 –> 00:25:51.480) Na notícia, sim.

    (00:25:51.480 –> 00:25:53.080) Eu misturei aqui que ele chamou..

    (00:25:53.080 –> 00:25:54.620) É o Aboriginal Steve Irving.

    (00:25:54.620 –> 00:25:56.860) É o Steve Irving aborigine.

    (00:25:56.860 –> 00:25:57.340) Exatamente.

    (00:25:57.340 –> 00:25:59.780) O Steve Irving é o cara real que morreu.

    (00:25:59.780 –> 00:26:00.720) Isso, isso.

    (00:26:00.720 –> 00:26:01.220) Isso.

    (00:26:01.220 –> 00:26:03.380) E o nome do cara que..

    (00:26:03.380 –> 00:26:06.220) Essa persona digital criada.

    (00:26:07.620 –> 00:26:09.340) Quem criou foi o..

    (00:26:09.340 –> 00:26:10.400) Quem criou foi o..

    (00:26:10.400 –> 00:26:13.720) O Keegan, John Manson, o cara que fez a..

    (00:26:13.720 –> 00:26:15.140) Que criou o personagem.

    (00:26:15.140 –> 00:26:17.260) Cara, eu não tenho o nome do personagem aqui.

    (00:26:17.260 –> 00:26:20.040) Seria o Bush Legend.

    (00:26:20.040 –> 00:26:20.480) Mas..

    (00:26:20.480 –> 00:26:21.320) Bush Legend.

    (00:26:21.320 –> 00:26:22.260) Esse é o canal.

    (00:26:22.260 –> 00:26:23.760) Esse é o canal, Bush Legend.

    (00:26:23.760 –> 00:26:24.520) O Bush Legend.

    (00:26:24.520 –> 00:26:25.260) A conta aqui, ó.

    (00:26:25.260 –> 00:26:26.260) Tá separado aqui.

    (00:26:26.260 –> 00:26:27.280) Bush Legend, a conta.

    (00:26:27.780 –> 00:26:30.500) Mas o interessante é que não é a conta em si, tá?

    (00:26:30.500 –> 00:26:33.260) Quem quiser olhar o Bush Legend lá, deve estar no ar ainda esse negócio.

    (00:26:33.260 –> 00:26:35.240) O interessante não é a conta em si.

    (00:26:35.240 –> 00:26:41.400) O interessante é que é uma coisa que tu assiste e, cara, tu não se dá a conta que

    (00:26:41.400 –> 00:26:42.360) Não é real.

    (00:26:42.360 –> 00:26:47.360) Talvez ali num vídeo ou outro tu possa até perceber, tá?

    (00:26:47.360 –> 00:26:50.880) Mas a maioria das pessoas não vai perceber.

    (00:26:50.880 –> 00:26:51.920) Não vai se dar conta, não vai se dar conta.

    (00:26:51.920 –> 00:26:53.560) Então, assim..

    (00:26:53.560 –> 00:27:01.540) E recentemente teve um vídeo também, eu vi essa semana, ou semana passada, um vídeo

    (00:27:01.540 –> 00:27:06.360) Em que tava o Brad Pitt lutando com o Tom Cruise, tá?

    (00:27:06.360 –> 00:27:10.320) E eles discutindo os Epstein Files na luta.

    (00:27:10.320 –> 00:27:20.040) Eu mostrei pra minha esposa o vídeo e disse assim, olha só o trailer de um filme que eles

    (00:27:20.040 –> 00:27:20.940) Estão lançando e tal.

    (00:27:21.420 –> 00:27:24.060) Aí a gente começou a ver o vídeo, eu já tinha visto, ela começou a ver o vídeo,

    (00:27:24.060 –> 00:27:29.440) Assim, tá, mas aí eles falando e tal, e eles se batendo e não paravam de se bater

    (00:27:29.440 –> 00:27:31.840) E conversar, assim, mas que cena mais.

    (00:27:31.840 –> 00:27:33.080) Sem propósito.

    (00:27:33.480 –> 00:27:34.820) Uma coisa meio..

    (00:27:34.820 –> 00:27:37.000) Mas ao mesmo tempo ela achou que fosse verdade.

    (00:27:37.000 –> 00:27:38.060) Aham.

    (00:27:38.060 –> 00:27:43.120) Ela achou que fosse verdade, porque os personagens, ali o Tom Cruise e o Brad Pitt, tá certinho

    (00:27:43.120 –> 00:27:43.500) Ali, cara.

    (00:27:43.500 –> 00:27:44.900) Claro que fica..

    (00:27:44.900 –> 00:27:48.780) Depois eles começam a zoar, começam a mudar demais, assim, começam a botar uns personagens

    (00:27:48.780 –> 00:27:49.800) Meio estranhos no negócio.

    (00:27:50.560 –> 00:27:51.240) Mas é..

    (00:27:51.240 –> 00:27:51.800) E há, cara.

    (00:27:51.800 –> 00:27:53.660) E aí isso gera tanto..

    (00:27:53.660 –> 00:27:54.580) Não só uma preocupação.

    (00:27:54.580 –> 00:27:56.300) Agora nós estamos vando pra ano de eleição.

    (00:27:56.300 –> 00:27:57.360) Vamos ver o que vai acontecer.

    (00:27:57.360 –> 00:28:07.520) Mas não só gera essa possível confusão com quem assiste, pra quem assiste, mas também

    (00:28:07.520 –> 00:28:13.300) Tá gerando uma boa discussão lá nos Estados Unidos com relação, lá nos sindicatos dos

    (00:28:13.300 –> 00:28:16.380) Artistas e tudo mais.

    (00:28:16.380 –> 00:28:23.620) Porque, cara, se tu não quiser usar a imagem de alguém, que obviamente tu vai ter que pagar

    (00:28:23.620 –> 00:28:28.240) Pra usar a imagem do Tom Cruise, ninguém discute que mesmo que seja autorizado pelo Tom Cruise

    (00:28:28.240 –> 00:28:33.160) Tu vai ter que pagar o Tom Cruise pelo uso da imagem dele, mas que tu possa começar a criar

    (00:28:33.160 –> 00:28:37.600) Personagens completamente fictícios, ou pessoas.

    (00:28:37.600 –> 00:28:44.560) Atores fictícios, pra..

    (00:28:37.600 –> 00:28:44.560) Pra atuarem num filme, atuarem numa série.

    (00:28:45.560 –> 00:28:48.320) E aí tu não precisar mais.

    (00:28:48.320 –> 00:28:53.580) Talvez tu possa substituir até o roteirista na brincadeira, mas tu não precisar mais

    (00:28:53.580 –> 00:28:55.500) De atores humanos pra atuar.

    (00:28:55.500 –> 00:28:57.120) Então..

    (00:28:57.120 –> 00:29:01.940) Tem uma discussão bem interessante em cima disso, sabe?

    (00:29:01.940 –> 00:29:07.680) A questão do emprego dos artistas e da questão do conteúdo que tu entrega.

    (00:29:07.680 –> 00:29:09.200) Pras pessoas.

    (00:29:09.200 –> 00:29:11.120) Tu vai assistir um filme..

    (00:29:11.120 –> 00:29:14.480) Assim, tu topa assistir um filme muito bom feito por Iá?

    (00:29:14.480 –> 00:29:16.560) Cara..

    (00:29:16.560 –> 00:29:21.280) Eu acho que tem um elemento ético, inclusive se fala isso lá numa das notícias.

    (00:29:21.800 –> 00:29:27.300) Que é um preceito de trans..

    (00:29:21.800 –> 00:29:27.300) Um preceito ético de transparência no uso de Iá.

    (00:29:27.300 –> 00:29:32.160) Então, quando a gente fala em princípios de governança de Iá, a transparência, ela

    (00:29:32.160 –> 00:29:36.060) Se desdobra em várias..

    (00:29:32.160 –> 00:29:36.060) Várias situações.

    (00:29:36.060 –> 00:29:40.680) E uma das situações que a transparência se desdobra, enquanto princípio que deve reger

    (00:29:40.680 –> 00:29:45.320) O uso da Iá, isso eu tô falando porque é princípio já adotado na União Europeia

    (00:29:45.320 –> 00:29:46.940) E tudo mais, é..

    (00:29:46.940 –> 00:29:51.140) .

    (00:29:46.940 –> 00:29:51.140) Você tem que saber que aquele conteúdo é gerado por Iá.

    (00:29:51.140 –> 00:29:52.800) E a grande..

    (00:29:52.800 –> 00:29:54.320) E por que que isso virou notícia?

    (00:29:54.320 –> 00:29:55.540) Na verdade, são duas coisas.

    (00:29:55.540 –> 00:30:00.500) Isso virou notícia porque não se deram..

    (00:29:55.540 –> 00:30:00.500) Ninguém se deu conta.

    (00:30:00.500 –> 00:30:05.540) Porque se diz, você mostra pra pessoa, se você olhar num vídeo e prestar atenção,

    (00:30:05.540 –> 00:30:06.760) Você vai descobrir que é.

    (00:30:06.760 –> 00:30:10.420) A questão é que hoje, até a gente comentava isso antes.

    (00:30:10.420 –> 00:30:17.520) Nós, eu e você e quem nos escuta, nós já estamos consumindo conteúdos gerados por

    (00:30:17.520 –> 00:30:18.440) Iá sem se dar conta.

    (00:30:18.440 –> 00:30:18.840) Por quê?

    (00:30:18.840 –> 00:30:23.400) Porque a lógica de consumir conteúdo em rede social não é você ficar prestando atenção

    (00:30:23.400 –> 00:30:28.980) Nos detalhes, a lógica é que você vai passando rapidamente sobre certos conteúdos.

    (00:30:28.980 –> 00:30:32.780) E você fica vendo muitos, aquela história do feed infinito que a gente já falou.

    (00:30:32.780 –> 00:30:38.080) Que é uma das maldições das redes sociais e o que aprisiona as pessoas lá dentro é

    (00:30:38.080 –> 00:30:38.860) O feed infinito.

    (00:30:38.860 –> 00:30:39.900) E vamos lá.

    (00:30:39.900 –> 00:30:42.620) O teu espírito crítico ali fica bem rebaixado.

    (00:30:42.840 –> 00:30:45.960) Claro que quando a gente olha o vídeo depois sabendo o que bom, tudo bem.

    (00:30:45.960 –> 00:30:51.860) Ontem mesmo eu tava na academia e fica uma TV ligada lá e tava passando uma propaganda

    (00:30:51.860 –> 00:30:53.300) Do Liquida Porto Alegre.

    (00:30:53.300 –> 00:30:57.000) É tipo uma liquidação de verão que eles fazem aqui na cidade.

    (00:30:57.800 –> 00:31:05.020) E, cara, cinco segundos da coisa já deu pra ver que era tudo gerado por Iá, cara.

    (00:31:05.020 –> 00:31:09.860) Toda uma propaganda gerada por Iá, até porque no final tinha uma senhora bem idosa correndo

    (00:31:09.860 –> 00:31:15.540) Junto com um monte de pessoas que ela não teria como uma senhora.

    (00:31:15.540 –> 00:31:19.400) Enfim, até teria, mas chamou a atenção o fato de ser uma senhora bem idosa correndo

    (00:31:19.400 –> 00:31:21.000) Loucamente na cidade, assim, sabe?

    (00:31:21.640 –> 00:31:25.980) Não que não seja possível, não que não seja possível.

    (00:31:25.980 –> 00:31:29.660) Não, não que não seja possível, mas, assim, aquilo já disparou, não, como assim.

    (00:31:29.660 –> 00:31:35.940) Então, você tem um elemento ético muito, isso tá acontecendo, a propaganda, eu acredito,

    (00:31:35.940 –> 00:31:39.720) Que o CONAR, enfim, a regulamentação da propaganda tem que deixar isso claro.

    (00:31:39.720 –> 00:31:45.220) Olha, você está assistindo uma reportagem, uma propaganda feita por Iá, assim como você

    (00:31:45.220 –> 00:31:49.340) Quando você tá consumindo um produto no supermercado, diz se aquilo ali tem transgênico

    (00:31:49.340 –> 00:31:51.900) Ou não, ou o que consta.

    (00:31:51.900 –> 00:31:52.140) Excesso de sal.

    (00:31:52.140 –> 00:31:53.980) Excesso de sal, por que não?

    (00:31:53.980 –> 00:31:58.020) Porque a gente sabe que isso é bem brain rotizável.

    (00:31:58.020 –> 00:31:58.900) Aham.

    (00:31:58.900 –> 00:32:01.200) Brain rotizável, você não inventei agora, Vinícius.

    (00:32:01.200 –> 00:32:02.880) É um bom verbo.

    (00:32:02.880 –> 00:32:04.220) Brain rotizável.

    (00:32:04.220 –> 00:32:13.740) Vinícius, Brasil, você já deve ter ouvido falar disso, mas Brasil e União Europeia,

    (00:32:13.740 –> 00:32:17.320) Consolidaram lá o seu acordo de adequação mútua.

    (00:32:17.320 –> 00:32:23.180) Então, basicamente, agora, no final de janeiro, foi anunciado esse reconhecimento recíproco

    (00:32:23.180 –> 00:32:25.560) De adequação dos regimes de proteção de dados.

    (00:32:25.560 –> 00:32:31.800) E tem-se pintado isso como um marco histórico, porque, além desse franco reconhecimento,

    (00:32:31.800 –> 00:32:35.060) A ideia é que se abra, principalmente para o Brasil.

    (00:32:35.440 –> 00:32:42.000) Mas a ideia é que o Brasil poderia se beneficiar com base nesse acordo de adequação,

    (00:32:42.000 –> 00:32:47.660) Prestando serviços, para toda a União Europeia.

    (00:32:47.660 –> 00:32:53.020) Então, isso poderia ampliar o uso de data centers para IA e também o uso de próprio serviço,

    (00:32:53.020 –> 00:32:56.040) Porque uma vez que você tem esse reconhecimento, você não precisa,

    (00:32:57.180 –> 00:33:00.580) Digamos assim, quando você for fazer a transferência internacional de dados,

    (00:33:00.580 –> 00:33:03.140) Que é uma das situações lá em que você faz de um lado para o outro,

    (00:33:03.140 –> 00:33:05.800) Esse reconhecimento implica na possibilidade automática,

    (00:33:05.800 –> 00:33:08.880) Sem, por exemplo, você pedir, precisar pedir consentimento,

    (00:33:08.880 –> 00:33:12.820) Ou fazer avisos adicionais, ou reconhecimentos das autoridades.

    (00:33:12.820 –> 00:33:18.980) Então, abre-se, de fato, um espaço comercial também,

    (00:33:19.040 –> 00:33:22.300) Não seja de fluxos, de fluxo seguro de dados, enfim.

    (00:33:22.300 –> 00:33:24.600) Qual a questão?

    (00:33:24.600 –> 00:33:31.800) A questão é que, quando a gente faz uma comparação em como a União Europeia tem aplicado sanções

    (00:33:31.800 –> 00:33:35.620) E como o Brasil tem aplicado sanções, mesmo diante desse reconhecimento,

    (00:33:35.620 –> 00:33:39.620) Nós notamos que há uma distância, porque no Brasil ainda há,

    (00:33:39.620 –> 00:33:43.980) E aqui eu falo como titular de dados pessoais,

    (00:33:44.360 –> 00:33:49.580) Ainda há um certo, é um certo, como é que eu vou dizer,

    (00:33:49.580 –> 00:33:54.640) Atraso, talvez, na aplicação de sanções em situações muito complexas.

    (00:33:54.640 –> 00:33:57.340) Apenas para vocês terem uma ideia de alguns números,

    (00:33:57.340 –> 00:34:00.120) Na França, por exemplo, agora é janeiro, fevereiro,

    (00:34:00.120 –> 00:34:06.280) Você teve a France Travel, foi multada em 5 milhões de euros,

    (00:34:06.280 –> 00:34:09.920) A Free Mobile, 42 milhões de euros,

    (00:34:10.920 –> 00:34:14.820) É dividido aqui em Free Mobile e Free, não sei o que é.

    (00:34:14.820 –> 00:34:19.140) Então, você teve aí todas essas situações somente,

    (00:34:19.140 –> 00:34:22.120) Ou seja, multas milionárias na França,

    (00:34:22.120 –> 00:34:27.400) Somente por situações de vazamentos que se confirmou que ocorreram

    (00:34:27.400 –> 00:34:30.300) Por causa de insuficiência de medidas de segurança

    (00:34:30.300 –> 00:34:32.560) Adotadas por essas organizações.

    (00:34:32.560 –> 00:34:34.060) Isso na França.

    (00:34:34.060 –> 00:34:36.940) Na Espanha, que é uma autoridade pequena,

    (00:34:36.940 –> 00:34:40.180) Tem, se não me engano, menos funcionários do que,

    (00:34:40.180 –> 00:34:43.540) Até fiz esses dias um apanhado de número de funcionários e tal,

    (00:34:43.540 –> 00:34:45.960) Mas acho que tem menos funcionários do que a nossa NPD,

    (00:34:45.960 –> 00:34:53.040) Eles terminaram 2025 com 394 procedimentos sancionadores

    (00:34:53.040 –> 00:34:57.040) E com multas que somadas deram 40 milhões de euros.

    (00:34:57.040 –> 00:35:00.040) Então, acho que para consolidar, de fato,

    (00:35:00.040 –> 00:35:03.700) Urge que nós tenhamos um aprimoramento,

    (00:35:03.700 –> 00:35:05.480) E eu não falo nem somente em multas,

    (00:35:05.480 –> 00:35:08.720) Eu falo em sanções, impedir certos tratamentos,

    (00:35:08.720 –> 00:35:14.400) Caminhar justamente para a implementação de medidas de segurança,

    (00:35:14.400 –> 00:35:16.680) Resolver a questão das farmácias,

    (00:35:16.680 –> 00:35:20.380) Resolver a questão que a gente já falou aqui no nosso podcast

    (00:35:20.380 –> 00:35:26.980) Sobre a farra das biometrias faciais em academias,

    (00:35:26.980 –> 00:35:29.580) Em condomínios.

    (00:35:29.580 –> 00:35:32.780) Então, acho que a gente comemora, de fato,

    (00:35:32.780 –> 00:35:36.060) Mas há um caminho ainda a ser perseguido, me parece,

    (00:35:36.060 –> 00:35:40.100) Posso estar errado, enfim, mas me parece que há um caminho ainda a ser percorrido.

    (00:35:40.100 –> 00:35:42.580) Isso, obviamente, é uma via de duas mãos.

    (00:35:42.580 –> 00:35:45.340) Então, a gente tem uma equivalência.

    (00:35:45.340 –> 00:35:46.080) Isso.

    (00:35:46.080 –> 00:35:48.500) Então, uma coisa que muda, então, por exemplo,

    (00:35:48.500 –> 00:35:51.660) Se você quiser usar algum data center na Europa,

    (00:35:51.660 –> 00:35:53.620) Na União Europeia, para fazer mais ou menos de dados

    (00:35:53.620 –> 00:35:57.820) E cidadãos brasileiros, em princípio, ok.

    (00:35:57.820 –> 00:35:59.860) Isso.

    (00:35:59.860 –> 00:36:02.260) Quando você tem na União Europeia,

    (00:36:02.260 –> 00:36:04.040) Nos países que fazem parte da União Europeia,

    (00:36:04.040 –> 00:36:06.980) Não é na Europa, porque você tem países que..

    (00:36:06.980 –> 00:36:08.340) Sim, eu falei, União Europeia, não é Europeia.

    (00:36:08.340 –> 00:36:10.960) Tu tem Inglaterra que não faz mais parte da União Europeia.

    (00:36:10.960 –> 00:36:12.060) Inglaterra não é mais.

    (00:36:12.060 –> 00:36:14.520) Aí o pessoal lá da Inglaterra,

    (00:36:14.520 –> 00:36:15.720) Quando entra na União Europeia,

    (00:36:15.720 –> 00:36:18.300) Eles ficam na fila não dos residentes da União Europeia,

    (00:36:18.300 –> 00:36:20.040) Eles têm que enfrentar a fila de todo mundo,

    (00:36:20.040 –> 00:36:21.800) Mas Suíça também não é.

    (00:36:21.960 –> 00:36:22.660) É engraçado.

    (00:36:22.660 –> 00:36:24.420) A Suíça também não é.

    (00:36:24.420 –> 00:36:25.960) Embora a Suíça tenha,

    (00:36:25.960 –> 00:36:30.200) Seja conhecida justamente por hospedar sistemas,

    (00:36:30.200 –> 00:36:32.080) The Privacy Friendly, de segurança,

    (00:36:32.080 –> 00:36:34.180) Mais VPNs que ficam lá na Suíça,

    (00:36:34.180 –> 00:36:36.520) Se vendem, mas não faz parte da Suíça.

    (00:36:36.520 –> 00:36:38.740) A Suíça acho que faz parte do espaço Schengen,

    (00:36:38.740 –> 00:36:39.340) Se não me engano,

    (00:36:39.340 –> 00:36:42.320) Que permite que você entre,

    (00:36:42.320 –> 00:36:44.640) Sem a necessidade de passar por fronteiras,

    (00:36:44.640 –> 00:36:46.120) Tem o tráfego livre,

    (00:36:46.120 –> 00:36:47.180) Mas acho que não faz,

    (00:36:47.180 –> 00:36:49.740) Mas não faz da União Europeia.

    (00:36:51.160 –> 00:36:52.620) Bom, Vinícius,

    (00:36:52.620 –> 00:36:54.680) Seguindo aqui,

    (00:36:54.680 –> 00:36:59.520) Nós temos também toda a questão da vigilância,

    (00:36:59.520 –> 00:37:02.240) Lá no Grupo 5,

    (00:37:02.240 –> 00:37:04.420) De vigilância e privacidade,

    (00:37:04.420 –> 00:37:05.220) Que nós vimos,

    (00:37:05.220 –> 00:37:07.680) Que me chamou bastante atenção,

    (00:37:07.680 –> 00:37:09.320) Chamou bastante atenção,

    (00:37:09.320 –> 00:37:13.660) Que foi o FBI solicitando a Microsoft

    (00:37:13.660 –> 00:37:17.460) A entrega de chaves BitLocker.

    (00:37:17.460 –> 00:37:20.720) E a gente estava conversando sobre isso antes,

    (00:37:20.720 –> 00:37:23.100) Não é obrigatório,

    (00:37:23.100 –> 00:37:26.540) Que você salve a chave do BitLocker na Microsoft.

    (00:37:26.540 –> 00:37:26.940) Não.

    (00:37:26.940 –> 00:37:27.900) Você pode salvar.

    (00:37:27.900 –> 00:37:29.380) Pode não estar em outro lugar.

    (00:37:30.520 –> 00:37:33.140) O que chama atenção aqui é a possibilidade,

    (00:37:33.140 –> 00:37:33.740) E vejam,

    (00:37:33.740 –> 00:37:35.360) Assim,

    (00:37:35.360 –> 00:37:36.800) O FBI e a polícia,

    (00:37:36.800 –> 00:37:39.040) Eu tenho absoluta certeza

    (00:37:39.040 –> 00:37:44.300) Que todos esses órgãos de investigação,

    (00:37:44.300 –> 00:37:45.220) De persecução penal,

    (00:37:45.220 –> 00:37:46.440) Tem o direito de,

    (00:37:46.440 –> 00:37:47.820) Eventualmente,

    (00:37:47.820 –> 00:37:50.180) Por uma ordem judicial fundamentada,

    (00:37:50.180 –> 00:37:52.420) Pedir acesso a nuvens,

    (00:37:52.420 –> 00:37:54.300) Como é o que está acontecendo agora.

    (00:37:54.560 –> 00:37:56.020) Os grandes escândalos aí,

    (00:37:56.020 –> 00:37:56.820) Banco Master,

    (00:37:57.240 –> 00:37:57.620) Mas, assim,

    (00:37:57.620 –> 00:38:01.300) Grandes escândalos e de crimes e tal,

    (00:38:01.300 –> 00:38:04.420) O pessoal acaba acessando nuvem de gente

    (00:38:04.420 –> 00:38:06.180) Que deixa o WhatsApp fazendo,

    (00:38:06.180 –> 00:38:07.480) Não se fala muito,

    (00:38:07.480 –> 00:38:10.940) Mas que deixa o WhatsApp fazendo backup lá no Google,

    (00:38:10.940 –> 00:38:11.940) Acessa o Google,

    (00:38:11.940 –> 00:38:14.000) Recupera o backup e vê tudo que o cara fez,

    (00:38:14.000 –> 00:38:14.720) Quem conversou,

    (00:38:14.720 –> 00:38:16.020) E arquivos e tudo mais.

    (00:38:16.020 –> 00:38:18.580) Mas o que chama atenção

    (00:38:18.580 –> 00:38:22.160) Sobretudo como os Estados Unidos agora estão se posicionando,

    (00:38:22.160 –> 00:38:23.440) Nessa parte de vigilância,

    (00:38:23.440 –> 00:38:25.520) Já vem se posicionando ao longo dos últimos anos,

    (00:38:25.520 –> 00:38:27.260) De repente,

    (00:38:27.260 –> 00:38:30.500) O FBI pegar a tua chave do BitLocker

    (00:38:30.500 –> 00:38:32.240) E tão facilmente, assim,

    (00:38:32.240 –> 00:38:32.620) É isso?

    (00:38:32.620 –> 00:38:35.600) Quando tu cria,

    (00:38:35.600 –> 00:38:36.040) Assim,

    (00:38:36.040 –> 00:38:36.940) Esse recurso,

    (00:38:36.940 –> 00:38:40.220) Só quem tem são os usuários do Windows Pro,

    (00:38:40.220 –> 00:38:42.100) Pra cima, tá?

    (00:38:42.100 –> 00:38:42.820) Então, aquela,

    (00:38:42.820 –> 00:38:44.600) O Home Edition não vai ter, tá?

    (00:38:44.600 –> 00:38:46.840) E quando você,

    (00:38:46.840 –> 00:38:48.960) Isso é uma prática recomendada, tá?

    (00:38:48.960 –> 00:38:50.400) Principalmente em empresas.

    (00:38:51.340 –> 00:38:53.140) E principalmente em notebooks,

    (00:38:53.140 –> 00:38:54.800) Mas não somente em notebooks,

    (00:38:54.800 –> 00:38:55.760) Mas também em desktop,

    (00:38:55.760 –> 00:38:57.360) Porque desktop eventualmente estraga,

    (00:38:57.360 –> 00:38:58.160) Vai pra garantia,

    (00:38:58.160 –> 00:38:59.480) A gente já comentou sobre isso

    (00:38:59.480 –> 00:39:01.380) Aqui no Segurança Legal.

    (00:39:01.380 –> 00:39:02.240) E aí,

    (00:39:02.240 –> 00:39:03.660) Todos os teus dados vão lá abertos

    (00:39:03.660 –> 00:39:05.320) Pra quem quiser acessar.

    (00:39:05.320 –> 00:39:07.500) É só pegar o disco e ligar numa outra máquina e acessar.

    (00:39:07.500 –> 00:39:08.800) Então,

    (00:39:08.800 –> 00:39:10.500) O uso do BitLocker

    (00:39:10.500 –> 00:39:12.080) É um recurso bastante interessante,

    (00:39:12.080 –> 00:39:14.480) Porque ele vai cifrar todo o teu disco.

    (00:39:14.480 –> 00:39:15.480) Então,

    (00:39:15.480 –> 00:39:18.060) Se a tua máquina eventualmente for pra uma manutenção,

    (00:39:18.060 –> 00:39:19.280) Porque estragou alguma coisa,

    (00:39:19.800 –> 00:39:21.320) A equipe que tá mexendo nela

    (00:39:21.320 –> 00:39:23.040) Não vai conseguir acessar

    (00:39:23.040 –> 00:39:24.880) Os seus dados, tá?

    (00:39:24.880 –> 00:39:26.200) Bom,

    (00:39:26.200 –> 00:39:26.760) Dito isso,

    (00:39:26.760 –> 00:39:29.600) Quando tu faz a configuração do BitLocker,

    (00:39:29.600 –> 00:39:32.280) Ele gera uma chave de recuperação,

    (00:39:32.280 –> 00:39:33.380) Tá?

    (00:39:33.380 –> 00:39:35.460) E essa chave tem que ser armazenada

    (00:39:35.460 –> 00:39:36.400) Em algum lugar seguro.

    (00:39:36.400 –> 00:39:38.980) Uma opção é tu mesmo salvar essa chave

    (00:39:38.980 –> 00:39:39.860) E anotar em algum lugar.

    (00:39:39.860 –> 00:39:42.320) E a opção mais..

    (00:39:42.320 –> 00:39:44.340) Anotar embaixo do teclado ali.

    (00:39:44.900 –> 00:39:45.680) Botar embaixo do teclado,

    (00:39:45.680 –> 00:39:46.600) Embaixo do monitor também.

    (00:39:46.600 –> 00:39:48.540) A opção mais na mão

    (00:39:48.540 –> 00:39:50.640) É tu salvar na tua conta a Microsoft.

    (00:39:50.640 –> 00:39:54.560) E o que te facilita bastante a vida,

    (00:39:54.560 –> 00:39:56.260) Porque tu tem mais,

    (00:39:56.260 –> 00:39:57.420) Tu tem vários computadores.

    (00:39:57.420 –> 00:39:58.880) Então,

    (00:39:58.880 –> 00:39:59.960) Pra um usuário normal,

    (00:39:59.960 –> 00:40:00.280) Assim,

    (00:40:00.640 –> 00:40:01.360) Do dia a dia,

    (00:40:01.360 –> 00:40:01.660) Pô,

    (00:40:01.660 –> 00:40:02.860) Ficar anotando esse negócio depois,

    (00:40:02.860 –> 00:40:03.780) Não perder,

    (00:40:03.780 –> 00:40:05.860) Tem que ter um gerenciador de chaves,

    (00:40:05.860 –> 00:40:06.640) Alguma coisa assim.

    (00:40:06.640 –> 00:40:09.620) E no momento que tu salva na Microsoft,

    (00:40:09.620 –> 00:40:10.020) Bom,

    (00:40:10.020 –> 00:40:11.680) A Microsoft obviamente tem acesso

    (00:40:11.680 –> 00:40:13.080) A essa tua chave.

    (00:40:13.080 –> 00:40:14.200) Ela não fica lá armazenada

    (00:40:14.200 –> 00:40:15.880) De um jeito que eles não podem acessar,

    (00:40:15.880 –> 00:40:17.240) Que seria interessante.

    (00:40:17.240 –> 00:40:18.360) Pois é.

    (00:40:18.360 –> 00:40:19.560) Que se frasse com a tua senha

    (00:40:19.560 –> 00:40:20.500) Ou coisa parecida.

    (00:40:20.500 –> 00:40:22.280) Mas eles não se preocuparam com isso,

    (00:40:22.280 –> 00:40:23.220) Então a tua chave fica lá.

    (00:40:23.220 –> 00:40:24.980) E a partir daí,

    (00:40:24.980 –> 00:40:26.060) Se eles têm,

    (00:40:26.060 –> 00:40:27.640) Se o recurso funciona desse jeito

    (00:40:27.640 –> 00:40:29.040) E tá lá descrito

    (00:40:29.040 –> 00:40:29.940) Que funciona desse jeito

    (00:40:29.940 –> 00:40:31.100) E alguém pede pra,

    (00:40:31.900 –> 00:40:33.980) Vem uma demanda judicial,

    (00:40:33.980 –> 00:40:35.760) Não se trata de,

    (00:40:35.760 –> 00:40:37.640) Isso é uma coisa bem importante, tá?

    (00:40:37.640 –> 00:40:39.440) Não se trata de uma porta

    (00:40:39.440 –> 00:40:39.940) Dos fundos,

    (00:40:39.940 –> 00:40:41.040) Não se trata de um backdoor,

    (00:40:41.040 –> 00:40:42.120) Tá?

    (00:40:42.120 –> 00:40:42.720) É diferente,

    (00:40:42.720 –> 00:40:44.180) Então não dá pra,

    (00:40:44.180 –> 00:40:45.320) Mas isso é um backdoor,

    (00:40:45.320 –> 00:40:45.640) A gente,

    (00:40:45.640 –> 00:40:47.040) As CryptoWars,

    (00:40:47.040 –> 00:40:47.760) Aquela coisa toda.

    (00:40:47.760 –> 00:40:49.740) Backdoor seria se,

    (00:40:49.740 –> 00:40:50.020) Tá,

    (00:40:50.020 –> 00:40:50.600) Tu vai lá,

    (00:40:50.600 –> 00:40:51.720) Criptografa,

    (00:40:51.720 –> 00:40:52.700) Faz a tua chave,

    (00:40:52.700 –> 00:40:54.800) Tu não manda pra Microsoft,

    (00:40:54.800 –> 00:40:56.460) Tu salva,

    (00:40:56.460 –> 00:40:57.860) Tu escreve num papel

    (00:40:57.860 –> 00:40:58.680) E guarda,

    (00:40:58.680 –> 00:40:59.960) Só que

    (00:40:59.960 –> 00:41:01.640) A criptografia teria

    (00:41:01.640 –> 00:41:02.520) Um backdoor,

    (00:41:02.520 –> 00:41:02.740) Ou seja,

    (00:41:02.740 –> 00:41:04.060) Teria uma chave mestra

    (00:41:04.060 –> 00:41:05.920) Que a Microsoft teria acesso

    (00:41:05.920 –> 00:41:07.060) E poderia abrir,

    (00:41:07.060 –> 00:41:07.480) Entende?

    (00:41:07.480 –> 00:41:08.800) Ou entrega essa chave pro FBI,

    (00:41:09.260 –> 00:41:11.140) Poder abrir o BitLocker

    (00:41:11.140 –> 00:41:12.640) De qualquer pessoa

    (00:41:12.640 –> 00:41:13.340) Na face da Terra.

    (00:41:13.340 –> 00:41:14.600) Isso seria

    (00:41:14.600 –> 00:41:15.380) Um,

    (00:41:15.380 –> 00:41:16.020) Um,

    (00:41:16.020 –> 00:41:16.700) Um,

    (00:41:16.700 –> 00:41:17.620) Um backdoor,

    (00:41:17.620 –> 00:41:18.820) Seria um key scroll da vida.

    (00:41:18.820 –> 00:41:20.640) Mas não é isso que tá acontecendo,

    (00:41:20.640 –> 00:41:21.440) O que tá acontecendo é que

    (00:41:21.440 –> 00:41:23.080) Se você salvar a sua chave

    (00:41:23.080 –> 00:41:24.100) Lá na Microsoft,

    (00:41:24.100 –> 00:41:25.080) Pelo menos isso que a gente sabe

    (00:41:25.080 –> 00:41:25.640) Até agora,

    (00:41:25.640 –> 00:41:27.380) Vai que surge um escândalo

    (00:41:27.380 –> 00:41:28.580) Que a Microsoft tá salvando

    (00:41:28.580 –> 00:41:29.540) Independente de tu pedindo.

    (00:41:30.260 –> 00:41:31.540) Mas é que se tu quiser,

    (00:41:31.540 –> 00:41:33.180) Tu salva a tua chave lá,

    (00:41:33.180 –> 00:41:34.820) A partir daí,

    (00:41:34.820 –> 00:41:35.960) Microsoft tem acesso,

    (00:41:35.960 –> 00:41:37.220) Vai vir um FBI,

    (00:41:38.400 –> 00:41:40.120) E solicita,

    (00:41:40.960 –> 00:41:41.700) Via judicial,

    (00:41:41.700 –> 00:41:42.220) Espero,

    (00:41:42.220 –> 00:41:44.220) Solicita o acesso

    (00:41:44.220 –> 00:41:45.200) A essa chave.

    (00:41:45.720 –> 00:41:47.520) Do teu BitLocker.

    (00:41:47.520 –> 00:41:47.760) Então,

    (00:41:47.760 –> 00:41:49.140) Em essência,

    (00:41:49.140 –> 00:41:50.320) Isso não é um backdoor,

    (00:41:50.840 –> 00:41:52.160) Não é um key scroll,

    (00:41:52.160 –> 00:41:52.800) Uma coisa assim.

    (00:41:53.460 –> 00:41:55.480) A sacanagem aqui

    (00:41:55.480 –> 00:41:56.820) É que a Microsoft

    (00:41:56.820 –> 00:41:57.600) Tem acesso

    (00:41:57.600 –> 00:41:58.600) À tua chave

    (00:41:58.600 –> 00:41:59.520) E se ela

    (00:41:59.520 –> 00:42:00.720) Consegue

    (00:42:00.720 –> 00:42:02.900) Passar a chave

    (00:42:02.900 –> 00:42:03.600) Pro FBI,

    (00:42:03.600 –> 00:42:04.440) Ela,

    (00:42:04.440 –> 00:42:05.820) Se mal intencionada

    (00:42:05.820 –> 00:42:06.220) Estiver,

    (00:42:06.220 –> 00:42:07.880) Ainda poderia usar

    (00:42:07.880 –> 00:42:09.000) A chave para ela

    (00:42:09.000 –> 00:42:09.960) Descriptografar.

    (00:42:09.960 –> 00:42:11.120) O ideal

    (00:42:11.120 –> 00:42:11.920) É que ela

    (00:42:11.920 –> 00:42:13.860) É que tivesse um recurso,

    (00:42:13.860 –> 00:42:15.420) Que ela implementasse

    (00:42:15.420 –> 00:42:15.800) Um recurso

    (00:42:15.800 –> 00:42:16.640) Que não permitisse

    (00:42:16.640 –> 00:42:17.760) Que ela visse a chave.

    (00:42:17.760 –> 00:42:18.340) Sim,

    (00:42:18.340 –> 00:42:18.780) Exato.

    (00:42:18.780 –> 00:42:20.140) Como se faz com senha,

    (00:42:20.360 –> 00:42:21.600) Com mais a maturidade.

    (00:42:21.680 –> 00:42:22.840) Teria que ter uma chave,

    (00:42:22.840 –> 00:42:24.540) É claro que é um pouco complexo,

    (00:42:24.540 –> 00:42:25.520) Teria que ter uma chave adicional

    (00:42:25.520 –> 00:42:26.200) Para proteger,

    (00:42:26.200 –> 00:42:26.820) Para cifrar

    (00:42:26.820 –> 00:42:28.140) Essas chaves,

    (00:42:28.140 –> 00:42:29.620) Isso teria que ser decifrado

    (00:42:29.620 –> 00:42:30.680) Na máquina do usuário

    (00:42:30.680 –> 00:42:31.320) Quando ele acessa,

    (00:42:31.320 –> 00:42:32.280) Não pode ser decifrado

    (00:42:32.280 –> 00:42:32.700) No servidor.

    (00:42:32.700 –> 00:42:33.360) Então,

    (00:42:33.360 –> 00:42:34.520) Se for considerar

    (00:42:34.520 –> 00:42:35.220) Todas as questões

    (00:42:35.220 –> 00:42:36.760) De segurança mesmo aí,

    (00:42:36.760 –> 00:42:38.240) Iria complicar um pouco

    (00:42:38.240 –> 00:42:38.860) A vida do usuário,

    (00:42:38.860 –> 00:42:39.120) Sim,

    (00:42:39.220 –> 00:42:39.760) Para fornecer

    (00:42:39.760 –> 00:42:40.600) Esse nível de segurança

    (00:42:40.600 –> 00:42:41.300) Que a gente está falando.

    (00:42:41.300 –> 00:42:42.420) Então..

    (00:42:42.420 –> 00:42:42.960) E na verdade,

    (00:42:42.960 –> 00:42:44.300) O que eu me corrijo,

    (00:42:44.300 –> 00:42:44.820) Que na verdade,

    (00:42:44.820 –> 00:42:45.900) Ela não vai conseguir

    (00:42:45.900 –> 00:42:47.040) Descriptografar

    (00:42:47.040 –> 00:42:47.880) As suas informações

    (00:42:47.880 –> 00:42:49.640) Porque é o teu computador físico

    (00:42:49.640 –> 00:42:50.500) Que está criptografado,

    (00:42:50.500 –> 00:42:51.400) Então ela vai ter acesso

    (00:42:51.400 –> 00:42:51.920) À chave

    (00:42:51.920 –> 00:42:53.660) E aí realmente

    (00:42:53.660 –> 00:42:55.040) Só uma força policial

    (00:42:55.040 –> 00:42:56.020) Que tiver acesso

    (00:42:56.020 –> 00:42:56.960) Ao computador físico

    (00:42:56.960 –> 00:42:57.560) É que precisaria

    (00:42:57.560 –> 00:42:57.920) Dar a chave

    (00:42:57.920 –> 00:42:59.460) Para descriptografá-lo.

    (00:42:59.460 –> 00:43:00.060) Não ela.

    (00:43:00.060 –> 00:43:01.140) E ela,

    (00:43:01.140 –> 00:43:01.560) Se quiser,

    (00:43:01.560 –> 00:43:02.220) Depois.

    (00:43:02.220 –> 00:43:03.760) Depois que tu bota a máquina.

    (00:43:05.180 –> 00:43:06.040) Ela não precisa,

    (00:43:06.040 –> 00:43:07.960) Ela não precisa da chave.

    (00:43:08.480 –> 00:43:10.860) Mas o que a Forbes,

    (00:43:11.140 –> 00:43:12.620) Que é o que está na notícia

    (00:43:12.620 –> 00:43:13.460) Que colocou,

    (00:43:13.740 –> 00:43:16.500) Que Apple e Meta,

    (00:43:16.500 –> 00:43:17.460) Dizem eles,

    (00:43:17.460 –> 00:43:20.100) Que configuram os seus sistemas

    (00:43:20.100 –> 00:43:20.940) De forma que eles

    (00:43:20.940 –> 00:43:22.080) Não tenham acesso à chave.

    (00:43:22.080 –> 00:43:22.620) Então, portanto,

    (00:43:22.620 –> 00:43:23.540) Seriam mais seguros.

    (00:43:24.100 –> 00:43:24.640) Mas, Vinícius,

    (00:43:24.640 –> 00:43:24.960) Então,

    (00:43:24.960 –> 00:43:26.440) Uma outra notícia

    (00:43:26.440 –> 00:43:28.340) Que eu me lembrei,

    (00:43:28.340 –> 00:43:29.780) Não estava na nossa pauta,

    (00:43:29.780 –> 00:43:30.680) Mas eu lembrei

    (00:43:30.680 –> 00:43:31.940) E pesquisei aqui,

    (00:43:31.940 –> 00:43:32.720) Foi uma ação

    (00:43:32.720 –> 00:43:33.500) Que foi apresentada

    (00:43:33.500 –> 00:43:34.360) Lá nos Estados Unidos,

    (00:43:34.360 –> 00:43:35.260) Nessa linha.

    (00:43:35.260 –> 00:43:37.020) Da questão das proteções

    (00:43:37.020 –> 00:43:38.200) Criptográficas

    (00:43:38.200 –> 00:43:40.780) Que são vendidas.

    (00:43:40.780 –> 00:43:42.580) De que uma ação judicial

    (00:43:42.580 –> 00:43:43.440) Contra a Meta,

    (00:43:43.440 –> 00:43:44.920) Inclusive com autores

    (00:43:44.920 –> 00:43:46.160) De vários países diferentes,

    (00:43:46.160 –> 00:43:47.300) Dizendo que

    (00:43:47.300 –> 00:43:49.480) Eles teriam acesso

    (00:43:49.480 –> 00:43:51.700) Às conversas do WhatsApp,

    (00:43:51.840 –> 00:43:53.320) Mesmo criptografadas.

    (00:43:53.320 –> 00:43:54.740) Eu não li,

    (00:43:54.740 –> 00:43:56.000) Não fui mais a fundo

    (00:43:56.000 –> 00:43:56.800) Nos argumentos

    (00:43:56.800 –> 00:43:57.540) Que eles colocam,

    (00:43:57.540 –> 00:43:58.380) A Meta negou,

    (00:43:58.380 –> 00:43:59.780) Diz que não tem acesso,

    (00:43:59.780 –> 00:44:00.420) Diz que é

    (00:44:00.420 –> 00:44:03.700) Criptografia ponta a ponta.

    (00:44:03.700 –> 00:44:05.360) Que é como a criptografia

    (00:44:05.360 –> 00:44:06.820) Tem que ser ponta a ponta mesmo.

    (00:44:06.820 –> 00:44:11.880) E que a IA leria parte do.

    (00:44:11.880 –> 00:44:13.080) A IA da Meta

    (00:44:13.080 –> 00:44:14.460) , Leria parte do conteúdo,

    (00:44:14.460 –> 00:44:15.280) Mas somente aquilo

    (00:44:15.280 –> 00:44:16.100) Que você envia

    (00:44:16.100 –> 00:44:18.680) Para a própria Meta e tal,

    (00:44:18.680 –> 00:44:21.280) E que seriam alegações falsas.

    (00:44:21.400 –> 00:44:23.120) Não fui mais atrás disso,

    (00:44:23.120 –> 00:44:23.520) Mas assim,

    (00:44:23.520 –> 00:44:24.080) Apenas lembrando

    (00:44:24.080 –> 00:44:25.840) Que isso está acontecendo.

    (00:44:25.840 –> 00:44:26.900) Lembrando também

    (00:44:26.900 –> 00:44:28.220) Que o próprio WhatsApp,

    (00:44:28.220 –> 00:44:31.240) Ele é vendido.

    (00:44:31.240 –> 00:44:34.340) Como usando a criptografia

    (00:44:34.340 –> 00:44:36.700) Presente também no Signal.

    (00:44:36.700 –> 00:44:39.100) Que faz do Signal.

    (00:44:39.100 –> 00:44:40.920) Também uma ferramenta mais,

    (00:44:40.920 –> 00:44:41.840) Digamos assim,

    (00:44:41.840 –> 00:44:43.240) A única questão,

    (00:44:43.240 –> 00:44:45.000) Reafirmo aqui.

    (00:44:45.000 –> 00:44:46.680) É que quando você faz

    (00:44:46.680 –> 00:44:48.640) O backup das suas conversas

    (00:44:48.640 –> 00:44:50.200) Do WhatsApp no Google

    (00:44:50.200 –> 00:44:51.640) Ou em outra ferramenta

    (00:44:51.640 –> 00:44:52.280) De backup,

    (00:44:52.280 –> 00:44:53.620) Aí sim,

    (00:44:53.620 –> 00:44:55.400) Não somente forças policiais

    (00:44:55.400 –> 00:44:56.300) Conseguiriam ter acesso,

    (00:44:56.300 –> 00:44:57.200) Mas se alguém tem acesso

    (00:44:57.200 –> 00:44:58.460) À tua conta do Google,

    (00:44:58.460 –> 00:45:00.360) Além de todos os teus e-mails,

    (00:45:00.360 –> 00:45:01.220) Que é algo crítico,

    (00:45:01.220 –> 00:45:02.780) Conversas do WhatsApp

    (00:45:02.780 –> 00:45:04.700) Talvez seja mais crítico ainda.

    (00:45:04.700 –> 00:45:05.960) Porque as pessoas falam.

    (00:45:05.960 –> 00:45:08.020) A forma como você usa o WhatsApp

    (00:45:08.020 –> 00:45:09.120) Para assuntos,

    (00:45:09.120 –> 00:45:10.400) Inclusive tem assuntos médicos

    (00:45:10.400 –> 00:45:11.320) Muitas vezes.

    (00:45:11.320 –> 00:45:13.640) Vai lá, conversa com o teu médico,

    (00:45:13.640 –> 00:45:14.640) Pede receita,

    (00:45:14.720 –> 00:45:15.640) Então todas essas coisas

    (00:45:15.640 –> 00:45:16.760) Ficam lá dentro também.

    (00:45:16.760 –> 00:45:18.020) Assim,

    (00:45:18.020 –> 00:45:19.640) Essa ação coletiva

    (00:45:19.640 –> 00:45:20.660) Que está sendo movida,

    (00:45:20.660 –> 00:45:21.180) Primeiro,

    (00:45:21.180 –> 00:45:23.140) O protocolo de comunicação

    (00:45:23.140 –> 00:45:24.220) Do WhatsApp,

    (00:45:24.220 –> 00:45:26.280) Eles usam,

    (00:45:26.280 –> 00:45:27.520) É o Signal Protocol

    (00:45:27.520 –> 00:45:28.600) Que foi criado pelo Moxi,

    (00:45:28.600 –> 00:45:29.940) O Moxi Margin Spike,

    (00:45:29.940 –> 00:45:30.540) Tá?

    (00:45:30.540 –> 00:45:32.380) Fundador da Open

    (00:45:32.380 –> 00:45:33.820) Wiseper Systems,

    (00:45:33.820 –> 00:45:34.460) Tá?

    (00:45:34.460 –> 00:45:37.300) Hoje é Signal Foundation,

    (00:45:37.300 –> 00:45:37.760) Tá?

    (00:45:37.760 –> 00:45:39.180) Ou Sina Foundation.

    (00:45:39.180 –> 00:45:41.420) E o protocolo em si,

    (00:45:41.420 –> 00:45:42.340) Ele é sólido,

    (00:45:42.340 –> 00:45:43.220) Tá?

    (00:45:43.860 –> 00:45:44.980) E aí nós temos

    (00:45:44.980 –> 00:45:47.680) Uma primeira coisa já de cara,

    (00:45:47.680 –> 00:45:49.400) Quando você interage com a IA,

    (00:45:49.400 –> 00:45:53.540) Você já saiu fora desse protocolo.

    (00:45:53.540 –> 00:45:53.960) Sim.

    (00:45:53.960 –> 00:45:55.740) Quando você interagir com a IA,

    (00:45:55.740 –> 00:45:56.760) Você já está mandando coisa

    (00:45:56.760 –> 00:45:58.880) Para fora da tua conversa privada ali,

    (00:45:58.880 –> 00:45:59.260) Digamos,

    (00:45:59.260 –> 00:46:00.940) Tu está interagindo diretamente com a meta

    (00:46:00.940 –> 00:46:02.800) E obviamente a meta vai ter acesso ao conteúdo

    (00:46:02.800 –> 00:46:05.060) Até para poder passar pelos modelos

    (00:46:05.060 –> 00:46:05.440) Dela lá,

    (00:46:05.440 –> 00:46:06.160) Do LLM dela.

    (00:46:06.160 –> 00:46:08.920) A alegação que está sendo feita

    (00:46:08.920 –> 00:46:11.860) É de que existiria,

    (00:46:12.140 –> 00:46:12.600) Aí sim,

    (00:46:12.600 –> 00:46:14.300) Meio que uma porta dos fundos,

    (00:46:14.300 –> 00:46:14.460) Tá?

    (00:46:14.460 –> 00:46:17.820) Que a meta pode acionar

    (00:46:17.820 –> 00:46:19.500) Por conta

    (00:46:19.500 –> 00:46:22.100) E ela teria praticamente um acesso

    (00:46:22.100 –> 00:46:23.080) Em tempo real

    (00:46:23.080 –> 00:46:24.200) À conversa do usuário.

    (00:46:24.200 –> 00:46:26.580) É isso que está sendo alegado.

    (00:46:26.580 –> 00:46:27.980) Então,

    (00:46:27.980 –> 00:46:28.940) Então,

    (00:46:28.940 –> 00:46:29.940) Tu tens o protocolo

    (00:46:29.940 –> 00:46:31.120) Signo ali em andamento,

    (00:46:31.120 –> 00:46:33.580) Mas o aplicativo em si

    (00:46:33.580 –> 00:46:35.340) Aceitaria uma task lá,

    (00:46:35.340 –> 00:46:36.280) Uma tarefa

    (00:46:36.280 –> 00:46:38.200) Que ativaria esse processo

    (00:46:38.200 –> 00:46:40.540) De monitoramento das mensagens.

    (00:46:40.540 –> 00:46:43.160) Se o protocolo está bem implementado

    (00:46:43.160 –> 00:46:44.400) No WhatsApp,

    (00:46:44.400 –> 00:46:46.100) A gente imagina que esteja,

    (00:46:46.100 –> 00:46:48.320) Lembra que ele protege

    (00:46:48.320 –> 00:46:49.700) A comunicação fim a fim.

    (00:46:49.700 –> 00:46:51.040) Certo?

    (00:46:51.040 –> 00:46:51.360) Então,

    (00:46:51.360 –> 00:46:52.560) O Vinícius se comunicando

    (00:46:52.560 –> 00:46:53.220) Com o Guilherme,

    (00:46:53.220 –> 00:46:54.580) Só o Guilherme,

    (00:46:54.580 –> 00:46:55.440) Na ponta dele,

    (00:46:55.440 –> 00:46:56.800) Vai conseguir decifrar a mensagem

    (00:46:56.800 –> 00:46:57.540) E ver o conteúdo.

    (00:46:57.540 –> 00:46:59.060) E vice-versa

    (00:46:59.060 –> 00:47:00.000) Quando o Guilherme me responde.

    (00:47:00.000 –> 00:47:00.200) Então,

    (00:47:00.200 –> 00:47:01.640) Quem está no meio do caminho,

    (00:47:02.520 –> 00:47:03.620) A meta está no meio do caminho,

    (00:47:03.620 –> 00:47:04.400) Não conseguiria ver

    (00:47:04.400 –> 00:47:05.120) Essas mensagens.

    (00:47:05.120 –> 00:47:06.240) Agora,

    (00:47:06.240 –> 00:47:07.680) Se eles conseguem mandar

    (00:47:07.680 –> 00:47:09.280) Um comando para a ponta,

    (00:47:09.280 –> 00:47:11.140) Que também é deles,

    (00:47:11.140 –> 00:47:12.100) Que é o aplicativo,

    (00:47:12.100 –> 00:47:14.860) Aí o software pode fazer

    (00:47:14.860 –> 00:47:15.360) Qualquer coisa

    (00:47:15.360 –> 00:47:16.040) Que eles programarem.

    (00:47:16.040 –> 00:47:17.120) Então,

    (00:47:17.120 –> 00:47:17.780) O que eles estão acusando

    (00:47:17.780 –> 00:47:19.980) É que existe um comando aqui

    (00:47:19.980 –> 00:47:21.200) Que eles poderiam mandar

    (00:47:21.200 –> 00:47:22.000) Para a ponta,

    (00:47:22.000 –> 00:47:22.560) Para um endpoint,

    (00:47:22.560 –> 00:47:23.160) Que seria

    (00:47:23.160 –> 00:47:24.500) Ou o celular do Guilherme

    (00:47:24.500 –> 00:47:24.920) Ou o meu,

    (00:47:24.920 –> 00:47:26.960) E a partir daí

    (00:47:26.960 –> 00:47:28.180) Acompanhar as mensagens

    (00:47:28.180 –> 00:47:30.060) Praticamente em tempo real.

    (00:47:30.060 –> 00:47:30.740) Então,

    (00:47:30.740 –> 00:47:32.480) O protocolo continua sendo seguro,

    (00:47:33.100 –> 00:47:34.620) Ninguém no meio do caminho

    (00:47:34.620 –> 00:47:35.540) Consegue pegar

    (00:47:35.540 –> 00:47:37.080) A tua comunicação,

    (00:47:37.080 –> 00:47:38.120) Mas

    (00:47:38.120 –> 00:47:39.860) A meta,

    (00:47:39.860 –> 00:47:41.000) Assim como qualquer outro

    (00:47:41.000 –> 00:47:42.200) Adversário na ponta,

    (00:47:42.200 –> 00:47:42.720) Conseguiria

    (00:47:42.720 –> 00:47:43.720) E ela tem a vantagem

    (00:47:43.720 –> 00:47:45.160) De controlar o software,

    (00:47:45.400 –> 00:47:45.940) Então, assim,

    (00:47:45.940 –> 00:47:48.040) Controlar o software cliente

    (00:47:48.040 –> 00:47:49.200) E que é um baita de um problema.

    (00:47:49.200 –> 00:47:50.800) É a grande questão

    (00:47:50.800 –> 00:47:52.680) Da criptografia aplicada.

    (00:47:52.680 –> 00:47:53.880) Não parece ser um problema

    (00:47:53.880 –> 00:47:55.140) No modelo criptográfico,

    (00:47:55.140 –> 00:47:56.620) Embora a IA tenha descoberto

    (00:47:56.620 –> 00:47:57.120) Esses dias

    (00:47:57.120 –> 00:47:58.620) No OpenSSL

    (00:47:58.620 –> 00:47:59.400) E não sei quantos

    (00:47:59.400 –> 00:48:00.120) Zero Days

    (00:48:00.120 –> 00:48:02.200) Numa passada ali.

    (00:48:02.200 –> 00:48:03.160) Que já foram corrigidos

    (00:48:03.160 –> 00:48:03.640) E tudo mais,

    (00:48:03.640 –> 00:48:04.820) Mas

    (00:48:04.820 –> 00:48:07.040) O perplexity

    (00:48:07.040 –> 00:48:08.800) Chamou a atenção

    (00:48:08.800 –> 00:48:10.540) De um fato interessante.

    (00:48:10.540 –> 00:48:11.640) Vale notar

    (00:48:11.640 –> 00:48:12.720) Que o escritório de advocacia

    (00:48:12.720 –> 00:48:13.760) Responsável pela ação

    (00:48:13.760 –> 00:48:14.320) É o mesmo

    (00:48:14.320 –> 00:48:14.880) Que representa

    (00:48:14.880 –> 00:48:15.780) O grupo NSO,

    (00:48:15.780 –> 00:48:17.580) Criadores do Pegasus.

    (00:48:17.580 –> 00:48:19.460) Em outro processo

    (00:48:19.460 –> 00:48:20.800) Contra o próprio WhatsApp,

    (00:48:20.800 –> 00:48:21.820) Que levanta questionamentos

    (00:48:21.820 –> 00:48:22.760) Sobre os interesses

    (00:48:22.760 –> 00:48:23.380) Por trás

    (00:48:23.380 –> 00:48:24.280) Da ação,

    (00:48:24.280 –> 00:48:24.620) Claro,

    (00:48:24.620 –> 00:48:25.260) O caso ainda

    (00:48:25.260 –> 00:48:27.040) Não foi julgado.

    (00:48:29.020 –> 00:48:29.940) Vamos ver o que vai

    (00:48:29.940 –> 00:48:31.300) Aparecer aí,

    (00:48:31.300 –> 00:48:32.120) Daqui a pouco

    (00:48:32.120 –> 00:48:34.180) Daqui a pouco

    (00:48:34.180 –> 00:48:35.160) Se mostra

    (00:48:35.160 –> 00:48:35.680) Que de fato

    (00:48:35.680 –> 00:48:36.740) Os caras tinham esse acesso,

    (00:48:36.960 –> 00:48:37.360) Vai saber.

    (00:48:38.380 –> 00:48:39.720) Diz que parece

    (00:48:39.720 –> 00:48:40.680) Que teria evidências

    (00:48:40.680 –> 00:48:42.380) No código,

    (00:48:42.380 –> 00:48:43.700) Alguma coisa assim,

    (00:48:43.700 –> 00:48:44.520) Mas enfim,

    (00:48:44.520 –> 00:48:46.340) Não vimos essas evidências.

    (00:48:46.340 –> 00:48:47.340) Vinícius,

    (00:48:47.340 –> 00:48:48.560) Aqui no Brasil

    (00:48:48.560 –> 00:48:49.000) Gosta,

    (00:48:49.000 –> 00:48:49.760) O pessoal gosta

    (00:48:49.760 –> 00:48:50.500) De dizer que o ano

    (00:48:50.500 –> 00:48:51.020) Só começa

    (00:48:51.020 –> 00:48:52.140) Depois do carnaval.

    (00:48:52.480 –> 00:48:53.160) Então como

    (00:48:53.160 –> 00:48:55.040) Já passou o carnaval,

    (00:48:55.040 –> 00:48:56.180) A gente pode mais uma vez

    (00:48:56.180 –> 00:48:57.340) Dizer feliz ano novo

    (00:48:57.340 –> 00:48:58.260) Para os nossos ouvintes.

    (00:48:58.260 –> 00:49:00.820) É um antes e um depois.

    (00:49:00.820 –> 00:49:04.080) E estamos de volta.

    (00:49:04.080 –> 00:49:05.100) Vamos ver se a gente consegue

    (00:49:05.100 –> 00:49:05.720) Agora manter

    (00:49:05.720 –> 00:49:08.220) A cadência semanal

    (00:49:08.220 –> 00:49:09.100) Aí de gravações

    (00:49:09.100 –> 00:49:10.760) E esperamos que,

    (00:49:10.760 –> 00:49:11.740) Não sei se você tem

    (00:49:11.740 –> 00:49:12.540) Mais alguma observação,

    (00:49:12.540 –> 00:49:12.920) Vinícius,

    (00:49:12.920 –> 00:49:14.080) Já vou terminando também.

    (00:49:14.080 –> 00:49:14.940) Não, não,

    (00:49:14.940 –> 00:49:15.400) É isso aí.

    (00:49:15.400 –> 00:49:16.380) A gente já está,

    (00:49:16.380 –> 00:49:16.800) Inclusive,

    (00:49:16.800 –> 00:49:18.100) Chegando no meio-dia.

    (00:49:18.100 –> 00:49:19.520) A gente teve vários

    (00:49:19.520 –> 00:49:20.660) Problemas técnicos hoje

    (00:49:20.660 –> 00:49:21.700) Ao longo da gravação.

    (00:49:22.240 –> 00:49:22.760) Exato.

    (00:49:22.760 –> 00:49:24.260) Assim,

    (00:49:24.260 –> 00:49:25.540) É ruim quando a gente

    (00:49:25.540 –> 00:49:26.060) Fica muito tempo

    (00:49:26.060 –> 00:49:26.560) Sem gravar.

    (00:49:26.560 –> 00:49:27.840) Aí algumas coisas

    (00:49:27.840 –> 00:49:28.940) Mudam de versão

    (00:49:28.940 –> 00:49:30.640) E já atrapalham a vida.

    (00:49:30.640 –> 00:49:32.080) Se a gente está

    (00:49:32.080 –> 00:49:32.820) Gravando toda hora,

    (00:49:32.820 –> 00:49:34.700) A mudança é mais suave

    (00:49:34.700 –> 00:49:36.760) Do que desse jeito.

    (00:49:36.760 –> 00:49:38.460) Mas de qualquer forma,

    (00:49:38.460 –> 00:49:38.960) Deu tudo certo.

    (00:49:38.960 –> 00:49:39.620) Não, tudo certo.

    (00:49:39.620 –> 00:49:41.100) Se você está ouvindo.

    (00:49:41.100 –> 00:49:44.220) Esperamos que esteja ouvindo,

    (00:49:44.220 –> 00:49:45.160) Senão vai ficar algo..

    (00:49:45.160 –> 00:49:45.300) Esperamos que sim.

    (00:49:45.300 –> 00:49:47.300) Então nos encontraremos

    (00:49:47.300 –> 00:49:48.660) Agora no próximo episódio

    (00:49:48.660 –> 00:49:49.280) Do podcast

    (00:49:49.280 –> 00:49:50.660) Segurança Legal.

    (00:49:50.660 –> 00:49:51.800) Até a próxima!

    (00:49:52.000 –> 00:49:53.420) Até a próxima!

Mais podcasts de Notícias

Sobre Segurança Legal

O podcast da BrownPipe Consultoria
Site de podcast

Ouça Segurança Legal, the news e muitos outros podcasts de todo o mundo com o aplicativo o radio.net

Obtenha o aplicativo gratuito radio.net

  • Guardar rádios e podcasts favoritos
  • Transmissão via Wi-Fi ou Bluetooth
  • Carplay & Android Audo compatìvel
  • E ainda mais funções
Informação legal
Aplicações
Social
v8.8.13| © 2007-2026 radio.de GmbH
Generated: 4/27/2026 - 2:09:44 PM