PodcastsNotíciasSegurança Legal

Segurança Legal

Guilherme Goulart e Vinícius Serafim
Segurança Legal
Último episódio

428 episódios

  • Segurança Legal

    #417 – Condomínios e biometria, novos crimes digitais e o mito do Mythos

    12/05/2026 | 1h 12min
    Neste episódio, Guilherme Goulart e Vinícius Serafim analisam casos reais e tendências que colocam em xeque a segurança digital e física no Brasil. Você vai descobrir como criminosos burlaram um sistema de reconhecimento facial em condomínios de Porto Alegre usando engenharia social, expondo os riscos do teatro da segurança, do solucionismo tecnológico e da hipossuficiência técnica dos consumidores. Em seguida, você vai entender o que está por trás do lançamento do modelo Mitos da Anthropic — classificado como perigoso demais para uso público —, e por que os resultados práticos com o Firefox e o cURL geraram ceticismo no meio da cibersegurança, levantando questões sobre propaganda de IA, governança, regulação e concorrência no mercado de inteligência artificial. Neste episódio, você também acompanha a análise da lei 15.397, que atualizou crimes digitais no Brasil com penas mais severas para furto qualificado digital, cessão de conta laranja e fraude eletrônica — e por que, sem investimento em capacidade investigativa, isso pode ser apenas populismo penal. Além disso, são discutidas duas vulnerabilidades críticas no Linux (CVE Copyfile e Dirty Frag) com exploits já circulando antes da correção, e como a IA pode acabar com o anonimato na internet ao identificar autores por fingerprint de texto com apenas 125 palavras. Os temas de privacidade, proteção de dados, LGPD, segurança ofensiva, pentest e infraestrutura em nuvem permeiam toda a conversa.

    Assine o Segurança Legal na sua plataforma favorita, siga o perfil nas redes sociais e avalie o podcast para ajudar a ampliar o alcance deste projeto independente de conteúdo sobre segurança da informação. Você também pode apoiar diretamente pelo Apoia.se (apoia.se/segurancalegal) ou simplesmente indicar o podcast para colegas e amigos — cada compartilhamento faz diferença. Entre em contato pelo e-mail [email protected] ou pelo Mastodon, Instagram, Bluesky, YouTube e TikTok.

    Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana.

     Visite nossa campanha de financiamento coletivo e nos apoie!

     Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing

    Shownotes

    Polícia prende suspeitos de invadir e furtar apartamentos de alto padrão em Porto Alegre; grupo usava fraude em reconhecimento facial

    Polícia desarticula grupo de criminosos que furtava apartamentos de luxo via redes sociais

    Atualização do Código Penal para alguns crimes digitais

    Will AI end anonymity? I tested it

    I can never talk to an AI anonymously again

    Anthropic’s most dangerous AI model just fell into the wrong hands

    Unauthorized group has gained access to Anthropic’s exclusive cyber tool Mythos, report claims

    It’s a myth that you need Mythos to find bugs: Open source models can do it just as well

    Filme: Quebra de Sigilo (Sneakers)

    BC Protege

    Livro – Sob a sombra da suástica: a França ocupada

    Filme – Viagem ao mundo dos sonhos

    Artigo – Em louvor ao Teatro da Segurança

    Imagem do episódio: The Ancient Days, Willia, Blanke




    📝 Transcrição do Episódio







    Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 417, gravado em 11 de maio de 2026. Eu sou o Guilherme Goulart e, junto com o Vinícius Serafim, vamos trazer para vocês algumas notícias das últimas semanas ou quinzena. E aí, Vinícius, tudo bem?

    Olá, Guilherme, tudo bem? Olá aos nossos ouvintes.

    Esse é o nosso momento de conversarmos sobre algumas notícias e acontecimentos que nos chamaram atenção. Então, pegue o seu café — não está aparecendo aqui — pegue o seu café e venha conosco. Para entrar em contato com a gente, você já sabe: basta enviar uma mensagem para [email protected] ou também lá no Mastodon, Instagram, Bluesky, YouTube e TikTok. Também temos a nossa campanha de financiamento coletivo lá no Apoia.se: apoia.se/segurancalegal.

    A gente sempre pede que você considere apoiar este projeto independente de produção de conteúdo. E se não puder ou não quiser, indique o podcast, porque também é uma forma de apoiar. O Vinícius sempre diz isso. Eu roubei a fala dele agora. Fala, fala você isso, Vinícius.

    Não, pode falar agora. Fala. Já deu tantas opções: se quiser e não puder, e se puder e não quiser… Eu já me perdi todo.

    Eu acho que sim. São tantos apoios hoje em dia.

    É. Mas, completando o que eu ia dizer: um grande apoio que você dá para o podcast é a divulgação.

    Então, divulgar o Segurança Legal

    é também uma forma de apoiar o nosso trabalho, sem dúvida alguma.

    E também aproveitando para fazer um agradecimento a todos aqueles que já apoiam. Nós temos apoiadores que estão conosco desde o início do podcast Segurança Legal. Não foi logo no início que a gente promoveu o apoio,

    mas a gente está fechando 14 anos de podcast. 2012 a 2026, 14 anos. Ano que vem nós vamos debutar! Vamos fazer a festa de debutante do podcast Segurança Legal.

    15 anos do Segurança Legal!

    É, bodas de quê, 15 anos?

    Ah, você me pegou agora. Isso não está na nossa pauta aqui.

    Eu vou procurar aqui e depois eu falo de que bodas serão.

    Procure. Porque a primeira notícia, Vinícius, tem a ver com um certo descontrole no uso de reconhecimento facial aqui no Brasil. Nós temos um certo fetiche, de alguns locais, na utilização de reconhecimento facial para realização de controle de acesso aos mais variados locais. E aí o que aconteceu foi que, aqui na cidade de Porto Alegre, teve uma notícia semana passada em que a polícia prendeu dois suspeitos de participar de uma organização criminosa especializada em furtos de condomínios de alto padrão.

    Então, era um grupo que atuava aqui no Rio Grande do Sul, mas também tinha tentáculos em São Paulo — inclusive eles vinham de lá para realizar a prática de alguns crimes —, e apenas um dos furtos teria causado prejuízo de mais de R$ 500.000. O interessante é como esta fraude ocorreu.

    Eu vou ler aqui para vocês a descrição feita pela polícia e também pelo jornal Zero Hora, que é bem famoso aqui no Rio Grande do Sul. O acesso ao edifício foi possível por meio de fraude no sistema de segurança. Um dia antes do crime, um morador perdeu o acesso ao aplicativo do condomínio. As investigações revelaram que criminosos ligaram para a empresa responsável pelo sistema e solicitaram a alteração do cadastro de uma suposta amiga desse morador. Com isso, a suspeita registrou a própria face vinculada ao nome de outra pessoa e passou a ter entrada livre no prédio.

    Outra coisa bem interessante — e que também envolve um pouco sobre como as pessoas veem a sua própria segurança, ou sobre o que colocam nas redes sociais — é que as vítimas eram escolhidas pelos criminosos pelo que postavam nas redes sociais. Então eu acho que esse caso, Vinícius, me chamou bastante atenção. Logo que eu vi, pensei: não, a gente tem que falar sobre isso no podcast, porque envolve uma série de problemas, mitos e questões do mundo de segurança da informação. Um deles — tema que a gente já falou aqui nos nossos primeiros episódios, inclusive temos um artigo, traduzimos um artigo do Bruce Schneier sobre o teatro da segurança —

    tradução autorizada, diga-se de passagem, né, Vinícius?

    Sim, a gente pediu autorização para reproduzir.

    E aí, porque não tinha IA, né? É, mas eu ainda acho que as traduções feitas por pessoas são melhores. Mas enfim, podemos falar sobre isso outra hora. Eu acho, Vinícius, que é um caso que se aplica muito bem à ideia do teatro da segurança. Porque o que é o teatro da segurança? É aquela situação onde você realiza práticas ou toma decisões em determinado ambiente que deixam as pessoas se sentindo mais seguras sem que elas de fato estejam mais seguras. Daí o nome Teatro da Segurança, porque a medida teria uma função maior de deixar as pessoas se sentindo seguras sem que isso efetivamente acontecesse na realidade. Então, quando a gente junta essa ideia do Teatro da Segurança com a ideia de solucionismo tecnológico — ou seja, achar que somente colocar tecnologia em um determinado ambiente resolveria todos os problemas de segurança —, quando você une essas coisas e também une uma certa ideia de deslumbramento com a tecnologia, e quando você alia ainda os aspectos de conveniência — ou seja, fica de fato mais fácil entrar no seu prédio somente com o seu rosto avaliado por um sistema —, acaba se criando o cenário perfeito para acontecer o que aconteceu.

    É. Quando você tem um condomínio com muita gente circulando, chave é uma coisa que fica inviável, porque você acaba tendo o mesmo problema: cópias sendo feitas, cópias sendo perdidas, pessoas que trabalhavam no condomínio e não trabalham mais com cópia da chave, qualquer morador dá uma cópia de chave. Acho que é tão ruim quanto usar aqueles chaveirinhos com RFID, entende?

    Sim.

    Porque lá também se copia muito fácil — tem 300 copiadores daquilo na internet para vender no Mercado Livre, na Amazon, no AliExpress e por aí vai. Então é o tipo de coisa fácil de copiar, com o mesmo problema da chave. Talvez até pior do que a chave, porque é mais fácil de copiar. Para fazer uma chave, você tem que pegar a chave de alguém, ir a algum lugar que faça cópia ou saber fazer você mesmo.

    Pelo que eu já vi, não é muito difícil, mas eu não tenho o equipamento.

    E aí, esses chaveirinhos azuis normalmente…

    Sim. Tem outras cores, mas normalmente é azulzinho. Aquilo lá é rápido de copiar: um aparelho levado na mão, encosta naquilo, copia e depois reproduz quantas vezes quiser. Então é mais fácil de copiar do que chave. Um sistema de reconhecimento facial que funcione bem — e aí que está o problema — não vai ser uma coisa barata nem simples. O mercado vai ter solução para tudo, das baratas até as melhores.

    Ele de fato funciona melhor do que chave e melhor do que RFID em termos de restrição de acesso. Não tem como, pressupondo que funcione. Você não tem como perder o seu rosto por aí. Agora, eu acho que nada substitui a boa e velha portaria. Se você tem um condomínio grande e um serviço de portaria — aliado com outras tecnologias —, mas essencialmente com alguém ali capaz de conversar, atender, avaliar, entrar em contato com alguém, não reconhecer o morador e dizer “espera, vou ver com quem você quer falar” — aí tem alguma chance de funcionar melhor. Senão, temos uma falsa sensação de segurança de maneira geral.

    E é segurança física. O mesmo quando a gente mora num lugar que não está dividindo com outras pessoas: você também está vulnerável. Talvez até mais do que se estivesse num prédio. É bem delicado. E é um problema quando você compra… aquela palavra que você sempre usa, Guilherme, quando a gente fala dessas soluções tecnológicas sendo vendidas para as pessoas em geral.

    Hipossuficiência.

    Hipossuficiência técnica.

    É. Quando você vai comprar um produto e não tem a menor condição de avaliar se aquilo é bom ou não, se funciona bem ou não, e acaba comprando uma coisa que às vezes é cara e que na verdade está te vendendo uma falsa sensação de segurança.

    É uma bela porcaria. Me parece que muitas dessas soluções — não estou dizendo todas, obviamente — caem nisso, principalmente soluções baratas que prometem funcionar de maneiras que, nesse preço e nesse formato, não vão funcionar bem. Com certeza vai ter problema.

    E aí eu tenho até medo de ficar investigando esses sistemas. Eu tenho alguns.

    É delicado,

    porque você coloca uma nova camada de complexidade em ambientes que, em geral, não estão preparados para consumir produtos e serviços que exigiriam não somente acompanhamento, mas também auditoria. Uma empresa eventualmente teria condições de exigir do fornecedor algum tipo de comprovação de que os sistemas foram testados de alguma forma. Porque aqui o que parece que aconteceu — e a gente não tem mais informações — foi um problema de segurança organizacional: alguém se fez passar por outra pessoa e cadastrou a face remotamente. Possivelmente pelo aplicativo, usou engenharia social para ter acesso a um ambiente que permitiu que ela cometesse um crime ali — prejuízo de R$ 500.000, e os envolvidos foram presos. Então, para concluir: os condomínios não estão preparados para exigir, ou sequer saber o que pedir, sobre auditoria desses sistemas.

    Mas o fornecedor estaria mentindo, né? Estaria dizendo que sim, foi auditado, sem que fosse.

    Não necessariamente. Ele pode contratar uma empresa para fazer uma verificação de segurança. A empresa pode ser boa ou ruim, pode ter prestado o serviço efetivamente ou só emitido um certificado. Não tem como saber, do ponto de vista de quem está comprando a solução.

    A saída é tentar comprar de alguma empresa com nome no mercado, que assuma alguma responsabilidade se algo der errado. Mas acho que aí entra bem no que você gosta de levantar: às vezes a gente usa tecnologia de maneira que não precisa.

    Por que usar biometria se você pode usar o celular para ler um QR Code e desbloquear? O celular está o tempo todo com a pessoa. Você pode inclusive deixar com o próprio condomínio a responsabilidade de cadastrar os celulares. Você tem várias maneiras de autenticar com o celular e abrir uma porta sem precisar de tirar foto ou qualquer coisa assim. E para resetar o acesso, você tem mecanismos para isso. As próprias pessoas que moram com você poderiam administrar as contas, por exemplo.

    Isso tudo assumindo que os sistemas estão bem configurados e foram adequadamente testados, sem vulnerabilidades evidentes. Estou falando de algo bem feito. Mas quando você usa biometria, está vendendo um teatro, entende? Não é porque biometria é melhor — às vezes biometria é

    pior.

    Às vezes biometria é pior do que usar o celular com um gerador de código ou um QR Code. Não precisa complicar demais. O que acontece? O pessoal desenvolve soluções assim, muitas vezes a própria empresa que desenvolve não tem domínio da tecnologia, então usa algo porque está disponível e faz os processos de segurança — como reset de conta — de forma falha porque simplesmente não passou pela cabeça. Eles também não sabem direito o que estão usando. É como se nem soubessem que existe modelagem de ameaças. Então você vai lá, faz o produto, depois vê. O foco não é segurança, o foco é fazer o produto funcionar. “Como é que a gente vai fazer quando alguém tiver que trocar o rosto?” “Ah, bota alguém para atender o telefone. O pessoal liga para a central, a gente atende, verifica uns dados e faz como o banco.” Nem todo banco faz isso direito.

    É.

    Mas verifica. “Me dá o seu CPF, a sua data de nascimento. Tá bom, então você é fulano, eu confio em você, vamos trocar.” Se a coisa é mal projetada, e em segurança da informação não é só o software estar seguro, são os processos em torno do negócio que usa aquele software.

    Se você não levar isso em consideração, vai ter esses problemas direto.

    É a segurança técnica versus a segurança organizacional. E aí, a própria LGPD fala sobre isso. Para terminar essa notícia: todo mundo fica deslumbrado porque tem biometria e reconhecimento facial, mas essa mesma empresa que permite que um ataque relativamente simples de engenharia social seja realizado contra ela própria dá uma demonstração clara de que não possui processos de segurança adequados para lidar com dados da sensibilidade que são os dados de biometria facial. Isso atrai para si toda a problemática relacionada às medidas de segurança adequadas para proteger um sistema com essa criticidade dos dados.

    E pior: a gente vê eventualmente depoimentos de pessoas que se opõem à implementação desse sistema no seu condomínio porque não querem compartilhar informações da sua família inteira — eventualmente até de crianças — e são tratadas como se fossem extraterrestres. E veja: se você vai viajar e vai alguém à sua casa para regar as plantas, essa pessoa também terá que se submeter a um tratamento de dados totalmente desnecessário. Você poderia chegar ao mesmo resultado com soluções mais elegantes — com o celular, sem a necessidade de tratar dados sensíveis de biometria.

    Então é isso: um certo descontrole, misturado com deslumbramento, misturado com conveniência versus segurança, misturado com teatro da segurança e com uma coisa que fazemos muito bem — ou muito mal — aqui no Brasil, que é cuidar desse tipo de processo. Desculpa o desabafo.

    O desabafo.

    Segurança tem o teatro da segurança, tem segurança por obscuridade, tem várias coisas. Por exemplo, como é fácil abrir portão eletrônico, esses portões de garagem que existem por aí.

    E o que a gente faz? Em vez de exigir um nível melhor de segurança dessas soluções vendidas em todo lugar, proíbem de vender o Flipper, por exemplo, no Brasil.

    A Receita Federal começa a bloquear a chegada disso aqui.

    É, a Anatel também, porque são coisas utilizadas para interferir. Claro, a Anatel está certa em fazer isso — são instrumentos que interferem na comunicação, tem multa para isso, tem cadeia para isso se for o caso.

    O problema são as soluções de segurança física — portão eletrônico, por exemplo — muito mal feitas, que funcionam na base da obscuridade. Um Arduino e um controle de portão é o suficiente para abrir qualquer portão pelo caminho.

    Existem soluções um pouco mais sofisticadas nesse sentido, mas

    não é o comum do mercado.

    Não é mesmo.

    Ainda sobre os mitos — seria um mito? Vamos ampliar isso.

    A IA seria um mito? Vamos voltar. O que está rolando? A Google — a empresa Google, que na verdade é a Alphabet, mas se você falar Alphabet, ninguém sabe quem é.

    É como o X, né?

    O Google confirmou — mais ou menos, olha — o primeiro Zero Day “in the wild”

    in the wild

    que teria sido descoberto com IA. E eles têm. Mas a frase, na verdade, entre aspas, é: “muito provavelmente desenvolvido com auxílio de IA”. Eles querem dizer que foi o primeiro Zero Day conhecido que teria sido encontrado com IA — muito provavelmente com IA.

    Junto dessa notícia, Guilherme, a gente tem outra, e já vou entrar nos mitos mesmo. Por que a gente está citando essa do Google? Porque está se colocando em pauta — e é por isso que você citou o nome do Mitos — o modelo da Anthropic que eles disseram ser muito perigoso para ser liberado publicamente. Por causa disso, dariam acesso a algumas empresas. Porque a IA está ficando cada vez melhor — esse é o mote da notícia do Google também. A IA está ficando cada vez melhor para encontrar vulnerabilidades em software, numa escala que o ser humano não consegue. Então é algo muito útil e, ao mesmo tempo, começa a ser utilizada para segurança ofensiva — criminosos usando IA para desenvolver exploits e afins.

    Bem, o Mitos fez essa propaganda — sabe-se lá se propaganda ou realidade — de que a Anthropic disse: “nós temos um Mitos que é extremamente perigoso, que pode invadir sistemas por conta própria, encontrar problemas que nunca encontramos antes, e por isso não vamos fazer o release público, pelo menos não agora, sem previsão num primeiro momento. Vamos liberá-lo para alguns grandes vendors de software, entre eles Microsoft e Linux Foundation — pegando dois grandes, um open source e um comercial.”

    Decisão que eles tomaram conforme as políticas internas deles.

    Isso. Há um projeto Glass Wing lá para quem quiser procurar da Anthropic — os detalhes estão lá. E no site do Glass Wing da Anthropic têm os depoimentos dos caras falando, sabe, aqueles depoimentos filmados com câmera boa num cenário bonito, dizendo “nossa, nunca vi encontrar tanta vulnerabilidade”… Se o negócio fosse tão perigoso de verdade, eles ficariam quietos. Vazou o nome do Mitos um tempo atrás num vazamento em que o pessoal teve acesso a alguns documentos da Anthropic. Era só terem ficado quietos, falado com a Microsoft, Linux Foundation, Google e por aí vai, e deixado todo mundo especular. Mas não: lançaram o projeto Glass Wing, com um monte de depoimentos da pessoal da Mozilla Foundation e outros falando que “nossa, nunca vi uma coisa tão maravilhosa catando bug”. Para que estão fazendo propaganda se não vão fazer o release? Obviamente para atrair gente para usar o Claude e para investir na Anthropic.

    Se o modelo é bom ou não, você não tem como saber, a não ser que trabalhe na Microsoft, Linux Foundation ou qualquer outro lugar que a Anthropic escolheu para entregar o acesso ao Mitos.

    A OpenAI — que obviamente é concorrente da Anthropic e perdeu

    não tão feroz, né? Uma concorrente

    e perdeu uma fatia de mercado bastante razoável para a Anthropic, principalmente depois do contrato com o Departamento de Defesa dos Estados Unidos — criticou a Anthropic por ter feito esse anúncio todo. E o que a OpenAI fez depois de criticar a Anthropic? Lançou o GPT 5.5 Cyber, mas

    ele é muito perigoso para estar aberto ao público,

    claro.

    A gente está lançando o modelo Brown Pipe 2026 Pesther, mas como ele é muito perigoso — mais perigoso que o Mitos, mais perigoso que o GPT 5.5 Cyber —

    a gente não comercializa, só usa nos nossos pentests, entende?

    OK. O que aconteceu com o Mitos na prática? A Mozilla tem acesso ao Mitos via Linux Foundation. E o Daniel Stenberg — que é o criador do cURL, aquele utilitário muito utilizado em linha de comando em todas as plataformas, extremamente comum para quem desenvolve — teve o código do cURL varrido pelo Mitos. E o Mitos teria encontrado cinco vulnerabilidades: uma de baixo impacto — vai sair o CVE —, três eram falsos positivos, e a quinta era um bug não relacionado à segurança.

    Isso aí é…

    Stenberg tem uma reputação bastante forte e dizem que ele não costuma errar. E ele não é um detrator de IA — ele inclusive afirmou que os analisadores de código que usam IA são significativamente melhores em encontrar falhas de segurança e erros em código-fonte do que qualquer analisador de código tradicional do passado. Frase dele. Todos os modelos de IA modernos são bons nisso atualmente — ele está dizendo que todos são bons. E o que ele disse é que o Mitos não entrega aquilo que supostamente se diz que ele é tão melhor do que os outros modelos.

    Eu não tenho acesso ao Mitos, mas mantenho o que falei no nosso episódio passado: acho que o Opus 4.7, que é o modelo da Anthropic logo abaixo do Mitos, já era bom o suficiente para sofrer uma limitação — e sofreu. Quando você começa a fazer qualquer coisa ofensiva com ele, a gente recebeu um alerta em vermelho dizendo: “Eu não vou fazer isso porque você está tentando atacar. Se você acha que é legítimo, entre em contato e nos explique o que está fazendo.”

    E a gente fez isso. Entrou em contato — e para nós foi fácil provar que trabalhamos com segurança: temos o podcast, temos o site da empresa, as produções do Guilherme sobre segurança da informação e proteção de dados. Ficou muito fácil provar. E de fato eles nos liberaram e a gente conseguiu seguir trabalhando normalmente. A gente não tem acesso ao Mitos para comparar, mas acho que o Opus 4.7 já é bom o suficiente para requerer algum tipo de limitação.

    E tem também aquela outra questão que você levanta, né? Talvez um novo passo para a governança do uso desse tipo de solução — que não passa por nenhum escrutínio público, enquanto outras tecnologias passam.

    Eu já ia chegar aí. Mas sim, eu vi num programa britânico — eu perdi o link depois — onde estavam discutindo com vários professores, inclusive da área de tecnologia, essa questão da propaganda da IA, da OpenAI e da Anthropic falando “tenho o Mitos, que horror, vai acabar com o mundo”, e agora a OpenAI vindo atrás dizendo “eu também tenho, que também é perigoso, que eu também não vou fazer release”. Uma das pessoas colocou assim: “Não me preocupa tanto essas empresas dizerem que têm esses modelos. O que me chama atenção são elas alardearem essas capacidades e elas mesmas decidirem para quem vão entregar — sem que nenhum governo ou ninguém tenha nada a dizer sobre isso.”

    E ele comparou com o FDA norte-americano, que às vezes leva anos para liberar um medicamento para garantir que não vai fazer mal à sociedade. Ele acha que o fato dessas empresas alardearem modelos supostamente tão perigosos — assumindo que estão dizendo a verdade, sem exagerar —, sem que ninguém diga nada e sem que elas tenham que responder sobre quem pode usar e quem não pode, chama bastante atenção. Isso, se de fato essas empresas podem seguir fazendo esses modelos nesse nível — se é que é verdade — sem nenhum tipo de regulação… nos Estados Unidos não vai ter regulação, pelo menos dependendo do governo federal.

    Lembrando que

    a Big Beautiful Bill do Trump impôs uma moratória de 10 anos na regulação de IA nos Estados Unidos.

    É, mas esse não parece ser o modelo regulatório que vai dominar o mercado.

    Porque se você for pensar, me parece que funciona muito como uma questão de mercado mesmo.

    É, parece bem propaganda. Pode realmente ser bom e tal. Mas, sem dúvida, a gente vai precisar regulamentar esse tipo de uso. É um pouco diferente das Crypto Wars, aquela história de tentar proibir ou controlar o uso da criptografia porque ela poderia ser usada por atores maliciosos. Há uma diferença fundamental aqui, Vinícius: os algoritmos criptográficos são públicos e qualquer pessoa pode utilizá-los. Os modelos de IA que estão fazendo isso não são públicos. Você não pode, se quiser, montar um servidor e rodar o Mitos como consegue fazer com o DeepSeek — se tiver infraestrutura suficiente, inclusive dá para rodar na Amazon. Você tem poucas empresas dominando isso, utilizando claramente a seu favor, com fins de lucro. E existe até uma questão concorrencial para empresas que atuam na área de segurança: e se a empresa dona do modelo não autorizar o uso para você, mas autorizar para o seu concorrente?

    Pode,

    né? Imagina: pelo lado positivo, a Brown Pipe recebe acesso ao Mitos, pode fazer testes, pode sair dizendo por aí que tem o Mitos e o concorrente não tem. E a propaganda que esse negócio já ganhou com o próprio marketing da Anthropic no projeto Glass Wing — você já recebe isso embutido, está vendendo um produto. Seria muito bom. Agora imagina o contrário: você não recebe o acesso ao Mitos por qualquer razão, e o seu concorrente recebe. Você simplesmente não tem o produto.

    E vejo que judicialmente você poderia discutir pelo lado da concorrência. Isso ainda não aconteceu, Guilherme.

    Está acontecendo com as grandes bigtechs que estão recebendo acesso. E aliás, uma coisa que a gente estava esquecendo: saiu uma notícia de que um grupo de pessoas não autorizadas teve acesso ao Mitos

    porque deram acesso, vazaram contas

    e aí você tem esse material, digamos, mais perigoso do mundo, que você permite que algumas empresas utilizem para corrigir vulnerabilidades do seu ambiente — e de repente, facilmente, um grupo de pessoas não autorizadas teve acesso a ele. Usou? Sabe-se lá.

    Porque essa indústria é marcada pela falta de transparência. Tudo que acontece nela não tem transparência — desde quanto você paga. A gente comentava sobre isso, o pessoal reclamando do consumo de tokens, não saber direito quanto usou.

    Nos planos pré-pagos, digamos assim.

    É um negócio sem transparência: não tem transparência de como é treinado, não dizem com quais dados treinou. De repente tem pessoas usando, mas outras não podem avaliar. E aí você começa a mexer com concorrência. É uma empresa americana que naturalmente vai querer melhorar a posição do seu país — não é um problema em si —, mas em nível global, isso não é um editor de texto.

    É bom, Guilherme. Mas, fechando esse parênteses: a Mozilla, que também teve o código do Firefox 150 varrido pelo Mitos, disse que dos 423 bugs que corrigiu em abril, o Mitos teria encontrado 271 desses bugs. Então tiveram um aumento expressivo, segundo eles, em encontrar bugs por causa do Mitos.

    E tem uma coisa interessante: ficou o Stenberg falando que não é tão bom assim, e a Mozilla falando bem. Os dois estão no meio do caminho. E o Ottenheimer — eu estava pesquisando o nome dele aqui, não cheguei à conclusão de quem era.

    É o cara que fez a bomba, né? Oppenheimer.

    Ah, tá. Mas não é Oppenheimer, não. Ele se chama Davi Ottenheimer, e o link estará nos show notes que vamos compartilhar com o pessoal. Ele fez o teste que, segundo ele, a Mozilla deveria ter feito. Ele usou o Sonnet 4.6 combinado com o Haiku 4.5 — lembrando que o Haiku é o modelo mais básico, depois vem o Sonnet 4.6 que você tem acesso no plano free, que está logo abaixo do Opus 4.7. Ele rodou usando uma skill de auditoria — ou seja, não apenas o produto da Anthropic puro, mas com instruções que alguém preparou. E teria encontrado oito vulnerabilidades em 2 minutos, com custo total de 75 centavos de dólar. Dois dos oito que ele encontrou batem com os bugs que o Mitos identificou no Firefox.

    O que ele quer dizer é que, pelo caminho que ele foi — usando o Sonnet, que custa cinco vezes menos do que vai custar o Mitos, pelo menos no previsto —, parece que os resultados são comparáveis. Eu não sei se ele conseguiu usar o Mitos para comparar diretamente, mas o fato é: talvez não seja só o modelo, mas como você usa o modelo. E a gente sabe isso por experiência própria, Guilherme, porque a gente desenvolve usando IA, usou muito o Claude Code, ainda usa o Claude Code, já usou o GPT e tem o Codex na manga.

    Se você simplesmente pegar ele puro — instalou na máquina e saiu pedindo para ele codificar ou fazer verificação de segurança — os resultados não são bons. Ele gera código vulnerável, gera código sem autenticação. Faz barbaridades. Agora, a partir do momento que você orienta direitinho com skills — ou seja, com uma série de instruções de como ele deve fazer as coisas, feitas por um ser humano —, aí sim ele funciona. E a partir daí é a instrução mais o modelo juntos. A nossa experiência é que se você orientar o modelo direitinho, ele vai funcionar bem. E quanto melhor o modelo, melhor ainda vai funcionar.

    A gente usou o Sonnet por muito tempo. Quando saiu o Opus, mudou muito a forma de fazer as coisas — foi um salto muito grande, de fato um modelo muito melhor, mas dentro de um ambiente em que ele é orientado e direcionado.

    O Mitos, pelo que dizem — pelos benchmarks que a Anthropic divulgou — ele é cerca de 20% melhor do que o Opus 4.7 em tudo. Se isso de fato é verdade, ele puro vai funcionar um pouquinho melhor do que o Opus sem instrução. E ele deve funcionar melhor nos ambientes que a gente já tem, com boas instruções. Imagino que deva funcionar melhor que o Opus 4.7. Quanto melhor? Não sei. O fato é que, no final de tudo, a gente tem que olhar com um certo ceticismo, com o pé atrás em relação ao que está sendo propagandeado. A gente tem que esperar para ver, com o pé no chão, o que esse negócio vai entregar quando e se a Anthropic abrir o acesso ao Mitos.

    A Anthropic disse — eu estava lendo semana passada — que existe uma previsão de que os modelos chineses estariam cerca de 6 a 12 meses atrás do Mitos. Só que a gente já sabe que esse prazo pode ser dois anos em vez de 12 meses — estou exagerando para dizer que o tempo não importa tanto. Outros modelos vão atingir esse mesmo nível. E podemos ficar tranquilos: nós vamos ter modelos que qualquer um poderá rodar e que vão fazer coisas que o Mitos faz ou até mais. O problema não é tanto uma empresa ter um modelo desses e “esconder” — porque aquela velha desculpa de “não vou mostrar a vulnerabilidade para que os maus não possam usar” já foi discutida há muito tempo. Eu já fui perguntado sobre isso há anos, fazendo palestras Brasil afora: “Ah, mas mostrando isso você não está incentivando as pessoas a atacar?” Então, a gente vai ter boas discussões sobre o que esses modelos podem de fato fazer — e vai chegar um ponto em que todo mundo terá acesso, seja pela Anthropic, seja pela OpenAI, seja pelo DeepSeek, ou por qualquer outra empresa que nem fazemos ideia que vai surgir.

    Além de tudo que a gente falou, tem aquele filme — cujo título original é Sneakers, traduzido para o português como Quebra de Sigilo —

    que é o de 92, né?

    Com um grande elenco. Robert Redford e tal.

    Os caras descobrem um equipamento — na verdade são hackers contratados para pegar um equipamento —, e aí descobrem que aquele equipamento conseguia decifrar qualquer tipo de criptografia.

    Um decifrador. É, era um decifrador. Então é um pouco o que a gente ficava pensando: o que aconteceria se isso de fato existisse? O argumento do filme é muito bom, desses filmes hackers. E parece que está acontecendo mais ou menos isso. Claro, não quebrou os modelos criptográficos — pelo menos ainda não. Aí sim seria uma tragédia.

    Deixa para a computação quântica.

    É, Vinícius. Tivemos algumas alterações. Vou ser mais rápido aqui nessa próxima notícia — uma notícia histórica, no sentido de que tivemos atualizações de crimes digitais aqui no Brasil. A lei 15.397 atualizou sensivelmente — e na verdade aumentou — a pena de alguns crimes já existentes, como o furto qualificado digital, e trouxe também algumas coisas interessantes, como a criminalização da cessão de conta laranja para golpes.

    O que temos: uma atualização no artigo 155, que é o furto, qualificando como crime — com pena de 4 a 10 anos — o furto mediante fraude por meio de dispositivo eletrônico ou informático, conectado ou não à rede de computadores, com auxílio de violação de mecanismo de segurança ou utilização de programa malicioso

    ou por qualquer outro meio fraudulento análogo — que é quase exatamente a redação do art. 154-A, que é o crime de invasão de dispositivo informático. Mas para dar uma maior coerência — que aliás não é uma das qualidades do Código Penal Brasileiro, que é meio que uma colcha de retalhos — dá um pouco mais de coerência ao utilizar a mesma tipificação, mas aqui para a questão do furto qualificado. Pena importante: 4 a 10 anos. E ainda há um aumento de pena se os servidores — aqui os servidores técnicos, as máquinas — utilizados estiverem fora do Brasil, ou se o crime for praticado contra idoso ou vulnerável.

    Lembrando que esse é o grosso do que temos de crimes informáticos hoje. Também há aumento de pena para furto ou roubo de aparelhos de telefonia celular, computador portátil ou tablet — que é o “computador do tipo prancheta”. Ainda bem que colocaram o “portátil do tipo prancheta”, porque senão imagine…

    Exato. Porque em direito penal você não faz analogia para condenar, só para absolver. Então fico pensando nos donos de tablets…

    O meu está aqui do meu lado, o meu tablet, que eu não abro mão.

    Parece que está se referindo a um tablet. Mas essa nomenclatura chamou atenção: por que listar o equipamento? Por que não colocar algo mais genérico?

    Não, mas ao listar o equipamento — você já deu a resposta: em direito penal, para condenar, precisa ter o tipo penal exatamente

    e roubo genérico de eletrônico não serve.

    Mas logo depois tem “ou de qualquer dispositivo eletrônico ou informático semelhante”. Pronto, resolveu o problema. Poderia ter colocado apenas “aparelho de telefonia celular ou computador” e terminado.

    É o que você diria, né?

    Enfim. Aplica-se também ao roubo dos mesmos dispositivos. Furto ou roubo que acontece muito em grandes centros como São Paulo: o cara está com o celular na mão e vem alguém

    de bicicleta ou de moto e rouba.

    Outra curiosidade: também aumentaram a pena do furto de animais domésticos — agora furtar um animal doméstico tem pena de 4 a 10 anos.

    Aí tem a cessão de conta laranja — para quem cede gratuitamente

    Isso. E isso é interessante.

    Que aí entra nas fraudes, seria uma modalidade de estelionato: quem cede gratuitamente ou onerosamente conta bancária para que nela transitem recursos destinados ao financiamento de atividade criminosa. Tem uma certa questão aqui, porque muitos criminosos criam contas sem que o titular saiba. Obviamente, esse é um crime que exige o dolo do titular.

    Uma coisa muito importante, Guilherme — a gente vai deixar o link: tem aquele serviço do Banco Central onde você entra e bloqueia a criação de novas contas em seu nome.

    Sim. Acho que é muito pouco divulgado. Deveria ser mais divulgado. E na Receita Federal há uma opção para você bloquear a abertura de empresas em seu nome. São duas coisas muito úteis e que ajudam para esse caso de se abrir conta ou empresa sem a sua autorização. Agora, se você der autorização, aí está cometendo crime.

    É, exatamente.

    E a fraude eletrônica — pena de 4 a 8 anos — seria um tipo de estelionato. Se cometida com utilização de informações fornecidas pela vítima ou por terceiro induzido a erro por meio de redes sociais, contatos telefônicos, envio de e-mail fraudulento, duplicação de dispositivo eletrônico, clonagem ou qualquer outro meio fraudulento análogo. Essas fraudes que a gente conhece. A ideia foi dar uma sistematizada em tudo isso. Agora, claro que é importante — são crimes que estão assolando o Brasil diariamente. Todos nós, se não diariamente, ao menos semanalmente, recebemos tentativas desse tipo de fraude.

    E aí a gente pensa: “Bom, mas é um problema de tipo penal? Faltava tipificação?” Talvez não faltasse para a maioria dos casos — a exceção talvez seja a cessão de conta laranja, que antes precisaria ser enquadrada como participação ou coautoria. Mas enfim, sistematizou, penas maiores, tudo bem. Porém, quantos desses crimes são efetivamente resolvidos no Brasil? Só em 2024, tivemos 2.166.552 casos de estelionato — quatro golpes por minuto, uma taxa de 1.019 ocorrências por 100.000 habitantes. Crescimento de 7.823% entre 2018 e 2020 — digo, ao longo desse período. O estelionato por meio eletrônico especificamente somou 281.000 casos. E há um problema: estados como São Paulo, Rio e Ceará registram todos os estelionatos de forma agregada, então o número real de estelionatos digitais pode ser ainda maior.

    Qual a porcentagem desses casos que chegam à fase judicial? 2,4% dos casos registrados.

    O vice-presidente do FBSP — Fórum Brasileiro de Segurança Pública, que faz o anuário brasileiro — afirmou que o risco de ser punido pelo cometimento de um estelionato é muito baixo, e quando o autor é identificado, no máximo ele irá repor o prejuízo causado. A Polícia Federal registrou quantos inquéritos de crimes digitais de alta complexidade em 2024? Cinquenta e cinco. Não 55.000, são 55. E até julho de 2025, a PF somava 30 novos inquéritos de crimes digitais.

    Então, apesar de tudo, eu acredito que precisamos de outras coisas além de aumentar penas. Senão vira populismo penal, que é muito comum no Brasil: aumentar as penas para um determinado crime sem dar condições para que a polícia, o Ministério Público e os agentes de segurança envolvidos sejam mais bem treinados, recebam melhores recursos e ferramentas para lidar contra esses crimes. Esse é o problema maior: os órgãos de investigação não estão sendo municiados para conseguir lidar com isso. A gente já sentiu isso na pele. Não vou falar nenhum caso específico, mas em mais de uma situação… Esses dias você foi a uma palestra onde alguém comentou que não tem recursos, não tem como ir atrás.

    É simples assim.

    E bem chocante, sabe? Você imagina: a polícia já tem poucos recursos, não tem gente, não tem preparo suficiente, não tem uma série de coisas. Como vai atrás de um crime de R$ 100, 200, R$ 300?

    Aqui está a continuação da transcrição corrigida:

    Como vai atrás de um crime de R$ 100, R$ 200, R$ 300?

    Eu não peguei o valor médio aqui, mas alguns desses valores são importantes. Eu já tive familiares que caíram com valores consideráveis.

    Não, eu até conheço uma situação que chegou para mim de R$ 4.000.

    Só que é tanto, é tanto e não dá em nada — no sentido de que eles não conseguem ir atrás. E ao mesmo tempo a gente tem coisas que poderiam ser mais facilmente feitas, que é, por exemplo, a Anatel controlar o uso de números, essas centrais telefônicas que ficam dando golpe. Não é possível que eles não tenham como controlar isso.

    Porque você tem um comportamento ali que seria relativamente fácil de detectar, hoje com IA e tudo mais.

    Não precisa sequer de IA para isso. Você tem bancos e tudo mais, você consegue fazer um cadastro de quem são essas empresas. Aí você pega um monte de entidades estranhas, desconhecidas, que começam a fazer ligações — centenas de milhares de ligações: liga e desliga, liga e desliga. Tem um padrão ali que você poderia resolver. Não precisa de IA para isso, só precisa de inteligência mesmo para ir atrás.

    E no entanto, eu não recebo mais ligação de número desconhecido.

    Saturou a plataforma.

    Acabou.

    Saturou a plataforma. Se alguém quiser me mandar um recado por número desconhecido, dane-se. Vai ter que achar outro jeito, porque por ali não vai.

    O celular passa tocando, não tem o que fazer.

    Eu ainda tenho um diferencial aqui: tem uma farmácia na região metropolitana que, em vez de usar o DDD local, usa o 055. Então eu recebo toda semana pessoas me perguntando quanto custa determinado medicamento. Mas enfim.

    Por um lado interessante, por outro nem tanto. Talvez não precisássemos disso. E é claro que melhorar a legislação penal é importante, mas o que está por trás disso, o que está por baixo, é o que deveria realmente merecer a atenção do poder público. Não é um crime ocasional — é um crime que todo mundo sente na pele. Certo, Vinícius?

    Certíssimo. Eu ia comentar mais sobre aquelas notícias dos bugs do Linux.

    Pois é,

    mas isso fica para uma próxima, porque surgiram dois bugs sérios. Temos duas notícias de bugs gravíssimos: o primeiro é o CVE do “Copyfile” — ou como está sendo chamado.

    Que permite escalar privilégios no Linux, em todas as distribuições. É local — não é remoto. Um usuário local consegue se tornar root. Eu até fui procurar os detalhes da vulnerabilidade, mas o que chama atenção é que nos dois casos — e há um segundo caso agora, da semana passada para essa, que é o Dirty Frag — a divulgação responsável foi comprometida. Temos código e ferramentas para explorar essas vulnerabilidades já sendo distribuídas na internet antes da correção.

    Antes da correção,

    o que forçou os descobridores do problema a publicar tudo de uma vez, porque já estava circulando independentemente a forma de explorar essas vulnerabilidades.

    Essas vulnerabilidades permitiriam, entre outras coisas, sair de dentro de um container Docker rodando no Linux e acessar, por exemplo, o restante do sistema operacional onde o Docker está hospedado.

    Catastrófico.

    É algo violento. Mas exige um pé inicial no servidor — o atacante precisa já ter algum acesso. Então, pessoal, muito cuidado com expor serviços na internet, abrir portas desnecessárias. Isso tem aparecido de forma recorrente quando a gente faz pentest, Guilherme.

    Com frequência.

    Tem sido comum encontrar serviços instalados para testes que ficaram lá, mal configurados, às vezes com senha padrão, às vezes com endpoints e APIs expostas que permitem acesso local à máquina — ao container Docker, por exemplo. A partir de uma vulnerabilidade dessas, como o CVE do Linux que mencionamos, é fatal.

    O cara tem o pé lá dentro.

    É fatal.

    Então, de fato, não é porque a infraestrutura não está mais on-premises, não está mais dentro de casa, que alguém lá na Amazon, no GCP ou no Azure está cuidando da segurança por nós. Ao colocar algo no ar e expor um serviço na internet, mesmo que seja para um teste rápido: use uma VPN, no mínimo faça um filtro com base em IP — ainda que não seja tão efetivo, funciona. Mas não dá para ter grandes garantias nisso. Tenham cuidado, porque tem sido frequente encontrar esse tipo de situação. E pior: o pessoal esquece. Você sobe o serviço para testar, fica lá rodando, e você nem lembra mais que aquele serviço existe.

    É o gerenciamento de infraestrutura.

    Uma última notícia minha aqui, Vinícius: como a IA pode acabar com o anonimato. O que a jornalista Kelsey Piper conseguiu fazer foi descobrir que o Opus 4.7 da Anthropic é muito bom em fazer fingerprint de texto.

    4.7, perdão.

    É muito bom em fazer fingerprint de textos. Ela é uma jornalista com muitos textos publicados na internet, e começou a fazer testes: submetia para o Opus textos que ela nunca tinha publicado, guardados localmente, que nunca vazaram. E o Opus conseguiu identificar — ela chegou ao número de 125 palavras para que o Opus conseguisse reconhecer um texto dela. Ela também testou o inverso: pegar um texto que ela nunca publicou e verificar se o modelo afirmava que aquele texto foi escrito por ela, com base no estilo. E ele conseguiu.

    Ela testou também com o GPT e com o Gemini — que é o patinho feio das IAs — e eles não conseguiram. Ela fez testes na web, via API, fez testes com amigos. O resultado sempre foi o mesmo. Chegou a colocar um texto de 15 anos atrás, da época em que estava na escola, e o modelo a identificou.

    Não foi uma pesquisa científica — é um teste que ela fez mais informalmente. A hipótese dela é que isso vai funcionar melhor com pessoas que têm mais conteúdo escrito e identificado na internet. Ela é jornalista, publica todo dia. Mas a hipótese é que, pouco a pouco, a quantidade de dados necessária para identificar alguém vai diminuir. Isso é hipótese dela, a gente não sabe ao certo.

    E aí isso passa a ser um problema sério para proteção de dados e privacidade. Você teve, ao longo das últimas décadas, uma série de pessoas se manifestando na internet de formas diferentes — não somente para cometer crimes, mas pessoas perseguidas por posicionamento político ou por orientação sexual, que queriam, com um certo manto de anonimato, se conectar com outras pessoas de gostos semelhantes. De repente, numa virada de chave, um modelo de IA pode descortinar o que essas pessoas escreveram no passado com relativa facilidade.

    Claro, ainda não estamos falando de uso para fins de perícia judicial, porque existe uma ciência por trás disso para identificar plágios e padrões, feita por peritos. A grande reflexão é: de repente, o modelo consegue pegar um texto e dizer que foi o Vinícius que escreveu aquilo num fórum de jogo que ele nem se lembra mais, há 20 anos.

    Fica tranquilo que a Palantir já deve estar fazendo isso.

    Agora, pensando em usos interessantes: pegar textos antigos, textos bíblicos, todas aquelas discussões sobre a Bíblia histórica — de quem escreveu o quê, de onde veio determinado trecho —, ou as obras de Shakespeare, sobre as quais se diz que havia mais de um autor. Pode ser muito interessante, no nível da literatura. Descobrir fraudes e plágios também. Mas o problema maior aqui é essa questão de violação de privacidade e intimidade.

    Perfeito. Pareceu uma claquete.

    Para marcar. Tem alguma recomendação?

    Ah, tem uns filmes velhos aí que a gente estava…

    Pois é, eu queria falar dos filmes velhos. Fala rapidinho aí.

    Tá. Eu até comprei um para assistir — deixa eu ver. Eu tenho aqui.

    Você já comprou?

    É, tem um que você vai me criticar. Deixa eu ver. Eu esqueci o nome. Deixa eu pegar.

    Vai procurando aí. Eu queria sugerir um livro — lançado recentemente, no início desse ano — que é Sob a Sombra da Suástica, de uma professora que fez doutorado na França sobre um tema muito interessante: ela analisou a invasão da França pela Alemanha nazista sob a ótica de cartas de crianças. Um negócio bem tocante, porque você teve uma movimentação enorme de pessoas. Milhares de crianças se perderam durante essa dominação que dividiu a França em duas zonas — uma tomada pelos alemães, outra não —, pessoas fugindo e tudo mais.

    Lembra um pouco daquilo que a gente vê em Bastardos Inglórios, aquela perseguição. Só que aqui é um livro de história. Ela simplifica a tese para explicar como se deu o cotidiano das pessoas durante essa ocupação — para pessoas normais, como nós, que gostam de história mas não são historiadores. É um livro bem interessante para quem quer entender esse momento histórico, sem ser necessariamente um especialista. A autora é Franciele Becker.

    Eu estou tentando achar aqui os meus vídeos comprados.

    Caiu num scam. Comprou o vídeo.

    Caí no scam do Prime. Estou tentando achar.

    Eu nunca comprei filme lá, sabia?

    Eu já comprei sim. Mas são normalmente coisas antigas.

    É que não tem, né? Aquela reflexão que a gente fazia: os streamings não conseguem ter coisas mais antigas e clássicas.

    É.

    Um deles era o Quebra de Sigilo, que é o Sneakers.

    O outro era aquele do grupinho de crianças que descobria uma tecnologia alienígena e conseguia fazer uma nave envolta num campo de força. Era bem legal.

    Isso é coisa muito velha. Eu até peguei para assistir

    com as crianças.

    Foi um filme que eu assisti quando era criança. Muito legal. Se alguém assistir hoje e achar ruim, não venha me culpar.

    Mas é uma coisa interessante — quem é um pouco mais novo provavelmente não viu esse filme e não vai conseguir achar nos streamings, e não tem mais locadora.

    Está no Prime, Apple TV também tem. É claro — se você conseguir localizar depois de comprar o filme.

    Eu tenho aqui, vou colocar no show notes.

    É um filme mais de fantasia, na linha de sessão da tarde.

    A gente estava vendo no Just Watch.

    Então vou deixar o Sneakers mesmo, porque esse é um filme de hacking bem legal.

    Esse é um dos primeiros filmes de hacking que eu acho que assisti.

    Eu tenho aqui no Prime também. E sobre isso, depois vieram outros filmes e tal.

    É Viagem ao Mundo dos Sonhos, Vinícius.

    Viagem ao Mundo dos Sonhos! Esse é o cara. Com Ethan Hawke, né? Quando era criança.

    Bem criança.

    Um negócio bem legal.

    Tá bom. Vamos adiante. Então, agradecemos a todos e todas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima.

    Até a próxima.
  • Segurança Legal

    #416 – Saber sem conhecer

    30/04/2026 | 43min
    Neste episódio comentamos sobre os desafios e as soluções técnicas para a aferição de idade na internet, um tema que ganhou forte destaque com as novas regras do ECA Digital. Você irá descobrir como funcionam os protocolos de conhecimento zero, também conhecidos como Zero-Knowledge Protocol ou ZKP, e de que forma eles permitem comprovar a maioridade de um usuário sem expor dados pessoais sensíveis. Você entenderá a diferença entre ferramentas invasivas, como a biometria facial, e métodos técnicos que respeitam a privacidade e a proteção de dados, utilizando criptografia aplicada e padrões internacionais de segurança da informação. Além disso, você vai aprender sobre os impactos práticos da regulamentação da ANPD no controle de acesso a conteúdos restritos e como evitar o rastreamento excessivo por grandes empresas de tecnologia. O debate também aborda táticas de engenharia social, destacando uma série educativa sobre phishing baseada na psicologia da fraude, que é um conhecimento essencial para evitar golpes online e vazamento de dados. Ao longo da discussão, você verá que é possível equilibrar a proteção no ambiente digital com a garantia da intimidade, sem adotar modelos de vigilância em massa durante a autenticação de sistemas.

    Para não perder nenhuma discussão sobre tecnologia, direito e sociedade, assine o podcast na sua plataforma de áudio favorita e siga nossos perfis no YouTube, Mastodon, Blue Sky, Instagram e TikTok. Aproveite para avaliar o programa e compartilhar o conteúdo com outras pessoas interessadas no assunto. Você também pode apoiar o projeto acessando a plataforma de financiamento coletivo indicada no áudio ou enviando suas dúvidas e sugestões diretamente para o nosso e-mail oficial.

    Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana

     Visite nossa campanha de financiamento coletivo e nos apoie!

     Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing

    ShowNotes

    The Psychology of Fraud, Persuasion and Scam Techniques

    LEI Nº 15.211, DE 17 DE SETEMBRO DE 2025 – Dispõe sobre a proteção de crianças e adolescentes em ambientes digitais (Estatuto Digital da Criança e do Adolescente)

    DECRETO Nº 12.880, DE 18 DE MARÇO DE 2026 – Regulamenta a Lei nº 15.211, de 17 de setembro de 2025, que dispõe sobre a proteção de crianças e adolescentes em ambientes digitais, e institui a Política Nacional de Promoção e Proteção dos Direitos da Criança e do Adolescente no Ambiente Digital.

    Mecanismos confiáveis de aferição de idade – ORIENTAÇÕES PRELIMINARES

    Radar tecnológico – Mecanismos de aferição de idade




    📝 Transcrição do Episódio







    Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o Segurança Legal, o seu podcast de segurança da informação, Direito da Tecnologia e Tecnologia e Sociedade. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim. E aí, Vinícius, tudo bem?

    Olá, Guilherme, tudo bem? Olá aos nossos ouvintes.

    Sempre lembrando que para nós é fundamental a participação de todos. Aproveite perguntas, críticas e sugestões de tema. Para isso, você já sabe. Você pode mandar uma mensagem para [email protected]. Na verdade, se você já sabe, eu não precisaria dizer. Mas enfim, [risadas] é o que está escrito aqui na nossa abertura.

    Então, no YouTube, você pode nos assistir também no YouTube, lá no Mastodon, no Blue Sky, no Instagram e também no TikTok. Esse com alguns cortes. Interessante até para… Aliás, Vinícius, fala um pouquinho sobre a tua sériezinha que você está fazendo.

    Que eu achei super interessante pelo seguinte, isso não estava na pauta, mas enfim.

    Porque esses dias o pessoal lá da faculdade começou a falar sobre phishing e eu mandei aquele teu vídeo para eles, eles adoraram, assim, esclarecedor e tal. Fala um pouquinho sobre esse projeto aqui.

    Não é? É do livro. Agora a gente pegou, só que eu não estou com o livro aqui na minha frente, está no outro lugar.

    Mas eu tenho o livro que fala sobre a psicologia da fraude, da fraude. De esquema e tudo mais. Vai falando aí.

    Que a autora é a Martina Dove, a autora do livro. E esse livro a gente já tem ele há uns bons anos, inclusive vai sair a versão nova. Eu comprei na pré-venda agora. Ela atualizou o livro, acho que sai em setembro, se eu não estou enganado. Mas é um livro que a gente já tem há alguns anos. Foi logo que ele saiu.

    Eu ouvi uma entrevista que ela deu num podcast e assim, nossa, a gente precisa desse livro. Aí eu comprei o livro e esse livro é muito interessante. Inclusive agora vamos fazer o merchan da Brown Pipe nos nossos testes de phishing. Porque o que você vê normalmente aí no mercado em termos de phishing, você vai num site, compra tantos envios e créditos lá e faz os envios para todo mundo e tal.

    E quando a gente faz phishing, a gente cria as campanhas. Nós criamos as campanhas para cada situação. E a gente sempre fez com base na nossa experiência do tipo de coisa que as pessoas caem, o que a gente conhece, o que se tem de golpe comum e tal. E esse livro, quando ele saiu, foi para nós um upgrade assim nas campanhas de phishing, porque ele dá… a Martina Dove, ela fez uma pesquisa, não é achismo e tal, então ela fez uma pesquisa e ela te traz quais são os elementos que fazem com que funcione um scam. É muito interessante. E aí nós decidimos, Guilherme, fazer essa série, digamos assim, eu e a Camila.

    Porque no Instagram a coisa é mais rápida, são vídeos mais curtos. Então, a gente achou interessante contribuir de alguma maneira com algo que seja útil ali. Não adianta a gente falar dos nossos serviços no Instagram. Não faz sentido, ninguém vai querer ver ali.

    É. E aí a gente resolveu assim, o que a gente pode fazer de útil que marque a presença do Segurança Legal e da Brown Pipe no Instagram? E essa é uma das coisas que a gente encontrou assim, tem um monte de gente caindo em golpe, todo mundo falando de golpe, golpe do advogado. A OAB Rio Grande do Sul. Eles estão, a OAB Rio Grande do Sul está fazendo uma campanha no estado inteiro com material, bem forte para combater o tal do golpe do advogado, que é um scam feito com pessoas que têm processos. Os dados dos processos são públicos e os caras olham os dados dos processos, ligam dizendo que tem alguma notícia, algum dinheiro que tem para sair e pedem grana. Então assim, é um troço horroroso que está acontecendo.

    Então teve um evento da OAB daqui de Três de Maio, que me convidaram para ir lá falar sobre isso também, junto com o delegado da Polícia Civil daqui da cidade e mais o delegado das prerrogativas dos advogados aqui da cidade e a presidente também, a Laura Redel, que é a presidente da OAB aqui em Três de Maio. E se discutiu esse assunto. Foi no auditório, foi bem legal assim, bastante gente. E eu já estava… coincidentemente eu fui convidado para isso depois de ter planejado a série junto com a Camila.

    E a gente entendeu que seria extremamente útil fazer essa série para instruir as pessoas. Então, se você for lá no Instagram, vocês vão ver que são vídeos curtos, um minuto aproximadamente, e cada um deles vai progredindo, vai seguindo o que a Martina Dove explicou na pesquisa dela. E é só coisa útil, não tem enrolação ali.

    Também está lá no YouTube Shorts. Então você, se não gosta do Instagram, vai lá no YouTube Shorts. O nome do livro é The Psychology of Persuasion Techniques. Martina Dove, aliás, dove em italiano quer dizer onde, e dove em inglês é pomba. [risadas]

    E inglês é pomba.

    Pomba. É verdade. E então uma nota mental para a gente aqui. Quando terminar a série, Vinícius, vamos transformar num episódio. Tem inclusive vídeo no YouTube, daí é um pouco mais longo. O vídeo no YouTube, além dos shorts, no YouTube nós temos os vídeos com… a gente fez um vídeo com as dicas condensadas dos primeiros três vídeos do Instagram.

    Pega aí o link depois. Isso tudo foi a abertura, gente. Saiu um pouquinho do planejado. [risadas]

    Tem o blog, o episódio vai ser curto.

    Tem o e-mail semanal e tem a nossa campanha de financiamento coletivo lá no apoia.se/segurancalegal, que a gente sempre conclama que você, se puder, faça. Essa ajuda é importante para a gente. Nos ajuda a manter aqui toda a nossa infraestrutura, microfones.

    Se não quiser e quiser apoiar de outra forma, divulga o podcast, apresenta ele para outras pessoas. Para nós é muito importante.

    Isso. E isso a gente sempre fala, a gente tem muita sorte porque a gente conseguiu reunir em torno desse projeto pessoas muito legais. É uma exceção na internet assim. Mas enfim, apoia.se/segurancalegal. Bom, a gente volta aqui hoje depois do nosso episódio que a gente gravou sem ser as notícias, o café, que a gente falou sobre algumas notícias antes, a gravação com Paulo Rená no 413, e a gente tinha prometido lá que a gente voltaria para falar fazendo uma abordagem um pouco mais técnica sobre as questões de aferição de idade. Isso na esteira do que o ECA Digital tem colocado, que é a grande preocupação. Ou seja, como é que eu vou fazer de fato esse processo um pouco maior de aferição de idade? O decreto que regulamenta o ECA Digital, decreto 12.880, fala em aferição de idade como um termo geral, e aí verificação de idade, que é um procedimento específico.

    Enfim, e aí logo vem à tona a questão do ZKP. E eu acho que a gente pode começar, Vinícius, você explicando, claro, pensando sempre como a gente sempre faz, que a audiência não é só de pessoas técnicas. Então a gente pode ter advogados, até gente da área técnica que não tem muita intimidade ou familiaridade com esses conceitos. Então, acho que você começa falando o que é, para que a gente vá se encaminhando pouco a pouco para a discussão um pouco mais técnica. A ideia é que você possa explicar o ZKP, Zero-Knowledge Protocol.

    É que tem protocol e tem proof.

    O que é a prova de conhecimento zero?

    Quando a gente fala de prova de conhecimento zero, a ideia é você conseguir provar um determinado atributo ou uma determinada informação que você conhece ou que você tem, ela pode ser sobre você ou não, sem mostrar, sem revelar a informação. Então assim, como analogia, imagina que você vai comprar bebida alcoólica em algum lugar e certamente vão te pedir a carteira de identidade, certo? Vamos fazer de conta que vão pedir a sua carteira de identidade.

    Para mim é meio autoevidente que eu tenho mais. [risadas]

    É meio autoevidente. Então, o que acontece? Se você tiver que mostrar a sua carteira de identidade para provar que você é maior de idade, você não vai provar apenas que você é maior de idade. Você vai estar mostrando a sua data de nascimento, que é a primeira informação que o cara vai ter que ver para saber que você é maior de idade, olhando a sua carteira. Mas ele vai ver seu nome, ele vai ver seu CPF, vai ver o número do seu RG que vai estar junto ali. CNH, a mesma coisa, tem todos os seus dados ali. Mas você queria mostrar somente, você queria, na verdade, provar que você é maior de idade. É isso que você queria provar. Você não queria nem mostrar a sua data de nascimento, certo?

    Então assim, a ideia do Zero-Knowledge é justamente impedir a seguinte situação: eu tenho que provar para um site que eu sou maior de idade, certo?

    Sim.

    Então você já pode fazer isso se quiser fazer isso com o Gov.br. Não faça, mas você pode fazer. Qual é o problema de você usar o Gov.br hoje dentro de um site para provar que você é maior de idade, revelar a sua identidade lá para ele? É justamente que o site vai saber não só que você é maior de idade, mas ele vai saber o seu nome, ele vai saber quem você é. Ainda que o site, vamos supor, agisse de uma maneira extremamente ética e não olhasse nenhuma outra informação a não ser a sua data de nascimento, o Gov.br vai saber que o site tal está verificando a sua identidade.

    Então isso dá aquilo que a gente já discutiu mais de uma vez nos episódios passados, que é a possibilidade, por exemplo, no caso do Gov.br, do governo saber o que você anda acessando. Em país nenhum ninguém quer isso. Acho que não vai ser no Brasil que a gente vai querer uma coisa dessa. Então é ruim o governo saber todo e qualquer site em que você está entrando.

    Então a gente não quer isso e, ao mesmo tempo, o site no qual estou entrando, se ele só precisa saber se eu sou maior de idade e não precisa de nenhuma outra informação para prestar o serviço para mim, eu estou dando informação demais para ele se ele sabe, por exemplo, o meu nome, meu CPF, meu RG e até mesmo a minha data de nascimento. Então eu preciso de uma forma, um protocolo, uma forma de provar que eu sou maior de idade sem deixar que o governo saiba para quem que eu estou provando e sem que a entidade para a qual eu estou provando que eu sou maior de idade saiba qualquer outra coisa a meu respeito que não seja que eu sou maior de idade.

    E isso resolve, tenta resolver um problema até anterior, Vinícius.

    Que é a preocupação que a gente ponderou lá com o Rená, que é o seguinte: eu tenho formas de fazer isso, eu diria mais simplificadas, mas que, no entanto, vão agredir demais a privacidade. Biometria, por exemplo. Biometria facial, tirar uma foto mandando seu documento ou ainda aquelas simulações de cobrança… Não é simulação, não, você põe o seu cartão de crédito. E aí você ainda coloca um terceiro cara, um quarto cara ali que é a operadora de cartão de crédito que vai saber que você autenticou com o site XYZ.

    Isso. Todas essas coisas, esses problemas, vejam que estão acontecendo agora, bastante gente reclamando por aí de soluções muito facilitadas e às vezes ineficientes, como reconhecimento facial. É isso que o Zero-Knowledge vem resolver, não é?

    Sim, exatamente. Então o Zero-Knowledge me permite fazer esse jogo. O próprio Zero-Knowledge vai permitir que eu prove para o site que eu tenho um dado atributo sem que o site saiba os demais atributos e, ao mesmo tempo, o governo não vai saber para onde eu estou provando, certo?

    Então, óbvio, ele utiliza um protocolo criptográfico, a essência é criptografia. Que permite que eu possa ir junto ao Gov.br, gerar uma identidade válida e depois pegar essa identidade ou pegar uma prova que foi gerada, assinada pelo Gov.br, e eu posso entregar isso para o site ou a entidade que for. Ele pode verificar a assinatura e verificar: isso aqui é um documento válido gerado pelo Gov.br e de fato esse cara aqui nasceu em tal data. Então é maior de idade, pode usar o meu serviço.

    A essência é essa. Claro que tem uma série de requisitos para isso funcionar. Ou seja, não deve ser possível alguém provar algo que não é verdade. [risadas] Porque senão a gente tem um problema bem sério no protocolo.

    Claro.

    Esses protocolos não são novos. Isso se discute desde as décadas de 70 e 80. Eu lembro muito bem de ler no livro do Bruce Schneier, que é Applied Cryptography, um livro de capa vermelha. Quem estudou criptografia conhece esse livro. E lá, uma das coisas que tem são justamente esses protocolos de conhecimento zero. É muito interessante que você prove para alguém que você tem um determinado atributo sem dar todo o resto dos seus dados. Bom.

    E aí ainda atende o princípio da necessidade da LGPD. Ou seja, você vai recolher o mínimo de dados possível para poder…

    O ZKP puro não faz exatamente isso. Ele é a base de tudo. A gente tem que somar com um outro cara que nós vamos falar agora na sequência, que é o BBS Plus.

    Mas assim, antes de chegarmos no BBS Plus, a gente tem que citar que existe um padrão para o esquema de credencial verificável, inclusive o nome é Verifiable Credentials do W3C (World Wide Web Consortium), que é o que regula as outras normas da web, HTML, essas coisas todas. Então, existe um padrão, existe uma definição de como você implementa um protocolo desses para uso na web. E a própria União Europeia, ela tem o regulamento, eles já têm uma versão deles do Verifiable Credentials. A Austrália tem uma também. E por que isso é importante? Porque tem várias maneiras de você implementar um ZKP.

    Isso é um conceito, não é uma coisa pronta que você sai usando, e você precisa de um padrão para as coisas serem interoperáveis. Porque como é que eu vou fazer para acessar um site de uma empresa que está me fornecendo um serviço e ela não está baseada no Brasil e não implementa o padrão brasileiro? E, ao mesmo tempo, imagina, todo site ter que implementar 300 padrões de cada país. Então, é necessário que se faça essa definição de um padrão e que esse padrão torne as aplicações compatíveis. O interessante agora é o seguinte: o ZKP é um conceito, uma ideia. OK? Tem vários protocolos que fazem ZKP para várias coisas diferentes. Nesse caso específico, que a gente está falando do ECA e provar algum atributo e tal, nós temos dois protocolos que, somados, entregam aquilo que a gente precisa no ECA, por exemplo.

    O primeiro deles é o BBS Plus. Esse BBS Plus tem uma funcionalidade que é: você pode ter uma identidade gerada pelo Gov.br na sua máquina. Então você gerou isso uma vez, tem a identidade na sua máquina e você pode, ao mostrar a sua identidade para um site, ocultar os campos que você não quer mostrar. Mantendo o documento válido, mantendo a assinatura válida do Gov.br, por exemplo. Gente, eu estou falando em Gov.br, mas poderia ser qualquer outra entidade. O Gov.br é meio óbvio porque ele tem o CPF de todo mundo, os dados de todo mundo, está tudo lá.

    Mas pode ser uma outra entidade, pode ser o banco. Vocês podem se logar no Gov.br usando o banco, por exemplo. Também faria uma situação semelhante aí.

    Então, com o BBS Plus, você consegue ter a identidade com você numa carteira digital, no seu computador, no seu celular, e você pode provar para um site qual é a sua data de nascimento. O BBS Plus não vai ocultar a informação. Ele não vai derivar a informação. Ele só vai dizer que você tem aquele atributo e vai esconder os demais que você não quer mostrar. Ele é muito bom em termos de consumo de recursos, é muito rápido, é questão de milissegundos. Então isso significa que em dispositivos portáteis, como celular, você tem um consumo baixo de recursos, o que é o ideal. Mas ele tem um problema que é dispor a informação diretamente. Então, no caso da idade, ele não consegue provar dizendo apenas “é maior de idade”. Ele tem que entregar a data de nascimento.

    Que é dado pessoal.

    Que é dado pessoal. Mas a gente tem um outro protocolo, Guilherme, que pode ser somado a isso, que é o ZK-SNARKs. É um outro cara que pode ser somado à solução, que, diferente do BBS Plus, consegue fazer o seguinte: você tem a sua identidade digital emitida pelo Gov.br e aí você chega num site, tem que provar que é maior de idade. Com esse protocolo, você consegue derivar uma informação a partir da sua identidade e provar que aquela informação derivada é válida.

    Então eu preciso provar que sou maior de idade. Eu faço um cálculo ali na minha máquina, no meu computador, no meu celular, que vai pegar a minha data de nascimento e vai validar que de fato eu tenho mais de X anos. E essa nova informação gerada é válida, você inclusive consegue checar isso com o Gov.br na hora de apresentar. Então o site que recebe essa minha apresentação de “sou maior de idade” não sabe a minha data de nascimento, ele sabe que eu sou maior de idade e consegue verificar a validade dessa afirmação. É isso que o protocolo permite fazer. E por que é muito interessante? Porque eu não revelo a informação diretamente.

    Qual é o problema desse cara? É que esse cálculo é na ordem de alguns segundos em um dispositivo como um celular. E aí a gente não pode esquecer de pensar que os celulares de muitas pessoas são antigos ou com baixa capacidade de processamento. Levar alguns segundos para provar uma coisa dessas não é o ideal.

    E para a sustentabilidade, é insustentável.

    Uma solução que seria meio uma volta que a gente dá seria você gerar a cada aniversário uma nova identidade no Gov.br. E essa identidade já viria com um campo dizendo “maior de idade”.

    Sim.

    E aí, se você usar só o BBS Plus, você simplesmente revela aquele campo que diz que você é maior de idade e acabou, não precisa fazer cálculo nenhum. O documento já vem com isso e o BBS Plus é extremamente leve. Seria um workaround. Na verdade, eu falei a cada ano, mas não, é só quando você se torna maior de idade. Você renova sua identidade no Gov.br, já vem com a flag marcada dizendo que você é maior de idade e, a partir dali, esse documento vai servir sempre.

    Você tem ainda certificados digitais, em que você ainda poderia ter um certo atributo ali também. E claro que daí a solução que vai te identificar teria ainda acesso…

    Não dá. É aí que está. Certificado digital não é ZKP. Você tem uso de chaves assimétricas, tem a questão da assinatura digital, mas você não tem a ideia do certificado digital no ZKP porque o certificado vincula uma chave pública com a sua identidade, mostrando claramente o seu nome e seu CPF.

    Tem vários tipos de certificados diferentes, com funções diferentes também, mas ainda assim você teria um requisito de identificação do cara.

    É. Então, a gente tem que tomar cuidado porque isso aqui não é panaceia. Ou seja, não é solução para tudo. Não é para você que está desenvolvendo uma solução aí pensar: “Nossa, eu vou usar Zero-Knowledge para autenticar todo mundo na aplicação”. Não. Isso aqui é para atender situações muito específicas, em que de fato a preocupação maior aqui é evitar que menores acessem determinados sites ou determinados serviços. Então, não é que foi criada agora essa matéria. Esses conceitos existem há mais de 40 anos. Mas a gente está discutindo isso aqui agora porque a gente tem o ECA Digital, tem toda a situação aí de ter que fazer controle de acesso por idade. Aí entra todo mundo em pânico, Guilherme, como se o mundo fosse acabar, porque vai ter que verificar a identidade na hora de entrar no site.

    Sim, a gente alertou um tempo atrás, inclusive quando começou a acontecer antes na Inglaterra, nós comentamos aqui no podcast Segurança Legal. Que na Inglaterra estava sendo bastante discutido porque lá eles já têm uma regra que exige de site com conteúdo adulto a verificação se as pessoas são adultas de fato. E estavam discutindo como iam fazer isso, porque existe um problema real de monitoramento, de vigilância em massa, de uma série de situações que são perniciosas.

    Que são essas soluções mais fáceis que a gente já colocou antes. Pede a biometria facial de todo mundo.

    Ah, faz biometria, pelo amor de Deus. Então, pode ser a coisa mais imediata, mas existem problemas já pensados há mais tempo. A gente não estava usando de forma ampla como nós vamos ter que fazer agora. Então há que se pensar com calma para fechar todas as portas de mau uso desse negócio. É possível. Tem padrão da W3C. Tem um monte de gente pensando nisso, não é gente despreparada. São pesquisadores, universidades refletindo sobre esses problemas. O Bruce Schneier é o cara. Se você não conhece Bruce Schneier, você deveria saber quem ele é. Ou o Ross Anderson, o Ferguson, que são os caras de criptografia. O Menezes também, que tem um livro de capa dourada com um labirinto na capa.

    Isso já é bem discutido. Para quem estudou segurança, isso aqui não é novidade. A gente tem solução para esse negócio. Não precisa sair usando biometria. Não precisa sair coletando dados de todo mundo. E não precisa entrar em pânico. [risadas] Essas soluções são possíveis e agora elas têm que ser construídas.

    Então não é que entrou em vigor o ECA Digital, acabou, ninguém pode acessar mais nada. Não, agora é a pressão regulatória, a pressão legal que existe para que essas coisas aconteçam. Porque a gente sabe muito bem como é que é, Guilherme. Se vai acontecer, se vai ser necessário e todo mundo tem que se preparar, ninguém se prepara. Agora a lei está aprovada, então agora vai ter que mexer, vai ter que fazer, não vai ter o que fazer. E quando a gente pega, só para citar aqui, a gente tem o ECA Digital, que é a lei 15.211, a gente tem o decreto regulamentador que aborda algumas dessas questões técnicas. E lembrando que a ANPD, a Autoridade Nacional de Proteção de Dados, vai ser a entidade não somente a fiscalizar isso, mas também produzir e regular como que isso vai se dar.

    Então a gente tem um aspecto técnico e a ANPD tem dois documentos muito interessantes, que é o documento de Mecanismos Confiáveis de Aferição de Idade e Orientações Preliminares, que é um documento agora de 2026, que tem entre os autores, é sempre bom ler os autores: Lucas Borges de Carvalho, Jeferson Dias Barbosa, Diego Carvalho Machado e o nosso querido amigo Davi Teófilo, que está na ANPD. Se ele estiver ouvindo, um grande beijo para ele.

    Também, Vinícius, um documento anterior a esse que é o Radar Tecnológico: Mecanismos de Aferição de Idade. No qual eles explicam algumas dessas questões e também colocam uma série de experiências internacionais, trazendo os documentos da Austrália, do Reino Unido, da França, lá da CNIL. Trazendo algumas normas técnicas. Eu acredito assim que é uma coisa estranha de se falar e pensar. Ao mesmo tempo que a gente tem uma série de sites indo pelo caminho mais simplificado, que é pedir biometria facial, e portanto violando. [risadas] Furada, porque você pega um OBS ali, põe um vídeo… Nem fiz isso, mas imagino que vai funcionar. Que não seja algo tão sofisticado assim. E ao mesmo tempo a gente tem no Brasil, pela própria ANPD, coisas nesta linha já escritas, já acontecendo. Então tem material e tem caminhos para a realização.

    Aí não dá clique, Guilherme. Aí não dá clique. Você dizer que a internet vai acabar, dá clique. [risadas] Agora, dizer que existe solução e que tem um jeito e tem conceitos e tem material e fonte e artigo, ah, aí a coisa complica um pouco.

    Sim.

    Não desperta muito interesse, talvez. Mas é uma coisa que quero destacar, Guilherme, é que isso aqui de novo não é panaceia. Você não vai substituir a forma de autenticação no seu sistema para usar ZKP, a não ser que seja aplicável. Senão você vai usar as formas tradicionais de autenticação, de preferência com segundo fator. Mas isso aqui não é para qualquer solução. São para situações muito específicas, essencialmente quando você quer poder provar que tem um dado atributo para uma parte sem que ela saiba outros atributos sobre você e muito menos que o emissor saiba com quem você está conversando. É um pouco o nosso RG. Nosso RG físico é um pouco de Zero-Knowledge. Quando eu chego num lugar e apresento o meu RG, tudo bem, eu estou entregando informação a mais ali, que não é o ideal. Mas não tem como quem emitiu o meu RG saber que eu fui até aquele estabelecimento. A não ser que o estabelecimento registre as informações e depois se identifique perante o governo e diga “O Vinícius esteve aqui”.

    E é isso que a gente não quer na internet. De forma descontrolada na internet. Quando você acessa o site da Receita Federal, por exemplo, o e-CAC, para falar de Imposto de Renda. É um dos n serviços que se conectam com Gov.br, e ali eles têm todas as informações, eles sabem quem você é. O governo sabe que você está acessando o site do e-CAC. É uma situação em que todo mundo sabe quem é quem, em que horário as coisas estão acontecendo. É o que a gente não quer. E para que isso vai servir no final das contas? A gente poderia muito bem defender: ah, mas por que a gente não usa um OAuth da vida aí para se logar nos sites já com a conta do Google?

    Ora, mas a gente não quer. O Google já sabe tudo o que a gente faz e mais um pouco, ainda mais se for no celular. Mas você não quer que o Google tenha mais essa informação, porque você tem sites que vão ser de acesso provável a crianças e adolescentes. E a primeira coisa que vem à mente são os sites pornográficos, que é uma atividade lícita. Você não quer que o governo saiba se você está acessando. E veja, essa é uma das facetas da intimidade para além da proteção de dados, que é a possibilidade que você tem de manter reservadas certas preferências. A crítica que se faz à lei é justamente essa: você tem uma lei que visa a proteção das crianças, mas ao mesmo tempo você cria uma vulnerabilidade para todas as outras pessoas, que pode inclusive ter o chilling effect. O cara não vai acessar mais certos conteúdos porque tem receio de que as pessoas possam saber. Claro que se você acessa um site de pornografia, o seu endereço IP vai ficar registrado e virtualmente já é possível saber.

    Ou quando ele diz assim: ah, mas por que querem acessar isso? Vai ver se o teu e-mail não está lá no vazamento da Ashley Madison. [risadas]

    Isso é referência de velho, porque o vazamento da Ashley Madison foi em 2015.

    Acho que nem existe mais Ashley Madison. Não sei.

    Vazamento 2015. 11 anos. Faz bastante tempo. O que eu quero dizer é o seguinte: você traz esse exemplo que é o mais óbvio, talvez. Mas você pode ter várias outras coisas sensíveis que as pessoas buscam, que para elas pode ser algo sensível. É aquela história, a gente já teve muito essa discussão, tem livro escrito sobre isso, de não ter nada para esconder, que é o Nothing to Hide do Daniel Solove. Então é uma discussão que a gente já ouviu várias vezes. A minha vida é um livro aberto. Mas é até ali. Quando você começa realmente a escarnecer, vai ver que não é tão aberto assim. E eu não estou criticando ninguém, estou dizendo: eu gosto da minha privacidade e respeito a sua e quero que todo mundo tenha direito à sua.

    Então a gente precisa ter o pé bem no chão quando vai pensar nessas tecnologias que envolvem identificação ou verificação de atributo, como data de nascimento. Senão a gente pode criar outros problemas. Mas de novo, não é motivo para ninguém entrar em pânico. Bem pelo contrário, pezinho no chão, pensar tecnicamente e aí sim discutir a implementação para a gente não ter um Google, uma Meta, uma Microsoft se colocando ali justamente com a intenção de monetizar em cima disso e conseguir, além de monetizar diretamente, de forma indireta por meio do rastreamento.

    E esse é um elemento que talvez coloque bem à prova a atuação da ANPD. Porque no âmbito político, e aqui me refiro a como as Big Techs têm influenciado até mesmo nas legislações dos países. Vide a dificuldade que a gente tem para legislar sobre IA no Brasil por conta do lobby das Big Techs. A prova que a ANPD vai ter é conseguir resistir a essa pressão. Quando a gente olha para o decreto, o artigo 24, que fala sobre os mecanismos de aferição, ele coloca requisitos: proporcionalidade entre o risco e a solução, acurácia, confiabilidade, vedação ao compartilhamento contínuo e irrestrito de dados pessoais, além de segurança, vedação à rastreabilidade da identidade e histórico de acessos, interoperabilidade, não discriminação, transparência. Então esses requisitos já estão postos. Agora a questão é se a ANPD vai conseguir, ao regular e aplicar eventuais sanções, resistir a isso, né, Vinícius?

    Exatamente. Mas é isso, gente. Quem é mais técnico aí, recomendo que dê uma pesquisada mais profunda no assunto. A gente foi bem superficial aqui, para atender a todos os nossos ouvintes. É algo bem interessante. Quem curte criptografia, nossa, é diversão certa. [risadas] Vão ficar no show notes. Os dois documentos da ANPD são bem interessantes e, se você quiser se aprofundar, você consegue ver nas referências como outros países estão lidando com essa questão.

    Guilherme, conseguimos. Diga.

    E por último, para quem tem interesse nos livros que eu citei, a gente citou no episódio 34, de 16 de setembro de 2013. O episódio é Livros de Segurança da Informação. Tá aqui o livro… será que existe para vender? Ainda tem o link para a Amazon. Agora eu estou curioso. Cliquei no link para ver aqui. Criptografia Aplicada, que é esse do Schneier. É capaz de dar os três aqui. Tem para vender ainda, R$ 33. Isso aqui pra relíquia. Que é a Criptografia Aplicada do Bruce Schneier, se eu não estou enganado, a data dele é de 96. Primeiro de janeiro de 96. Tá lá no livro. Ross Anderson, que faleceu nesse meio tempo, em 2024.

    É, que faleceu em 24.

    É. Aí tem livro… a gente citou todos esses livros lá no episódio 34. Quem quiser saber mais dos livros de criptografia, dá uma olhada. Recomendo. É mais para referência histórica, tá, galera? Os fundamentos estão lá, sem dúvida nenhuma, mas é bom procurar bibliografia atualizada sobre criptografia, porque muita coisa mudou nos últimos 20, 30 anos, com certeza. Então é bem importante.

    E nós conseguimos fazer um episódio sem falar de inteligência artificial. Acho que é uma vitória. [risadas]

    É uma vitória. Você acabou de citar. Podia ter ficado sem citar.

    Só na próxima. Eu até estava procurando aqui o History of Information Security para ver algumas questões sobre isso, mas enfim, fica para um próximo episódio essa verificação desse livro também. Tá bom, pessoal? Agradecemos então a todos aqueles e aquelas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima.

    Até a próxima.
  • Segurança Legal

    #415 – IA, MCPs, educação e laudos sem metodologia

    17/04/2026 | 1h 12min
    Neste episódio falamos sobre como a inteligência artificial está redesenhando a segurança da informação, o Direito da Tecnologia e o futuro do trabalho, a partir de um debate que passa por MCPs, APIs, vulnerabilidades em integrações, laudos periciais com IA no processo penal, reconhecimento de voz, cibersegurança ofensiva, educação, LLMs e automação no desenvolvimento de software. Ao longo da conversa, Guilherme Goulart e Vinícius Serafim explicam o que é o Model Context Protocol, por que a adoção acelerada desse padrão amplia a superfície de ataque, quais riscos surgem com falhas como path traversal e execução remota de código, e por que a pressa em integrar agentes inteligentes pode repetir erros clássicos da história das APIs. O episódio também analisa a decisão do STJ sobre a invalidade de laudos produzidos com inteligência artificial em ações penais, discutindo cadeia de custódia, reprodutibilidade, transparência metodológica e os limites do uso de ferramentas como modelos de transcrição e speech-to-text em provas judiciais. Na segunda metade, o foco se volta ao Project Glasswing e ao Claude Mythos Preview, apresentados pela Anthropic para parceiros estratégicos com o objetivo de encontrar e corrigir falhas críticas em softwares amplamente usados, além dos impactos da IA generativa na educação, na desigualdade de acesso tecnológico e no mercado para profissionais juniores de TI.

    Para acompanhar discussões sérias e atuais sobre privacidade, tecnologia, inteligência artificial, segurança digital e regulação, basta assinar o Segurança Legal no Spotify, seguir no Apple Podcasts e no YouTube, e avaliar o podcast na plataforma de sua preferência para ajudar o projeto a alcançar mais pessoas. O programa é apresentado por Guilherme Goulart e Vinícius Serafim, está no ar desde 2012 e integra o trabalho da BrownPipe Consultoria, mantendo uma proposta de análise técnica e crítica sobre temas centrais do ecossistema digital.

    Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana.

     Visite nossa campanha de financiamento coletivo e nos apoie!

     Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing

    Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura.

    ShowNotes

    TRF-1 pagou R$ 341 mil em reembolsos por ‘auxílio IA’ a magistrados e servidores

    Quinta Turma rejeita relatório produzido por IA como prova em ação penal

    LLM Targeted Underperformance Disproportionately Impacts Vulnerable Users

    Vulnerable MCP Project — database com 50 vulnerabilidades

    ‘Your MCP Server Is Probably Vulnerable’ — DEV Community (16/abr)

    ‘MCP Security 2026: 30 CVEs in 60 Days’ (9/mar)

    CVE-2026-33032 nginx-ui — The Hacker News (16/abr)

    ‘AI Conundrum: Why MCP Security Can’t Be Patched Away’ — DarkReading / RSAC 2026

    Anthropic — Project Glasswing (anúncio oficial, 7/abr)

    Anthropic Frontier Red Team — detalhes técnicos (7/abr)

    Schneier on Security — análise crítica (13/abr)

    Fortune — cobertura do anúncio e contexto do leak (7/abr)

    TechCrunch — ‘Anthropic debuts Mythos’ (7/abr)

    Zvi Mowshowitz — análise detalhada (10/abr)

    IANS Research — desafios para vulnerability management (13/abr)

    TheWorkers letting A.I do Their Jobes – The Daily

    Neil deGrasse Tyson Confronts Andy Weir on the Science of Project Hail Mary

    Imagem do Episódio: Saturno devorando a su hijo – Francisco de Goya




    📝 Transcrição do Episódio







    (00:08) Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 415, gravado em 16 de abril de 2026. Eu sou o Guilherme Goulart e, junto com o Vinícius Serafim, vamos trazer para vocês algumas notícias das últimas semanas. Tudo bem, Vinícius? Olá, Guilherme, tudo bem? Olá aos nossos ouvintes. Esse já é o nosso momento tradicional de conversarmos sobre algumas notícias e acontecimentos que nos chamaram a atenção.

    (00:31) Então, pegue o seu café e venha conosco. Para entrar em contato com a gente, basta enviar uma mensagem para [email protected] ou também no Mastodon, Instagram, Bluesky, YouTube e TikTok. Também temos a nossa campanha de financiamento coletivo em apoia.se/segurancalegal. Conclamamos que você apoie este projeto de geração de conhecimento. Há um spam ligando aqui na gravação, aquelas ligações chatas.

    (01:03) Temos o nosso novo patrocinador, que é o Safe. Quanto tempo você já perdeu tentando lembrar do que foi dito numa reunião ou digitando o que poderia simplesmente ser falado? O Whisper transcreve áudios de diversas fontes, grava reuniões e áudios de forma rápida, precisa e 100% offline.

    (01:22) Nenhum dado de áudio sai da sua máquina, a não ser que você queira jogar na sua inteligência artificial preferida para transformar e utilizar aquela informação. Temos um cupom de 50% de desconto vitalício, que é o SEG. Enquanto o software existir, você terá acesso a esse desconto. Basta acessar o site e utilizar esse software que nós mesmos estamos utilizando. Certo, Vinícius? Certíssimo.

    (01:49) O que tem acontecido com os tais MCPs? Antes de começar, explico rapidamente o que é um MCP. É importante porque às vezes temos pessoas que não têm tanta intimidade com o que tem acontecido no mundo da inteligência artificial, que avança com uma rapidez impressionante, não somente na parte técnica, mas também na parte jurídica.

    (02:26) O mundo da inteligência artificial de seis meses atrás já é muito diferente do de hoje, dadas as novas potencialidades, problemas e riscos. Cada vez mais vocês devem ter percebido que não conseguimos passar um episódio sem falar de inteligência artificial. É uma força gravitacional muito forte.

    (02:47) Duas notícias que trouxe para comentarmos estão vinculadas à questão da inteligência artificial. A primeira é sobre o MCP. Todos já ouviram falar de API, que é uma forma de um sistema oferecer rotas para que outro software possa interagir com ele.

    (03:46) Por exemplo, o Gmail tem API, permitindo que você interaja com a sua caixa a partir de outro software. Os ERPs normalmente têm API também, permitindo buscar ou inserir dados.

    (04:08) No universo de integradores, como o IFTTT ou o n8n, eles conseguem expor e consumir APIs de outros softwares para integrá-los.

    (04:36) Isso é feito por uma interface muito bem documentada. Se sair da especificação, não funciona mais. A API é algo rígido. O Model Context Protocol (MCP) foi lançado pela Anthropic. É um padrão aberto e foi rapidamente adotado por todos os grandes players do mercado.

    (05:30) O MCP expõe uma API para um agente de inteligência artificial. É possível chamar APIs regulares a partir de um agente, mas a diferença é que o MCP é autodocumentado. Você configura o MCP no seu agente, informa o endereço e a porta, e ele se conecta.

    (05:53) O agente pergunta quais ferramentas o servidor MCP possui e para que servem. O MCP responde detalhando suas funções, como ler relógios elétricos, gerar valores, entre outras, fornecendo a própria documentação.

    (06:30) A inteligência artificial lê essa descrição em linguagem natural e entende a utilidade da ferramenta. Ao conversar com o modelo, ele consulta as ferramentas disponíveis e aciona a adequada para resolver o problema.

    (06:54) O modelo toma a decisão de chamar ou não a ferramenta. O Claude, por exemplo, se conecta com o Notion, permitindo que ele busque informações de artigos e notícias armazenados por você ao escrever sobre um determinado tema.

    (07:22) Ele consulta o MCP que faz isso, analisa os parâmetros e executa a ação.

    (07:43) O agente decide quando uma ferramenta é útil com base na descrição e aciona-a quando acha adequado.

    (08:03) O detalhe é que parece que voltamos no tempo.

    (08:19) Quando as APIs REST surgiram, muitas foram implementadas sem autenticação, sem cifragem e totalmente vulneráveis. O mesmo está acontecendo com os MCPs.

    (08:40) Foram identificadas trinta vulnerabilidades documentadas em sessenta dias no protocolo MCP.

    (09:04) O protocolo será corrigido, mas temos cada vez mais serviços oferecendo MCP com erros de segurança básicos da época das APIs REST de anos atrás.

    (09:46) Os sistemas estão sendo desenvolvidos com suporte a MCP para gerenciar Docker, bancos de dados e muito mais. A grande maioria desses MCPs não é oficial, mas sim desenvolvida por terceiros.

    (10:09) O uso de MCP está aumentando porque todos querem usar IA para resolver diversos problemas. No entanto, o desenvolvimento é feito com frequência sem autenticação adequada e sem cifragem de dados.

    (10:41) Os problemas vão desde acesso indevido a pastas (path traversal) até a execução remota de código, aumentando perigosamente a superfície de ataque.

    (11:19) Na Brown Pipe, nós verificamos essas questões de integração em nossos testes de invasão.

    (11:40) O nosso pentest abrange a integração com a IA. Os próprios MCPs também estão sendo frequentemente desenvolvidos com o auxílio da inteligência artificial.

    (12:11) Existe o mito de que códigos gerados por inteligência artificial são sempre seguros e à prova de falhas. Atingir 100% de segurança ainda não é possível.

    (12:47) Em testes de desenvolvimento ponta a ponta, com instruções claras de segurança, o modelo ainda gerou vulnerabilidades. Foram falhas menos críticas do que um ser humano cometeria, mas ainda relevantes.

    (13:29) Quando o modelo tem uma sequência de trabalho muito longa e complexa, sem muita interação, erros acabam passando. É necessário fazer revisões.

    (14:04) A inteligência artificial leva em consideração muito mais informações sobre segurança do que um ser humano. Ela não será infalível, mas se sairá muito melhor.

    (14:24) Isso se conecta com outra notícia envolvendo o STJ, que decidiu pela invalidade de laudos produzidos por inteligência artificial em ações penais.

    (14:54) O uso de inteligência artificial nos tribunais tem sido feito de forma apressada. O TRF-1 pagou altos reembolsos para magistrados contratarem suas próprias IAs.

    (15:29) Deveríamos ter uma ferramenta exclusiva e de código aberto para o Poder Judiciário, garantindo transparência para que as partes saibam quando e como está sendo utilizada.

    (15:48) No direito penal, as garantias processuais são muito maiores, pois lidamos com a liberdade humana. Exige-se uma responsabilidade maior do que em processos de indenização.

    (16:29) A situação tratava de uma acusação de injúria racial, na qual a análise do áudio foi feita com o auxílio do Gemini e do Perplexity.

    (17:06) A questão central era identificar no áudio se o réu havia proferido a ofensa. O laudo elaborado pelos peritos humanos não apontou a injúria, enquanto o gerado pela inteligência artificial apontou.

    (17:34) A defesa argumentou que o laudo da IA não possuía cadeia de custódia, metodologia verificável ou reprodutibilidade, devendo, portanto, ser invalidado.

    (17:58) Se formos utilizar a IA para produzir laudos, precisaremos de uma regulação forte.

    (18:34) O relator levantou dúvidas sobre a confiabilidade e os riscos de alucinações. Ele argumentou que os LLMs foram projetados para processamento de linguagem natural e não seriam aptos para analisar ondas sonoras.

    (19:04) O relator confundiu IA com LLM. Existem modelos especializados em reconhecimento de voz, como o Whisper, que não são LLMs puros, mas ferramentas de speech-to-text.

    (19:34) O caminho mais lógico seria utilizar a ferramenta para transcrever o áudio com marcações de tempo (timestamps) e, em seguida, procurar no texto o momento exato em que a palavra foi dita.

    (19:57) Se a inteligência artificial varrer o áudio e encontrar o trecho, a análise é resolvida com verificação humana posterior.

    (20:33) Esses modelos estão amplamente disponíveis. Conceitualmente, a inteligência artificial tem potencial para se sair melhor que o ser humano nesse aspecto, assim como no diagnóstico por exames médicos.

    (20:55) Ouvir horas e horas de áudio é inviável. Mecanismos de reconhecimento de voz já existem há décadas, usados inclusive pela Polícia Federal em interceptações telefônicas, para detectar palavras-chave.

    (21:18) Transcrever manualmente palavra por palavra é um trabalho hercúleo. A tecnologia pode ajudar, desde que a defesa consiga replicar a metodologia com os mesmos parâmetros.

    (21:40) A inteligência artificial pode prever cenários futuros verificáveis, onde suas análises não alteram a realidade. O perigo surge nos cenários autorrealizáveis, como a avaliação de perfis para vagas de emprego.

    (22:04) A Anthropic lançou o Project Glasswing e o modelo Claude Mythos Preview.

    (22:52) A empresa liberou essa versão provisória apenas para grandes corporações, como Amazon, Apple, Cisco, Google e Microsoft, além de organizações vinculadas ao software livre.

    (23:15) O modelo demonstrou extrema capacidade não apenas de encontrar, mas de explorar ativamente vulnerabilidades de segurança.

    (23:37) A intenção foi conceder uma vantagem estratégica a essas empresas de larga escala para que corrijam os problemas antes que os ataques se generalizem.

    (24:02) Eles anunciaram a implementação de salvaguardas de segurança para restringir esses recursos antes de abrir o modelo ao público geral.

    (24:37) O modelo Opus, lançado anteriormente, já era bastante capaz de realizar atividades invasivas e requeria tais salvaguardas. Nós mesmos usamos a IA na Brown Pipe e precisamos comprovar nossa atuação profissional para obter acesso.

    (25:09) O Mythos foi capaz de encontrar vulnerabilidades que estavam dormentes há mais de vinte anos no kernel do Linux, como falhas de buffer overflow.

    (25:28) O modelo consegue realizar testes de invasão simulando dois atacantes colaborativos simultaneamente. Essa capacidade descobre cenários complexos que humanos teriam enorme dificuldade de mapear.

    (25:52) Muitos argumentam que isso foi apenas uma jogada de marketing e apontam que outros modelos menores também encontraram esses mesmos problemas.

    (26:16) O custo para auditar todos os códigos de software do mundo com IA seria enorme, na casa das dezenas de bilhões de dólares, mas financeiramente pagável. O grande problema é o tempo que isso demandaria.

    (26:40) Sobre IA e educação, conversei com uma aluna preocupada com a ética de usar a inteligência artificial para realizar correção ortográfica. A IA deve ser usada como uma aliada para tarefas mecânicas e estruturais.

    (26:57) O MIT publicou um estudo indicando que usuários menos escolarizados recebem piores respostas dos modelos de linguagem. O Claude Opus foi apontado como o mais problemático nesse aspecto.

    (27:18) O modelo recusa-se a responder e produz textos condescendentes, especialmente para falantes não nativos do inglês e usuários estrangeiros, criando uma desigualdade técnica no uso da ferramenta.

    (27:38) Aprender a perguntar é uma competência linguística essencial. A IA tende a automatizar processos de forma que, no futuro, perguntas complexas nem precisem ser formuladas para obter resultados.

    (27:58) Isso mudará drasticamente o mercado de trabalho, especialmente na programação. Conhecimentos lógicos e arquitetônicos terão muito mais valor do que escrever linhas de código. Profissionais seniores coordenarão os agentes virtuais.

    (28:18) A IA trará grandes desafios no curto e médio prazo para desenvolvedores juniores, pois a ferramenta realiza esse trabalho com eficiência, sem necessidade de aprendizado prolongado.

    (28:55) Esta é uma mudança de paradigma enorme. O impacto psicológico sobre a relevância da mente humana é profundo.

    (29:16) Deixando uma recomendação cultural, cito o podcast StarTalk do Neil deGrasse Tyson. Eles entrevistaram o Andy Weir, autor do livro que inspirou o filme “Perdido em Marte”, sobre o filme e as lógicas científicas abordadas.

    (29:40) É importante desconectar um pouco das telas, visitar o cinema, caminhar e observar o mundo real. Nos encontramos no próximo episódio do podcast Segurança Legal. Até a próxima!

    Análise de Discursos Potencialmente Problemáticos

    Avaliando o conteúdo da transcrição, os seguintes trechos podem ser mal interpretados ou gerar algum tipo de desconforto/problema para os hosts do episódio:

    Crítica direta a um Ministro/Relator do STJ:
    Os hosts debatem uma decisão do STJ e afirmam enfaticamente que o relator do caso “confunde IA com LLM”, “está errado” e cometeu um equívoco técnico estrutural. Embora a argumentação seja embasada e comum no meio acadêmico, apontar erro técnico e falta de letramento tecnológico em decisões de tribunais superiores pode ser mal recebido pela comunidade jurídica ou soar desrespeitoso em contextos onde o diálogo com o judiciário exige maior tato.

    Terminologia envolvendo “Ataques” e Invasões Cibernéticas:
    Ao explicarem os testes de segurança e os novos modelos da Anthropic (Mythos/Opus), os hosts utilizam expressões como “basta apontar ele para uma direção e dizer ataca”, ou explicam que o modelo fará “ataques complexos” e vai “facilitar muito o trabalho de gente mal intencionada”. Fora do contexto estrito de pentest (teste de intrusão ético), plataformas como o YouTube podem algoritmizar e flagrar o vídeo como conteúdo de promoção a atividades ilegais e cibercrime, o que poderia gerar remoções (strikes).

    Menção a tópicos sensíveis pelo artigo do MIT:
    No bloco em que comentam a pesquisa do MIT, os hosts leem os tópicos que os LLMs bloqueiam para perfis iranianos: “energia nuclear, saúde feminina, judaísmo, drogas e 11 de setembro”. Por citarem diversas palavras-chave extremamente sensíveis de uma só vez, os algoritmos de plataformas podem desmonetizar ou restringir a visibilidade do episódio, sem entender que se tratava de uma citação científica sobre vieses.

    Tom contundente sobre estudantes e carreiras júniores na TI:
    A fala voltada a estudantes de computação — “meu amigo, tu tá lascado porque programar bem a IA já faz” e o apontamento de que o júnior “não vai ser mais necessário” — possui tom alarmista. Embora represente uma opinião válida sobre o impacto da IA no mercado de trabalho, a forma direta como foi dita pode atrair repulsa ou cancelamento nas redes sociais por soar desmotivadora, elitista ou insensível aos profissionais que lutam para entrar na área.

    Preparado usando Gemini 3.1 Pro Thinking

    nao está completo, o que houve?Concluiu 3 etapas

    O arquivo paste.txt foi processado de forma resumida e adaptada às regras inicialmente fornecidas para economizar espaço ou tornar o texto mais fluido na correção. No entanto, entendo que a transcrição integral exata não foi plenamente refletida em sua estrutura original.

    Abaixo, apresento a correção de português, a adequação aos vícios de linguagem e os ajustes para a pontuação de todos os parágrafos faltantes, com os timestamps fiéis, seguindo a restrição para evitar resumos e completar todo o material sem cortes.

    Continuação e Transcrição Completa Faltante

    (43:02) E aí, esse seria um tipo de cenário que em geral você não considera, você considera uma tentativa. Enfim, isso que eu estava lendo aqui destacou um pouco a forma como ele encontrou. Claro. Revelando possibilidades que talvez nós não conseguiríamos… se voltarmos um pouquinho no negócio da inteligência artificial sendo usada para provas no processo, daria para ir até mais além.

    (43:34) Talvez agora a gente consiga descobrir coisas com a inteligência artificial que o ser humano não conseguiria descobrir. Assim como está acontecendo com o código, talvez possa acontecer com outros dados da realidade, como voz, vídeo, sons e coisas do gênero. Não sei se tu concordas. Não, eu concordo plenamente. E a gente tem um processo aí, Guilherme. Uma coisa é o cara chegar, abrir a inteligência artificial e fazer uma consulta qualquer. Outra coisa é ter um ambiente preparado para usar inteligência artificial para fazer um pentest, como a gente faz. A gente tem uma série de coisas aqui que faz com que as coisas de fato funcionem e sejam úteis.

    (44:11) E a capacidade que ele dá de revisar as coisas, de conseguir ir mais a fundo nas funcionalidades do sistema, permite que tu consigas olhar muito mais coisas em menos tempo. Então, tu consegues fazer uma varredura mais profunda e testes mais aprofundados que não conseguirias fazer na mão porque não daria tempo. Teria que passar semanas fazendo testes numa parte de um sistema. Esse é um ganho que ele te dá.

    (44:51) Mas tu tens que de fato saber o que estás fazendo. Porque senão ele erra, se perde e não identifica corretamente, te dando falsos positivos. Então, de fato, ele ainda tem uma barreira. E agora tem uma barreira artificial que a própria Anthropic colocou. Ele tem uma certa barreira para dificultar ataques mais complexos.

    (45:25) A gente chegou a comentar aqui um artigo um tempo atrás da própria Anthropic, que eles bloquearam um grupo chinês que estava invadindo um monte de empresas por aí. Eles criaram toda uma infraestrutura de agentes e multiagentes, inclusive, para fazer esses caras se coordenarem e realizarem os ataques.

    (45:45) Ao mesmo tempo, a gente tem que cuidar porque não é uma coisa mágica em que tu simplesmente te logas e dizes: “Invade tal lugar” e ele vai sair invadindo. Não é assim. Eu acho que sim, ele vai facilitar muito o trabalho de quem não tem conhecimento nenhum em segurança.

    (46:06) Permite o uso por pessoas mal-intencionadas, como uma série de outras coisas que aconteceram no passado e facilitaram exploits públicos que o cara não precisava mais desenvolver. A minha preocupação é que me parece que o pessoal da segurança é mais aberto a usar inteligência artificial agora do que quem desenvolve.

    (46:28) Não sei. Claro que lá fora, no Vale do Silício, eu estava vendo inclusive um podcast no The Daily sobre o uso de inteligência artificial para desenvolver. Tem empresas que estão escrevendo 10% do código com inteligência artificial, mas são empresas bem grandes.

    (46:58) Para essas empresas muito grandes, 10% já é um ganho considerável. Não precisa ser 90% do código gerado por inteligência artificial. E quanto menor a empresa, maior a adoção. Eles relatam até 90% do código gerado por IA em empresas de menor porte. Em termos de segurança, a galera está usando inteligência artificial direto. Parece que no desenvolvimento tem um certo receio das empresas em adotar e gerar código com isso.

    (47:32) Receio de perder o controle das coisas sendo feitas. O que me preocupa um pouco é que, mesmo com esses controles da Anthropic — e lembrando que a Anthropic botou esses controles, o Codex no GPT não tem —, me preocupa se de fato os atacantes não vão ter uma vantagem inicial.

    (48:12) Até que tu comeces a usar IA para gerar mais testes unitários nos teus softwares, para cuidar mais da implementação de mecanismos que já foram feitos milhões de vezes da forma correta, como mecanismos de autenticação, recuperação de senha e arquitetura de autorização de sistemas. Isso já foi feito milhões de vezes, então é um padrão que a IA consegue repetir. Só que daí o cara vai lá, desenvolve na mão e faz tudo errado. Sim.

    (48:31) Deixa eu te trazer outras informações aqui enquanto a gente falava. Esse pessoal que diz que é uma jogada de marketing da Anthropic argumenta que outros modelos menores, como o GPT-OS20B com apenas 3.6 bilhões de parâmetros e o DeepSeek R1, também identificaram bugs no FreeBSD.

    (48:58) A ideia dessas pessoas que têm defendido isso é que não é a questão da inteligência artificial. A questão é que ninguém tinha virado esse canhão para certos pedaços de código por esse ângulo. A coisa já estava lá, só que ninguém tinha apontado para lá. Qual seria o custo para auditar todos os softwares do mundo? É pagável? Ele fez uma conta aqui dizendo que existiria entre 1 e 20 trilhões de linhas de código no mundo.

    (49:33) Entre 1 e 20 trilhões. Só o Google tem dois bilhões. Eu também vou chutar entre 1 e 20 trilhões. Isso daria entre 10 e 40 bilhões de dólares para auditar tudo isso com inteligência artificial. Então, não é um problema de dinheiro, é pagável. Se você diminui um pouquinho o orçamento de guerra dos Estados Unidos, paga isso brincando. Inclusive o próprio projeto Glasswing deu 100 milhões de dólares para as empresas para que elas pudessem usar.

    (50:10) O problema é tempo também. O preço que eles cobram é 25 por milhão de tokens de entrada e 125 por milhão de tokens de saída. Tem, em grande escala, valores diferentes, mas o fato é que a brincadeira seria cara. A questão seria: o mundo todo vai ficar mais seguro de uma hora para outra?

    (50:44) Devemos nos preocupar. As pessoas que trabalham com segurança têm um caminho bastante longo também, porque os atacantes vão estar usando inteligência artificial. Ele diz aqui: “Você demoraria 2.000 anos para cobrir a auditoria de 5 trilhões de linhas”, se não tivesse mais código novo sendo gerado. Ou seja, quanto mais IA, mais código eu vou ter. Fora todos os processos e softwares legados que, eventualmente, podem ser impossíveis de ser corrigidos.

    (51:23) E a própria logística de corrigir tudo isso. Basta pensar como é difícil em algumas empresas atualizar o sistema operacional. Fecha parênteses. Tem mais alguma coisa sobre essa? Não. Dessa notícia é isso. Eu te digo que estou na expectativa. A gente já está cadastrado lá, já está liberado pela Anthropic, então só estou aguardando eles liberarem o Mythos para nós também.

    (51:53) Acho que as coisas estão bem conectadas hoje. A gente já falou sobre esse assunto algumas vezes, numa base empírica, que é sobre IA e educação. A gente, enquanto educador, enfrenta isso diariamente.

    (52:12) Ontem mesmo eu estava conversando com uma aluna, e ela estava preocupada se era ético usar a inteligência artificial para fazer correção ortográfica nos textos dela e se alguém iria descobrir. Eu disse a ela: “Olha, você faz correção ortográfica no Word, então fazer correção com IA não é um grande problema”.

    (52:32) Ensinei-a a usar os espaços dentro do Claude. Enfim, uma conversa bem bacana e uma pessoa bem antenada para o que ela deveria usar. Cada vez mais me convenço de que não é uma questão de pedir para a IA escrever o texto para ti. Há tantas outras coisas que você pode fazer.

    (53:03) Eu tenho um texto aqui que estou há anos para atualizar, porque teve o Marco Civil, a LGPD e um monte de decisões. Entreguei para a IA e pedi para que ela me desse um roteiro sobre o que eu precisaria atualizar. Ela me deu um passo a passo de coisas que eu demoraria meses para fazer.

    (53:31) Eu ainda vou ter que atualizar manualmente, mas já sei o que preciso fazer. Estou dizendo isso porque o MIT descobriu num artigo chamado “LLM target under performance disproportionately impacts vulnerable users” que quanto menos escolarizado for o usuário, pior vai ser a resposta da inteligência artificial.

    (54:00) E isso a gente já tinha falado aqui. Eu me lembro da gente falando que o LLM, como modelo de linguagem, teria um desempenho pior para alguns perfis.

    (54:21) Esses perfis seriam justamente de pessoas que não conseguem perguntar, não sabem perguntar. Eles pegaram três modelos de ponta: GPT-4, Claude 3 Opus e LLaMA 3 8B, em conjuntos de dados sobre veracidade e factualidade científica. Simularam diferentes tipos de usuários com biografias curtas para avaliar a escolaridade, proficiência em inglês (nativo e não nativo) e o país de origem (Estados Unidos, Irã e China).

    (54:59) Não sei por que escolheram esses três países. Quais foram os principais achados desse estudo? Todos os modelos mostraram uma redução significativa de qualidade e precisão para os usuários com menor escolaridade.

    (55:27) E veja, para aqueles não falantes nativos de inglês, os efeitos são cumulativos. Se você é usuário estrangeiro e tem baixa escolaridade, a queda de desempenho é cumulativa. O Claude 3 Opus foi o mais problemático. Os dados levantados apontaram que ele se recusou a responder quase 11% das perguntas para usuários estrangeiros e de baixa escolaridade, contra apenas 3.6% do grupo de controle.

    (55:59) Além disso, produziu respostas condescendentes e padronizantes em 43% dos casos e recusou-se a responder certos tópicos especificamente para usuários do Irã com baixa escolaridade, como energia nuclear, saúde feminina, judaísmo, drogas e 11 de setembro. Isso estaria conectado com a ideia de aprendizado por reforço de feedback humano, que é uma das formas que esses modelos são melhorados.

    (56:39) Você tem pessoas avaliando respostas e dando feedback para aumentar a qualidade, o que faria com que usuários menos educados tivessem resultados piores. Por que isso é tão preocupante

    Preparado usando Gemini 3.1 Pro Thinking

    comece de novo, preciso da transcrição exata, nao resumidaConcluiu 2 etapas

    Abaixo está a transcrição exata e completa do arquivo de áudio paste.txt, corrigindo todos os erros de português, pontuação e vícios de linguagem (como “eh”, “ah”, “né”, “tipo”, etc.), garantindo o uso adequado de letras maiúsculas e sem omitir nada do texto original ou os timestamps requeridos pelas instruções:

    (00:08) Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 415, gravado em 16 de abril de 2026. Eu sou o Guilherme Goulart e, junto com o Vinícius Serafim, vamos trazer para vocês algumas notícias das últimas semanas. Tudo bem, Vinícius? Olá, Guilherme, tudo bem? Olá aos nossos ouvintes. Esse já é o nosso momento tradicional de conversarmos sobre algumas notícias e acontecimentos que nos chamaram a atenção.

    (00:31) Então, pegue o seu café e venha conosco. Para entrar em contato com a gente, você já sabe, basta enviar uma mensagem para [email protected] ou também lá no Mastodon, Instagram, Bluesky, YouTube e TikTok. Também temos a nossa campanha de financiamento coletivo em apoia.se/segurancalegal. Você pode e nós sempre conclamamos que você apoie este projeto de geração de conhecimento. Há um spam ligando aqui na gravação, Vinícius, daquelas ligações chatas. Já, já. E também temos o nosso novo

    (01:03) patrocinador, que é o Safe. Você já sabe quanto tempo perdeu tentando lembrar do que foi dito numa reunião ou digitando o que poderia simplesmente ser falado. O Whisper transcreve áudio de diversas fontes, grava reuniões e áudios. Tudo isso de forma rápida, precisa e 100% offline.

    (01:22) Nenhum dado de áudio sai da sua máquina, a não ser que você queira jogá-lo na sua inteligência artificial preferida para transformar e utilizar aquela informação. Temos aqui um cupom de 50% de desconto vitalício, que é o SEG. É um desconto lifetime. Enquanto o software existir, você terá acesso a ele. Basta acessar o Whisper.

    (01:49) Utilize esse software que nós mesmos estamos utilizando também. Certo, Vinícius? Certíssimo. O que tem acontecido com os tais MCPs? Claro, antes de começar, explique rapidamente o que é um MCP. É importante porque às vezes temos pessoas que não têm tanta intimidade com o que tem acontecido no mundo da inteligência artificial. Isso avança com uma rapidez impressionante não somente na parte técnica, mas também na parte jurídica, gerando conflitos e questões. O que estava acontecendo há seis

    (02:26) meses atrás já é muito diferente do mundo da IA hoje. As potencialidades, os problemas e os riscos mudaram. Eu acho que esse é um desses casos. Cada vez mais, vocês devem ter percebido que não conseguimos passar um episódio sem falar de IA, Guilherme. É uma força gravitacional muito forte.

    (02:47) Ela está muito vinculada a tudo. Aliás, duas notícias que eu trouxe para comentarmos e discutirmos são vinculadas justamente à questão da inteligência artificial. Todas elas envolvem isso. Eu separei as notícias e percebi que estava apenas com temas de IA, então tirei duas diferentes, mas a primeira é a seguinte: o que é o MCP? Acredito que todo mundo já ouviu falar de API, certo? Nós a usamos para integrar sistemas. Uma API

    (03:20) é uma forma de um sistema oferecer rotas a partir de algumas chamadas. Estou tentando não ser muito técnico aqui. Um outro desenvolvedor pode configurar o software dele para chamar essas rotas e interagir com esse outro sistema.

    (03:46) Por exemplo, o Gmail tem API, permitindo interagir com a sua caixa de entrada a partir de qualquer outro software. Os ERPs que existem por aí normalmente também possuem uma API. Assim, você pode ter uma aplicação que fala com o seu ERP tanto para buscar dados quanto para inserir informações.

    (04:08) Com o CRM, então, nem se fala. Isso é muito comum. No universo dos integradores, como o IFTTT, que você usava antigamente, esse modelo já está um pouco ultrapassado. Mas existem plataformas como o n8n e tantos outros softwares que conseguem expor APIs e consumir APIs de outros sistemas.

    (04:36) Utilizamos isso para integrar softwares, certo? O problema é que isso é feito por uma interface muito bem documentada. É necessário descrever como se faz a chamada. Se sair um pouco da especificação, ela não funciona mais. Se mudar a versão e não atualizar, a integração quebra.

    (04:53) Portanto, a API é uma estrutura mais rígida. O Model Context Protocol (MCP), se eu não me engano, foi lançado pela Anthropic. É um padrão aberto que foi rapidamente adotado por todos os players do mercado, como Google e outras empresas. O que você faz com isso? O MCP é feito para expor uma API para um agente de inteligência artificial.

    (05:30) O detalhe é que eu consigo chamar as APIs regulares tranquilamente a partir de um agente de inteligência artificial, mas a diferença é que o MCP funciona como se fosse autodocumentado. No seu agente de IA, você configura o Claude Code ou qualquer sistema com suporte para isso. Você informa o endereço, a porta e se há autenticação. O agente se conecta ao servidor MCP e pergunta: “Quais ferramentas você tem? Qual é o seu objetivo? Para que você serve?”

    (06:30) A ferramenta se apresenta. O MCP diz: “Olha, eu faço leitura de relógios elétricos e consumo de eletricidade.” Ele informa quais funções possui, como “ler relógio” e “gerar valor”, fornecendo a sua própria documentação detalhando o que ele faz. O agente lê isso.

    (06:54) Há uma descrição literal de cada ferramenta em linguagem natural, ou seja, português, inglês ou italiano, se você quiser. O agente lê aquilo e entende para que serve a ferramenta. Enquanto você conversa com o modelo, a IA consulta as ferramentas disponíveis e decide qual delas é útil para resolver o problema apresentado.

    (07:22) Se você pedir para fazer a leitura do relógio de eletricidade do Guilherme, o agente verá que possui um MCP com essa função, analisará os parâmetros necessários para chamar a rota e tomará a decisão de acionar a ferramenta ou não. O Claude, por exemplo, se conecta com o Notion, que é um sistema de armazenamento de informações.

    (07:43) É muito legal, porque você vai salvando artigos, comentários e notícias dentro do Notion. Depois, se você for falar sobre algum tema aqui no podcast e quiser buscar o que já leu sobre isso, ele utiliza o MCP para localizar a informação e trazê-la para você.

    (08:03) O agente meio que raciocina e decide quando uma ferramenta pode ser útil, com base na descrição fornecida, acionando-a quando achar adequado.

    (08:19) O detalhe é o seguinte: parece que voltamos no tempo. Quando as APIs REST surgiram, muitas foram implementadas sem autenticação, sem cifragem e totalmente vulneráveis. O mesmo está acontecendo agora com os MCPs.

    (08:40) A galera começou a implementar uma série de integrações vulneráveis. A notícia informa que há trinta vulnerabilidades (CVEs) documentadas em apenas sessenta dias no protocolo MCP.

    (09:04) O protocolo acabará sendo corrigido e isso será tranquilo. No entanto, temos cada vez mais serviços oferecendo MCP com os mesmos erros básicos de segurança da época das APIs REST de anos atrás. Você está falando de MCPs desenvolvidos por pessoas normais ou por empresas?

    (09:46) O usuário comum nunca vai desenvolver um MCP; ele usará o MCP de alguém. A questão é que sistemas desenvolvidos com suporte a MCP estão crescendo. Hoje, se você buscar na internet, há MCPs para gerenciar o Docker, para gerenciar bancos de dados e para diversas outras funções. Não me refiro aos MCPs profissionais das empresas de tecnologia.

    (10:09) Falo sobre outras pessoas desenvolvendo essas integrações fora das grandes empresas, e é aí que os problemas estão acontecendo. Não se pode descartar que uma vulnerabilidade surja em um MCP oficial de uma Anthropic da vida. No entanto, sem dúvida, a grande maioria dos MCPs não é oficial. O uso tem aumentado porque todos querem integrar a inteligência artificial.

    (10:41) A ferramenta é usada para resolver diversos problemas, criar relatórios e interagir com o ambiente da empresa para planejar implantações. Esse desenvolvimento está sendo feito com frequência sem autenticação adequada e sem cifragem de dados. Os problemas relatados vão desde ataques triviais de invasão de diretórios (path traversal), que permitem acesso a outros arquivos no sistema operacional, até problemas mais graves.

    (11:40) Isso vai desde uma falha simples até a execução remota de código, o que é bem grave. A superfície de ataque está aumentando. Por um lado, temos a facilidade de desenvolver novos MCPs, mas, por outro, essas integrações estão sendo criadas sem o cuidado adequado com a segurança. Vou fazer uma propaganda rápida da Brown Pipe, pois nos nossos testes de invasão

    (12:11) já testamos vários sistemas de clientes que estão integrados com a IA há anos. Nos nossos pentests, verificamos essas questões de integração com os MCPs de terceiros. O pentest da Pipe é completo, alcançando a integração com a inteligência artificial. Costumamos dizer que é a inteligência em cima da inteligência artificial. Ao contrário do que muitos pensam, os próprios MCPs também estão sendo desenvolvidos com o auxílio da IA.

    (12:47) Existe o mito de que pedaços de código gerados por inteligência artificial funcionarão perfeitamente e estarão sempre seguros e à prova de falhas. É difícil pensar que a IA seria capaz de produzir um software cem por cento seguro. Uma de suas notícias tocará nisso mais adiante. Existe um ponto filosófico por trás: será que a inteligência artificial conseguirá atingir segurança total?

    (13:29) Acho que ainda não. Eu fiz testes de desenvolvimento de software de ponta a ponta com instruções bem definidas de segurança e testes unitários. Mesmo assim, ele gerou código com vulnerabilidades. Foi bem menos do que encontraríamos em uma situação normal, mas ainda eram falhas relevantes. Claro, quando você aponta o erro, o modelo se dá conta da falha que cometeu e entende como corrigir, justamente porque foi alimentado com essas informações.

    (14:24) A questão é que, quando o modelo realiza uma sequência longa e complexa de desenvolvimento, sem muita interação com o usuário, alguns erros acabam passando. Ao fazer revisões, ele encontra as falhas e ajusta, mas ainda as gera inicialmente.

    (14:54) Até que ponto um sistema alimentado por referências humanas falíveis conseguirá criar soluções infalíveis? Infalível é uma palavra forte, Guilherme, mas a IA tem a capacidade de processar uma quantidade de informações sobre segurança muito maior que um ser humano. Então, infalível não será, mas sairá muito melhor do que nós. Certo, e isso se conecta indiretamente com a outra notícia que trago aqui.

    (15:48) Essa notícia envolve o STJ, que decidiu pela invalidade de laudos produzidos por inteligência artificial em ações judiciais penais. Já viemos falando sobre o uso de IA nos tribunais.

    (16:29) Acredito que o uso tem sido feito de forma apressada. Vimos que o TRF-1 pagou R$ 341.000,00 em reembolsos de “auxílio IA” para que magistrados contratassem os sistemas por conta própria. Deveríamos ter uma ferramenta desenvolvida exclusivamente para o Poder Judiciário, com código aberto, transparência e acesso para as outras partes envolvidas no processo. É um princípio básico que você deve saber com quem está interagindo, como revisar e tudo mais.

    (17:06) O que aconteceu nas ações penais? No direito penal, as garantias processuais necessárias para condenar uma pessoa são muito maiores.

    (17:34) Condenar alguém à prisão é mais sério do que condenar ao pagamento de uma indenização, pois se trata de um bem jurídico precioso, que é a liberdade humana. Por isso é necessária a avaliação rigorosa dos peritos judiciais, além da possibilidade de impugnação de laudos.

    (17:58) Tratou-se de uma situação em que o sujeito foi acusado de injúria racial e utilizou-se um laudo produzido por ferramentas de inteligência artificial. Não tenho todas as informações além daquelas publicadas na imprensa e na própria decisão, mas se fala que foram usados o Gemini e o Perplexity.

    (18:34) Não importa qual ferramenta de inteligência artificial foi utilizada; a questão de fundo é a análise do áudio para identificar se o acusado proferiu a injúria racial por meio de uma palavra específica.

    (19:04) O laudo feito pelos peritos humanos não apontou a injúria, enquanto o laudo produzido pela inteligência artificial identificou a ofensa. A defesa do acusado argumentou que, pelo fato de o laudo gerado pela IA contrariar o trabalho humano, não ter cadeia de custódia e não apresentar uma metodologia verificável, ele deveria ser invalidado.

    (19:57) A defesa está correta. A questão não é se o réu é culpado ou não, mas a técnica da geração do laudo.

    (20:33) Se formos utilizar a inteligência artificial para produzir laudos, precisaremos de uma regulação muito forte, sobretudo em ações penais. O laudo produzido por ela pode ser fundamental para condenar ou absolver alguém.

    (20:55) O relator da decisão levantou dúvidas sobre a confiabilidade dos resultados da inteligência artificial de maneira geral. Concordo que seja cedo para usarmos e defendo o direito da defesa de acessar e reproduzir a metodologia aplicada.

    (21:18) O relator destacou que as ferramentas apresentam risco de alucinações e argumentou que a inadequação se torna evidente ao lidar com dados não textuais. Segundo ele, os LLMs foram projetados para o processamento de linguagem natural, não sendo aptos a analisar ondas sonoras. Para ele, ferramentas de inteligência artificial generativa não se qualificam como prova pericial fonética.

    (22:04) Concluindo, o relator fez uma confusão comum ao equiparar qualquer inteligência artificial a um LLM. De fato, o que ele disse se aplicaria a um modelo focado apenas em texto. Porém, como falamos no início deste episódio com nosso patrocinador, o Whisper utiliza um modelo especializado em reconhecer a fala, trabalhando com a conversão de voz para texto. Trata-se de um LLM muito pequeno.

    (22:52) Se eu precisasse realizar o trabalho dos peritos, o óbvio seria transcrever o áudio com as marcações de tempo (timestamps), identificando o momento exato em que a frase foi dita.

    (23:15) Em seguida, eu procuraria no texto a possível injúria racial e utilizaria a IA para varrer a transcrição buscando qualquer semelhança. Posteriormente, ouviria a gravação nos pontos exatos apontados para verificar se as palavras realmente foram ditas.

    (23:37) Se a varredura não encontrasse nada, eu teria que ler todo o conteúdo manualmente e escutar o áudio em última análise, pois a IA poderia ter falhado em identificar o padrão. Teria muito o que fazer, claro. O meu ponto conceitual, no qual discordo do relator, é que existem modelos específicos para realizar esse trabalho, como o Whisper e várias opções no Hugging Face.

    (24:37) Nesse ponto, o relator está errado. Esse é o cenário típico em que a inteligência artificial pode se comportar melhor do que o ser humano na avaliação. Não digo que a ferramenta está pronta para ser adotada de forma desenfreada agora, mas, se for, precisaremos de controle, regulação, acesso às partes e reprodutibilidade.

    (25:09) Conceitualmente, a inteligência artificial se sairá melhor, assim como já é capaz de reconhecer câncer em exames médicos. O problema de varrer gravações longas não é novo. Para um áudio curto, um humano escuta e pronto. Porém, quando se tem dezenas de horas de gravação, não faz sentido o ser humano ouvir tudo.

    (25:52) Os equipamentos de interceptação telemática, muitas vezes ligados digitalmente às centrais telefônicas das operadoras, já usam mecanismos para identificar palavras-chave há décadas. O sistema grava preventivamente e descarta o conteúdo até que uma palavra monitorada apareça. A Polícia Federal e órgãos autorizados realizam esse trabalho.

    (26:40) Ter que transcrever manualmente palavra por palavra de grandes gravações é um trabalho brutal hoje em dia. Muito antes do Whisper e da popularização dos LLMs em 2022, já existiam ferramentas de reconhecimento de voz.

    (27:18) O magistrado comete o erro ao considerar que toda IA funciona apenas como um modelo de linguagem voltado a textos. Existem especializações. Na situação descrita, a análise talvez envolvesse um áudio curto e de má qualidade. Se a defesa tentasse replicar a mesma análise utilizando o mesmo algoritmo, deveria chegar ao mesmo resultado.

    (28:18) Para terminar, existe a discussão conceitual sobre como a inteligência artificial prevê cenários futuros. Existem casos verificáveis, nos quais a decisão da IA não afeta a realidade que está sendo avaliada. Por exemplo, estimar o ganho de um fundo de investimento com base no histórico global; a avaliação ocorre de forma separada do mercado financeiro.

    (29:16) No entanto, existem casos em que o próprio resultado influencia o futuro, a chamada profecia autorrealizável. Isso se aplica a avaliações de perfis de crédito ou seleção de currículos para vagas de emprego. Você não pode verificar se a predição acertou, porque o sistema, ao rejeitar o candidato, impediu que o futuro ocorresse.

    (29:40) Nesse cenário jurídico específico, os resultados seriam verificáveis através de validações com outros modelos. Acredito que não deveriam ter utilizado a inteligência artificial sem maturidade legal, mas a ferramenta ajudará muito a analisar laudos de imagens e vídeos para apurar o contexto de falas. Abre-se um novo campo no Direito.

    (30:27) Sem dúvida nenhuma. Respira, respira. Qual é a novidade sobre o Project Glasswing e o Claude Mythos? Será uma evolução no mercado de segurança? Não sei afirmar com precisão. Temos que lembrar do vazamento do código-fonte do Claude.

    (31:00) Naquela ocasião, as pessoas já notaram que existia um modelo muito melhor previsto para ser lançado. Poucos dias depois, de maneira rápida, a Anthropic anunciou oficialmente a chegada da família Mythos.

    (31:39) Atualmente, a Anthropic disponibiliza o modelo Haiku e o Sonnet gratuitamente, além do modelo Opus na versão paga. Agora teremos o Mythos, que chamou a atenção por causa do Project Glasswing. Eles liberaram uma versão preliminar (preview) do modelo apenas para organizações e empresas vinculadas ao fornecimento de software em larga escala.

    (32:26) A lista inclui cerca de vinte grandes empresas, como Amazon, Apple, Cisco, CrowdStrike, Google e Microsoft, além de organizações vinculadas à manutenção de software livre, como Linux e BSD.

    (32:53) A razão disso, Guilherme, é que o modelo demonstrou extrema capacidade não apenas de encontrar, mas de explorar ativamente as vulnerabilidades. O usuário não precisa mais fornecer instruções técnicas específicas; basta apontar a IA para a direção desejada e ela realiza o ataque.

    (33:29) A empresa entendeu o grande risco de disponibilizar isso para o público geral sem dar uma vantagem às companhias de software. O Mythos chegará ao mercado em breve, não se preocupe, mas se lançassem hoje dezenas de falhas em produtos amplamente consumidos, não haveria tempo hábil para correção e os ataques causariam muitos danos.

    (34:26) Eles anunciaram a criação de salvaguardas de segurança para esse modelo. O público conseguirá utilizá-lo, mas as funcionalidades de cibersegurança serão limitadas para prevenir explorações maliciosas (jailbreaks).

    (34:43) O modelo Opus, lançado em novembro passado, já era perigoso o suficiente para exigir essas mesmas salvaguardas. Ele melhorou ainda mais ao longo do tempo e se tornou excelente na geração de relatórios de testes de invasão e evidências. A falta de proteção nas versões antigas sempre me preocupou.

    (35:33) Na Brown Pipe, usamos os modelos da Anthropic. Tivemos que fazer um cadastro comprovando nossa legitimidade como pentesters. Mandamos as credenciais do podcast e nossa experiência acadêmica. O processo de aprovação foi bastante fácil, mas eles já começaram a restringir e travar as análises do Opus antes desse filtro.

    (36:22) Conheço pessoas que tentaram a liberação e foram rejeitadas, ou ficaram semanas aguardando, provavelmente devido à falta de referências profissionais. Não sei qual o rigor adotado, mas é uma barreira válida que deveria ter sido adotada logo no início, pois a capacidade da ferramenta já era imensa.

    (37:15) O fato interessante é que o modelo encontrou falhas no kernel do Linux que estavam dormentes há 20 anos. Isso me lembra o caso do Heartbleed, descoberto após 13 anos de existência. Às vezes o bug é simples, mas ele se esconde debaixo de 300 camadas de código complexo.

    (38:16) A capacidade de reprodução de vulnerabilidades de cibersegurança do modelo Opus está na casa dos 73,8%, enquanto o Mythos preliminar subiu para 83,1%. Trata-se de um ganho técnico real em um sistema que já considero espetacular.

    (39:31) Como as métricas gerais de codificação e raciocínio também cresceram muito, na casa dos 93%, o ganho real de cibersegurança será brutal. Ao superar o modelo vigente, a plataforma ficará consideravelmente mais perigosa, o que justifica totalmente a implementação da trava de proteção pela Anthropic. O Opus nunca havia sido limitado dessa forma.

    (40:29) Várias pessoas argumentam que esse movimento da empresa é uma grande jogada de marketing para se posicionar perante modelos abertos. Ao investigar, verifiquei que o sistema localizou um buffer overflow antigo no NFS versão 4, que possui 23 anos de existência. O mito de que o software livre é perfeitamente seguro esbarra no fato de que poucas pessoas o auditam a fundo.

    (41:41) A forma como a IA conduziu o teste é o fator chave. É como se tivéssemos um novo telescópio observando o universo; antes as falhas estavam lá, mas não possuíamos ferramentas adequadas para identificar as ondas gravitacionais.

    (42:41) A IA simulou dois clientes diferentes interagindo no sistema ao mesmo tempo. Era um ataque colaborativo, cenário que dificilmente é testado por seres humanos de forma manual.

    (43:02) E aí, esse seria um tipo de cenário que em geral você não considera, você considera uma tentativa. Enfim, isso que eu estava lendo aqui destacou um pouco a forma como ele encontrou. Claro. Revelando possibilidades que talvez nós não conseguiríamos… se voltarmos um pouquinho no negócio da inteligência artificial sendo usada para provas no processo, daria para ir até mais além.

    (43:34) Talvez agora a gente consiga descobrir coisas com a inteligência artificial que o ser humano não conseguiria descobrir. Assim como está acontecendo com o código, talvez possa acontecer com outros dados da realidade, como voz, vídeo, sons e coisas do gênero. Não sei se tu concordas. Não, eu concordo plenamente. E a gente tem um processo aí, Guilherme. Uma coisa é o cara chegar, abrir a inteligência artificial e fazer uma consulta qualquer. Outra coisa é ter um ambiente preparado para usar inteligência artificial para fazer um pentest, como a gente faz. A gente tem uma série de coisas aqui que faz com que as coisas de fato funcionem e sejam úteis.

    (44:11) E a capacidade que ele dá de revisar as coisas, de conseguir ir mais a fundo nas funcionalidades do sistema, permite que tu consigas olhar muito mais coisas em menos tempo. Então, tu consegues fazer uma varredura mais profunda e testes mais aprofundados que não conseguirias fazer na mão porque não daria tempo. Teria que passar semanas fazendo testes numa parte de um sistema. Esse é um ganho que ele te dá.

    (44:51) Mas tu tens que de fato saber o que estás fazendo. Porque senão ele erra, se perde e não identifica corretamente, te dando falsos positivos. Então, de fato, ele ainda tem uma barreira. E agora tem uma barreira artificial que a própria Anthropic colocou. Ele tem uma certa barreira para dificultar ataques mais complexos.

    (45:25) A gente chegou a comentar aqui um artigo um tempo atrás da própria Anthropic, que eles bloquearam um grupo chinês que estava invadindo um monte de empresas por aí. Eles criaram toda uma infraestrutura de agentes e multiagentes, inclusive, para fazer esses caras se coordenarem e realizarem os ataques.

    (45:45) Ao mesmo tempo, a gente tem que cuidar porque não é uma coisa mágica em que tu simplesmente te logas e dizes: “Invade tal lugar” e ele vai sair invadindo. Não é assim. Eu acho que sim, ele vai facilitar muito o trabalho de quem não tem conhecimento nenhum em segurança.

    (46:06) Permite o uso por pessoas mal-intencionadas, como uma série de outras coisas que aconteceram no passado e facilitaram exploits públicos que o cara não precisava mais desenvolver. A minha preocupação é que me parece que o pessoal da segurança é mais aberto a usar inteligência artificial agora do que quem desenvolve.

    (46:28) Não sei. Claro que lá fora, no Vale do Silício, eu estava vendo inclusive um podcast no The Daily sobre o uso de inteligência artificial para desenvolver. Tem empresas que estão escrevendo 10% do código com inteligência artificial, mas são empresas bem grandes.

    (46:58) Para essas empresas muito grandes, 10% já é um ganho considerável. Não precisa ser 90% do código gerado por inteligência artificial. E quanto menor a empresa, maior a adoção. Eles relatam até 90% do código gerado por IA em empresas de menor porte. Em termos de segurança, a galera está usando inteligência artificial direto. Parece que no desenvolvimento tem um certo receio das empresas em adotar e gerar código com isso.

    (47:32) Receio de perder o controle das coisas sendo feitas. O que me preocupa um pouco é que, mesmo com esses controles da Anthropic — e lembrando que a Anthropic botou esses controles, o Codex no GPT não tem —, me preocupa se de fato os atacantes não vão ter uma vantagem inicial.

    (48:12) Até que tu comeces a usar IA para gerar mais testes unitários nos teus softwares, para cuidar mais da implementação de mecanismos que já foram feitos milhões de vezes da forma correta, como mecanismos de autenticação, recuperação de senha e arquitetura de autorização de sistemas. Isso já foi feito milhões de vezes, então é um padrão que a IA consegue repetir. Só que daí o cara vai lá, desenvolve na mão e faz tudo errado. Sim.

    (48:31) Deixa eu te trazer outras informações aqui enquanto a gente falava. Esse pessoal que diz que é uma jogada de marketing da Anthropic argumenta que outros modelos menores, como o GPT-OS20B com apenas 3.6 bilhões de parâmetros e o DeepSeek R1, também identificaram bugs no FreeBSD.

    (48:58) A ideia dessas pessoas que têm defendido isso é que não é a questão da inteligência artificial. A questão é que ninguém tinha virado esse canhão para certos pedaços de código por esse ângulo. A coisa já estava lá, só que ninguém tinha apontado para lá. Qual seria o custo para auditar todos os softwares do mundo? É pagável? Ele fez uma conta aqui dizendo que existiria entre 1 e 20 trilhões de linhas de código no mundo.

    (49:33) Entre 1 e 20 trilhões. Só o Google tem dois bilhões. Eu também vou chutar entre 1 e 20 trilhões. Isso daria entre 10 e 40 bilhões de dólares para auditar tudo isso com inteligência artificial. Então, não é um problema de dinheiro, é pagável. Se você diminui um pouquinho o orçamento de guerra dos Estados Unidos, paga isso brincando. Inclusive o próprio projeto Glasswing deu 100 milhões de dólares para as empresas para que elas pudessem usar.

    (50:10) O problema é tempo também. O preço que eles cobram é 25 por milhão de tokens de entrada e 125 por milhão de tokens de saída. Tem, em grande escala, valores diferentes, mas o fato é que a brincadeira seria cara. A questão seria: o mundo todo vai ficar mais seguro de uma hora para outra?

    (50:44) Devemos nos preocupar. As pessoas que trabalham com segurança têm um caminho bastante longo também, porque os atacantes vão estar usando inteligência artificial. Ele diz aqui: “Você demoraria 2.000 anos para cobrir a auditoria de 5 trilhões de linhas”, se não tivesse mais código novo sendo gerado. Ou seja, quanto mais IA, mais código eu vou ter. Fora todos os processos e softwares legados que, eventualmente, podem ser impossíveis de ser corrigidos.

    (51:23) E a própria logística de corrigir tudo isso. Basta pensar como é difícil em algumas empresas atualizar o sistema operacional. Fecha parênteses. Tem mais alguma coisa sobre essa? Não. Dessa notícia é isso. Eu te digo que estou na expectativa. A gente já está cadastrado lá, já está liberado pela Anthropic, então só estou aguardando eles liberarem o Mythos para nós também.

    (51:53) Acho que as coisas estão bem conectadas hoje. A gente já falou sobre esse assunto algumas vezes, numa base empírica, que é sobre IA e educação. A gente, enquanto educador, enfrenta isso diariamente.

    (52:12) Ontem mesmo eu estava conversando com uma aluna, e ela estava preocupada se era ético usar a inteligência artificial para fazer correção ortográfica nos textos dela e se alguém iria descobrir. Eu disse a ela: “Olha, você faz correção ortográfica no Word, então fazer correção com IA não é um grande problema”.

    (52:32) Ensinei-a a usar os espaços dentro do Claude. Enfim, uma conversa bem bacana e uma pessoa bem antenada para o que ela deveria usar. Cada vez mais me convenço de que não é uma questão de pedir para a IA escrever o texto para ti. Há tantas outras coisas que você pode fazer.

    (53:03) Eu tenho um texto aqui que estou há anos para atualizar, porque teve o Marco Civil, a LGPD e um monte de decisões. Entreguei para a IA e pedi para que ela me desse um roteiro sobre o que eu precisaria atualizar. Ela me deu um passo a passo de coisas que eu demoraria meses para fazer.

    (53:31) Eu ainda vou ter que atualizar manualmente, mas já sei o que preciso fazer. Estou dizendo isso porque o MIT descobriu num artigo chamado “LLM target under performance disproportionately impacts vulnerable users” que quanto menos escolarizado for o usuário, pior vai ser a resposta da inteligência artificial.

    (54:00) E isso a gente já tinha falado aqui. Eu me lembro da gente falando que o LLM, como modelo de linguagem, teria um desempenho pior para alguns perfis.

    (54:21) Esses perfis seriam justamente de pessoas que não conseguem perguntar, não sabem perguntar. Eles pegaram três modelos de ponta: GPT-4, Claude 3 Opus e LLaMA 3 8B, em conjuntos de dados sobre veracidade e factualidade científica. Simularam diferentes tipos de usuários com biografias curtas para avaliar a escolaridade, proficiência em inglês (nativo e não nativo) e o país de origem (Estados Unidos, Irã e China).

    (54:59) Não sei por que escolheram esses três países. Quais foram os principais achados desse estudo? Todos os modelos mostraram uma redução significativa de qualidade e precisão para os usuários com menor escolaridade.

    (55:27) E veja, para aqueles não falantes nativos de inglês, os efeitos são cumulativos. Se você é usuário estrangeiro e tem baixa escolaridade, a queda de desempenho é cumulativa. O Claude 3 Opus foi o mais problemático. Os dados levantados apontaram que ele se recusou a responder quase 11% das perguntas para usuários estrangeiros e de baixa escolaridade, contra apenas 3,6% do grupo de controle.

    (55:59) Além disso, produziu respostas condescendentes e padronizantes em 43% dos casos e recusou-se a responder certos tópicos especificamente para usuários do Irã com baixa escolaridade, como energia nuclear, saúde feminina, judaísmo, drogas e 11 de setembro. Isso estaria conectado com a ideia de aprendizado por reforço de feedback humano, que é uma das formas que esses modelos são melhorados.

    (56:39) Você tem pessoas avaliando respostas e dando feedback para aumentar a qualidade, o que faria com que usuários menos educados tivessem resultados piores. Por que isso é tão preocupante? Talvez a competência mais importante para utilizar a inteligência artificial seja a linguística, a qual demora muito tempo e esforço para desenvolver. É preciso ler, estudar e pensar muito.

    (57:19) Essa facilidade tira o esforço. Na educação, como já comentamos aqui, o caminho mais curto raramente é o mais eficaz para quem está aprendendo. É necessário percorrer o caminho árduo para aprender.

    (57:48) O grande problema é que a própria IA pode subdesenvolver a competência de formular boas perguntas. Fazer a pergunta correta é uma arte. Muitas vezes me surpreendo com os resultados obtidos por meio de questionamentos direcionados como se estivesse conversando com um especialista humano da área.

    (58:23) O que me preocupa na formação do futuro, Guilherme, é que em breve o usuário sequer precisará saber perguntar, pois a ferramenta fará essa ponte. Contudo, quando a plataforma atingir esse nível de abstração, esse profissional júnior deixará de ser necessário na área de trabalho.

    (59:19) Como o aprendizado humano é lento, quando ele desenvolver a habilidade e resolver a barreira de comunicação, a ferramenta fará o serviço automaticamente.

    (59:41) Se observarmos a área do desenvolvimento e TI, hoje ninguém precisa saber programar detalhadamente em uma linguagem específica. É exigido entender de arquitetura, estruturação e parâmetros de segurança lógicos. O desenvolvedor usará esses conceitos para pedir a funcionalidade correta de recuperação de senhas ao agente, sem tocar diretamente no código.

    (1:00:20) O autor do podcast mencionado cita o desaparecimento das camadas de abstração, passando da linguagem Assembly para frameworks de alto nível, até chegarmos no estágio atual de dialogar diretamente com o código fonte.

    (1:00:44) Hoje precisamos de perfis que compreendam a arquitetura e façam a ponte técnica com o negócio da empresa. A área de TI costumava operar de forma isolada, como “o pessoal do porão”, mas agora precisam dialogar com o usuário final e repassar a modelagem para a IA implementar.

    (1:01:26) Quem está hoje na faculdade de Ciência da Computação focando apenas em saber codificar está numa situação delicada. A máquina já escreve o código com precisão superior. O fundamental agora é conseguir discutir a arquitetura da aplicação. A exigência do desenvolvimento júnior será suprimida.

    (1:02:24) O cenário em curto prazo se apresenta desfavorável e piorará. No mesmo episódio que comentei do The Daily, menciona-se que desenvolvedores seniores aprimoram inconscientemente suas habilidades interpessoais de comunicação para explicar à inteligência artificial de maneira didática o que desejam construir.

    (1:03:01) Quem sabe explicar tira as melhores respostas. O jornalista que publicou a reportagem acompanha a evolução dos desenvolvedores há duas décadas no Vale do Silício e ouviu cerca de 75 profissionais sobre o uso diário de inteligência artificial nas tarefas.

    (1:03:57) Grandes empresas recuaram com demissões maciças e voltaram a contratar profissionais experientes de tecnologia, justamente para que estes atuem gerenciando equipes compostas de múltiplos agentes de software em processos de desenvolvimento integrado.

    (1:04:16) Ao delegar o trabalho mecânico à inteligência artificial, eles necessitam de gestores com enorme conhecimento estrutural para não descartar todo o capital humano capacitado da empresa. Os “trainees” e os profissionais iniciantes não conseguem gerenciar o software e, ironicamente, desempenham um trabalho mecânico com precisão inferior ao da própria plataforma.

    (1:04:48) Comparar esse cenário com a Revolução Industrial é interessante, mas as antigas transições duraram muito tempo. Com a inteligência artificial, desenvolvedores estão perdendo os postos de trabalho no período de meses. É algo violento que não conseguíamos imaginar concretamente dois anos atrás.

    (1:05:36) Esse impacto invadirá em cheio outras profissões e o maior problema será descobrir qual caminho profissional adotaremos para o futuro da humanidade, o qual se apresenta como nebuloso e extremamente competitivo em curtíssimo e médio prazo.

    (1:06:46) Recomendo muito esse material às pessoas, especialmente aos estudantes, para embasar o que debatemos diariamente sobre a automação do mercado.

    (1:07:17) Desenvolvedores qualificados superaram o gargalo da restrição temporal porque se comunicam diretamente com a máquina e atingem a perfeição de forma célere. A inteligência atua como a Pedra de Roseta decifrando todo tipo de dado obscuro.

    (1:08:17) Diante de toda essa revolução cognitiva e avanço computacional contínuo, a relevância futura do pensamento humano pode ser questionada e isso mexe intensamente com a estabilidade psicológica de toda a classe trabalhadora.

    (1:08:47) Vamos encerrar para não filosofarmos de forma infinita no assunto. Finalizo deixando como sugestão cultural o podcast “StarTalk” de Neil deGrasse Tyson, no qual entrevistaram Andy Weir, criador dos livros “Perdido em Marte” (The Martian) e do sci-fi “Project Hail Mary”, discutindo os conceitos de física aplicados na obra do escritor.

    (1:10:44) O cinema e o teatro merecem nossa visita presencial em uma era de tantas distrações de telas digitais. Saiam às ruas, fotografem a arquitetura, desconectem-se um pouco do cenário virtual e vivenciem o ambiente externo e material.

    (1:11:37) Com essa recomendação finalizamos, nos encontramos no próximo episódio do podcast Segurança Legal. Até a próxima!
  • Segurança Legal

    #414 – ECA Digital com Paulo Rená

    02/04/2026 | 1h 19min
    Neste episódio falamos sobre o recém-aprovado ECA Digital, uma legislação brasileira essencial que visa garantir a proteção de crianças e adolescentes no ambiente digital. Com a participação do especialista Paulo Rená, você irá descobrir como essa nova lei dialoga com o Marco Civil da Internet para promover uma maior segurança online. Ao longo do bate-papo conduzido por Guilherme Goulart e Vinícius Serafim, você irá aprender sobre os desafios e as soluções propostas para a aferição de idade nas plataformas digitais, garantindo que o acesso a redes sociais seja feito com responsabilidade compartilhada entre família, Estado e empresas. Além disso, o debate aprofunda questões cruciais de segurança da informação, privacidade e direito da tecnologia, explorando como evitar que a coleta excessiva de dados pessoais viole direitos fundamentais. A discussão técnica e jurídica também aborda o uso de protocolos de conhecimento zero e a importância de manter a proteção de dados segura frente aos interesses das grandes corporações. Você irá entender as intersecções entre tecnologia e sociedade, compreendendo de forma clara como as recentes normativas impactam a nossa vida e por que medidas proporcionais de regulação fortalecem a cidadania e o futuro da nossa sociedade conectada na internet.

    Para continuar acompanhando nossos debates, não esqueça de assinar o podcast na sua plataforma preferida. Aproveite também para seguir nossos perfis nas redes e avaliar o programa com cinco estrelas, pois o seu apoio é fundamental para mantermos este projeto independente ativo e alcançarmos mais ouvintes interessados.

    Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana.

    ShowNotes

    LEI Nº 15.211, DE 17 DE SETEMBRO DE 2025 – ECA Digital

    DECRETO Nº 12.880, DE 18 DE MARÇO DE 2026 – Decreto regulamentador do ECA Digital

    ANPD – Mecanismos confiáveis de aferição de idade – Orientações preliminares

    Livro – O Direito Achado na Rede: a concepção do Marco Civil da Internet no Brasil de Paulo Rená

    Proteger as crianças de riscos digitais é também protegê-las contra a exploração comercial

    Retrocesso no Senado: relatório do PL 2628/22 deixa crianças mais vulneráveis à publicidade

    Imagem do Episódio – La Lecture (1888) Berthe Morisot




     Transcrição do Episódio







    00:07) Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o Segurança Legal, o seu podcast de segurança da informação, Direito da Tecnologia e Tecnologia e Sociedade. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim. E aí, Vinícius, tudo bem?

    Olá, Guilherme, tudo bem? Olá, ouvintes.

    (00:24) >> Sempre lembrando que, para nós, é fundamental a participação de todos por meio de perguntas, críticas e sugestões de tema. Então vocês já sabem: estamos lá no e-mail podcast@segurançalegal.com, YouTube, Mastodon, Bluesky, Instagram e TikTok também, né, Vinícius? Os ouvintes… a gente até acha que os nossos ouvintes eventualmente não são muito ligados no TikTok, mas tem algumas pessoas que seguem e que fazem comentários.

    (00:48) É interessante, né?

    Para bombar lá, tu vai botar umas dancinhas tuas lá no nosso TikTok.

    Pode ser, quem sabe na próxima edição. Temos o blog da Brownpipe lá em brownpipe.com.br. Você consegue também se inscrever no e-mail semanal e também na nossa campanha de financiamento coletivo lá no apoia.se

    Preparado usando Claude Sonnet 4.6
    na faça esses recuos. traga o texto puro para copiar e colar no site com a transcrição
    O arquivo é longo e foi truncado na leitura anterior. Vou trazer a parte que foi carregada, corrigida, em texto puro. Para processar o arquivo completo, por favor envie-o novamente ou em partes menores. Aqui está o trecho disponível:

    (00:07) Sejam todos muito bem-vindos e bem-vindas. Estamos de volta com o Segurança Legal, o seu podcast de segurança da informação, Direito da Tecnologia e Tecnologia e Sociedade. Eu sou o Guilherme Goulart e aqui comigo está o meu amigo Vinícius Serafim. E aí, Vinícius, tudo bem?

    Olá, Guilherme, tudo bem? Olá, ouvintes.

    (00:24) >> Sempre lembrando que, para nós, é fundamental a participação de todos por meio de perguntas, críticas e sugestões de tema. Então vocês já sabem: estamos lá no e-mail podcast@segurançalegal.com, YouTube, Mastodon, Bluesky, Instagram e TikTok também. Os ouvintes… a gente até acha que os nossos ouvintes eventualmente não são muito ligados no TikTok, mas tem algumas pessoas que seguem e que fazem comentários.

    (00:48) É interessante. Para bombar lá, tu vai botar umas dancinhas tuas lá no nosso TikTok.

    Pode ser, quem sabe na próxima edição. Temos o blog da Brownpipe lá em brownpipe.com.br. Você consegue também se inscrever no e-mail semanal e também na nossa campanha de financiamento coletivo lá no apoia.se/segurançalegal.

    (01:06) E a gente sempre pede que, se você puder, apoie esse projeto independente de produção de conteúdo. E hoje é um dia muito especial, porque nós estamos recebendo nosso querido amigo Paulo Renat. Som de palmas. Depois da edição vai o som de palmas. E aí, Paulo, tudo bem?

    Tudo ótimo, meus grandes amigos, Guilherme Goulart, Vinícius Serafim.

    (01:29) >> Muito bom tê-lo aqui. Para quem não conhece, o Paulo já participou em outras oportunidades.

    Nós temos uma longa história, no meu caso e acho que no caso do Vinícius também, de admiração pelo Paulo. Paulo é um grande cara, hoje já doutor em direito, estado e constituição pela UnB, também pesquisador no Iris. O Paulo é autor desse livro aqui que eu…

    Para aí, que eu vou botar tu sozinho. Deixa eu mostrar.

    (02:05) >> Esse livro aqui, “O Direito Achado na Rede: a concepção do Marco Civil da Internet no Brasil”. E o Paulo foi um cara que esteve muito ligado, na formação e naquele movimento — dá para se dizer, Paulo — de criação do Marco Civil. E eu acho que a tua participação, até pelas tuas últimas manifestações e também pela tua participação atual na formação do ECA Digital, vai engrandecer bastante o episódio de hoje. Como vocês já viram, a gente vai falar sobre o ECA Digital.

    (02:34) Eu acho que o primeiro ponto, Paulo, é explicar para o nosso ouvinte ou para a nossa ouvinte que eventualmente não saiba direito o que é o ECA Digital. E eu imagino que muitas pessoas efetivamente não saibam, não foram ler a lei ou se inteirar do que ela é. Se você puder falar um pouquinho sobre o que é o ECA Digital e basicamente por que ele é necessário e qual é o problema que ele veio resolver.

    (03:01) >> Guilherme, deixa eu primeiro parar de fingir costume, porque para mim é uma grande honra poder estar participando mais uma vez aqui do Segurança Legal. E dizer que eu faço registro, viu? Então eu tenho anotadinhas.

    Foram oito participações aqui no Segurança Legal. Primeiro, um especial sobre o Marco Civil da Internet lá em abril de 2014.

    (03:22) Então a gente tá fazendo aniversário agora.

    Foi dia 11 de abril de 2014 que foi ao ar.

    Olha essa…

    E aí depois a gente falou de…

    12 anos.

    12 anos.

    É isso. A gente falou depois de plenão, FBI versus Apple, relatório da CPI dos crimes cibernéticos, baleia azul, STF em 2017, que é o tema da minha tese de doutorado, agora que eu defendi ano passado, criptografia e direito, o número 171 e o 238, que foi o muito zoom no Zoom.

    (04:01) >> E teve os oito episódios do Alfa Beta Criptografia, que é um especial que, enfim, vocês foram muito acolhedores. Uma produção sobre criptografia que a gente fez na época em que eu era do Instituto Beta Internet Democracia, antes de entrar pro Iris. A gente fez oito episódios ali específicos sobre criptografia, com a ideia de uma cartilha em áudio que ficou disponível. Ficou muito legal construir esse material.

    (04:34) Para mim foi uma preparação para o que seria a minha tese de doutorado. Então eu preciso agradecer muito a vocês pela exigência de sistematizar o que eu precisava. Ter um espaço que me permitiu fazer essa sistematização me ajudou muito depois a poder concluir essa fase do doutorado na minha vida, que foi absolutamente um alívio imenso e abriu muitas portas também.

    (04:56) >> É muito bom. A gente fica honrado de saber do impacto que eventualmente têm algumas dessas coisas. É claro que o doutorado foi teu, tu teve que fazê-lo, mas a gente fica feliz de ter participado pelo menos um pouquinho nessa tua conquista.

    (05:16) Não, trabalho acadêmico é muito solitário. Tem muitos momentos de solidão, para o bem e para o mal, para momentos bons e para momentos ruins. E quando a gente consegue ter esse diálogo com pessoas que são igualmente interessadas no assunto, acho que é algo que ajuda bastante. Por isso têm tantos grupos de pesquisa e tal.

    (05:37) >> E nessas atividades coletivas, um dos temas que eu acabei encontrando foi o da criança e do adolescente. Já quando eu comecei a dar aula, quando eu comecei a lecionar, a primeira disciplina que lecionei foi Direito da Criança e do Adolescente, para substituir uma colega que saiu da faculdade onde eu ia começar a dar aula de responsabilidade civil.

    (06:00) E aí apareceram lá, eu falei: “Vamos, é um tema de direitos humanos muito importante”. E eu tinha tido um pouco de conhecimento quando trabalhei com o Marco Civil da Internet antes, em 2009, 2010. E era uma das questões: como é que a gente vai tratar disso no Marco Civil? Trata, não trata? E a escolha lá na época foi colocar na lei só uma remissão na parte da educação.

    (06:22) >> Então, desde 2014 no Brasil, é lei que a educação tem que integrar o ensino de informática — não como uma disciplina apartada, mas integrada na matemática, no português. Mais uma promessa educacional brasileira que não está sendo cumprida há bastante tempo. Mas a gente chega agora em 2025 com um passo inaugural assim, pós Marco Civil, porque o ECA Digital é a primeira lei ordinária no Brasil desde 2014 direcionada para regulamentar obrigações para a internet.

    (07:07) Ah, mas e a LGPD? Uma coisa importante sobre proteção de dados pessoais é entender que proteção de dados pessoais não é só na internet, nem é só digital. A gente tem um legado de dados analógicos do Brasil que sempre foram tratados de forma descuidada e que também estão sob a proteção legislativa da Lei 13.709. Muita gente não se deu conta disso ainda, mas em repartições públicas, em hospitais, em empresas, tudo isso é muito importante e precisa ser cuidado. Então é curioso:

    (07:45) a gente fala de prioridade absoluta quando a gente vai falar de proteção de direitos de crianças e adolescentes. É um retroplanejamento, mas é uma felicidade, uma coincidência feliz que tenha sido o primeiro passo desde esse marco como pedra fundamental do direito digital no Brasil, que foi o Marco Civil — a constituição da internet no Brasil.

    (08:05) >> Então agora a gente tem a primeira lei. É como se a gente tivesse um espelho da Constituição de 88 e agora chegasse no ECA, que veio depois de 1990. Então a gente vê que demorou bem mais — de 2014 até o ECA Digital. E boa parte da explicação dessa demora tem tudo a ver com o fato de que outras leis não foram aprovadas antes. Acho que isso é algo importante de ter nesse contexto: não foi por acaso que demorou, não foi só porque os

    (08:40) deputados não priorizaram essa pauta. A gente teve forças específicas direcionadas para evitar que novas leis fossem aprovadas no Brasil com essa pauta. Eu acho sempre importante lembrar o impacto de uma mensagem contra o PL das Fake News que foi publicada na página de busca do Google.

    (09:08) Na página inicial. A página inicial de busca do Google é um padrão, um pico de design gráfico para a web. Os estudiosos sabem a quantidade de elementos que existem na página de busca do Google. É minimalista, não tem publicidade — são pouquíssimos elementos, ela é limpa. E eles incluíram lá uma mensagem para o Brasil contra um projeto de lei.

    (09:43) Isso nunca aconteceu antes. Isso nunca aconteceu depois. Então o PL das Fake News — a Lei de Liberdade, Responsabilidade e Transparência na Internet — não foi para a frente porque as empresas de tecnologia não deixaram. E o ECA Digital conseguiu furar essa resistência, conseguiu aglutinar interesses de direita e de esquerda política, e as empresas ficaram de mãos atadas, não conseguiram construir uma mensagem social contra esse projeto de proteção de um público tão delicado.

    (10:21) >> E a gente sabe, Guilherme… antes de seguir, deixa eu só fazer uma pequena observação aqui. Nós estamos com dois doutores em direito falando sobre o ECA Digital aqui.

    Não, mas o nosso convidado é a estrela do episódio. E temos — tu também és doutor em direito, só para dizer — eu vou estar dando pitaco aqui da parte técnica. Mas só para dizer que nós temos duas pessoas extremamente qualificadas para tratar sobre o assunto sob a ótica do direito, que é

    (10:57) o campo de estudo original dessa questão toda. E aí entram as questões técnicas, obviamente. Só para dizer que a gente não tá falando aqui da boca para fora.

    Não, mas é que nos atinge no final. Nos atinge, Vinícius e Paulo, porque era isso que eu ia colocar: o direito não é algo que cai do extraterrestre que vem aqui e impõe regras. O direito acaba sendo esse influxo de interesses dos mais variados que

    (11:30) se cristalizam na lei. Mas o Brasil segue caminhos às vezes muito interessantes, muito curiosos, eu diria. Primeiro, se você quiser falar só um pouquinho, para a gente não desviar muito — a tua experiência no Marco Civil também foi, me parece, uma das experiências legislativas mais interessantes no mundo, do ponto de vista talvez de uma das primeiras, não sei, Paulo, dessa participação popular, que depois se refletiu um pouco

    (12:03) também na LGPD por meio dos debates públicos e toda aquela coisa. Mas o ECA Digital vem na esteira de um vídeo na internet feito por um influenciador, o Felca. Alguns até nomeiam a lei com o nome dele. Me parece um certo exagero, embora a lei não tenha nome. Mas “ECA Digital” é muito mais tecnicamente correto.

    (12:26) Mas a gente entrou num — eu não chamaria de surto, talvez não seja a melhor palavra — mas num interesse exagerado, fundamentado nesse assunto, o que parece ter motivado a aprovação do projeto de lei que já existia. Esse é um ponto que acho que você pode destacar também.

    É, e é importante. Voltando à história do Marco Civil da Internet, tem um vídeo que eu vou resgatar e vou mandar para vocês, de um cara fazendo um TED Talk. Chama Joel Putin,

    (13:02) “How to Crowdsource Your Laws”. Esse cara faz um apanhado de várias experiências normativas de tentar integrar a população nesse exercício de: com a internet, a gente vai melhorar a democracia. E ele faz uma lista — ah, o governo dos Estados Unidos está ouvindo as pessoas pelo site, mas aí tem gente que vai lá fazer bobagem.

    (13:39) Ah, na Islândia eles juntaram as pessoas para tentar ouvir sobre a Constituição. Mas aí o que aconteceu quando chegou no parlamento? O parlamento bloqueou o texto. Então ele fala que você tem que ter legitimidade, capacidade de lidar com as informações que chegam. O que você faz tem que ter um impacto real, não pode o legislativo matar o negócio.

    (14:04) Tem que ter uma estratégia e o que você está fazendo tem que alcançar as pessoas, tem que ter fama. E ele mostra que esses cinco atributos estão no projeto do Marco Civil da Internet no Brasil, que a gente conseguiu fazer uma lei ordinária ser aprovada com esses atributos, cumprindo essas características de sucesso.

    (14:25) >> Mas tem um fator da tramitação do Marco Civil da Internet que é absolutamente importante: o Edward Snowden. É importante entender que ninguém chama o Marco Civil da Internet de Lei Snowden. Mas sem o escândalo da NSA, o Marco Civil estaria travado sob as garras do Eduardo Cunha na Câmara dos Deputados.

    (14:54) Graças à denúncia do Snowden de que a Dilma estava sendo espionada, destravou a tramitação com a determinação dela de urgência constitucional para a lei tramitar. A Câmara dos Deputados ficou travada por cinco ou seis meses, foi de setembro até março. Aí, em março de 2014, foi aprovado na Câmara e em abril foi aprovado no Senado, e foi sancionado na sequência do Net Mundial.

    (15:22) Então, teve lá no Marco Civil a necessidade de não um vídeo, mas uma história bombástica que fizesse a coisa andar. Mas antes disso teve todo um projeto. Espelhando agora para o ECA Digital, a gente teve um projeto de lei — se eu não me engano, o 2.628 de 2022 — que já vinha com a proposta de tratar de uma proteção específica para crianças e adolescentes na internet.

    (16:09) 26… 28… é 26. O 238 é da IA. Isso. O 2.628 de 2022. Lá em 2022 foi proposto para essa proteção geral — dispõe sobre a proteção de crianças, adolescentes e ambientes digitais — no Senado, pelo senador Alessandro Vieira. Esse projeto chamou atenção em 2024, ou 2023 se eu não me engano, com audiências públicas, e quando teve um texto proposto pelo senador Jorge Kajuru.

    (16:46) O relatório do Jorge Kajuru era tão trágico quanto uma tatuagem de rosto de celebridade nas costas. Era uma coisa assim pavorosa. A intenção era muito boa, mas o resultado causava uma certa repulsa, e a sociedade civil se engajou. Aí a gente tem relatórios do Instituto Alana falando por que aquele texto deixava crianças ainda mais vulneráveis.

    (17:21) Aí a Coalizão Direitos na Rede se mobilizou. Desde 2023, então, acho que em dezembro de 2023 teve essa mobilização. Os especialistas continuaram em cima dessa proposta. Em 2024 ela melhorou absurdamente. O senador Alessandro Vieira, que era o propositor, voltou à carga. E em 2024 o texto foi aprovado no Senado com uma redação muito boa e chegou na Câmara, onde ficou

    (17:56) inerte desde o final de 2024. Tinha tentativas de movimentações, mas ele não andava. E aí a gente teve, então, o vídeo do Felca. A gente chegou em 10 de dezembro de 2024, e estava parado na Comissão de Comunicação. E aí veio o vídeo do Felca, que fez as coisas andarem.

    (18:26) Mas veja: ele foi uma reignição. Ele renovou o impulso de um projeto que já existia, que já tinha sido amadurecido. Inclusive, a gente foi numa reunião — a sociedade civil se reuniu com o presidente Hugo Motta — e ele, depois de muito esforço, nos recebeu e falou: “Tá bom, o que vocês querem melhorar no texto?”

    A gente não quer melhorar nada.

    (18:49) A gente quer que o texto seja aprovado do jeito que está. O texto não é nota 10, mas ele é um texto 7,5, que é muito melhor do que a gente tem hoje, que é zero com tendência negativa. As crianças estão sofrendo prejuízo, os adolescentes estão sofrendo prejuízo. A gente pode dizer que a gente está tendo uma nota menos 10 hoje em dia. E para chegar a 7,5 no plenário, tentar chegar em 8 é o que a gente precisa agora.

    (19:18) Com o vídeo do Felca, surgiram vários outros projetos, dezenas, para tentar tratar de vários pontos, inclusive criminais. Inclusive teve proposta de castração química de estupradores de crianças e adolescentes. E aí a gente falava: pessoal, o PL 2.628 é uma lei de responsabilização primordialmente das plataformas digitais. É para a Meta, para o Google castrarem as pessoas? Não. Então não é aqui.

    (19:42) >> Sim.

    Esse debate a gente vai fazer, mas em outro lugar. Então teve uma estratégia de criar um grupo de trabalho que ainda está funcionando para debater essa ruma de projetos sobre maior proteção de crianças e adolescentes.

    (20:16) Mas para a gente sair do saldo negativo, era necessária a aprovação urgente do PL 2.628.

    Então essa foi a contribuição do Felca, que inclusive — se a gente for ler lá a Lei 15.211 — tem um artigo que, com toda a propriedade, é possível chamar de artigo Felca. A redação não deixa nenhuma dúvida: são vedados aos provedores de aplicação de internet a monetização e o impulsionamento de conteúdos que retratem crianças e adolescentes de forma erotizada ou sexualmente sugestiva ou em contexto próprio do universo

    (21:02) sexual adulto. Se isso não é o conceito de adultização, eu não sei o que é.

    É feito para ele.

    Artigo 23, num capítulo sobre publicidade em meio digital. E está aqui inserido esse dispositivo. O artigo Felca é óbvio, mas a lei traz muito mais coisas, muito mais.

    (21:29) E é importante a gente sair desse binarismo: “gosto, não gosto do Felca”; “a lei foi feita de urgência, não foi feita de urgência”; “os congressistas não sabem nada de internet ou sabem tudo”. Não é assim. O mundo é mais complexo, a lei é mais complexa. E acho que chamar ela de “lei Felca” é tratar a lei como se ela tivesse sido criada do nada a partir do vídeo, escrita num papel apoiado nas coxas em cima da hora, entregue e aprovada.

    (22:02) E não foi isso. Foi trabalho de muita gente antes. E aí tem o papel do Felca — você pode não gostar do Felca, não é a questão aqui — mas na minha experiência, acho que todos nós aqui notamos isso: o vídeo dele fez com que muitas pessoas refletissem sobre como a internet se tornou o que é.

    (22:24) Esse eu acho que, antes da gente passar para a questão da aferição de idade — que eu acho que é o coração técnico aqui da lei — a nossa Constituição já falava sobre proteção integral das crianças e adolescentes, com a ideia de prioridade absoluta.

    (22:44) Aí a lei, o ECA Digital, fala sobre responsabilidade compartilhada entre família, estado e empresas, que é uma coisa que em geral se fala assim: “Ah, mas os pais não deixam os filhos”. Não me parece que é só uma questão dos pais. É também uma questão dos pais, mas não acho que pode ser somente resolvida pelos pais. Mas talvez o mérito do vídeo do Felca — e aí eu te pergunto, uma pergunta mesmo — seria ter demonstrado que o ambiente digital hoje é um ambiente extremamente perigoso para crianças. É um exagero isso?

    (23:14) >> Não, não é um exagero. Uma das grandes mudanças que a gente está tendo agora no debate regulatório da internet e das tecnologias digitais — eu gosto de falar da sociedade da informação — é a migração do foco do conteúdo para o funcionamento das aplicações.

    (23:50) Qual é a diferença? No Marco Civil a gente estava preocupado assim: “Ah, alguém posta um vídeo da Cicarelli”. O problema é o vídeo. A gente tem que ir atrás de quem foi a pessoa que publicou o vídeo. Então, a gente vai dizer que o YouTube não é responsável, desde que um juiz diga: “YouTube, esse vídeo é ilícito”.

    (24:10) O YouTube vai lá e remove e diz pro juiz quem foi que postou o vídeo. A gente vai atrás da pessoa e, nessa lógica, as pessoas vão parar de postar ilegalidades. O problema hoje que se percebe não é só as pessoas postarem as ilegalidades — é que as ilegalidades chegam para quem acessa a rede e chegam de forma prioritária, porque o modelo de negócio da economia da atenção privilegia aquilo que causa o isca de raiva, o rage bait, e não só o rage bait, também coisas como o proibido, o que é instigante, o que é tabu,

    (24:55) as coisas menos calmantes são privilegiadas na entrega pela lógica com a qual o algoritmo foi alimentado. Porque o algoritmo poderia ser feito para distribuir conteúdos que, depois de 10 minutos, fizessem a pessoa parar de usar a internet. Poderia ter esse comando para o algoritmo. Mas o comando é: “Faça com que as pessoas usem esse sistema de um jeito que elas não parem de usar esse sistema”.

    (25:25) Aí vem a lógica do cassino. E isso é perigoso para a gente, é perigoso para pessoas adultas, mas a gente tem condições neurológicas, psicológicas, fisiológicas mesmo, de entender: “Nossa, estou com sede, talvez eu precise parar para beber água. Estou com fome, preciso parar para comer. Tenho que sair para trabalhar, tenho que interagir com a minha família, tenho que fazer alguma coisa para me divertir fora do computador”.

    (25:55) Crianças e adolescentes não têm o lobo pré-frontal completamente desenvolvido. Elas ainda não tiveram experiências sociais, ainda não têm responsabilidade familiar para que sejam demandadas a sair da lógica do cassino das redes sociais, para entender que um desafio de comer canela, de cheirar desodorante, enfim, põe a vida delas em risco.

    (26:23) Não é só uma construção de capital social — é uma atividade perigosa. Ela não tem noção do risco ao qual está se submetendo. E aí os pais, gente, ninguém tem condição de saber o que as outras pessoas estão fazendo online, até porque a gente não sabe o que a gente mesmo está fazendo online. Eu faço uma pergunta bem simples: quantas horas por dia você usou o Instagram na última semana, no último mês?

    (27:00) Imagina que um juiz te interpela. Quantas horas por dia você usou o Telegram, o Instagram ou o WhatsApp no último mês? Você não sabe — o seu celular sabe. E essa informação que está no seu celular pode ser explorada pelo Instagram, pelo concorrente do Instagram, pelo seu aparelho celular, pelo seu sistema operacional, porque isso é um dado que pode ser vendido e explorado economicamente.

    (27:34) Quem vai concorrer com o Instagram quer saber o perfil de pessoas que pode extrair dessa audiência e concorrer. O ponto é que, para crianças e adolescentes, isso as coloca num cenário em que o que é preconizado é a atenção — não é a proteção integral dos direitos da criança e do adolescente, o direito de desenvolver plenamente sua personalidade. Dos 12 aos 18 anos é um maremoto de hormônios, um caos de mudanças pelo qual a gente passa. E se isso está

    (28:12) exposto… A gente viveu isso quando estava no segundo grau. Você tinha um problema na escola — qualquer que fosse, podia ser a paixonite, o seu crush.

    É.

    Hoje os jovens falam crush. Provavelmente já seja cringe falar crush, mas uma jovem sente uma atração por outra jovem…

    (28:40) Isso é um problema para ela na escola. Ela chega em casa, escreve no diário, faz um desenho, escreve um poema. Mas em casa está longe do problema. Vai chegar na escola, vai ser zoada. “Fulana gosta de fulana.” Chegou em casa, acabou o problema — ele só volta a acontecer amanhã. Hoje não tem isso. A superfície digital — que eu até chamo de hiperfície — ela intensifica os nossos contatos de um jeito que o bullying da escola funciona 24 horas e pode ser muito mais cruel.

    (29:15) Então a família tem ferramental limitado para proteger as suas crianças e adolescentes. Tem responsabilidade? Tem. Mas desde a Constituição Federal e também no ECA, essa responsabilidade é compartilhada: é responsabilidade da família, do Estado e da sociedade.

    Proteger integralmente, com prioridade absoluta, os direitos das crianças e adolescentes, deixando-as livres de qualquer violência, de qualquer violação dos seus direitos.

    (29:47) Então o que essa lei está fazendo agora é instando quem oferece serviços e produtos de tecnologia digital de informação e comunicação a assumir o seu papel de responsável pelas crianças e adolescentes. Aquela frase que ficou famosa com o livro da Hillary Clinton — que supostamente é um provérbio africano —: “Precisa de uma vila inteira para criar uma criança”. A família sozinha…

    (30:17) Nunca foi assim. No âmbito rural, nenhuma família criava seus filhos isolada. Os filhos brincavam uns com os outros. Os mais velhos de uma família cuidavam dos mais novos da outra. As mães se ajudavam, os pais se ajudavam. A gente perdeu isso de alguma forma com a urbanização. Mas a ideia aqui é valorizar a integração comunitária, não só a família, também a família.

    (30:41) Não é tirar a responsabilidade da família, mas cobrar que os outros também cumpram o seu papel.

    E também, você falou sobre o bullying. O bullying é um dos problemas, entre dezenas ou centenas de problemas que podem existir aí. E aí a gente ainda tem uma outra questão que me interessa bastante no ECA Digital, que é a ideia do desenvolvimento progressivo da criança, a autonomia progressiva.

    Autonomia progressiva, respeito à autonomia e desenvolvimento progressivo, que é aquela história de que você

    (31:17) não é criança e agora você é adulto. Você vai num processo de transição. E veja também: você não vai proibir crianças e adolescentes de usarem a internet, porque eles vão usar, vão precisar usar, vão precisar aprender a usar inclusive. É um pressuposto de educação que eles aprendam a usar também.

    (31:35) Então, acho que passa por tornar esse ambiente seguro. O tema é fascinante. Lembrei aquele livro do Philippe Ariès, “História Social da Criança e da Família” — que é relativamente recente também, em termos históricos, essa nossa preocupação de tornar o mundo um lugar positivo para as crianças.

    (31:57) Mas vamos pular, que a gente tem bastante coisa para falar. A gente precisa falar sobre talvez uma das questões que mais demandaram atenção e preocupação. E eu acho que é uma preocupação legítima — talvez seja meio Poliana da minha parte, mas eu gosto de acreditar nisso. Os mecanismos de aferição de idade, ou seja, a gente vai ter que começar a verificar de fato

    (32:30) a idade das pessoas para o acesso em alguns ambientes. Parece-me que, se isso for mal conduzido, podemos ter problemas graves de proteção de dados e de privacidade. Só que a questão da aferição de idade foi pensada. Não me parece que o Brasil entrou correndo nessa história.

    (32:57) Então você tem coisas interessantes ali na lei sobre isso. Logo depois da lei, tivemos também o Decreto 12.880, de 18 de março, que também fala sobre algumas questões relacionadas à aferição de idade. Como é que você vê isso? Você acha que esse assunto está maduro? Tem a relação com lojas de aplicativos, mas também com os próprios sistemas operacionais. Você acha que é possível aferir idade de forma segura, visando a

    (33:37) proteção das crianças e ao mesmo tempo a proteção da privacidade e dos dados das outras pessoas que eventualmente vão ter que se identificar nos mais variados ambientes — ambientes nos quais, de maneiras legítimas, podem não querer se identificar? A gente sempre pensa: “Ah, sua gente vai lá consumir pornografia e vai ter que se identificar”, que não é nenhuma atividade ilegal.

    (34:00) Como é que você vê esse grande problema? Não sei se tem uma resposta, Paulo, mas acho que você tem escrito inclusive nos últimos dias e se envolvido bastante nesse debate.

    A resposta simples é: sim. É possível fazer a aferição de idade de forma segura e com respeito à privacidade e à proteção de dados pessoais. A questão é o como.

    (34:25) E aí, primeiro, acho importante a gente reforçar essa legitimidade das pessoas de fato quererem proteger os seus dados pessoais, quererem proteger a sua intimidade, quererem proteger a sua liberdade de expressão que abarca o acesso à informação: que livros estou lendo, que sites estou visitando, com quem estou conversando, que horas, sobre quais assuntos.

    (34:53) Isso pode ser muito relevante para alguém que vai denunciar irregularidades. Pode ser muito importante para trabalhadores que estão organizando um movimento. Pode ser muito importante para familiares que estão organizando uma surpresa para outro familiar. Pode ser muito importante para quem está comprando remédio contra uma doença ou para quem está se preparando para uma gestação e quer garantir o sigilo dessa informação, que é absolutamente de caráter privado.

    (35:20) Essa é uma proteção legítima. O ponto é — e aqui eu me valho muito do que aprendi com a Iolanda Córdova, que é uma referência máxima quando a gente está falando em questões de segurança e de identificação — que aferir a idade não exige revelar a identidade. A lógica aqui é a seguinte:

    (35:49) vou usar um exemplo de novo. Imagine — ou lembre-se — Guilherme, Vinícius, quando a gente ia às baladas, anos 90, anos 2000. Para entrar na balada, você dava a sua carteira de identidade ou a sua carteira de motorista ou a sua OAB, que vem com todos os dados. Veja que você está entregando muito mais dados do que são necessários para a balada saber se você é maior de idade ou não.

    (36:26) É um documento oficial, reconhecido. Mas ele tem seu nome completo, nome do seu pai, nome da sua mãe, seu número de RG, seu número de CPF, seu número da carteira de motorista. Quando você tirou a carteira de motorista? Que tipo de carro você sabe dirigir? Desnecessários.

    Não seria mágico se a gente tivesse uma moeda, um chaveiro recebido de um órgão confiável — uma moeda que tivesse de um lado um selo “maior de 15”, “maior de 16”, “maior de 18”?

    (37:02) E do outro lado um selo da República, um brasão que dissesse: “Se essa pessoa quiser entrar num lugar de mais de 18, ela pode”. E aí o segurança não precisa saber quem você é, não precisa saber de nada — apenas aferir se você pode entrar naquele lugar.

    (37:20) Você mostra a moeda, você entra. E acabou.

    Até porque, em ambientes físicos, esses atributos de aparência são verificáveis. Você olha para uma criança e sabe que aquele ser é físicos, esse

    O ponto é que você tem pessoas físicos, essee aparentam ser mais novas

    (37:40) e pessoas mais novas que parecem físicos, esseas, ou alguém que está ali na f físicos, essebou de fazer 18.

    E físicos, esseituações limí físicos, essete usa documento para todo mundo físicos, esseje, chegando a gen físicos, esse provavelmente ningu físicos, esseumento.

    Era até lisonjeiro físicos, esses mais velhas.

    físicos, esseada e o cara ped físicos, esse físicos, esse Vinícius lá… Não, só ia co físicos, essee já tem na pauta organizada aqui um próximo físicos, essee a gente vai falar mais tecnicam físicos, esseo. E eu até br físicos, essea mágico, seria criptográf físicos, essematemático. Porque a gente tem físicos, essebem estabelecidos físicos, essetamente isso: você ter uma identidade digital e poder apresentar p físicos, esse uma terceira p físicos, esse o gov físicos, essea identidade, você pode apre físicos, esseedaço dela, um atributo físicos, essente para uma terceira parte, e ela con físicos, esser que aquilo é real, que aquilo é físicos, esse38:56) E também temos protocolos que físicos, esseapresentar derivações verificáveis, que é físicos, esseue você colocou. Eu não tenho que físicos, essea de nascimento — eu só digo “eu físicos, esse físicos, esseomo apresentar isso. O imposto de renda agora, que físicos, essecessado e já abr físicos, essefísicos, esseçar a preencher a declaração, você físicos, esselidade de clicar em “ac físicos, esse.BR”.

    (39:26) Quando você acessa com o GOV.BR, físicos, esseha, para você entrar no sit físicos, esseeu vou passar esse, esse, ess físicos, esseudo bem?” É aque físicos, essedo mundo só clica em físicos, esseMas se a gente físicos, essetenção: para acessar o app do Detran, para acessar o físicos, esseS, para acess físicos, essecativos, para fazer assinatur físicos, essela: “Olha, você quer acessar esse serviço físicos, essehave? Beleza, eu vou revelar para físicos, esse físicos, essetudo bem?” E aí a gente dá OK, sem muita criticidade. Ma físicos, esseuncionamento essa ideia de um terceiro info físicos, esserviço que quero acessa físicos, esse precisam. E aí n físicos, esseeitos na Rede — que físicos, esseã físicos, esseis faz parte, junto com dezenas de outras org físicos, esse outubro do ano passado, a gente fez uma no físicos, essere a implementação da aferição de idade a partir do ECA Digi físicos, esseprovado em sete físicos, esse E o que a gente defendeu foi que a proteção d físicos, essedolescentes na internet não tem que comprometer a privacidade e a p físicos, esseos das pessoas — muito pelo contr físicos, essesenão a gente vai estar violando físicos, esseróprias crianças e adolescentes. Então a aferição de idade físicos, esseificar identif físicos, esse

    (40:53) Se para entrar num site maior de 18, físicos, essem remédio, para acessar pornografia, para acessar informações sigilosas, sofisticadas, você pr físicos, esseuem eu sou, isso vai contra a lógic físicos, esse O sistema tem que v físicos, esseributo da faixa etária, não a identidade nom físicos, esse dados que possa físicos, essee permitir essa des físicos, esse
    físicos, esse que eu acho que acaba acontecendo, Paulo? A gent físicos, esseo alguns exemplos do físicos, esseria facial, que é uma f físicos, essede estimar a idade. Você vê a pe físicos, essee ela tem tal idade — deixa pa físicos, esseixa. Aí a mole físicos, esseba.

    É, m físicos, esseo só para tentar ver físicos, esse, mas para identificação. Então ta físicos, essetecer de tentar usa físicos, essera físicos, esse Agora, antes que o pessoal sa físicos, esseeu Deu físicos, essevou poder acessar o site sem me ident físicos, esseom que se diga que, matematicamente, físicos, essecamente ta físicos, esseende da matemática diretamente, cuja essência é matemática — a gente tem ta físicos, esse, os protocolos de conhecimento zero físicos, esse co físicos, esseo.

    (42:25) É, esse protocolo permite justam físicos, esse o Guilherme emita uma identidade para mim, eu me apre físicos, essefísicos, esseendo “Paulo, eu tenho mais de 18”. O Paulo não sabe quem eu sou. O Guilherme não sabe que eu estou apre físicos, esse identidade para o Paulo. O Guilherme não sabe o que eu est físicos, esse
    (42:47) E o Paulo não sabe quem eu s físicos, essebe que eu tenho mais de 18.

    É físicos, esseistemas, aproveitando físicos, esse, estão se valendo d físicos, esseinformacional para coletar mais dados a físicos, essem físicos, esseExato. Isso é um problema. Biometria facial, com físicos, essede RG, CNH, ca físicos, esseo, análise de e-mail — tudo isso promove vigilânci físicos, esse43:15) Tudo isso são métodos que a ge físicos, esse físicos, esseNão”. A solução tecnológica p físicos, esseconcepção do ECA Digital é o modelo ZKP — a prova de conhecimento zero. É uma certificação criptografada, um token. Falei d físicos, essejoga Pokémon GO tem o tokenz físicos, essetazô da nossa é físicos, essea maior, que é um ob físicos, esse físicos, esseacessar. No caso o Vinícius, ele prova para mim que físicos, esse físicos, esseó sei que ele tem mai físicos, esse18. Eu não sei se ele tem 20 ou se ele tem 60. Ele prova que físicos, esse8 sem que eu saiba quem é o Viníc físicos, esse, esse sistema tem que ser baseado em soft físicos, esse aber físicos, esse — tem que ser — porque senão o Viní físicos, essendente da vontade do Guilherme que está conferindo para ele esse t físicos, esse E a gente não quer mais dependência físicos, esseesmo que seja o GOV.BR, porque físicos, essepoder público. Hoje quem est físicos, esselico é um dirigente, amanhã é outro. E pode ser pior do q físicos, essegina.

    Então físicos, esse não diz “o GOV.BR físicos, esseque todas as pessoas de forma cript físicos, esse4:45) Não. O ECA Digital fala que físicos, esseesse jeito, que tem que ter físicos, essera. O GOV.BR é uma solução físicos, essea arquitetura tem que ser descentralizada físicos, esse podem ficar com um únic físicos, esseu físicos, esseilherme, o que iam fa físicos, esser o Guilherme. Iam atacar o Guilherme economicamente, iam físicos, esseo.

    (45:29) Vamos oferecer pro Guilherme um dinheiro que ele vai lavar a consciência dele nas águas do Caribe, meu amigo, e nunca mais vai mexer com nada disso.

    Então, descentralizar é medida de segurança para prevenir abuso de poder econômico e político. E a gente tem que focar em plataformas de risco, não em sistemas operacionais de dispositivos simples.

    (45:51) Não é impressora, não é roteador. E aí eu falo do sistema operacional e das lojas de aplicativos. A violação de direitos de crianças e adolescentes não acontece na loja, não acontece no sistema.

    Só deixa com relação ao ponto que tu colocou antes, de que tem que ser aberto:

    (46:13) a gente já tem um caminho. A gente já tem draft no IETF, já tem draft de RFC e tal para tratar sobre credenciais verificáveis. Então a gente já tem um caminho bem interessante e, se adotarmos uma coisa completamente diferente, a gente vai ter um problema de compatibilidade com sites de outros países.

    Tem que ser interoperável, obviamente.

    (46:33) Tem que ser interoperável. Fecho o meu parênteses, pode seguir. Desculpa te interromper.

    Não, você estava falando sobre ir no caminho da loja e dos sistemas operacionais, né?

    Isso, porque assim: a violação dos direitos das crianças e adolescentes não está acontecendo na loja de aplicativos, está acontecendo no aplicativo que está sendo vendido na loja.

    (46:52) É óbvio, isso é inegável. A violação não acontece no Ubuntu, no Debian, no Windows, no iOS. Mas aí a gente tem um lugar privilegiado para elevar a proteção das crianças e adolescentes. Volto ao argumento anterior: que a lei imponha a essas empresas que exerçam o seu papel de proteção.

    (47:20) Eles são parceiros, eles não são o alvo da legislação. E eles são parceiros na medida em que valer a pena essa parceria. Então vamos imaginar uma ponte privada, uma ponte que está sob pedágio, sob concessão para uma empresa privada, e aí a polícia quer pegar bandidos. A polícia pode fazer um cerco na ponte.

    (47:43) “Ah, não, mas aí as pessoas vão evitar o meu caminho, vou receber menos dinheiro do pedágio, eles vão fazer outro caminho”. A ideia aqui, para você da concessão do pedágio, é colaborar com a segurança pública. Não é você que está cometendo crime, não é você o alvo para prender o dono da concessão ou o presidente da empresa.

    (48:08) Não, não é essa a finalidade. A finalidade é usar esse espaço privilegiado para apoiar e viabilizar as medidas de proteção. E aí isso não vai ser feito em toda e qualquer ponte, de todas as estradas do Brasil; vão ser em grandes pontes, as mais movimentadas. Então vão ser os sistemas operacionais com mais usuários, vão ser as principais lojas de aplicativos. Por exemplo prático e real: uma juíza, semana retrasada — salvo engano, não foi semana passada — exigiu que a Meta

    (48:51) exigisse das contas com mais de 29 mil seguidores que tivessem alvará judicial para monetizar conteúdo produzido com a participação de criança e adolescente. Por quê? Porque isso é trabalho infantil. Isso não é novidade. Trabalho infantil, desde o ECA em 1990, precisa de decisão judicial autorizando, porque aí os pais vão dizer: “Olha, ele vai continuar estudando tal e tal hora; o trabalho tem esse risco, a gente vai mitigar esse risco assim e assado; ele vai ter esse apoio

    (49:29) e ele vai ganhar dinheiro suficiente para viabilizar esse apoio, e os direitos dele estão garantidos”. Aí o juiz olha aquilo e fala: “Beleza, isso tá OK, isso aqui precisa melhorar”. O juiz acompanha. A decisão foi para perfis com mais de 29.000 seguidores.

    (49:54) O problema aqui não é 29.000, podia ser 20, podia ser 30 — o critério é pegar pessoas com relevância. A preocupação vai ser com programas de computador de relevância. “Ah, mas eu posso fazer a minha própria distro?” Pode. E aí se você estiver cometendo uma ilegalidade, você está cometendo uma ilegalidade igual a alguém que vai num pequeno supermercado aqui e furta alguma coisa.

    (50:21) E nem por isso a gente vai deixar de dizer que furto é crime, ou que roubo é crime, ou que agressão é crime. Não é porque pequenos delitos podem ser cometidos que a lei deixa de estar valendo e de ser importante. A gente vai para uma questão de capacidade de fiscalização. Tem toda uma questão de como a Autoridade Nacional de Proteção de Dados (ANPD) vai funcionar agora: ela está ganhando novos servidores públicos, uma nova estrutura interna que não tinha para dar conta dessa nova atribuição.

    (50:51) Ela não exercia muito bem ainda a sua atribuição de proteção de dados pessoais, ganhou uma nova atribuição com o ECA e talvez ganhe mais atribuições na esteira da decisão do Supremo do ano passado sobre o artigo 19. Mas em resumo, o que a Coalizão Direitos na Rede defende? Que modelos de prova de conhecimento zero convivam em soluções públicas e auditáveis com soluções privadas e auditáveis. E mais: que haja comitês consultivos e consultas públicas para fortalecer a atuação da ANPD e garantir que muitos olhos, com

    (51:27) participação da sociedade civil, melhorem esse modelo sempre. O que a gente não quer? Atrelar idade à identidade, reconhecimento facial e concentração de dados em grandes empresas. Então, a partir desse alerta condizente com o ECA Digital, a gente está em diálogo com o governo federal, acompanhou a elaboração do decreto e vem muito mais coisa por aí.

    (51:56) Estamos começando a conviver com o ECA Digital.

    O receio faz sentido. O que não faz sentido é entrar em pânico.

    Claro, claro.

    Não entre em pânico.

    E também passeando aqui pela lei, lembrei disso porque li um dos artigos que você escreveu. O Paulo já escreveu três artigos de opinião lá no TecMundo.

    (52:19) Vai ficar no show notes. Um saiu essa semana agora, os outros dois eram um pouco mais antigos. E uma das coisas que eu acho que é interessante falar também: lá no artigo 12, sobre os mecanismos de aferição de idade, fala-se em tomar “medidas proporcionais”. Algumas pessoas que não são do mundo do direito — o que é totalmente compreensível — perguntam: “Mas o que é proporcionais? Isso pode ser qualquer coisa?”. Ou leem a palavra proporcional e passam por cima,

    (52:52) né? A gente sempre fala isso em aula, né, Paulo? Aquela ideia de que não existe palavra inútil na lei. Se você está lendo uma palavra na lei, ela está ali. Claro que o nosso legislador pode errar, mas as palavras são importantes. O nosso bisturi são as palavras.

    (53:14) E aí no direito a gente está acostumado a fazer isso. Historicamente, desde o direito romano, a gente vem lidando com interpretação jurídica. Mais modernamente, interpretação de textos legais. Mais contemporaneamente, a gente tem essa ideia de virada linguística e filosofia da linguagem para colocar dentro dos ordenamentos.

    (53:38) Estou fazendo todo esse introito só para falar um negócio mais simples: as leis de maneira geral contêm cláusulas abertas que dão maior mobilidade para o sistema e para o ordenamento jurídico. Ou seja, a gente já passou daquela ideia antiga do século XIX, início do século XX, de que os códigos e as leis seriam uma totalidade imutável, e que bastaria eu encontrar o fato ali, colocar na lei e tirar a regra.

    (54:14) A gente viu que o mundo é muito mais complexo do que o legislador consegue prever. E ainda mais quando a gente começa a falar sobre questões tão complexas como essa — criptografia, aferição de idade, internet, proteção de criança — faz bastante sentido deixar essas cláusulas abertas que permitem avaliações mais valorativas. Então, por que isso tudo? Para entrar na questão: “O Linux será proibido no

    (54:49) Brasil a partir de agora?”. Quando a gente olha para a palavra “proporcionais”, Paulo, acho que tem um campo bem importante ali que não proíbe o Linux e nem teria como proibir o Linux no Brasil.

    (55:13) Me parece uma ideia um pouco precipitada, mas a preocupação é legítima. Eu não afasto a legitimidade das pessoas se preocuparem. “Se efetivamente vão proibir meu sistema operacional que eu tanto amo e uso, eu vou ficar preocupado mesmo”.

    (55:34) E assim, é óbvio que a gente sabe que eventualmente o agente público faz bobagem. Um juiz pode dar uma decisão ruim, a gente sabe que administradores podem desenvolver políticas públicas de forma ruim. A gente não está ignorando isso, mas a lei traz balizas.

    (56:16) E é assim que funciona o estado de direito. A lei vai trazer essas balizas para que essas medidas equivocadas tenham menos chance de acontecer. Para reduzir a expectativa cognitiva, a gente tem as expectativas normativas: a gente põe na lei o que é certo e o que é errado para diminuir a chance de acontecer o que a gente entende que é errado. Então na lei e no decreto há previsões, e a ANPD vai estabelecer mais regras nesse sentido de que haja efetivamente uma proporcionalidade, não só por parte dos atores privados, mas também por parte do poder público na fiscalização.

    (56:52) Então o Guilherme falou do artigo 12, que os provedores de lojas de aplicações e sistemas operacionais deverão adotar medidas… E você tem essa previsão de atuação proporcional no artigo 24, que os provedores de redes sociais deverão adotar medidas adequadas e proporcionais para informar, etc.

    (57:21) E lá no artigo 33, fala-se que as medidas sancionatórias devem se mostrar adequadas, proporcionais e necessárias à gravidade da conduta. Aí você vai ter suspensão da conta, cancelamento, comunicação.

    (57:50) A lei fala de tratamento diferenciado e proporcional. E no artigo 35, para fixar a gradação da sanção, tem que ser observada a proporcionalidade e razoabilidade: gravidade da infração, reincidência, capacidade econômica do infrator, finalidade social do fornecedor.

    (58:16) Como assim finalidade social? Vamos imaginar hoje. Eu odeio o Microsoft Teams. Mas se hoje o Microsoft Teams estivesse violando direitos humanos fundamentais — e eu acho que está — não dá para proibir o Microsoft Teams no Brasil, porque ele cumpre uma função social.

    (58:44) O poder público em larguíssima escala depende do Microsoft Teams para existir hoje. Então não dá para proibir. O que a gente tem que fazer? Pode multar, pode exigir um plano de ação de como ela vai melhorar.

    (59:11) Estou brincando que está violando direitos, pela dificuldade prática de usar, mas vamos imaginar seriamente que uma distribuição grande de software livre não consiga, de fato, implementar um controle parental suficiente ou uma aferição de idade adequada. Nesse caso, não vai ter bloqueio da distribuição, porque senão isso vai bloquear o funcionamento de empresas públicas, pesquisadores e universidades que usam essa distribuição.

    (59:48) Então isso está na lei, na aplicação das sanções: a finalidade social do fornecedor e o impacto sobre a coletividade são circunstâncias — além da proporcionalidade e da razoabilidade — que têm que ser observadas para fixar a gradação da sanção.

    (1:00:13) Artigo 35, parágrafo 1º, inciso 4 da Lei 15.211. Está lá. Se vai ser bem ou mal aplicado, às vezes vai ser mal aplicado. Aí a gente tem recurso. O juiz decide mal, a gente recorre para o Tribunal de Justiça, para o STJ ou STF.

    (1:00:33) E assim é o direito, não foi feito de qualquer jeito. Tem uma preocupação sincera. E aí qual eu acho que é o papel agora da comunidade tecnológica? Instar a buscar o seu assento no Conselho Nacional de Proteção de Dados Pessoais e Privacidade, para dialogar com a ANPD para que seja levado em conta o ecossistema de software livre e de código aberto no Brasil. A comunidade tem que participar. Não é só

    (1:01:14) ficar na manchete do “homem velho esbraveja com a nuvem”. Tem espaço para participar, até de casa. Vocês podem mobilizar todo mundo online, eleger um representante, e esse representante vai lá e faz o papel.

    (1:01:34) A democracia não é um jeito único de funcionar, mas o ponto é: tem que exercer a cidadania e fazer essa voz chegar. Eu sou uma das pessoas que está tentando fazer essa voz chegar com razoabilidade. Sérgio Amadeu é muito vocal nesse diálogo, Alexandre Oliva, e vários outros expoentes.

    (1:02:02) Temos uma série de desenvolvedoras mulheres nessa disputa. Temos a comunidade trans preocupada com software livre, porque sabem que, se depender de reconhecimento facial de sistema proprietário, nunca vão ser reconhecidas devidamente pelas câmeras.

    (1:02:26) E eu acredito que a melhor solução para aferição de idade depende de software livre. E o desafio todo vai ser lutar contra os interesses de empresas que começam a se estabelecer para vender mecanismos em plataformas fechadas, monetizando, o que iria contra todo esse ecossistema que está sendo construído:

    (1:03:06) por exemplo, você não deve guardar ou armazenar os dados frutos dessas aferições de idade. A ANPD lançou há pouco tempo um documento de orientações preliminares sobre mecanismos confiáveis de aferição de idade.

    (1:03:29) É um documento mais técnico, que traz um conjunto de requisitos: proporcionalidade, acurácia, robustez, confiabilidade, privacidade e proteção de dados, inclusão e não discriminação, transparência, auditabilidade e interoperabilidade.

    (1:03:51) Então as coisas já estão acontecendo. Já não estamos mais falando só sobre o ECA Digital, mas sobre o decreto regulamentador e o papel da ANPD. E, no final das contas, é bom que tenha esse tipo de discussão mesmo.

    (1:04:09) É bom que as pessoas estejam colocando seus argumentos e eventualmente mudando de ideia. A gente está fazendo debates importantes, quando construtivos, porque a gente já viu movimentações bem destrutivas, tóxicas e com ódio na internet.

    (1:04:38) Aquela coisa que foge da questão técnica. Quando tu discutes uma ideia, tu podes dizer que a ideia é horrorosa, eu não preciso dizer que tu és horroroso ou muito ruim.

    Mas tu não és, tá, Guilherme? Bem claro.

    Não achei que fosse.

    Mas talvez ele ache…

    (1:05:08) >> Será que eu fiz alguma coisa?

    A gente pode tranquilamente discutir isso. E tem a necessidade de ser software livre, como o próprio Paulo colocou.

    (1:05:34) Nós vamos ter grandes discussões: vamos adotar um software livre? Vamos adotar a solução de alguma empresa? O GOV.BR vai avançar para um protocolo de Zero Knowledge? A gente tem várias possibilidades. Todos os caminhos têm suas vantagens e desvantagens.

    (1:06:10) Em algum momento vamos ter que dizer: “A saída melhor é essa aqui porque, no geral, a sociedade ganha”. É uma necessidade ter essa discussão técnica. Em episódios anteriores,

    (1:06:28) o Guilherme deu uma respirada agora para falar…

    Em episódios anteriores a gente estava discutindo justamente essa questão da identificação de idade. A gente trouxe uma notícia de que no Reino Unido estavam implementando uma verificação de idade para acessar sites, o que já gerou discussão.

    (1:07:05) E a gente colocou: vai ser um problema se alguém emitir identidade e esse terceiro puder saber todos os sites em que eu entro. Esse tipo de coisa já vem sendo discutido não só aqui no Brasil. Na Inglaterra a demanda veio antes daqui, não são coisas alienígenas.

    (1:07:39) >> Tem um documento sobre aferição de idade da Austrália que começou a circular aqui no Brasil ano passado, muito completo. O que a ANPD fez? Foi no mesmo caminho.

    (1:08:00) Primeiro publicou um documento amplo sobre as possibilidades, depois fez uma consulta perguntando o que levar em conta, e agora publicou as orientações preliminares. A gente não está regulando no escuro, não estamos ignorando o que está sendo debatido lá fora.

    (1:08:37) O ECA Digital se aproveita das experiências anteriores para dar um passo adiante no bom caminho. A Austrália proibiu que crianças e adolescentes usem redes sociais até 16 anos.

    (1:09:04) O que o Brasil fez? Redes sociais: decidam. Quer ser frequentada por crianças e adolescentes? Tem que cumprir essa lista de obrigações e garantir que a rede seja adequada. Não quer ter esse problema? Então tem a obrigação de garantir que não usem sua rede social.

    (1:09:28) Não é proibido, é permitido, mas a rede tem que se compromissar. Qual é o seu modelo de negócio? A abordagem do Brasil é mais complexa e mais adequada.

    (1:09:51) E aí parece que a discussão é legítima, mas às vezes algumas pessoas não estão preocupadas com as crianças em primeiro lugar.

    (1:10:20) Algumas discussões não levam em consideração que você está tentando proteger crianças num ambiente muito hostil. E às vezes não estão preocupadas nem com privacidade — estão preocupadas em como a vida pode ficar um pouquinho menos confortável, colocando o conforto acima do dever da sociedade.

    (1:10:54) É dever de todos nós integrarmos a criança e ensiná-la a se comportar. Porque crianças também são pessoas, sujeitos de direitos e muito mais vulneráveis do que a gente.

    (1:11:29) Se para a gente já é difícil transitar com toda a experiência, imagina para uma criança em formação. Parece que a proteção da criança ficou lá para trás.

    (1:12:00) E tem ladeiras escorregadias. Temos que ter a preocupação de não aumentar o monitoramento que já existe, mas também não podemos entrar na vibe de: “O Google e a Meta já me rastreiam, então azar, deixa saber onde eu vou e o que acesso”.

    (1:12:55) Há uma preocupação legítima com a privacidade. Uma solução mal implementada vai avacalhar a privacidade mais ainda do que já está. E não temos que aceitar isso. Soluções tecnicamente mal desenhadas, com protocolos proprietários fechados,

    (1:13:34) que você tem que pagar para implementar, têm chance de causar problemas de incompatibilidade e integração com outras APIs.

    (1:13:58) Temos problemas reais a serem tratados, mas são tratáveis com uma boa discussão técnica, tanto jurídica quanto computacional.

    (1:14:20) Se a gente começar uma discussão que ignora esses termos ou faz uma seleção seletiva, é certo que teremos problemas. Acho que foi uma conversa muito produtiva, como sempre é.

    (1:14:59) A gente deixa os minutinhos finais, Paulo. Se quiser falar o que quiser, contar uma piada ou um poema…

    (1:15:17) >> Compre o livro do Paulo Rená, “O Direito Achado na Rede”, na Amazon.

    (1:15:40) Paulo, muito obrigado demais. Volte sempre, os microfones estão sempre abertos para você.

    Minha última fala vai retomar um dos nossos amigos e heróis aqui, o Danilo Doneda.

    (1:16:00) Uma das últimas coisas que aprendi com ele foi que o importante dos dados pessoais é entender que eles também têm valor no tempo. A cada dia, os dados coletados vão ficando menos valiosos e se desatualizando naturalmente.

    (1:16:27) Então as empresas precisam sempre estar coletando dados novos. Quando a gente cessa um vazamento, não é porque vazou uma vez que nunca mais vamos fechar a porta.

    (1:16:57) A gente tem que fechar. Sempre é momento, nunca é tarde para encerrar uma violação de direitos. Não é porque as empresas já têm acesso hoje que a gente tem que permitir isso para sempre.

    (1:17:21) Eu acho que essa lei vem no sentido de estancar algumas violações de direitos em relação a dados pessoais de crianças e adolescentes. É um prazer compartilhar essas palavras com vocês.

    (1:17:45) Fico sempre muito envaidecido, sou ouvinte do programa. Preciso retomar minha participação no grupo do Telegram. Um forte abraço.

    (1:18:04) >> A gente teve muita sorte de formar um grupo tão bacana lá. Agradecemos a todos que nos acompanharam até aqui e nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima.

    (1:18:33) >> Até a próxima. Tchau.
  • Segurança Legal

    #413 – IA, guerra, medicina e cybersecurity

    24/03/2026 | 59min
    Neste episódio comentamos sobre as principais atualizações e desafios no mercado de tecnologia, trazendo uma análise objetiva sobre cibersegurança e proteção de dados. Ao longo da reprodução, você irá descobrir os recentes desdobramentos éticos do uso de inteligência artificial em contextos militares, envolvendo a recusa da Anthropic em aderir aos termos do Departamento de Defesa norte-americano e os impactos disso para a privacidade global. Você também irá aprender sobre o novo marco regulatório do Conselho Federal de Medicina para ferramentas automatizadas na área da saúde, compreendendo como as exigências da LGPD se aplicam à segurança da informação na proteção de dados médicos sensíveis. Além disso, você entenderá os detalhes do recente ataque hacker que causou graves incidentes de segurança no setor financeiro, e saberá identificar as vulnerabilidades críticas na integração de modelos de linguagem via protocolo MCP, como a perigosa injeção de prompts em servidores expostos. O host Guilherme Goulart compartilha ainda sua vivência no evento SecOps Summit, refletindo sobre a importância dos profissionais de segurança na governança corporativa. Por fim, você poderá avaliar como o uso excessivo do ChatGPT pode afetar a criatividade e gerar a homogeneização do pensamento.

    Para continuar acompanhando nossas discussões, não se esqueça de assinar o podcast na sua plataforma preferida, seguir nossos perfis nas redes sociais e avaliar o programa para apoiar o nosso trabalho.

    Esta descrição foi realizada a partir do áudio do podcast com o uso de IA, com revisão humana. 

     

     Visite nossa campanha de financiamento coletivo e nos apoie!

     Conheça o Blog da BrownPipe Consultoria e se inscreva no nosso mailing

    Acesse WhisperSafe – Transcreva áudio e grave reuniões direto no seu computador, mesmo offline. Rápido, leve e pronto para usar com qualquer IA. Use o cupom SEGLEG50 para 50% de desconto na sua assinatura.

    ShowNotes

    Episódio citado – 2013-06-18 – Episódio #28 – PRISM – Privacidade X Segurança

    The Pentagon formally labels Anthropic a supply-chain risk

    Anthropic’s Claude is suddenly the most popular iPhone app following Pentagon feud

    Anthropic vs. U.S. Department of War

    The Pentagon Can’t Afford This A.I. Fight

    Statement from Dario Amodei on our discussions with the Department of War

    Employees across OpenAI and Google support Anthropic’s lawsuit against the Pentagon

    AI safety leader says ‘world is in peril’ and quits to study poetry

    Microsoft & Anthropic MCP Servers at Risk of RCE, Cloud Takeovers

    AI Conundrum: Why MCP Security Can’t Be Patched Away

    MCP is the backdoor your zero-trust architecture forgot to close

    Ministério da Educação – REFERENCIAL PARA DESENVOLVIMENTO E USO RESPONSÁVEIS DE INTELIGÊNCIA ARTIFICIAL NA EDUCAÇÃO

    Nova resolução de uso de IA na CFM

    Artigo “When ChatGPT is Gone: Creativity Reverts and Homogeneity Persists“

    BTG Pactual restabelece operações via Pix após ser alvo de ataque hacker

    BTG Pactual sofre ataque hacker e suspende operações via Pix

    PF investiga participação de funcionários no ataque hacker de R$ 100 milhões ao BTG Pactual

    Imagem do Episódio: A Torre de Babel — Pieter Bruegel


    📝 Transcrição do Episódio







    (00:08) Guilherme: Bem-vindos e bem-vindas ao Café Segurança Legal, episódio 413, gravado em 23 de março de 2026. Eu sou Guilherme Goulart e, junto com Vinícius Serafim, vamos trazer algumas notícias das últimas semanas. E aí, Vinícius, tudo bem? Vinícius: Tudo bem, Guilherme. Olá aos nossos ouvintes. Esse é o nosso momento de conversar sobre algumas notícias e acontecimentos que chamaram a nossa atenção.

    (00:30) Guilherme: Então, pegue o seu café; no caso de hoje, um chimarrão. Pegue a sua bebida preferida e venha conosco. Para entrar em contato com a gente, você já sabe: basta enviar uma mensagem para [email protected] ou falar conosco no Instagram, Bluesky, YouTube e TikTok. Temos também a campanha de financiamento coletivo em apoia.se/segurancalegal. E há um novo patrocinador: Whisper Safe.

    (00:52) Guilherme: Você já pensou como pode ser difícil, depois de uma reunião, lembrar o que foi dito ou perder tempo digitando tudo o que foi falado? O Whisper Safe resolve esse e outros problemas para você, porque ele transcreve áudio e grava reuniões direto do seu computador, de forma rápida, precisa e 100% offline. Nenhum dado de áudio sai da sua máquina. Ele funciona com todos os comunicadores e também com qualquer arquivo de áudio que você tenha, como notas de palestra, notas de aula e outros tipos de gravação.

    (01:25) Vinícius: Eu tenho usado com MP4. Eu estava usando outra ferramenta que não estava funcionando com MP4. O Whisper Safe funciona com MP4 também? Guilherme: Sim, funciona com MP4 também. Você pode colocar vídeo lá, e ele processa. Vinícius: Não sabia.

    (01:48) Guilherme: Muito bom. Você tem 15 dias grátis para testar, e o cupom SEGUELEG50 dá 50% de desconto vitalício. Enquanto o Whisper Safe estiver funcionando, você terá esse desconto. Então, use o cupom SEGUELEG50, que está lá no show notes, e acesse whispersafe.ai. Antes de começarmos, Vinícius, a Brown Pipe esteve com toda a sua equipe no SecOps Summit 2026.

    (02:18) Guilherme: No meu caso, como foi aqui em Porto Alegre, eu digo “lá” brincando, mas para mim foi “aqui”. Conta para nós um pouquinho. Vinícius: A gente esteve no evento em razão de uma palestra que tu foste dar lá. Aproveitamos para conhecer o evento.

    (02:40) Vinícius: Nós nunca tínhamos ido ao evento para ver como era e sentir a vibe. Acabamos encontrando vários clientes nossos lá, o que é muito bom. Isso mostra que existe busca e que o público está procurando mais informações sobre esse tema.

    (03:00) Vinícius: Já quero pedir aos ouvintes que nos encontraram lá e vieram conversar contigo depois da palestra: por favor, mandem seus nomes. Se não estou enganado, um deles se chama Frederico. Queríamos mandar um abraço no próximo episódio, citando vocês corretamente.

    (03:18) Vinícius: Então já fica registrado: foi muito bom trocar uma ideia lá e encontrar ouvintes do Segurança Legal. No geral, Guilherme, o mercado é realmente bastante concorrido. O tipo de evento atrai empresas que fazem coisas parecidas.

    (03:45) Vinícius: Vi desde startups até empresas maiores. No geral, havia muita gente oferecendo dashboards, aplicações e ferramentas para acompanhar segurança, compliance com LGPD, proteção de dados e temas correlatos.

    (04:14) Vinícius: Dizer que todo mundo estava fazendo isso é exagero, mas quase todo mundo estava usando IA como palavra-chave. No geral, achei o evento bem interessante. Pretendo ir novamente no ano que vem. Guilherme: Eu também achei interessante e pretendo ir de novo.

    (04:38) Guilherme: Recebi uma mensagem do nosso amigo e evangelizador do Segurança Legal, Diego, dizendo que neste ano não pôde ir. Foi uma pena, porque não conseguimos nos encontrar com ele. Lá, falei sobre o papel do encarregado nos incidentes de segurança da informação, tema sobre o qual já comentamos aqui no podcast.

    (05:00) Guilherme: Foi interessante receber feedbacks de pessoas dizendo que não estavam fazendo aquilo que eu comentei que deveria ser feito. Para nós, isso parece básico, mas ainda há uma série de barreiras. Uma delas é dar condições reais para o encarregado trabalhar. Não basta nomeá-lo; é preciso dar estrutura para que ele desenvolva o seu trabalho.

    (05:32) Guilherme: Eu também gostei do evento, então voltaremos. Essa é uma piada interna aqui do Rio Grande do Sul. Vinícius: Mais especificamente de Porto Alegre. Guilherme: Isso, mais de Porto Alegre, ali do tempo da TVCOM.

    (05:55) Guilherme: Nós também recebemos uma mensagem do nosso querido ouvinte Ricardo Berlim. Ele nos perguntou sobre ECA Digital. Esse é um tema que está chamando muita atenção no debate, sobretudo na segurança da informação e nas conexões com vigilância.

    (06:27) Guilherme: E eu acho que, muitas vezes, pelas razões erradas. Tem muita coisa que não é discussão séria. Embora eu tenha dito tudo isso para dizer que não iríamos falar sobre o tema agora, já estamos falando dele. Vinícius: Na semana que vem, vamos gravar sobre isso com um convidado.

    (06:50) Guilherme: Vamos voltar ao tema do ECA Digital na próxima semana, ou no meio da próxima semana. Eu prefiro falar em “polêmica do ECA Digital” do que em “Lei Felca”, como alguns têm chamado. Os nossos ouvintes provavelmente já ouviram falar bastante sobre isso.

    (07:18) Guilherme: Se você acompanha o cenário internacional da guerra entre Estados Unidos e Irã, deve ter percebido como a IA entrou nesse jogo e virou notícia dentro dessa história. Conta para nós um pouco mais sobre isso. Vinícius: Eu acompanhei isso mais de perto.

    (07:43) Vinícius: Já havíamos comentado sobre a Anthropic ter se negado a aceitar certos termos de uso da IA pelo Departamento de Defesa norte-americano, ou, se quiser, pelo departamento de guerra norte-americano. Isso já tinha dado pano para manga.

    (08:07) Vinícius: O Departamento de Defesa chutou o balde com a Anthropic. Primeiro, isso foi anunciado nas redes sociais, e depois ficou claro que a Anthropic está envolvida em vários projetos com o governo norte-americano. Ela foi uma das primeiras a entregar modelos customizados para ajudar o governo.

    (08:40) Vinícius: Não é que eles não quisessem cooperar. O que aconteceu é que houve dois itens que a Anthropic não aceitou. Um deles foi o uso da IA para vigilância em massa doméstica, ou seja, de cidadãos norte-americanos.

    (09:12) Vinícius: Isso lembra bastante a questão do Snowden, em 2013. Na época, Obama veio a público dizer que todos podiam ficar tranquilos porque eles não estavam monitorando cidadãos norte-americanos. Isso foi um pronunciamento voltado para dentro de casa, não para fora.

    (09:51) Guilherme: Só um minutinho, Vinícius. Foi o episódio 28. Praticamente 400 episódios atrás. O episódio é “Prism, privacidade e segurança”, e eu vou deixar no show notes.

    (10:18) Guilherme: Depois do episódio 28, falamos no episódio 30, “Snowden 6: Brasil vigiado”. Vinícius: Acho que é exatamente isso que eu estava comentando. E o que aconteceu foi que eles não aceitaram o uso para vigilância doméstica nem para armas completamente autônomas.

    (10:48) Vinícius: Isso não quer dizer que a IA da Anthropic já não estivesse sendo utilizada para determinar alvos, identificar alvos e definir estratégias. O próprio Dario Amodei fala disso em uma declaração no site da Anthropic. Esses dois pontos é que teriam ficado de fora.

    (11:23) Vinícius: Essa teria sido a razão de a Anthropic ter sido descartada pelo Departamento de Defesa. Só que, ao mesmo tempo, no dia seguinte, a OpenAI fechou contrato com o Departamento de Defesa. Seria, em tese, o mesmo contrato que a Anthropic teria recusado.

    (12:01) Vinícius: Segundo disseram, seria nos mesmos termos que a Anthropic havia proposto. Isso é bastante estranho. Se uma empresa é descartada por não aceitar certos termos, e outra entra dizendo que aceitou os mesmos termos, algo não fecha.

    (12:27) Vinícius: Isso causou uma impressão pública muito ruim sobre a OpenAI. A partir daí, começou uma enxurrada de usuários saindo do ChatGPT e procurando o Claude, da Anthropic, meio que em apoio à empresa. Também existe uma ação judicial movida pela Anthropic contra o Pentágono.

    (13:04) Vinícius: A Anthropic iniciou essa ação judicial porque teria sido listada como risco de supply chain. E o mais interessante é que funcionários da OpenAI e do Google estariam apoiando esse movimento da Anthropic contra o Pentágono.

    (13:33) Vinícius: Agora precisamos esperar um pouco para ver o que vai acontecer e se algo mais concreto aparece no futuro. Surgiu também a notícia de que um dos líderes de segurança em IA da Anthropic saiu da empresa para escrever poesia.

    (14:09) Vinícius: Ele disse que queria dar um tempo. Segundo ele, o mundo está em perigo e as empresas estão abrindo mão de guardrails de segurança para ter lucro e outras vantagens. Mas ele não apresentou nada de concreto.

    (14:37) Vinícius: Eu acho que seria mais interessante se ele tivesse trazido algum documento ou alguma evidência objetiva, algo semelhante ao que ocorreu com o Snowden. Por enquanto, o que temos é uma preocupação genérica.

    (15:13) Vinícius: Ele apenas afirmou que a IA está nos tornando menos humanos, que o mundo está em perigo e que resolveu sair para escrever poesia. Algumas pessoas me enviaram isso como sinal de que algo grave estaria acontecendo na Anthropic. Pode até haver alguma coisa, mas ainda sem elementos concretos.

    (15:52) Vinícius: De todo modo, eu acho que a IA, de modo geral, é um problema que precisamos discutir seriamente. Os impactos podem ser bastante ruins para a sociedade se isso não for bem conduzido.

    (16:23) Guilherme: Neste fim de semana, eu estava lendo sobre os 80 anos do ENIAC. Vinícius: Eu sempre conheci como “Eniac”. Guilherme: Pois é, mas o ponto é que ele era um computador digital de propósito geral, usado para cálculos de balística.

    (16:48) Guilherme: Isso me chamou a atenção porque dá para fazer uma ligação entre esse caso da Anthropic e o uso de qualquer tecnologia. Quando você pega a história da criptografia, por exemplo, vê que ela também está ligada à proteção de segredos militares, entre gregos, romanos e outros povos.

    (17:24) Guilherme: Temos também a história do Turing e de como várias tecnologias estiveram diretamente conectadas com cenários de guerra. A IA talvez siga um caminho um pouco diferente, porque não nasceu em um cenário militar, mas foi rapidamente adotada nesse contexto.

    (18:00) Guilherme: E ela foi rapidamente adotada em todos os outros contextos também. Talvez tenha sido a tecnologia que criamos e que mais rapidamente foi absorvida no plano comercial e pessoal. Basta comparar o tempo de popularização da internet com o tempo de popularização da IA.

    (18:31) Guilherme: É inegável que vários setores, inclusive o militar, vão querer usar essa tecnologia. E isso traz também as dificuldades de regular esse uso. Além disso, é importante observar com quem essas empresas estão envolvidas e no que elas estão envolvidas.

    (19:06) Vinícius: A própria internet surgiu do Departamento de Defesa dos Estados Unidos. Guilherme: Exato. Houve empresas importantes no desenvolvimento das primeiras redes, mas depois o TCP/IP e a internet propriamente dita surgem a partir de projeto do Departamento de Defesa.

    (19:27) Guilherme: Infelizmente, esse parece ser um caminho recorrente. As guerras acabam impulsionando uma série de tecnologias que depois voltam para uso civil.

    (19:53) Guilherme: E o contrário também acontece. Tecnologias pensadas para uso civil podem se mostrar extremamente úteis no cenário militar.

    (20:16) Vinícius: Um exemplo são os drones de baixo custo. Antes da guerra da Ucrânia, quando se falava em drone militar, a imagem comum era a de grandes aeronaves controladas remotamente, como os modelos norte-americanos armados com mísseis.

    (20:51) Vinícius: Com a guerra da Ucrânia, vimos o uso de drones civis carregando explosivos para atingir tanques. Isso mudou bastante a percepção sobre o tema.

    (21:26) Vinícius: Agora também vemos o uso de drones iranianos de baixo custo pela Rússia. São equipamentos simples, com motor a combustão e carga explosiva, programados para seguir uma rota. Se houver um obstáculo no caminho, eles simplesmente colidem.

    (21:54) Vinícius: Isso mostra como soluções relativamente baratas podem ganhar importância estratégica. Um drone desses pode custar algo como 30 ou 35 mil dólares, o que é muito pouco comparado a um míssil de mais de 1 milhão de dólares.

    (22:24) Vinícius: Eu também vi um drone muito veloz, anunciado inicialmente para filmar carros de Fórmula 1, que agora aparece como solução para interceptar outros drones. Em vez de gastar um míssil de 1 milhão de dólares, usa-se um drone que custa algumas centenas de dólares.

    (23:00) Vinícius: Tudo isso acaba produzindo mudanças. Vai baixar o preço dos drones, vai aumentar a oferta de drones com IA e, no fim, muita coisa desenvolvida para a guerra volta para o uso civil. É interessante em alguns aspectos, mas não deixa de ser guerra.

    (23:34) Guilherme: Eu fui pesquisar também sobre Santos Dumont. Li que um dos fatores associados ao seu suicídio teria sido o uso dos aviões na Revolução de 1932, embora não dê para saber isso exatamente. De todo modo, vamos mudar de pauta.

    (24:09) Guilherme: Tivemos uma nova resolução sobre o uso de IA no âmbito do CFM. A Resolução CFM 2.454/2026 foi publicada no fim de fevereiro e seria o primeiro marco regulatório, na área médica, para estabelecer algum tipo de controle sobre o uso de inteligência artificial.

    (24:47) Guilherme: Ela traz direitos e deveres dos médicos, trata dos riscos e segue uma linha semelhante à de classificar a IA com base em níveis de risco: baixo, médio, alto e inaceitável. No Anexo 2, eu notei alguns problemas nas definições, embora não tenha conseguido verificar isso com mais profundidade.

    (25:12) Guilherme: Também não consegui localizar, numa leitura mais rápida, o que seria exatamente o risco inaceitável. A resolução cria obrigações de auditoria e transparência para instituições de saúde. E destaca que a ferramenta deve ser usada como apoio, enquanto a decisão e a responsabilidade permanecem com o médico.

    (25:40) Guilherme: Outro ponto importante é que o paciente tem o direito de ser informado, de forma clara e acessível, quando modelos, sistemas e aplicações forem utilizados. E o médico deve respeitar a autonomia do paciente, inclusive quanto à recusa informada ao uso da IA.

    (26:01) Guilherme: Isso é importante em vários flancos. No âmbito da segurança da informação, o artigo 17 estabelece que os sistemas utilizados devem ter medidas adequadas e compatíveis com o estado da arte para evitar acesso não autorizado, perda, vazamento e destruição. Estamos falando de dados pessoais sensíveis, ligados à saúde.

    (26:35) Guilherme: Outro dia eu te mandei exemplos de pads abertos na internet com informações sensíveis, aparentemente de serviço de emergência hospitalar. Então, realmente precisamos avançar nessa área. E, quando falamos em serviços médicos, também lembramos de equipamentos antigos e de redes mal protegidas.

    (27:07) Guilherme: Tudo isso abre espaço para um novo nível de responsabilidade, de controles e de riscos de vazamento. Sem contar que essas grandes empresas já estão oferecendo soluções de IA voltadas à área da saúde. Isso pode ser perigoso, considerando o atual estágio das alucinações e das possibilidades de tomada de decisão automatizada.

    (27:39) Guilherme: Quando pensamos em profissões como medicina, direito, arquitetura e outras, propor substituições desse tipo é algo preocupante. Se eu fosse médico, ficaria bastante atento a esse movimento.

    (28:18) Vinícius: Eu só faria uma ressalva sobre a questão da alucinação. Os modelos parecem alucinar cada vez menos, não mais. E também importa muito quais modelos estão sendo usados.

    (28:37) Vinícius: Quando falamos de OpenAI e Microsoft se movimentando para acessar dados de saúde, precisamos entender com cuidado o objetivo disso. Se não for para conversar com o usuário sobre saúde, fica a pergunta sobre para que exatamente esses dados estão sendo usados.

    (29:12) Vinícius: Em alguma medida, as pessoas já faziam isso antes no Google, quando pesquisavam exames e sintomas antes de ir ao médico. Agora, isso migrou para a IA.

    (29:35) Vinícius: Já ouvi relatos de pessoas que desconfiaram do atendimento que estavam recebendo, usaram IA para se aprofundar um pouco mais e sentiram que foram ajudadas. Mas também há casos em que a ferramenta erra completamente.

    (30:05) Guilherme: E aí entra a questão da responsabilidade sobre a orientação dada. Vinícius: Sem dúvida. Mas há um certo consenso em muitos debates sobre IA de que ela pode ampliar o acesso a atendimentos que hoje não existem por causa de custo, tempo e escala.

    (30:43) Vinícius: Eu acho que existe, sim, potencial para ajudar bastante as questões de saúde. Só não acho que as pessoas devam passar a consultar o ChatGPT em vez de um médico.

    (31:16) Vinícius: Mas esse potencial de tornar o atendimento mais acessível é bastante relevante. Hoje, ser atendido por um médico já é caro e difícil, mesmo com SUS e outras estruturas existentes.

    (31:46) Vinícius: Então, esse é um tipo de aplicação que eu quero ver acontecer. Só não sei se quero que a iniciativa fique nas mãos de empresas como OpenAI e Anthropic, substituindo a relação com o médico.

    (32:11) Guilherme: Eu acho que existe um aspecto ético muito forte aí. Isso já vem acontecendo em outras profissões, e eu vejo algo parecido no direito, com juízes usando IA de maneira intensa. Mas, no direito, há valores morais, aspectos éticos e uma busca pelo justo que não podem ser ignorados.

    (32:36) Guilherme: E há algo que a IA ainda não faz, pelo menos por enquanto: o exame clínico, a anamnese presencial, a conversa detalhada e o contato físico com o paciente. Eu também não gosto do argumento de que, como existem médicos ruins, então deveríamos simplesmente substituir por IA.

    (33:02) Guilherme: Sim, há médicos ruins, que atendem em dois minutos. Mas isso é outro problema. Não acho que isso justifique uma adoção tão apressada da IA.

    (33:46) Vinícius: Eu até ajudei uma professora a criar um simulador de anamnese para treinamento de alunos. Então, não sei se até isso, no futuro, não será apenas uma questão de interface. E não sei se, em certos casos, a ferramenta não poderá fazer melhor do que alguns profissionais.

    (34:13) Vinícius: Médicos erram, juízes erram e vários profissionais erram. Há coisas que talvez consigamos fazer melhor com tecnologia, e o diagnóstico pode ser uma delas. Pode chegar o momento em que a gente não vai querer ser atendido por um médico que não use algum recurso de IA para ajudar a analisar o caso.

    (34:35) Guilherme: O problema é desconsiderar que a falta de contato físico talvez seja algo fundamental para a medicina. Esse me parece um ponto relevante.

    (35:00) Guilherme: Bom, tivemos várias interrupções hoje. Vinícius: É, o mau tempo está pegando o estado todo. Está chovendo muito por aí também? Guilherme: Aqui também está.

    (35:18) Vinícius: Estou vendo no Ventusky o estado do Rio Grande do Sul inteiro embaixo d’água. Parece até de propósito. Se você olha o mapa, a parte do Brasil que avança para o Uruguai está com chuva, e o Uruguai não.

    (35:52) Guilherme: E isso se conecta com segurança da informação, especialmente com resiliência. Não basta pensar em disponibilidade; os sistemas também precisam continuar funcionando sob situações extremas. E nós, aqui no Rio Grande do Sul, ainda não resolvemos isso direito, sobretudo no sistema de comunicação.

    (36:22) Guilherme: Não recebi nenhum alerta no celular, por exemplo. Na Europa, eles costumam ser muito mais cuidadosos com isso. Em Portugal e na Espanha, recentemente, houve grandes eventos climáticos, e o aviso à população foi feito com muito mais precisão.

    (36:51) Guilherme: Aqui, as coisas ainda parecem insuficientes nesse ponto. Bom, seguindo, tivemos um incidente com o BTG.

    (37:15) Guilherme: No domingo, dia 22, o BTG foi alvo de um ataque hacker. As informações que temos vieram da imprensa e, ao que tudo indica, também foram fornecidas pela própria instituição. O ataque teria forçado a suspensão preventiva das operações via Pix.

    (37:46) Guilherme: Segundo o Estadão, o ataque teria desviado cerca de 100 milhões, dos quais a maior parte teria sido recuperada. Entre 20 e 40 milhões ainda não teriam sido localizados até aquele momento. Na manhã do dia 23, o Pix foi restabelecido, e foi informado que não houve acesso às contas de clientes nem exposição de dados de correntistas.

    (38:07) Guilherme: Aqui eu faço apenas uma hipótese, sem afirmar que foi isso que aconteceu. A situação me pareceu, em alguns aspectos, parecida com o caso da C&M: há dinheiro desviado, não há relato de acesso a dados de correntistas e há interrupção do Pix.

    (38:30) Guilherme: Essas condições são parecidas com o caso anterior, mas ainda precisamos acompanhar. O Banco Central ainda não havia se manifestado.

    (38:53) Guilherme: Ao que tudo indica, o BTG não usa PSTI, embora eu não tenha encontrado essa informação com segurança. Então pode ser que tenha infraestrutura própria para se conectar à rede do Sistema Financeiro Nacional. De todo modo, isso serve de alerta para as instituições financeiras.

    (39:26) Guilherme: Com as regulações recentes, especialmente após o incidente da C&M, tudo indica que 2026 será um ano de atuação mais forte do Banco Central na avaliação desses incidentes e na verificação das condições de segurança das instituições.

    (39:52) Guilherme: Notinha do editor: enquanto estávamos editando, saiu uma atualização no Convergência Digital confirmando aquilo que comentamos. Não houve invasão a PSTI, e sim à infraestrutura da própria organização.

    (40:14) Guilherme: A Polícia Federal e o MP de São Paulo, por meio do CyberGaeco, investigam o caso. Eles levantam a hipótese de uso de uma credencial antiga, ligada a uma empresa de tecnologia bancária que já prestou serviços ao BTG, e não descartam a participação de funcionários com acesso às credenciais.

    (40:33) Guilherme: Desde 2025, já teriam sido registrados ao menos três ataques desse tipo. Há também a suspeita de que o grupo responsável seja próximo ao que invadiu a C&M Software e desviou 813 milhões no ano passado. Vinícius: Perfeito.

    (41:00) Vinícius: A minha última pauta envolve IA, mas sob o ponto de vista de desenvolvimento e integrações. Separei três notícias sobre servidores MCP expostos.

    (41:31) Vinícius: Quando usamos um chat de IA, estamos interagindo com o conhecimento que o modelo tem e com integrações que já vêm por padrão, como pesquisa na internet. Hoje, praticamente todas as ferramentas já oferecem isso.

    (42:04) Vinícius: Além disso, elas começaram a disponibilizar integrações com outros serviços via MCP, o Model Context Protocol, criado pela Anthropic. Isso serve para expor ferramentas que fazem várias coisas, como buscar e-mails, enviar mensagens, criar rascunhos, apagar conteúdo e assim por diante.

    (42:30) Vinícius: Você expõe essas ferramentas para a IA por meio de um servidor MCP. A IA se conecta, pergunta que ferramentas estão disponíveis, entende o que cada uma faz e decide se deve ou não usá-las conforme o pedido do usuário.

    (42:58) Guilherme: E qual é a diferença entre MCP e API? Vinícius: O MCP é um protocolo pensado para facilitar esse diálogo com a IA. Já a API tradicional normalmente exige integração programática entre dois sistemas, com documentação mais técnica.

    (43:32) Vinícius: Numa API comum, você entrega a documentação e a outra ponta desenvolve a integração. Se você der essa documentação para uma IA capaz de programar, ela conseguirá criar um script e chamar aquela API.

    (43:58) Vinícius: O MCP funciona como uma espécie de API autodocumentada, voltada para consumo por IA e LLM. A IA se conecta ao servidor MCP e pergunta, em linguagem natural, o que ele faz, que ferramentas tem e para que servem.

    (44:20) Vinícius: A partir disso, conforme a conversa avança, a IA decide usar ou não as ferramentas disponíveis. Desde que o MCP surgiu, ele acabou sendo adotado como padrão por várias ferramentas.

    (44:48) Vinícius: É muito interessante poder integrar a IA com sistemas e fontes de informação que você já possui. A IA consegue compreender aquilo, explicar e até agir, se você permitir. É possível ligar um MCP desde um roteador por SSH até um ERP.

    (45:13) Vinícius: Só que começaram a aparecer vários problemas. Há muitos MCPs sem autenticação alguma. Em outros casos, a autenticação existe, mas algumas chamadas escapam dela.

    (45:42) Vinícius: Ou seja, estamos repetindo erros que já víamos em APIs há dez anos. Agora esses erros estão aparecendo nos MCPs.

    (46:13) Vinícius: Alguns MCPs colocam os próprios sistemas em risco. Imagine, por exemplo, uma IA na sua empresa usando um MCP que consome dados da internet.

    (46:40) Vinícius: O atacante pode inserir um README malicioso em um repositório que será lido pela IA como se fosse instrução. A partir daí, ela pode criar projeto, gerar script em Python e executar ações dentro do ambiente sem que você perceba.

    (47:17) Vinícius: Quando você vê, a IA está executando comandos definidos por alguém de fora, que simplesmente colocou esse conteúdo em um site ou repositório acessado pelo sistema. Isso é extremamente delicado.

    (47:53) Vinícius: Quis chamar atenção para essas notícias porque já estamos acostumados a testar front-end, back-end e APIs REST. Agora, o MCP caiu no gosto do mercado para integrar sistemas com IA, mas vários erros de segurança estão sendo cometidos.

    (48:25) Vinícius: Isso pode acabar permitindo execução remota de comandos e outras falhas graves, dependendo do ambiente. Há também o problema da injeção de prompts.

    (48:56) Vinícius: Quando você usa um ChatGPT ou um Claude prontos, os desenvolvedores dessas ferramentas já tentam mitigar prompt injection. Mas, quando você usa a API diretamente, a responsabilidade passa a ser sua.

    (49:36) Vinícius: E parece que muita gente ainda não percebeu isso. Há quem ache que o modelo vai se defender sozinho contra injeção de prompt. Não é assim.

    (50:05) Vinícius: Essas notícias dão insights interessantes sobre o uso de integrações entre IA e sistemas. E já temos referências como o novo Top 10 da OWASP para aplicações com LLMs.

    (50:33) Guilherme: Hoje mesmo eu estava conversando com um cliente sobre aquela cadeia de adequação que costuma acontecer com LGPD e outras normas. Uma empresa se adequa e passa a exigir a adequação dos seus prestadores, que passam a exigir a dos seus próprios prestadores, e assim por diante.

    (50:56) Guilherme: E um cliente do nosso cliente enviou um questionário de segurança já pedindo informações sobre uso de IA no ambiente. Ou seja, a empresa contratante está preocupada em saber como seus prestadores usam IA no tratamento de dados.

    (51:22) Guilherme: E isso se conecta diretamente com proteção de dados pessoais. Apagou a luz aqui, Vinícius, mas eu já volto. Hoje, além do Código Civil e do Código de Defesa do Consumidor, a LGPD é talvez o instrumento mais próximo para nos ajudar a lidar com essas questões de IA.

    (51:58) Guilherme: No fim das contas, você pode estar tratando dados dos seus clientes e dados pessoais. Se houver incidente de segurança, isso atrai toda a disciplina da LGPD, inclusive quanto à necessidade de comunicação.

    (52:25) Guilherme: E, se for descoberto que o MCP estava aberto na internet, isso é uma falha grave e evitável. A Brown Pipe já inclui há algum tempo, em seus pentests, verificações sobre uso de IA.

    (53:00) Vinícius: Exato. Já estamos avaliando sistemas que usam IA, incluindo injeção de prompts e outros problemas correlatos. Isso já faz parte do nosso rol de testes.

    (53:35) Guilherme: Eu tinha dito que aquela era a minha última pauta, mas quero deixar uma nota rápida para os educadores de plantão. O Ministério da Educação lançou um documento de 241 páginas chamado “Referencial para desenvolvimento e uso responsáveis de inteligência artificial na educação”. O link está no show notes.

    (54:12) Guilherme: E, para terminar, eu queria falar rapidamente sobre criatividade e uso de IA. Já comentamos aqui sobre estudos relacionados à educação e ao impacto da IA sobre o espírito crítico.

    (54:34) Guilherme: Agora temos um novo artigo que sugere que, apesar da rapidez para realizar certas tarefas, o aumento de criatividade durante o uso da ferramenta desaparece quando ela é retirada. E haveria uma persistência de homogeneidade nas ideias depois do uso.

    (55:14) Guilherme: Em outras palavras, as pessoas tenderiam a produzir ideias cada vez mais parecidas entre si. Isso acaba corroborando o que aquele outro trabalho, “Your Brain on ChatGPT”, vinha apontando. Inclusive, esse estudo foi atualizado.

    (55:37) Guilherme: Esse tipo de pesquisa mexe com algo que tenho estudado mais recentemente, no plano do simbólico. A linguagem é importante para a definição do nosso mundo. Wittgenstein falava justamente sobre isso.

    (56:14) Guilherme: Eu estava lendo sobre isso ontem. A ideia é que o teu mundo é, em certa medida, baseado na tua linguagem. Lévi-Strauss também dizia que as categorias simbólicas, inclusive a linguagem, organizam o mundo.

    (56:41) Guilherme: E Wittgenstein afirmava que os limites da minha linguagem são os limites do meu mundo. Então talvez um efeito da IA, ainda a ser melhor investigado, seja esse: qual é o papel do simbólico e da linguagem na construção do mundo, quando passamos a depender tanto de uma máquina de linguagem.

    (57:20) Guilherme: Isso é preocupante porque essas construções linguísticas também modelam a realidade. Se todo mundo começa a pensar igual, como às vezes acontece na internet quando se entra em bolhas, talvez algo semelhante esteja acontecendo com a IA.

    (57:42) Guilherme: E isso é um problema para a criatividade. No fim das contas, as pessoas podem ficar menos criativas, e isso é ruim.

    (58:14) Vinícius: Eu te passei o link do projeto do MIT, “Your Brain on ChatGPT”, que reúne o artigo e a versão mais recente da publicação. Ele trata justamente desses efeitos de começar uma atividade com IA e depois sem IA, ou o contrário.

    (58:41) Vinícius: Os resultados são bem diferentes e vale a pena olhar esse material. Guilherme: Eu sempre ficava mais no artigo; não conhecia o site. Vinícius: Eles ainda vão ter que generalizar isso para além do ChatGPT, porque o problema não é só ele.

    (59:19) Vinícius: Mas, como a pesquisa deles foi feita com o ChatGPT, o nome ficou assim. Há também leituras adicionais sobre homogeneização da linguagem. Recomendo a leitura do artigo ou até jogar o texto no NotebookLM e conversar com ele.

    (59:37) Guilherme: Hoje foi meio tumultuado, mas conseguimos chegar ao fim do episódio. Na semana que vem, não se esqueçam, teremos um episódio sobre o ECA Digital. Agradecemos a todos e todas que nos acompanharam até aqui. Nos encontraremos no próximo episódio do podcast Segurança Legal. Até a próxima. Vinícius: Até a próxima.

Mais podcasts de Notícias

Sobre Segurança Legal

O podcast da BrownPipe Consultoria
Site de podcast

Ouça Segurança Legal, Calma Urgente e muitos outros podcasts de todo o mundo com o aplicativo o radio.net

Obtenha o aplicativo gratuito radio.net

  • Guardar rádios e podcasts favoritos
  • Transmissão via Wi-Fi ou Bluetooth
  • Carplay & Android Audo compatìvel
  • E ainda mais funções
Informação legal
Aplicações
Social
v8.8.16| © 2007-2026 radio.de GmbH
Generated: 5/13/2026 - 3:29:05 AM