Modelos de linguagem não sabem coisas, geram texto estatisticamente plausível. Quando não têm a resposta, inventam. Com fluência perfeita e confiança absoluta.
Em março de 2024, um advogado de Nova York apresentou uma petição com seis precedentes jurisprudenciais citados pelo ChatGPT. Nenhum existia. O juiz aplicou multa de US$ 5.000 ao advogado e ao escritório. O caso Mata v. Avianca virou referência mundial sobre os riscos de confiar cegamente em inteligência artificial generativaModelos como ChatGPT, Claude e Gemini que geram texto, código e imagens com base em padrões estatísticos — não em compreensão factual..
Isso não é exceção. É o comportamento padrão. Modelos de linguagem geram texto estatisticamente plausível. Quando não têm a resposta, inventam. Com fluência perfeita e confiança absoluta. O nome técnico é alucinaçãoQuando um modelo de IA gera informações fictícias — nomes, datas, decisões judiciais, dados — apresentando-as como fatos reais, sem sinalizar incerteza..
A questão não é se a IA vai errar. É quando você vai perceber.
Veja artigo e prompt completo aqui.
Por André Medeiros.