Terminar em: ~01:15 (75s) - Eu quero abrir cravando a tese, porque o resto da palestra existe só pra sustentar isso. - Sim, IA está substituindo gente em software. - Mas não do jeito raso que o pânico de internet adora vender. - O que ela pega primeiro é produtividade fake, senioridade fake e aquela engenharia porca que sobreviveu durante anos porque o mercado aceitava jogar dinheiro fora.
Terminar em: ~02:15 (60s) - Cards já mostram os números — aproveitar pra mencionar contexto - RubyConf Brasil: fundei e organizei até 2016 - @akitando: entrevistas do Flow e Inteligência Ltda, alcance fora da bolha tech - akitaonrails.com: 20 anos no dia 5 de abril de 2026, mesma data do artigo do benchmark — coincidência boa de puxar - Fecha: "não é currículo, é pra explicar por que eu já vi essa fita antes e não compro hype fácil"
Terminar em: ~03:10 (55s) - Eu não comecei a falar disso quando IA virou moda. - Eu já vinha batendo na bolha da programação, na economia do programador ruim, nas promessas de curso e bootcamp, muito antes de agente de código prestar pra alguma coisa. - A IA não inventou essa fraqueza. - Ela só escancarou mais rápido.
Terminar em: ~04:10 (60s) - Tem uma linha reta aqui. - Em 2019 eu já avisava que a bolha ia azedar. - Em 2020 eu continuava repetindo que programação não é fácil. - Em 2022 a bolha estourou de vez.
Terminar em: ~05:15 (65s) - A mentira antiga era simples: faz um cursinho rápido, vira engenheiro de software, ganha salário alto e entra no modo easy. - Isso sempre foi conversa mole. - Bootcamp ensina ferramenta. - Não comprime anos de julgamento de engenharia em poucos meses.
Terminar em: ~06:00 (45s) - Pra explicar o pânico atual, eu quero fazer uma tangente rápida com um universo que eu acompanho por hobby: drama de VTuber e drama de arte. - O padrão emocional é o mesmo. - No mundo da arte dizem que IA vai substituir artista. - No nosso dizem que IA vai substituir programador.
Terminar em: ~06:55 (55s) - O caso da AsamiArts me interessa não pela fofoca, mas pelo mecanismo. - Isso não afeta só ego de artista no Twitter. - Tem mercado real de comissão em volta disso. - Quando processo falso entra, confiança sai.
pptx-video: asamiarts-tracing
Terminar em: ~08:00 (65s) - Aqui é onde eu mostro o que um tracing falso tenta vender. - Não tem sketch feio antes. - Não tem correção de construção no meio. - Sai limpo demais, reto demais, confiante demais.
pptx-video: tracing-hidden-layer
Terminar em: ~09:05 (65s) - Esse é o pedaço mais importante. - Minha leitura é que o vídeo esconde uma camada pronta por trás. - O verde parece estar ali justamente para ser filtrado depois. - O vídeo vende tracing; o truque está na composição.
Terminar em: ~10:05 (60s) - Outro sinal é a inconsistência. - Não é só “melhorou”. - A mão muda demais em pouco tempo. - Parece mistura de fontes diferentes, não evolução orgânica.
Terminar em: ~11:00 (55s) - Aqui entra a alucinação mais óbvia. - A arma parece arma até você olhar direito. - O cano está do lado errado. - Isso é erro de entendimento, não acabamento.
Terminar em: ~12:05 (65s) - E tem outra camada aí: LoRA. - LoRA é um ajuste leve em cima de um modelo base para puxar um traço específico. - O problema é que muita LoRA foi treinada com arte pública sem autorização. - Aí o roubo de estilo volta embalado como ferramenta.
Terminar em: ~13:35 (90s) - IA não cria competência do nada. - Ela amplifica o que você já é. - Bom engenheiro: produz mais, mais rápido. - Mau engenheiro: produz lixo mais rápido.
Terminar em: ~14:30 (55s) - 31 de março de 2026 — data do leak, poucos dias antes da palestra - CLI oficial da Anthropic deixou escapar source map: 512k linhas TypeScript, 1.900 arquivos, 59,8MB - Nota "6.5/10" é a minha avaliação no artigo: espaguete de sênior, não código ruim - Tom: "confirmação engraçada da tese" — nem a Anthropic escapa de pressão de entrega
Terminar em: ~16:00 (90s) - Abriram o código. O que apareceu? Não foi magia. - Foi espaguete de sênior: base grande, pressionada por entrega, cheia de remendo. - E quase imediatamente começaram a reimplementar. Quando a mística some, sobra engenharia.
Terminar em: ~17:05 (65s) - Eu chamei LLMs de loot boxes porque elas são probabilísticas. - Não são compiladores determinísticos. - Não existe garantia de correção. - Dá pra melhorar bastante as chances com contexto, ferramenta, ciclo de avaliação e prompt melhor? Dá.
Terminar em: ~18:00 (55s) - E eu quero deixar uma coisa bem explícita: o modelo de 2026 ainda baixa a cabeça pra você. - Se você vier com premissa torta, ele muitas vezes prefere te agradar em vez de te contrariar. - Ele também continua errando com confiança. - Inventa detalhe, completa lacuna do jeito errado, segue em frente como se estivesse tudo certo.
Terminar em: ~19:05 (65s) - Pra mim, 2025 foi o ano em que a pilha foi fechando. - Em março, tool support virou plataforma de verdade. - Em maio, a Anthropic já estava falando de thinking com tool use e colocando Claude Code em circulação séria. - Em agosto e novembro, os modelos de fronteira ficaram mais estáveis nesse loop.
Terminar em: ~20:20 (75s) - Datas marcantes: 13 nov (GPT-5.1 + Codex CLI), 24 nov (Opus 4.5 + Claude Code), 11 dias de distância - A chave não foi só o modelo novo — foi a CLI de agente amadurecendo junto, nos DOIS lados na mesma janela - Dezembro 2025: muita gente boa começou a testar pra valer no trabalho real - Janeiro 2026: foi quando eu entrei na maratona — primeira vez que senti que valia apostar tempo - Puxa a ponte pro próximo slide: "parei de opinar e fui testar com pele em jogo"
Terminar em: ~20:50 (30s) - Então eu parei de opinar e fui testar com pele em jogo. - Não com prompt de brinquedo. - Não com videozinho fake de SaaS em dez minutos. - Projeto real.
Terminar em: ~21:25 (35s) - Este slide é só a parede de projetos. - FrankMD, FrankMega, Frank Sherlock, Frank Yomik, Frank FBI, Frank Karaoke e outros. - O objetivo não é explicar repositório por repositório. - O objetivo é mostrar volume e variedade: desktop, Rails, Rust, Flutter, ferramentas, mídia, deploy, software em uso real.
Terminar em: ~22:50 (85s) - Aqui entra a comparação que eu acho mais forte de todas. - FrankMD de um lado. - M.Akita Chronicles do outro. - Mesmo desenvolvedor. - Aqui deixa de ser opinião e vira evidência.
Terminar em: ~24:25 (95s) - Ferramenta de contagem: `tokei` sobre arquivos rastreados no git - Critério: só linha de código, teste separado por path, sem docs/fixtures/snapshots/virtualenv/node_modules/vendor - Sem README, sem auxiliar, sem lib de terceiro inflando número - Dos projetos citados, 14 entram na conta de commits (os outros não são git repos) - Horas conservadoras: sessões agrupadas por histórico, corte de 1h de pausa, teto diário - Antecipa crítica: "esses 297h não são 500+h que eu menciono em outros lugares" — 297h = commit-tracked, 500h = inclui pesquisa/planejamento/debug fora de sessão - Fecha: "agora dá pra discutir mecanismo, não fé"
Terminar em: ~25:55 (90s) - Da minha experiência prática, o resumo honesto é 5x a 10x de velocidade. - Não porque o modelo escreve código perfeito. - Não escreve. - O ganho vem porque ele atravessa aquele atrito chato que normalmente quebra foco: código repetitivo, busca, refatoração repetitiva, teste repetitivo, execução de comando, tentativa rápida.
Terminar em: ~27:25 (90s) - O pulo do gato não foi QI mágico, foi ferramenta entrando no loop. - Shell, editor, execução, teste, busca, contexto — tudo isso virou parte do ciclo do agente. - Acróstico PILOTA: planeja, investiga, lapida, opera, testa, ajusta. - Não tem nada de místico. É compressão de retorno de engenharia.
Terminar em: ~28:50 (85s) - Não é truque de palco — ritmo real foi ~16h/dia, 7 dias/semana por 45 dias corridos - Conversão pra ritmo sustentável de sênior (8h/dia, só dias úteis) → ~126 dias = ~4 meses e 1 semana - Em cima disso, aplicar o 5-10x sem IA → ~630 a 1.260 dias corridos = ~21 a 42 meses = 1,8 a 3,5 anos - Disclaimer: conta linear, ordem de grandeza, não previsão exata - Mensagem: não é 45 dias contra 45 dias, é 45 dias de maratona contra anos de desenvolvimento normal
Terminar em: ~29:55 (65s) - A fantasia do prompt único é preguiçosa. - Ela parte da ideia de que dá pra prever e especificar tudo antes. - Software real não funciona assim. - Produção revela coisa que você nem sabia que importava.
Terminar em: ~30:55 (60s) - É por isso que o Akita antigo continua valendo. - Não terceirize sua decisão. - Aprenda a aprender. - Entenda que programação não é fácil.
Terminar em: ~31:50 (55s) - O mais difícil de ensinar pra iniciante é isso: julgamento não é uma coisa que você baixa pronta. - Não vem de influencer, não vem de bootcamp, não vem de modelo. - O modelo mental continua o mesmo: experimento pequeno na beira do caos, erro cedo, retorno rápido, correção contínua.
Terminar em: ~33:20 (90s) - Agile Vibe Coding é XP com pareamento de máquina. A estrutura por baixo é velha. - TDD não é perfumaria. Segura erro de modelo antes de virar lama. - CI por commit pega drift e regressão cedo. - Refatoração contínua evita cirurgia cara depois.
Terminar em: ~34:50 (90s) - O melhor corte de responsabilidade que eu encontrei foi esse: eu trago direção, julgamento, contexto e gosto. - O agente traz velocidade de execução, busca e fôlego operacional. - Se eu reduzo o agente a digitador burro, piora. - Se eu entrego produto e arquitetura pra ele sozinho, piora também.
Terminar em: ~35:55 (65s) - No ecossistema de modelos em abril de 2026, minha leitura prática é simples. - Anthropic e OpenAI continuam sendo as plataformas de ponta que mais importam pra código sério. - Fora desses dois, o único concorrente que realmente entregou no meu benchmark foi o GLM 5.1 da Z.AI. - MiniMax, Kimi e o resto ainda correm atrás. Open source tem utilidade, mas não empatou no fluxo completo com agentes.
Terminar em: ~37:30 (95s) - Benchmark: 22 modelos, mesmo runner, mesmas condições, mesmo task (app Rails com RubyLLM) - Hardware: RTX 5090 (32GB GDDR7) + Minisforum AMD Ryzen AI Max 395 com 128GB memória unificada - Comerciais via OpenRouter, open source local em llama.cpp - Só 4 passaram: Claude Sonnet 4.6, Opus 4.6, GPT 5.4, e dupla GLM 5 + 5.1 (Z.AI) - Distinção GLM: 5 = billing centralizado no OpenRouter, 5.1 = direto na Z.AI, projeto mais redondo - Falhas típicas: inventaram gem inexistente, método inexistente, endpoint que não existe - GLM 5 = 89% mais barato que Opus (único não-Anthropic/OpenAI que entregou) - Thinking não é mágica, é budget extra de inferência pra planejar tool calls antes de agir - Se perguntarem detalhes técnicos: VRAM, KV Cache, llama.cpp vs Ollama, token pricing — tudo no artigo
Terminar em: ~38:55 (85s) - Gancho: "por que só 4 modelos passaram no benchmark?" - Tamanho virou commodity — não é parâmetro, é infraestrutura - Prompt caching → KV cache; sem isso sessão longa do Claude Code explode em custo - Tool calling → open source frequentemente trava ou inventa método - Thinking / reasoning → Anthropic chama de "thinking", é budget extra de inferência - Exemplo pra cravar: DeepSeek — modelo ok, falha por não fechar os 3 - Puxar pro próximo slide: "Coder" no nome falha pelos mesmos motivos
Terminar em: ~40:15 (80s) - Gancho: "intuição era que 'Coder' no nome seria melhor — deu o contrário" - 3 Qwen Coder testados, 2 falharam catastroficamente, 1 nem rodou - Detalhe marcante: 3 Coder 30B devolveu string MOCKADA HARDCODED em vez de chamar API - 2.5 Coder 32B → 90 min de timeout, zero arquivos - Versões gerais bateram Coder dedicadas → fine-tuning em código ≠ fluxo de agente - Distilado do Claude (3.5 27B) era a aposta "Claude em casa" → rodou Rails mas alucinou API toda - Qwen do card verde = 3.5 35B-A3B (MoE geral), 5090, 1-2 follow-ups arrumam, o "menos ruim" - Quwen = Qianwen = "mil perguntas" em mandarim (se quiser soltar a curiosidade sobre o nome) - Amarrar: mesmas 3 condições do slide anterior — label não substitui infraestrutura
Terminar em: ~41:45 (90s) - Ponto conceitual: não é que modelo ficou perfeito, é que errar ficou BARATO - Chave da virada: ciclo de feedback curto → stack trace → conserto → retry em segundos - claw-code → clone clean-room, github.com/ultraworkers/claw-code, <24h depois do leak - free-code → fork sem telemetria, sem travas - OpenClaw + memclaw → memclaw é sistema de memória inspirado no do Claude, github.com/Felo-Inc/memclaw - Mensagem: open source absorveu comportamento E padrões internos, muito rápido - Corte de mercado → barato: CRUD, landing, bot, ETL, cola entre API - Caro continua igual: julgamento, arquitetura, operação, dono do problema - Background: kintsugi — cerâmica quebrada consertada com ouro, o "defeito vira feature"
Terminar em: ~43:10 (85s) - Suposição do benchmark: ~15M tokens input + ~3M output por mês (uso moderado de coding) - GPT 5.4 Pro via API: $180/M output tokens no OpenRouter (número bruto que vira os $990) - Claude Opus via API: $25/M output tokens (vira os $450) - GLM 5 via API: $2.30/M (89% mais barato que Opus — lembrar se alguém perguntar) - Qwen 3.6 Plus é grátis no OpenRouter, mas rate-limited - ChatGPT Pro $200 = ilimitado → 5x mais barato que pagar GPT 5.4 Pro por token - Claude Max 20x $200 → ~220K tokens a cada 5h, ~metade do preço do Opus na API - Disclaimer honesto: provavelmente subsidiado, pode não durar pra sempre - Contexto: Anthropic preparando IPO em 2026 pressiona essa margem (puxa pro slide seguinte)
Terminar em: ~44:35 (85s) - Aqui entra minha especulação. - A conta física começou a apertar. - Data center consome mais energia, investimento explodiu e já tem projeto atrasando por gargalo de rede. - Ao mesmo tempo, agente bom gasta mais inferência por usuário do que chatbot bobo. - Então eu não espero salto de ordem de grandeza tão cedo. - Eu espero mais trabalho em eficiência, serving, tool support e produto. - E se a Anthropic vier mesmo para IPO este ano, a pressão por margem e previsibilidade aumenta mais ainda.
Terminar em: ~45:35 (60s) - Aqui é a parte em que eu paro de fingir diplomacia. - Eu estou genuinamente feliz que a bolha do programador ruim esteja morrendo. - A indústria passou anos trocando engenharia por competência fake e dívida técnica. - A correção continua: Oracle reportou mais uma onda pesada de layoffs em 1 de abril de 2026.
Terminar em: ~47:15 (100s) - Júnior não morreu, só mudou de forma. Vai herdar a sujeira da era do vibe coding sem freio. - Aprender no projeto bagunçado é como gerações anteriores aprenderam. Não é tragédia, é cicatriz. - Mas isso só para em pé se sênior fizer o trabalho dele: ensinar engenharia com IA antes do código apodrecer. - Sênior não é imortal. Se não formar substituto, a organização apodrece.
Terminar em: ~48:50 (95s) - Parte dura: IA não transforma programador ruim em engenheiro. Ajuda a fazer estrago maior mais rápido. - E ajuda engenheiro de verdade a atravessar o caos mais rápido, sem deixar o software morrer. - Então eu fecho assim: vai sobreviver quem tem fundamento, disciplina, iteração e gosto. - Se você tem isso, IA vira multiplicador. Se não tem, IA é só uma forma mais rápida de ser exposto.
Terminar em: ~49:15 (25s) - E já que é pra acabar sem falsa modéstia: se você curtiu essa palestra, assina o The M.Akita Chronicles. - Está tudo aí na tela. - É onde eu continuo publicando bastidor real, projeto real, código real e o que deu certo ou errado em produção. - Quer acompanhar essa linha de raciocínio semana a semana? Vai em themakitachronicles.com e assina.
Terminar em: ~49:50 (35s) - E sim, já que o tema da palestra pede isso, este deck inteiro também foi feito com IA. - Pesquisa, estrutura, roteiro, notas, crops, builds e automação saíram do mesmo fluxo. - Agente no terminal, Marp para o deck e script para pós-processar o PPTX com vídeo. - Não é discurso abstrato. Eu usei isso pra fazer a própria palestra.
Terminar em: ~50:00 (10s) - Obrigado. - Os links estão aí embaixo.