Tropical Ruby 2026 Keynote

Agile Vibe Coding

IA substitui

programador ruim.

Não engenharia.

Fabio Akita

Codeminer 42cofundador, hoje no conselho
RubyConf Brasilfundador e organizador até 2016
akitaonrails.com ✦20 anos em 5 de abril de 2026, 700+ artigos, agora em pt-BR e en
@akitando500 mil+ seguidores no YouTube
@akitaonrails83,7 mil seguidores no X
Flow + Inteligência Ltdaalcance além da bolha tech
Arco Longo

O pânico da IA
caiu em cima
de uma bolha velha.

Eu já vinha batendo na economia do programador fake antes de agentes de código prestarem pra alguma coisa.
2019 → 2026

Mesma tese.
Ferramenta nova.

2019o inverno estava chegando
2020programação não é fácil
2022a bolha estourou
2025LLMs são loot boxes
2026agentes ficaram úteis

A mentira antiga

“vire engenheiro

de software

em 2 meses”

Fim de 2022
layoffs vieram antes da IA saber programar direito
ChatGPT
foi acelerador, não causa original
A Analogia

Mesmo medo.

“IA vai substituir artista.”

“IA vai substituir programador.”

Caso AsamiArts

Isso não é só drama de internet
tem mercado, comissão e renda real em volta disso
O ponto aqui não é fofoca. É processo falso vendido como habilidade real dentro de um mercado que vive de confiança.
Marketplace VGen

Tracing sem processo

  • não aparece construção bruta antes
  • não aparece ida e volta de correção
  • não aparece undo, hesitação, ajuste de proporção
  • parece “mão firme”, mas parece firme demais
No HTML e no PPTX com vídeo: reprodução automática em loop.

A camada escondida

  • o vídeo não mostra o desenho “nascendo” de verdade
  • minha leitura é que existe uma camada base escondida por trás
  • o verde parece estar ali para sumir na edição
  • sem a camada escondida, a mágica some
Inferência a partir do vídeo: isso parece truque de gravação, não processo honesto.

A evolução não bate

em pouco tempo muda demais
traço, rosto, acabamento e construção saltam sem continuidade
Evolução humana existe, claro. O problema é quando a “mão” parece trocar de pessoa em intervalos curtos demais.
Exemplo de evolução inconsistente no caso AsamiArts

A alucinação entrega

o cano está do lado errado
isso não é detalhe de estilo; é erro estrutural de entendimento
É o mesmo tipo de erro que a gente já conhece em IA: a imagem parece plausível à primeira vista, mas desmonta quando você olha a anatomia do objeto.
Exemplo de alucinacao em arte com arma desenhada errada

LoRA é estilo empacotado

  • LoRA é um ajuste leve em cima de um modelo base
  • ele empurra o modelo para um traço, tema ou artista específico
  • a comunidade treinou muita LoRA com imagem pública e zero autorização
  • depois isso volta disfarçado de “meu estilo”
Exemplo de uso e roubo de estilos com LoRA
Mesma Regra No Código
Fonte: https://commons.wikimedia.org/wiki/File:Peter_Candid_(attr)_Allegory_of_vanity.jpg

IA reflete quem você é

Ele te acelera: se você for bom, fica ainda melhor. Se você for ruim, vai ficar ainda pior.

31 de março de 2026
Fonte: https://commons.wikimedia.org/wiki/File:Maid_of_the_Mist_VII_approaching_the_Horseshoe_Falls,_West_view_20170418_1.jpg

Claude Code vazou

512 millinhas de TypeScript
1.900arquivos
59,8 MBde mapa do código exposto
6,5/10o “espaguete de sênior”
A Faísca
Fonte: https://commons.wikimedia.org/wiki/File:Server_Rack_with_Spaghetti-Like_Mass_of_Network_Cables.jpg

A lição não foi "uau, magia"

Nem a Anthropic escapa
pressão de entrega também gera código tático
E copiaram rápido
free-code e reimplementações apareceram quase na hora
Tweet do vazamento do Claude Code
Fonte: https://commons.wikimedia.org/wiki/File:Slot_machines_at_Monte_Carlo_hotel,_Las_Vegas.jpg

LLMs são loot boxes

Probabilísticas
nunca 100% confiáveis
Dependem de contexto
qualidade depende do que você dá e do que você checa
Gastam loop
o ecossistema inteiro te incentiva a gastar mais tokens
2026 Ainda
Fonte: https://commons.wikimedia.org/wiki/File:Building_collapse_in_S%C3%A3o_Paulo_2018_090.jpg

Modelo ainda
bajula e erra

Bajula você
muitas vezes responde o que você quer ouvir
Erra confiante
inventa detalhe e segue como se estivesse certo
Precisa de freio
execução, teste e revisão continuam obrigatórios
Linha Do Tempo
Fonte: https://commons.wikimedia.org/wiki/File:Smith_Matrix_mannequins.jpg

2025 foi o ano dos Agentes

mar 2025Responses API, tools e Agents SDK viram produto
mai 2025Claude 4 pensa entre tool calls e Claude Code vira GA
ago 2025GPT-5 aguenta loop mais longo e erra menos no uso de ferramenta
nov 2025GPT-5.1 e Opus 4.5 refinam uso diário
Não foi um dia mágico. Foi o ano inteiro fechando modelo, thinking, tool support e operação.
Convergência
Fonte: https://commons.wikimedia.org/wiki/File:2025_New_Year_Fireworks_in_Tamsui,_New_Taipei_(54238509557).jpg

Dezembro de 2025 foi a Virada

OpenAI — 13 nov
GPT-5.1 sai pra desenvolvedores e o Codex CLI finalmente fica bom o bastante pra rodar tarefa longa de verdade no terminal
Anthropic — 24 nov
Claude Opus 4.5 sai e o Claude Code amadurece com thinking entre tool calls, execução em background e fluxo de agente sério
Modelo novo + CLI de agente madura, os dois ao mesmo tempo. Em dezembro deu pra apostar tempo de verdade. Em janeiro de 2026 eu entrei nessa também — foi daí que saiu a maratona.

Fevereiro e março
de 2026

eu parei de falar

e fui maratonar

Fonte: https://commons.wikimedia.org/wiki/File:Mount_Everest_as_seen_from_Drukair2_PLW_edit.jpg
Painel de Projetos
Fonte: https://commons.wikimedia.org/wiki/File:Potter_shaping_clay_on_a_traditional_manual_potter’s_wheel_in_India_01.jpg

Do zero
pra software real

FrankMD FrankMega Frank Sherlock Frank Yomik Frank FBI Frank Karaoke Frank Investigator FrankClaw
A Prova Prática
Fonte: https://commons.wikimedia.org/wiki/File:Master-Swordsmith-Goro-Masamune-Ukiyo-e.png

Mesmo dev.
Mesmo agente.
Processo diferente.

FrankMD
212 commits em 19 dias, refactor pesado, teste correndo atrás
M.Akita Chronicles
274 commits em 8 dias, TDD, CI e refatoração contínua
A variável não foi “IA melhor”. Foi disciplina de engenharia desde o primeiro commit.
No Conjunto Completo Dos Projetos Citados
Fonte: https://commons.wikimedia.org/wiki/File:African_Bull_elephant_walking_towards_camera_in_August_2013.jpg

Números
que pesam

221.932linhas de código
92.017linhas de teste
1.612commits
~297 hhoras ativas estimadas
Agregado do recorte citado no começo, agora incluindo também `akitando-news` e `frank_karaoke`: `frank*`, `FrankMD`, `mila-bot`, `easy-*`, `ai-jail`, `akitando-news` e `frank_karaoke` (Flutter/Android). Contagem em arquivos rastreados no git, somando só linhas de código do `tokei`, separando teste por path e excluindo docs, fixtures, snapshots e árvores importadas de terceiros.
Fonte: https://commons.wikimedia.org/wiki/File:Basra_bodybuilding_competition_DVIDS288972.jpg

Alcançamos
"Developer 10x"?

5x a 10xde velocidade
Mais traçãomenos bloqueio, menos procrastinação
Mais alcancestack inteira, ferramentas, deploy, documentação
Mais confiançatestes, integração contínua, refatoração, produção
Ciclo do Agente
Fonte: https://commons.wikimedia.org/wiki/File:F-35A_flight_(cropped).jpg

Planeja.
Investiga.
Lapida.
Opera.
Testa.
Ajusta.

Shell e editor
o modelo parou de só sugerir e passou a operar
Teste e execução
erro voltou como feedback em segundos
Busca e contexto
documentação e código viraram parte do loop
Normalizando o Ritmo
Fonte: https://commons.wikimedia.org/wiki/File:Berlin-Marathon_2015_Runners_14.jpg

45 dias de maratona
não são 45 dias normais

45 dias corridosquase 16h por dia, 7 dias por semana
~126 dias corridosalgo perto de 4 meses e 1 semana
~630 a 1.260 dias corridoso mesmo sênior sem IA
~21 a 42 mesesou cerca de 1,8 a 3,5 anos
Estimativa linear em calendário real de trabalho: 8h por dia, só em dias úteis.
Fonte: https://commons.wikimedia.org/wiki/File:Thurston,_master_magician_all_out_of_a_hat._LCCN2014636958.jpg

Prompt único
é pra demo

Produção é iteração
bug, deploy, retorno, refatoração, ajuste de prompt
“Pronto” é mentira
125 commits de pós-produção em 4 projetos
Akita Antigo Continua Certo
Fonte: https://commons.wikimedia.org/wiki/File:Rebar_installation_in_the_Pier_Foundation_(rubin-20160209-110033).jpg

Fundamento primeiro

O que os cursos não te ensinam sobre mercados Aprendendo a aprender Programação não é fácil Aprendizado na beira do caos

Não terceirize
seu julgamento

nem pra guru

nem pra bootcamp

nem pro modelo

A lógica continua a mesma: experimento pequeno, feedback rápido, correção contínua.
Nome Verdadeiro

Agile Vibe Coding

é XP com pareamento de máquina

TDD
segura erro de modelo antes de virar lama
CI por commit
pega drift e regressão cedo
Refatoração contínua
evita cirurgia cara depois
Fonte: https://commons.wikimedia.org/wiki/File:Pair_Programming.jpg

O pareamento mudou

Eu trago
direção, julgamento, contexto, gosto
O agente traz
velocidade de execução, busca, fôlego operacional
IA é espelho: sênior bom ganha alavancagem, programador ruim ganha velocidade pra errar.
Estado dos Modelos, abril de 2026
Fonte: https://commons.wikimedia.org/wiki/File:The_Prime_Minister_meets_with_AI_developers.jpg

Modelos fechados
ainda lideram

Anthropic
continua no topo pra agentes de código
OpenAI
GPT 5.4 virou modelo forte pra código e agentes
GLM 5.1 (Z.AI)
único concorrente real fora de Anthropic e OpenAI
MiniMax, Kimi e o resto ainda correm atrás. Open source tem utilidade, mas não empatou no fluxo completo com agentes.
Benchmark Próprio — 22 Modelos, Código Real
Fonte: https://commons.wikimedia.org/wiki/File:Datacenter_Server_Racks_(22370909788).jpg

Quem consegue bater
o Claude Opus?

Só 4 geram código que roda
Claude Sonnet 4.6, Opus 4.6, GPT 5.4 e GLM 5 / 5.1 (da Z.AI, ~89% mais barato que Opus)
O resto inventou APIs
Kimi, DeepSeek, MiniMax, Qwen — alucinaram gems e endpoints que não existem
Thinking separa os dois grupos
budget extra de inferência pra planejar tool calls antes de agir — sem isso, o modelo chuta
Custo vs qualidade — benchmark de LLMs
Artigo completo: akitaonrails.com/2026/04/05/testando-llms-open-source-e-comerciais-quem-consegue-bater-o-claude-opus
Por Que Tão Poucos Funcionam
Fonte: https://commons.wikimedia.org/wiki/File:The_Thinker_detail_of_the_Gates_of_Hell_Rodin_musée_Rodin_S.01304_Paris.jpg

Não é mais só parâmetros

Prompt Caching
sem cache de KV, cada turno relê o contexto inteiro e o custo explode no loop do agente
Tool Calling
o modelo precisa decidir qual ferramenta chamar, com quais argumentos, e tratar o resultado de volta
Reasoning / Thinking
budget extra de inferência pra planejar antes de agir, em vez de chutar a primeira coisa
Tamanho de modelo virou commodity. As três condições acima é que separam quem aguenta um agente real — DeepSeek, por exemplo, falha hoje justamente por não fechar essas três.
Surpresa Da Família Qwen
Fonte: https://commons.wikimedia.org/wiki/File:Ancient_Chinese_Writing_on_Warring_States_Bamboo_Slips_1.jpg

"Coder" no nome não vira coder melhor

Qwen 3 Coder 30B
devolveu string mockada hardcoded em vez de chamar a API
Qwen 2.5 Coder 32B
90 minutos de timeout, zero arquivos escritos
Qwen 3.5 27B distilado do Claude 4.6
"Claude em casa" rodou Rails mas alucinou a API toda
Qwen 3.5 35B-A3B (MoE geral) ✓
único que vale a tentativa: rodou Rails e alucinações somem em 1-2 follow-ups — ainda assim atrás de Claude, GPT 5.4 e GLM 5.1
Aceitando A Imperfeição
Fonte: https://commons.wikimedia.org/wiki/File:Kintsugi.jpg

IA nunca vai ser perfeita.

Mas errar ficou barato.

claw-code: clean-room em 24h
clone do Claude Code reimplementado do zero logo depois do leak
free-code: fork sem amarras
telemetria e travas arrancadas quase na hora
OpenClaw + memclaw
base madura, já com memclaw plugado — sistema de memória inspirado no do Claude
Barato: CRUD, landing page, painel interno, bot, ETL, cola entre APIs.  |  Caro continua o que sempre foi: julgamento, arquitetura, operação, dono do problema.
Assinatura Vs Token
Fonte: https://commons.wikimedia.org/wiki/File:ATM_PIN_buttons_20180827.jpg

Assinatura ganha
de pay-as-you-go

GPT 5.4 Pro na API
~US$ 990/mês pagando por token no OpenRouter
ChatGPT Pro
US$ 200/mês ilimitado — 5x mais barato que a API
Claude Opus na API
~US$ 450/mês pagando Opus por token
Claude Max 20x
US$ 200/mês, ~220K tokens a cada 5h — metade do preço
Custo mensal estimado: assinatura vs API por token
Estimativa pra uso moderado de coding (~15M input + ~3M output tokens/mês).
Economia da IA

Treino e inferência
disputam a mesma tomada

US$ 500 bi
investimento global em data centers em 2024
415 → 945 TWh
consumo elétrico dos data centers de 2024 até 2030
20%
dos projetos podem atrasar por gargalo de rede
2,5 bi/ano
ritmo anual do Claude Code, com uso semanal dobrando desde 1 jan 2026
Meu palpite: com energia, margem e demanda apertando, eu esperaria menos milagre de treino e mais briga por eficiência, suporte a ferramentas e inferência.
A Correção
Fonte: https://commons.wikimedia.org/wiki/File:Employee_Packing_Things_Into_Box.jpg

Programador ruim
vai sair

e isso melhora a indústria

E a correção continua agora. Em 1 de abril de 2026, a Oracle entrou em mais uma rodada grande de layoffs.
Fonte: https://commons.wikimedia.org/wiki/File:Vernon_Rieta_teaching_Kung_Fu.jpg

Júnior herda. Sênior ensina.

Júnior vai herdar a sujeira
startup cheia de lixo de IA vai precisar de limpeza
Vai aprender no caos
igual gerações anteriores aprenderam
Ainda precisa de sênior
agente nenhum ensina julgamento
Sênior não é imortal
muda de empresa, cansa, se aposenta
Nova obrigação
ensinar engenharia com IA antes do código apodrecer
Sem isso a organização apodrece
não basta usar IA bem, tem que formar substituto
Conclusão
Fonte: https://commons.wikimedia.org/wiki/File:Mountain_Climber_In_Mountains_(Unsplash).jpg

Vai sobreviver
quem souber
fazer engenharia.

IA não transforma coder ruim em engenheiro.

Fundamento. Disciplina. Iteração. Gosto.

Merchan Sem Vergonha

Assine
The M.Akita Chronicles

themakitachronicles.com
Se você curtiu essa palestra, vai lá assinar. Toda semana tem bastidor real, código real e projeto real em produção.
The M.Akita Chronicles
Bastidor

Sim, este deck inteiro
foi feito com IA

Pesquisa e estrutura
fontes, ordem dos argumentos, cortes e rearranjos
Texto sincronizado
slides, roteiro e presenter notes mantidos juntos
Mídia e acabamento
frames, crops, vídeos, builds e pós-processo do PPTX
Agente no terminal, Marp para gerar o deck, scripts para embutir vídeo no PPTX e iteração curta até o resultado fechar.
Fonte: https://commons.wikimedia.org/wiki/File:Standing_Ovation_(21835796).jpg

OBRIGADO

codeminer42.com themakitachronicles.com github.com/akitaonrails/tropicalruby-2026

Terminar em: ~01:15 (75s) - Eu quero abrir cravando a tese, porque o resto da palestra existe só pra sustentar isso. - Sim, IA está substituindo gente em software. - Mas não do jeito raso que o pânico de internet adora vender. - O que ela pega primeiro é produtividade fake, senioridade fake e aquela engenharia porca que sobreviveu durante anos porque o mercado aceitava jogar dinheiro fora.

Terminar em: ~02:15 (60s) - Cards já mostram os números — aproveitar pra mencionar contexto - RubyConf Brasil: fundei e organizei até 2016 - @akitando: entrevistas do Flow e Inteligência Ltda, alcance fora da bolha tech - akitaonrails.com: 20 anos no dia 5 de abril de 2026, mesma data do artigo do benchmark — coincidência boa de puxar - Fecha: "não é currículo, é pra explicar por que eu já vi essa fita antes e não compro hype fácil"

Terminar em: ~03:10 (55s) - Eu não comecei a falar disso quando IA virou moda. - Eu já vinha batendo na bolha da programação, na economia do programador ruim, nas promessas de curso e bootcamp, muito antes de agente de código prestar pra alguma coisa. - A IA não inventou essa fraqueza. - Ela só escancarou mais rápido.

Terminar em: ~04:10 (60s) - Tem uma linha reta aqui. - Em 2019 eu já avisava que a bolha ia azedar. - Em 2020 eu continuava repetindo que programação não é fácil. - Em 2022 a bolha estourou de vez.

Terminar em: ~05:15 (65s) - A mentira antiga era simples: faz um cursinho rápido, vira engenheiro de software, ganha salário alto e entra no modo easy. - Isso sempre foi conversa mole. - Bootcamp ensina ferramenta. - Não comprime anos de julgamento de engenharia em poucos meses.

Terminar em: ~06:00 (45s) - Pra explicar o pânico atual, eu quero fazer uma tangente rápida com um universo que eu acompanho por hobby: drama de VTuber e drama de arte. - O padrão emocional é o mesmo. - No mundo da arte dizem que IA vai substituir artista. - No nosso dizem que IA vai substituir programador.

Terminar em: ~06:55 (55s) - O caso da AsamiArts me interessa não pela fofoca, mas pelo mecanismo. - Isso não afeta só ego de artista no Twitter. - Tem mercado real de comissão em volta disso. - Quando processo falso entra, confiança sai.

pptx-video: asamiarts-tracing

Terminar em: ~08:00 (65s) - Aqui é onde eu mostro o que um tracing falso tenta vender. - Não tem sketch feio antes. - Não tem correção de construção no meio. - Sai limpo demais, reto demais, confiante demais.

pptx-video: tracing-hidden-layer

Terminar em: ~09:05 (65s) - Esse é o pedaço mais importante. - Minha leitura é que o vídeo esconde uma camada pronta por trás. - O verde parece estar ali justamente para ser filtrado depois. - O vídeo vende tracing; o truque está na composição.

Terminar em: ~10:05 (60s) - Outro sinal é a inconsistência. - Não é só “melhorou”. - A mão muda demais em pouco tempo. - Parece mistura de fontes diferentes, não evolução orgânica.

Terminar em: ~11:00 (55s) - Aqui entra a alucinação mais óbvia. - A arma parece arma até você olhar direito. - O cano está do lado errado. - Isso é erro de entendimento, não acabamento.

Terminar em: ~12:05 (65s) - E tem outra camada aí: LoRA. - LoRA é um ajuste leve em cima de um modelo base para puxar um traço específico. - O problema é que muita LoRA foi treinada com arte pública sem autorização. - Aí o roubo de estilo volta embalado como ferramenta.

Terminar em: ~13:35 (90s) - IA não cria competência do nada. - Ela amplifica o que você já é. - Bom engenheiro: produz mais, mais rápido. - Mau engenheiro: produz lixo mais rápido.

Terminar em: ~14:30 (55s) - 31 de março de 2026 — data do leak, poucos dias antes da palestra - CLI oficial da Anthropic deixou escapar source map: 512k linhas TypeScript, 1.900 arquivos, 59,8MB - Nota "6.5/10" é a minha avaliação no artigo: espaguete de sênior, não código ruim - Tom: "confirmação engraçada da tese" — nem a Anthropic escapa de pressão de entrega

Terminar em: ~16:00 (90s) - Abriram o código. O que apareceu? Não foi magia. - Foi espaguete de sênior: base grande, pressionada por entrega, cheia de remendo. - E quase imediatamente começaram a reimplementar. Quando a mística some, sobra engenharia.

Terminar em: ~17:05 (65s) - Eu chamei LLMs de loot boxes porque elas são probabilísticas. - Não são compiladores determinísticos. - Não existe garantia de correção. - Dá pra melhorar bastante as chances com contexto, ferramenta, ciclo de avaliação e prompt melhor? Dá.

Terminar em: ~18:00 (55s) - E eu quero deixar uma coisa bem explícita: o modelo de 2026 ainda baixa a cabeça pra você. - Se você vier com premissa torta, ele muitas vezes prefere te agradar em vez de te contrariar. - Ele também continua errando com confiança. - Inventa detalhe, completa lacuna do jeito errado, segue em frente como se estivesse tudo certo.

Terminar em: ~19:05 (65s) - Pra mim, 2025 foi o ano em que a pilha foi fechando. - Em março, tool support virou plataforma de verdade. - Em maio, a Anthropic já estava falando de thinking com tool use e colocando Claude Code em circulação séria. - Em agosto e novembro, os modelos de fronteira ficaram mais estáveis nesse loop.

Terminar em: ~20:20 (75s) - Datas marcantes: 13 nov (GPT-5.1 + Codex CLI), 24 nov (Opus 4.5 + Claude Code), 11 dias de distância - A chave não foi só o modelo novo — foi a CLI de agente amadurecendo junto, nos DOIS lados na mesma janela - Dezembro 2025: muita gente boa começou a testar pra valer no trabalho real - Janeiro 2026: foi quando eu entrei na maratona — primeira vez que senti que valia apostar tempo - Puxa a ponte pro próximo slide: "parei de opinar e fui testar com pele em jogo"

Terminar em: ~20:50 (30s) - Então eu parei de opinar e fui testar com pele em jogo. - Não com prompt de brinquedo. - Não com videozinho fake de SaaS em dez minutos. - Projeto real.

Terminar em: ~21:25 (35s) - Este slide é só a parede de projetos. - FrankMD, FrankMega, Frank Sherlock, Frank Yomik, Frank FBI, Frank Karaoke e outros. - O objetivo não é explicar repositório por repositório. - O objetivo é mostrar volume e variedade: desktop, Rails, Rust, Flutter, ferramentas, mídia, deploy, software em uso real.

Terminar em: ~22:50 (85s) - Aqui entra a comparação que eu acho mais forte de todas. - FrankMD de um lado. - M.Akita Chronicles do outro. - Mesmo desenvolvedor. - Aqui deixa de ser opinião e vira evidência.

Terminar em: ~24:25 (95s) - Ferramenta de contagem: `tokei` sobre arquivos rastreados no git - Critério: só linha de código, teste separado por path, sem docs/fixtures/snapshots/virtualenv/node_modules/vendor - Sem README, sem auxiliar, sem lib de terceiro inflando número - Dos projetos citados, 14 entram na conta de commits (os outros não são git repos) - Horas conservadoras: sessões agrupadas por histórico, corte de 1h de pausa, teto diário - Antecipa crítica: "esses 297h não são 500+h que eu menciono em outros lugares" — 297h = commit-tracked, 500h = inclui pesquisa/planejamento/debug fora de sessão - Fecha: "agora dá pra discutir mecanismo, não fé"

Terminar em: ~25:55 (90s) - Da minha experiência prática, o resumo honesto é 5x a 10x de velocidade. - Não porque o modelo escreve código perfeito. - Não escreve. - O ganho vem porque ele atravessa aquele atrito chato que normalmente quebra foco: código repetitivo, busca, refatoração repetitiva, teste repetitivo, execução de comando, tentativa rápida.

Terminar em: ~27:25 (90s) - O pulo do gato não foi QI mágico, foi ferramenta entrando no loop. - Shell, editor, execução, teste, busca, contexto — tudo isso virou parte do ciclo do agente. - Acróstico PILOTA: planeja, investiga, lapida, opera, testa, ajusta. - Não tem nada de místico. É compressão de retorno de engenharia.

Terminar em: ~28:50 (85s) - Não é truque de palco — ritmo real foi ~16h/dia, 7 dias/semana por 45 dias corridos - Conversão pra ritmo sustentável de sênior (8h/dia, só dias úteis) → ~126 dias = ~4 meses e 1 semana - Em cima disso, aplicar o 5-10x sem IA → ~630 a 1.260 dias corridos = ~21 a 42 meses = 1,8 a 3,5 anos - Disclaimer: conta linear, ordem de grandeza, não previsão exata - Mensagem: não é 45 dias contra 45 dias, é 45 dias de maratona contra anos de desenvolvimento normal

Terminar em: ~29:55 (65s) - A fantasia do prompt único é preguiçosa. - Ela parte da ideia de que dá pra prever e especificar tudo antes. - Software real não funciona assim. - Produção revela coisa que você nem sabia que importava.

Terminar em: ~30:55 (60s) - É por isso que o Akita antigo continua valendo. - Não terceirize sua decisão. - Aprenda a aprender. - Entenda que programação não é fácil.

Terminar em: ~31:50 (55s) - O mais difícil de ensinar pra iniciante é isso: julgamento não é uma coisa que você baixa pronta. - Não vem de influencer, não vem de bootcamp, não vem de modelo. - O modelo mental continua o mesmo: experimento pequeno na beira do caos, erro cedo, retorno rápido, correção contínua.

Terminar em: ~33:20 (90s) - Agile Vibe Coding é XP com pareamento de máquina. A estrutura por baixo é velha. - TDD não é perfumaria. Segura erro de modelo antes de virar lama. - CI por commit pega drift e regressão cedo. - Refatoração contínua evita cirurgia cara depois.

Terminar em: ~34:50 (90s) - O melhor corte de responsabilidade que eu encontrei foi esse: eu trago direção, julgamento, contexto e gosto. - O agente traz velocidade de execução, busca e fôlego operacional. - Se eu reduzo o agente a digitador burro, piora. - Se eu entrego produto e arquitetura pra ele sozinho, piora também.

Terminar em: ~35:55 (65s) - No ecossistema de modelos em abril de 2026, minha leitura prática é simples. - Anthropic e OpenAI continuam sendo as plataformas de ponta que mais importam pra código sério. - Fora desses dois, o único concorrente que realmente entregou no meu benchmark foi o GLM 5.1 da Z.AI. - MiniMax, Kimi e o resto ainda correm atrás. Open source tem utilidade, mas não empatou no fluxo completo com agentes.

Terminar em: ~37:30 (95s) - Benchmark: 22 modelos, mesmo runner, mesmas condições, mesmo task (app Rails com RubyLLM) - Hardware: RTX 5090 (32GB GDDR7) + Minisforum AMD Ryzen AI Max 395 com 128GB memória unificada - Comerciais via OpenRouter, open source local em llama.cpp - Só 4 passaram: Claude Sonnet 4.6, Opus 4.6, GPT 5.4, e dupla GLM 5 + 5.1 (Z.AI) - Distinção GLM: 5 = billing centralizado no OpenRouter, 5.1 = direto na Z.AI, projeto mais redondo - Falhas típicas: inventaram gem inexistente, método inexistente, endpoint que não existe - GLM 5 = 89% mais barato que Opus (único não-Anthropic/OpenAI que entregou) - Thinking não é mágica, é budget extra de inferência pra planejar tool calls antes de agir - Se perguntarem detalhes técnicos: VRAM, KV Cache, llama.cpp vs Ollama, token pricing — tudo no artigo

Terminar em: ~38:55 (85s) - Gancho: "por que só 4 modelos passaram no benchmark?" - Tamanho virou commodity — não é parâmetro, é infraestrutura - Prompt caching → KV cache; sem isso sessão longa do Claude Code explode em custo - Tool calling → open source frequentemente trava ou inventa método - Thinking / reasoning → Anthropic chama de "thinking", é budget extra de inferência - Exemplo pra cravar: DeepSeek — modelo ok, falha por não fechar os 3 - Puxar pro próximo slide: "Coder" no nome falha pelos mesmos motivos

Terminar em: ~40:15 (80s) - Gancho: "intuição era que 'Coder' no nome seria melhor — deu o contrário" - 3 Qwen Coder testados, 2 falharam catastroficamente, 1 nem rodou - Detalhe marcante: 3 Coder 30B devolveu string MOCKADA HARDCODED em vez de chamar API - 2.5 Coder 32B → 90 min de timeout, zero arquivos - Versões gerais bateram Coder dedicadas → fine-tuning em código ≠ fluxo de agente - Distilado do Claude (3.5 27B) era a aposta "Claude em casa" → rodou Rails mas alucinou API toda - Qwen do card verde = 3.5 35B-A3B (MoE geral), 5090, 1-2 follow-ups arrumam, o "menos ruim" - Quwen = Qianwen = "mil perguntas" em mandarim (se quiser soltar a curiosidade sobre o nome) - Amarrar: mesmas 3 condições do slide anterior — label não substitui infraestrutura

Terminar em: ~41:45 (90s) - Ponto conceitual: não é que modelo ficou perfeito, é que errar ficou BARATO - Chave da virada: ciclo de feedback curto → stack trace → conserto → retry em segundos - claw-code → clone clean-room, github.com/ultraworkers/claw-code, <24h depois do leak - free-code → fork sem telemetria, sem travas - OpenClaw + memclaw → memclaw é sistema de memória inspirado no do Claude, github.com/Felo-Inc/memclaw - Mensagem: open source absorveu comportamento E padrões internos, muito rápido - Corte de mercado → barato: CRUD, landing, bot, ETL, cola entre API - Caro continua igual: julgamento, arquitetura, operação, dono do problema - Background: kintsugi — cerâmica quebrada consertada com ouro, o "defeito vira feature"

Terminar em: ~43:10 (85s) - Suposição do benchmark: ~15M tokens input + ~3M output por mês (uso moderado de coding) - GPT 5.4 Pro via API: $180/M output tokens no OpenRouter (número bruto que vira os $990) - Claude Opus via API: $25/M output tokens (vira os $450) - GLM 5 via API: $2.30/M (89% mais barato que Opus — lembrar se alguém perguntar) - Qwen 3.6 Plus é grátis no OpenRouter, mas rate-limited - ChatGPT Pro $200 = ilimitado → 5x mais barato que pagar GPT 5.4 Pro por token - Claude Max 20x $200 → ~220K tokens a cada 5h, ~metade do preço do Opus na API - Disclaimer honesto: provavelmente subsidiado, pode não durar pra sempre - Contexto: Anthropic preparando IPO em 2026 pressiona essa margem (puxa pro slide seguinte)

Terminar em: ~44:35 (85s) - Aqui entra minha especulação. - A conta física começou a apertar. - Data center consome mais energia, investimento explodiu e já tem projeto atrasando por gargalo de rede. - Ao mesmo tempo, agente bom gasta mais inferência por usuário do que chatbot bobo. - Então eu não espero salto de ordem de grandeza tão cedo. - Eu espero mais trabalho em eficiência, serving, tool support e produto. - E se a Anthropic vier mesmo para IPO este ano, a pressão por margem e previsibilidade aumenta mais ainda.

Terminar em: ~45:35 (60s) - Aqui é a parte em que eu paro de fingir diplomacia. - Eu estou genuinamente feliz que a bolha do programador ruim esteja morrendo. - A indústria passou anos trocando engenharia por competência fake e dívida técnica. - A correção continua: Oracle reportou mais uma onda pesada de layoffs em 1 de abril de 2026.

Terminar em: ~47:15 (100s) - Júnior não morreu, só mudou de forma. Vai herdar a sujeira da era do vibe coding sem freio. - Aprender no projeto bagunçado é como gerações anteriores aprenderam. Não é tragédia, é cicatriz. - Mas isso só para em pé se sênior fizer o trabalho dele: ensinar engenharia com IA antes do código apodrecer. - Sênior não é imortal. Se não formar substituto, a organização apodrece.

Terminar em: ~48:50 (95s) - Parte dura: IA não transforma programador ruim em engenheiro. Ajuda a fazer estrago maior mais rápido. - E ajuda engenheiro de verdade a atravessar o caos mais rápido, sem deixar o software morrer. - Então eu fecho assim: vai sobreviver quem tem fundamento, disciplina, iteração e gosto. - Se você tem isso, IA vira multiplicador. Se não tem, IA é só uma forma mais rápida de ser exposto.

Terminar em: ~49:15 (25s) - E já que é pra acabar sem falsa modéstia: se você curtiu essa palestra, assina o The M.Akita Chronicles. - Está tudo aí na tela. - É onde eu continuo publicando bastidor real, projeto real, código real e o que deu certo ou errado em produção. - Quer acompanhar essa linha de raciocínio semana a semana? Vai em themakitachronicles.com e assina.

Terminar em: ~49:50 (35s) - E sim, já que o tema da palestra pede isso, este deck inteiro também foi feito com IA. - Pesquisa, estrutura, roteiro, notas, crops, builds e automação saíram do mesmo fluxo. - Agente no terminal, Marp para o deck e script para pós-processar o PPTX com vídeo. - Não é discurso abstrato. Eu usei isso pra fazer a própria palestra.

Terminar em: ~50:00 (10s) - Obrigado. - Os links estão aí embaixo.