π§ Pensamento Passo a Passo
Chain-of-Thought (CoT) e uma tecnica que instrui o modelo a explicitar seu raciocinio intermediario antes de chegar a resposta final. Em vez de pular direto para a conclusao, o modelo "mostra o trabalho" β como um aluno resolvendo uma equacao no quadro.
π‘ Por que CoT funciona
Quando o modelo gera tokens de raciocinio, ele efetivamente cria mais contexto para si mesmo. Cada passo intermediario influencia os tokens seguintes, guiando a previsao para respostas mais precisas.
- β’ Decomposicao: Problemas complexos sao quebrados em partes gerenciaveis
- β’ Auto-contexto: Cada passo gera contexto que melhora o proximo passo
- β’ Verificabilidade: Voce pode identificar onde o raciocinio falhou
π Exemplo Classico
Sem CoT: "Quanto e 17 x 24?" β O modelo pode errar ao tentar responder direto.
Com CoT: "Quanto e 17 x 24? Vamos pensar passo a passo." β O modelo decompoe: 17 x 20 = 340, 17 x 4 = 68, 340 + 68 = 408. Resultado correto.
β‘ Zero-Shot CoT
A forma mais simples de CoT: basta adicionar uma frase como "Vamos pensar passo a passo" ao final do prompt, sem fornecer nenhum exemplo. O modelo ativa internamente um modo de raciocinio mais detalhado.
π‘ Variacoes do Trigger
Existem diversas formas de ativar o raciocinio passo a passo sem exemplos:
- "Vamos pensar passo a passo" β A frase original do paper de Kojima et al. (2022)
- "Raciocine antes de responder" β Variacao em portugues igualmente eficaz
- "Explique seu raciocinio" β Foca na transparencia do processo
- "Antes de dar a resposta final, analise cada aspecto" β Mais diretivo
π¬ Quando usar Zero-Shot CoT
- β’ Problemas com resposta unica e verificavel (matematica, logica)
- β’ Quando voce nao tem exemplos de referencia disponiveis
- β’ Tarefas onde o formato do raciocinio nao precisa ser rigido
π Manual CoT (Few-Shot)
No Manual CoT, voce fornece exemplos completos que incluem o raciocinio intermediario. O modelo aprende nao apenas o formato da resposta, mas tambem o estilo de pensamento que deve seguir.
π Estrutura de um Exemplo CoT
Pergunta: Se uma loja tem 15 macas e vende 40% delas, quantas sobram?
Raciocinio:
1. Total de macas: 15
2. Porcentagem vendida: 40%
3. Macas vendidas: 15 x 0.40 = 6
4. Macas restantes: 15 - 6 = 9
Resposta: 9 macas.
π Numero Ideal de Exemplos
- 2-3 exemplos β Suficiente para a maioria das tarefas de raciocinio
- 4-6 exemplos β Para tarefas com alta variabilidade ou multiplos padroes
- 1 exemplo β Pode funcionar se o padrao e simples e claro
- Mais de 6 β Raramente necessario; pode causar overhead desnecessario
π‘ Dica Pratica
Seus exemplos devem cobrir cenarios diferentes: um caso simples, um caso medio e um caso limite. Isso ensina ao modelo a adaptar o raciocinio conforme a complexidade do problema, nao apenas seguir um unico padrao.
π― Quando Usar CoT
CoT nao e uma bala de prata. Funciona excepcionalmente bem para certas categorias de tarefas e pode ser desnecessario ou ate prejudicial em outras. Saber quando aplicar e tao importante quanto saber como.
β CoT AJUDA
- β Problemas matematicos e aritmeticos
- β Raciocinio logico e deducoes
- β Analise multi-etapa (comparar, ponderar, decidir)
- β Diagnostico e troubleshooting
- β Tarefas com dados conflitantes ou ambiguos
β CoT NAO AJUDA
- β Traducao direta entre idiomas
- β Geracao criativa livre (poesia, brainstorm)
- β Tarefas de recuperacao simples (FAQ, definicoes)
- β Formatacao e conversao de dados
- β Respostas que ja sao diretas e factuais
π Custo-Beneficio de Tokens
CoT gera mais tokens de saida (raciocinio + resposta), o que impacta custo e latencia:
- Aumento medio: 2x a 5x mais tokens de saida
- Latencia: Resposta demora proporcionalmente mais
- Trade-off: Para tarefas criticas, a precisao extra compensa; para tarefas simples, e desperdicio
β οΈ Limitacoes e Armadilhas
CoT pode dar uma falsa sensacao de confianca. Um raciocinio que parece logico e bem estruturado pode estar completamente errado. Entender essas limitacoes e fundamental para usar a tecnica com responsabilidade.
β οΈ Confabulacao Logica
O modelo pode gerar cadeias de raciocinio que parecem validas mas contem erros sutis. Isso e especialmente perigoso porque o formato "passo a passo" transmite autoridade e confianca.
- β’ Premissas incorretas apresentadas como fatos
- β’ Saltos logicos disfarΓ§ados de passos intermediarios
- β’ Raciocinio circular que chega a conclusao pre-determinada
Over-Reasoning
Para tarefas simples, forcar CoT pode introduzir complexidade desnecessaria. O modelo pode "pensar demais" e chegar a respostas piores do que se respondesse diretamente.
Custo de Tokens
Em aplicacoes de producao com alto volume, o custo adicional de tokens de raciocinio pode ser significativo. Avalie se a melhoria na qualidade justifica o investimento.
Dependencia do Modelo
A eficacia do CoT varia entre modelos. Modelos menores podem nao se beneficiar tanto quanto modelos maiores. Sempre teste com seu modelo especifico.
π§ͺ Exercicio: CoT na Pratica
Hora de experimentar. Resolva os tres problemas abaixo primeiro sem CoT, depois com CoT, e compare os resultados. O objetivo e sentir na pratica a diferenca que o raciocinio explicito faz.
π Desafio 1: Matematica
Problema: Uma loja oferece 20% de desconto em compras acima de R$200. Joao compra 3 camisetas de R$89 cada. Qual o valor final?
Teste sem CoT e depois com "Pense passo a passo antes de responder". Compare as respostas.
π‘ Desafio 2: Logica
Problema: Ana e mais alta que Beatriz. Carlos e mais baixo que Beatriz. Diana e mais alta que Ana. Quem e a segunda pessoa mais alta?
Sem CoT, modelos frequentemente erram a ordenacao. Com CoT, a precisao sobe significativamente.
π― Desafio 3: Analise de Texto
Problema: Analise a seguinte avaliacao de produto e classifique o sentimento como positivo, negativo ou misto. Justifique: "O produto chegou rapido e a embalagem era otima, mas a qualidade do material me decepcionou. Pelo preco, esperava mais."
CoT ajuda o modelo a ponderar os elementos positivos e negativos antes de classificar.
π Resumo do Modulo
Proximo Modulo:
2.2 β Few-Shot Avancado: domine a arte de ensinar pelo exemplo