Ícone do site FelipeCFerreira IANews

Chain-of-Agents: Google Inova em Framework de IA

Multi_AI_Agents_in_a_workflow_CoA_by felipecferreira

O Google Research continua a inovar no campo da inteligência artificial com o desenvolvimento do framework “Chain-of-Agents” (CoA), uma solução que visa superar os desafios enfrentados pelos modelos de linguagem de grande escala em tarefas que exigem compreensão de contextos longos.

Este avanço promete revolucionar a maneira como as máquinas processam e respondem a informações complexas e interconectadas.

E principalmente, no nosso interesse, esse framework (CoA) tende a melhorar (e muito) as implementações práticas com agentes de IA.

Esse estudo foi desenvolvido pela equipe de pesquisa (Zhang et al 2025) Google Cloud AI Research, e como sempre o link do estudo completo estará ao final do conteúdo.

O Desafio das Tarefas de Longo Contexto em Modelos de Linguagem

Os modelos de linguagem atuais, como o GPT, Gemini ou Claude, possuem limitações no processamento de informações que se estendem por contextos longos.

Muitas vezes, ao tentar lidar com documentos extensos ou discussões prolongadas, esses modelos enfrentam dificuldades em manter a coerência e precisão.

Essas limitações decorrem de restrições no tamanho do contexto que esses sistemas conseguem manter em memória, bem como da complexidade crescente ao relacionar informações ao longo do “caminho”..

Como Funciona o Framework Chain-of-Agents

O “Chain-of-Agents” (CoA) aborda essas dificuldades promovendo uma colaboração entre diferentes agentes baseados em modelos de linguagem, cada um com funções especializadas.

Esses agentes trabalham de forma sequencial e coordenada, dividindo a tarefa em partes gerenciáveis.

A arquitetura é projetada para que cada agente processe um segmento do contexto, passe adiante o progresso acumulado e interaja com os outros agentes para garantir consistência global.

Essa divisão de responsabilidades possibilita que o sistema lide com informações mais amplas e complexas do que seria possível com um único modelo.

Fonte: Zhang et al 2025. Google Cloud AI Research Team.

A imagem do artigo ilustra como o Chain-of-Agents divide e coordena o trabalho entre diferentes agentes para responder a perguntas complexas.

Vamos (super) simplificar para compreendermos o que está acontecendo ali..

Divisão do Texto Original: O documento-fonte é dividido em partes menores (chunks), facilitando o processamento por diferentes agentes.

>> Papel dos Agentes <<

i) Agente Trabalhador (Worker Agent): Cada agente analisa uma parte do texto, identifica informações relevantes e gera um resumo, integrando o contexto das partes anteriores.

ii) Agente Gerenciador (Manager Agent): Este agente reúne os resumos das partes processadas e cria a resposta final de forma coerente.

Exemplo na Prática: No caso apresentado, a pergunta exige identificar uma atriz específica em um filme dirigido por Robert Aldrich.

Os agentes colaboram para buscar informações em diferentes partes do texto e constroem a resposta “Mary Astor“, validando com o contexto geral.

Essa abordagem de segmentação e cooperação permite que o sistema lide com contextos longos de maneira eficiente e precisa.

Resultados e Benefícios da Abordagem Chain-of-Agents

Os testes conduzidos pelo Google Research mostram que o framework Chain-of-Agents (CoA) não apenas melhora a precisão e a coerência em tarefas de longo contexto, mas também aumenta a eficiência computacional.

A abordagem colabora para reduzir redundâncias e garante que os modelos mantenham um desempenho mais consistente em cenários desafiadores, como análise jurídica, revisões médicas e relatórios financeiros detalhados.

Além disso, o Chain-of-Agents amplia as aplicações práticas dos modelos de linguagem, permitindo maior adaptabilidade em indústrias que demandam soluções baseadas em IA para contextos extensos e detalhados.

Agora, pra quem quiser, vamos analisar só um pouquinho a fundo um aspecto técnico importante, isto é..

Por quais motivos o framework CoA seria melhor que RAG ou simples Long Contexts LLMs?!

Chain of Agents vs. RAG e Long Context LLMs: Uma Análise Comparativa

Para entendermos melhor o impacto do Chain of Agents (CoA), é fundamental compará-lo com as abordagens mais comuns para lidar com textos longos: RAG e os LLMs com janelas de contexto expandidas (Long Context LLMs).

Cada uma dessas abordagens tem seus próprios méritos, mas também limitações que o CoA busca superar..

Retrieval-Augmented Generation (RAG): O RAG é uma técnica que busca os trechos mais relevantes de um texto longo para alimentar um LLM.

Embora seja eficaz em reduzir a quantidade de texto que o LLM precisa processar, o RAG pode perder informações importantes, especialmente se o sistema de recuperação não for preciso.

Além disso, o RAG depende muito da qualidade do sistema de busca, o que pode ser um problema se o texto tiver informações complexas ou sutis.

O RAG também sofre com a necessidade de um “pseudo query” em tarefas sem consulta (como a sumarização de documentos), o que pode prejudicar seu desempenho.

Long Context LLMs: Os LLMs de contexto longo, como o Claude 3, por exemplo, têm a capacidade de processar textos muito grandes de uma só vez.

Essa abordagem elimina a necessidade de reduzir o texto, mas esses modelos ainda têm dificuldades em manter o foco nas informações mais importantes quando o texto é muito longo, sofrendo com o problema (clássico) do “lost in the middle“.

Além disso, modelos com janelas de contexto muito grandes podem ser computacionalmente caros e lentos (super atenção aqui, novamente: CAROS e LENTOS!)..

As Vantagens Técnicas e Operacionais do Chain of Agents (CoA)

O Chain of Agents (CoA) surge como uma alternativa que busca combinar o melhor de cada abordagem, evitando as suas principais desvantagens:

Processamento Completo do Texto: Diferentemente do RAG, o CoA processa todo o texto, garantindo que nenhuma informação importante seja perdida.

Foco em Contextos Curtos: Ao dividir o texto em partes menores e processá-las sequencialmente, o CoA evita o problema do “lost in the middle” que afeta os Long Context LLMs, mantendo cada agente focado em um contexto menor e mais gerenciável.

Colaboração e Raciocínio: A comunicação entre os agentes permite que o conhecimento seja agregado e o raciocínio sobre o texto seja construído ao longo do processo.

Eficiência: O framework Chain of Agents (CoA) possui uma complexidade de tempo inferior ao Full Context LLMs, passando de O(n²) para O(nk) – math stuff, onde n é o número de tokens de entrada e k o limite de contexto dos LLMs.

Flexibilidade e Interpretabilidade: O CoA é um framework genérico, livre de treinamento, e que pode ser usado com qualquer LLM, além de ser altamente interpretável, facilitando a compreensão do processo de raciocínio da IA.

Desempenho Superior: Estudos mostram que o Chain of Agents (CoA) supera o desempenho do RAG e dos Long Context LLMs em diversas tarefas, como questionamento, sumarização e conclusão de código.

Fonte: Zhang et al 2025. Google Cloud AI Research Team.

Isso (TUDO.. rsrs) se traduz em melhor desempenho, maior precisão e maior capacidade de entender o contexto de informações complexas, sem sofrer com os problemas de perda de informação do RAG ou de perda de foco dos modelos de contexto longo.

Acesse o Paper Completo

Você pode clicar aqui para acessar o artigo científico na íntegra!

Conclusões

Com o framework Chain-of-Agents, o Google abre novas possibilidades para o uso de inteligência artificial em tarefas que envolvem compreensão e processamento de contextos longos.

Este avanço demonstra o potencial transformador da colaboração entre modelos de linguagem especializados, oferecendo soluções robustas para desafios complexos em diversas áreas.

Gostou deste conteúdo?

Quer se aprofundar ainda mais no universo da Inteligência Artificial e suas aplicações no marketing e aquisição de clientes?

É só clicar em algum lugar aqui da tela, tem um botão do WhatsApp e eu falo com você.

Sair da versão mobile