Aproveitando a Chamada de Função e o Uso de Ferramentas do Cloud 3 para Capacidades de IA Aprimoradas

Explore como aproveitar os modelos Cloud 3 da Anthropic para melhorar as capacidades de IA por meio de chamadas de função e uso de ferramentas externas. Aprenda as melhores práticas para definir ferramentas, entender os esquemas de entrada e implementar exemplos práticos, como um chatbot de atendimento ao cliente.

14 de fevereiro de 2025

party-gif

Desbloqueie o poder da IA com este guia sobre chamada de funções e uso de ferramentas no modelo de linguagem Claude 3. Descubra como integrar perfeitamente ferramentas e APIs externas para aprimorar suas aplicações alimentadas por IA, expandindo suas capacidades além das limitações inerentes do modelo. Esta introdução prática lhe fornecerá o conhecimento necessário para construir sistemas inteligentes e versáteis que aproveitem o melhor da IA e dos recursos externos.

Por que você precisa de chamada de função ou uso de ferramenta externa

Por sua natureza, os modelos de linguagem de grande porte (LLMs) têm certas limitações. Por exemplo, a maioria dos LLMs não é boa em realizar cálculos matemáticos ou acessar informações atualizadas além da data de corte de seu treinamento. Para abordar essas limitações, os LLMs podem receber a capacidade de usar ferramentas externas ou realizar chamadas de função para implementar funcionalidades específicas.

O fluxo de chamada de função funciona da seguinte forma:

  1. Quando uma consulta do usuário é recebida, o LLM primeiro determina se precisa usar uma ferramenta externa ou não.
  2. Se o LLM decidir usar uma ferramenta, ele precisa selecionar a ferramenta apropriada entre as opções disponíveis com base na consulta.
  3. O LLM então faz uma chamada para a ferramenta selecionada, que pode ser uma API ou uma função externa.
  4. A resposta da ferramenta é então passada de volta para o LLM, que a usa junto com a consulta inicial do usuário para gerar a resposta final.

Entendendo o fluxo de chamada de função

Por sua natureza, os modelos de linguagem de grande porte (LLMs) têm certas limitações. Por exemplo, a maioria dos LLMs não é boa em realizar cálculos matemáticos ou acessar informações atualizadas além da data de corte de seu treinamento. Para abordar essas limitações, os LLMs podem receber a capacidade de usar ferramentas externas ou realizar chamadas de função para implementar funcionalidades específicas.

O fluxo de chamada de função funciona da seguinte forma:

  1. Determinação da Ferramenta: Quando uma consulta do usuário é recebida, o LLM primeiro avaliará se precisa usar uma ferramenta externa para gerar uma resposta. Se nenhuma ferramenta for necessária, o LLM usará seus dados de treinamento internos para gerar uma resposta.

  2. Seleção da Ferramenta: Se o LLM determinar que uma ferramenta é necessária, ele selecionará a ferramenta apropriada entre as opções disponíveis. Por exemplo, se a consulta exigir um cálculo, o LLM selecionará uma ferramenta de calculadora; se a consulta exigir informações meteorológicas, o LLM selecionará uma ferramenta de pesquisa na web.

  3. Invocação da Ferramenta: Uma vez selecionada a ferramenta, o LLM fará uma chamada para a função externa ou API que implementa a funcionalidade da ferramenta. Os parâmetros de entrada para a ferramenta são determinados pelo esquema de entrada da ferramenta.

  4. Geração de Resposta: A resposta da ferramenta externa ou da chamada de função é então passada de volta para o LLM, que usará essas informações, juntamente com a consulta original do usuário, para gerar uma resposta final.

Definindo ferramentas na família Cloud 3

Para definir ferramentas na família Cloud 3, há dois componentes-chave:

  1. Descrição: Esta é uma descrição detalhada da ferramenta, que o modelo Cloud usa para determinar qual ferramenta usar para uma determinada consulta. A descrição deve fornecer o máximo de detalhes possível, incluindo o que a ferramenta faz, quando ela deve ser usada, quaisquer parâmetros que ela exige e quaisquer ressalvas ou limitações importantes.

  2. Implementação: Esta é a implementação real da ferramenta, que pode ser uma API externa ou uma função. A definição da ferramenta especifica o esquema de entrada para a ferramenta, que determina quais entradas a consulta do usuário precisa fornecer.

Quando o usuário fornece uma consulta, o modelo Cloud primeiro determina qual ferramenta usar com base nas descrições das ferramentas. Ele então faz uma chamada para a implementação da ferramenta correspondente, passando os inputs necessários. A resposta da ferramenta é então realimentada no modelo Cloud, que gera a resposta final para o usuário.

Algumas melhores práticas para definir ferramentas incluem:

  • Forneça uma descrição altamente detalhada, cobrindo todos os aspectos-chave da ferramenta.
  • Certifique-se de que o nome da ferramenta seja claro e descritivo.
  • Defina cuidadosamente o esquema de entrada para corresponder à consulta do usuário.
  • Considere encadear várias ferramentas juntas para casos de uso mais complexos.
  • Teste as definições e implementações das ferramentas minuciosamente para garantir que elas funcionem conforme o esperado.

Melhores práticas para descrições de ferramentas

Ao definir ferramentas para uso com a família de modelos Anthropic Cloud 3, é importante seguir estas melhores práticas para as descrições das ferramentas:

  1. Forneça Descrições Detalhadas: Certifique-se de que a descrição de cada ferramenta seja altamente detalhada. Inclua informações sobre o que a ferramenta faz, quando ela deve ser usada e como ela afeta o comportamento da ferramenta.

  2. Explique os Parâmetros: Explique claramente o significado e o impacto de cada parâmetro exigido pela ferramenta. Isso ajuda o modelo de linguagem a entender como usar a ferramenta de maneira eficaz.

  3. Destaque as Limitações: Mencione quaisquer ressalvas ou limitações importantes da ferramenta, como o tipo de informação que ela não retorna.

  4. Garanta Clareza: Certifique-se de que o nome da ferramenta seja claro e inequívoco. O modelo de linguagem usará a descrição para determinar qual ferramenta usar, portanto, um nome claro e conciso é crucial.

  5. Priorize a Utilidade: Concentre-se em fornecer ferramentas que sejam realmente úteis e relevantes para a tarefa em questão. Evite incluir ferramentas desnecessárias ou redundantes.

  6. Considere o Encadeamento de Ferramentas: Se seu caso de uso exigir uma sequência de chamadas de ferramenta, considere usar o modelo Opus, que está melhor equipado para lidar com o uso serializado de ferramentas.

  7. Teste Minuciosamente: Teste minuciosamente suas definições e implementações de ferramentas para garantir que elas funcionem conforme o esperado e forneçam a funcionalidade desejada.

Exemplo prático: construindo um chatbot de atendimento ao cliente

Para construir um chatbot de atendimento ao cliente usando a família de modelos Cloud 3, seguiremos estas etapas:

  1. Instalar o pacote Anthropic: Começaremos instalando o pacote cliente Python da Anthropic.

  2. Configurar a chave da API Anthropic: Configuraremos a chave da API Anthropic, que é necessária para usar os modelos Cloud 3.

  3. Escolher o modelo Cloud 3: Para este exemplo, usaremos o modelo CLA 3 Opus, pois ele suporta o uso e o encadeamento de ferramentas mais complexos.

  4. Definir as ferramentas do lado do cliente: Definiremos três ferramentas para nosso chatbot de atendimento ao cliente:

    • Obter informações do cliente
    • Obter detalhes do pedido
    • Cancelar pedido

    Cada ferramenta tem uma descrição detalhada, um esquema de entrada e uma implementação por meio de funções externas.

  5. Implementar o loop principal: Criaremos um loop principal que lida com a entrada do usuário, determina qual ferramenta usar, chama a função apropriada e realimenta a resposta no modelo de linguagem para gerar a saída final.

  6. Testar o chatbot: Testaremos o chatbot fornecendo diferentes consultas do usuário, como recuperar o endereço de e-mail de um cliente, verificar o status de um pedido e cancelar um pedido.

Conclusão

Neste vídeo, exploramos o conceito de chamada de função e uso de ferramentas externas com a família de modelos Anthropic Cloud 3. Aprendemos os seguintes pontos-chave:

  1. Motivação para Chamada de Função: Os LLMs têm certas limitações, como a incapacidade de realizar cálculos complexos ou acessar informações atualizadas. A chamada de função permite que o LLM aproveite ferramentas e APIs externas para superar essas limitações.

  2. Fluxo de Chamada de Função: O LLM primeiro determina se precisa usar uma ferramenta externa, depois seleciona a ferramenta apropriada com base nas descrições fornecidas e, finalmente, faz uma chamada para a implementação da ferramenta para obter as informações necessárias.

  3. Definindo Ferramentas: As ferramentas são definidas com um nome, uma descrição detalhada e um esquema de entrada. A descrição é crucial, pois ajuda o LLM a decidir qual ferramenta usar.

  4. Melhores Práticas: Forneça descrições claras e abrangentes para as ferramentas, incluindo detalhes sobre sua funcionalidade, parâmetros e limitações. Isso garante que o LLM possa tomar decisões informadas sobre qual ferramenta usar.

  5. Exemplo de Implementação: Percorremos um exemplo de construção de um chatbot de atendimento ao cliente usando os modelos Anthropic Cloud 3 e ferramentas do lado do cliente. O exemplo demonstrou como definir ferramentas, implementar sua funcionalidade e integrá-las ao processo de tomada de decisão do LLM.

  6. Comparação entre Opus e Haiku: Embora tanto o Opus quanto o Haiku possam ser usados para chamada de função, o Opus é mais adequado para cenários mais complexos que envolvem o uso serializado ou encadeado de ferramentas.

Compreendendo esses conceitos, você pode aproveitar efetivamente o poder da chamada de função e do uso de ferramentas externas para aprimorar as capacidades de seus aplicativos baseados nos modelos Anthropic Cloud 3.

Perguntas frequentes