# Integração com IA (inteligência artificial)

{% hint style="success" %}
O Z-PRO permite a conexão direta com uma variedade de Modelos de Linguagem (LLMs) de ponta. Essa abordagem oferece a flexibilidade de escolher a "inteligência" que melhor se alinha às suas necessidades de negócio, enquanto o Z-PRO cuida da conexão dessa IA com seus clientes.

A integração é feita via API, o que requer que você possua as credenciais de acesso do modelo de IA que deseja utilizar. Abaixo, detalhamos os principais modelos suportados e suas características.
{% endhint %}

## **Modelos de IA Suportados e Suas Diferenças**

Cada modelo possui uma especialidade e um "perfil" de resposta. A escolha dependerá do tipo de interação que você deseja automatizar.

### **1. ChatGPT (da OpenAI)**

* **O que é:** É o modelo de linguagem mais conhecido e amplamente utilizado, reconhecido por sua versatilidade e fluidez conversacional.
* **Diferencial:** Excelente na compreensão de instruções complexas e na geração de texto criativo e natural. É um ótimo ponto de partida para a maioria das aplicações de chatbot.
* **Ideal para:** Atendimento ao cliente geral, automação de FAQs, geração de rascunhos de e-mail e tarefas que exigem um diálogo mais humano.

### **2. Gemini (do Google)**

* **O que é:** É o modelo de IA do Google, projetado com forte capacidade de raciocínio e acesso ao vasto conhecimento do Google.
* **Diferencial:** Frequentemente se destaca em tarefas que exigem precisão, lógica e informações factuais. É construído para ser multimodal, compreendendo nativamente informações de texto, imagens e outros formatos.
* **Ideal para:** Chatbots que precisam fornecer dados precisos, assistentes que realizam tarefas baseadas em raciocínio lógico e automações que precisam de informações atualizadas.

### **3. Claude (da Anthropic)**

* **O que é:** Um modelo focado em segurança, interpretação de texto e diálogo ético.
* **Diferencial:** Sua principal característica é a "janela de contexto" extremamente grande, permitindo processar e analisar documentos ou históricos de conversas muito longos de uma só vez, com alta capacidade de resumo e interpretação.
* **Ideal para:** Análise de grandes volumes de texto (como contratos ou tickets de suporte extensos), atendimento ao cliente que exige um tom mais cauteloso e profissional, e resumo de interações complexas.

### **4. Grok (da xAI)**

* **O que é:** O modelo de IA desenvolvido pela xAI, com a particularidade de ter acesso em tempo real a informações da plataforma X (antigo Twitter).
* **Diferencial:** Possui um tom mais direto, com senso de humor e a capacidade de responder perguntas com base em dados e tendências sociais muito recentes.
* **Ideal para:** Casos de uso que se beneficiam de informações em tempo real, como monitoramento de marca, e para criar chatbots com uma personalidade mais ousada e engajadora.

### **5. Deepseek**

* **O que é:** Um modelo de IA altamente especializado em tarefas relacionadas a código e programação.
* **Diferencial:** Seu desempenho na geração, tradução e explicação de código é seu ponto mais forte, superando muitos modelos generalistas nessa área específica.
* **Ideal para:** Empresas de tecnologia que precisam automatizar o suporte técnico de primeiro nível, criar documentação de código ou desenvolver ferramentas internas para suas equipes de engenharia.

### **6. Qwen (da Alibaba Cloud)**

* **O que é:** Uma família de modelos de código aberto desenvolvida pela Alibaba, com forte desempenho em múltiplos idiomas.
* **Diferencial:** É uma alternativa de código aberto robusta aos modelos proprietários, com excelente performance especialmente em inglês e mandarim.
* **Ideal para:** Aplicações que exigem suporte multilíngue e para empresas que buscam uma solução de IA de alto desempenho sem depender de um único fornecedor de API.

### **7. Ollama (Framework para Modelos Self-Hosted)**

* **O que é:** Ollama não é um modelo de IA, mas sim uma ferramenta que simplifica a execução de diversos modelos de código aberto (como Llama, Mistral, e o próprio Qwen) em seu próprio servidor.
* **Diferencial:** Oferece controle total sobre a IA e os dados, garantindo máxima privacidade, pois nenhuma informação sai da sua infraestrutura. Permite rodar modelos offline.
* **Ideal para:** Empresas com políticas rígidas de privacidade de dados, aplicações que precisam funcionar sem conexão com a internet e para quem deseja experimentar diferentes modelos open source com menor custo.

### **8. LM Studio (Interface para Modelos Self-Hosted)**

* **O que é:** Assim como o Ollama, o LM Studio é uma aplicação que permite descobrir, baixar e executar modelos de linguagem (LLMs) localmente em seu próprio computador ou servidor.
* **Diferencial:** Sua principal vantagem é a interface gráfica amigável, que facilita o gerenciamento de diferentes modelos de código aberto sem a necessidade de comandos complexos no terminal. Ele cria um servidor local compatível com a API da OpenAI, o que torna a integração com o Z-PRO extremamente simples.
* **Ideal para:** Desenvolvedores e entusiastas que desejam testar e comparar facilmente vários modelos open source, e para criar um ambiente de desenvolvimento local antes de implantar uma solução de IA em um servidor de produção.

***

## **Requisitos de Integração**

* **Chaves de API e Contas Ativas:** Para utilizar qualquer um desses modelos, você deve primeiro ter uma conta no respectivo provedor (OpenAI, Google, etc.) e gerar uma chave de API para inserir no painel do Z-PRO.
* **Custos de Uso:** O consumo de tokens e outros custos associados ao uso desses modelos são de sua responsabilidade e faturados diretamente pelo provedor da IA.
* **Infraestrutura para Self-Hosted:** Para soluções como o Ollama, é necessário um servidor com a capacidade de hardware adequada para executar o modelo de IA escolhido.

**Próximo Passo:**


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://ajuda.zdg.com.br/conheca-o-z-pro/integracao-com-ia-inteligencia-artificial.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
