Modelos e Serviços Disponíveis
1. Serviços Comerciais (Cloud)
OpenAI (ChatGPT)
- Grátis ChatGPT Free - GPT-4o mini limitado
- $20/mês ChatGPT Plus - GPT-4, GPT-4o, custom GPTs
- Empresas ChatGPT Team - Para equipas
- Empresas ChatGPT Enterprise - Para empresas
- Pay-as-you-go API OpenAI - Pagas por uso (tokens)
Anthropic (Claude)
- Grátis Claude.ai Free - Claude Sonnet limitado
- $20/mês Claude Pro - Claude Opus/Sonnet ilimitado
- Pay-as-you-go API Anthropic - Pagas por uso
- Grátis Gemini Free - Acesso básico
- $20/mês Gemini Advanced - Modelo mais avançado
- Grátis Google AI Studio - Com limites
- Empresas Vertex AI - Para empresas
Outros Serviços
- Microsoft Copilot (integrado no Microsoft 365)
- Perplexity AI - Focado em pesquisa
- Meta AI - Grátis
- Mistral AI - Europeu, versões grátis e pagas
2. Modelos Open Source (Local)
É totalmente possível instalar e executar modelos de IA localmente no teu computador!
Ollama (Recomendado para começar)
Características do Ollama
- Interface simples tipo Docker
- Roda no teu computador (Windows, Mac, Linux)
- Biblioteca enorme de modelos
- Completamente grátis
- Privacidade total (dados não saem do teu PC)
Principais Modelos Disponíveis no Ollama
- Llama 3/3.1/3.2 (Meta) - Excelente qualidade
- Mistral - Rápido e eficiente
- Phi-3 (Microsoft) - Pequeno mas capaz
- Gemma (Google) - Leve
- Qwen (Alibaba) - Muito bom para código
- DeepSeek - Excelente para programação
Outros Frameworks Locais
- LM Studio - Interface gráfica amigável
- GPT4All - Muito fácil de usar
- Text Generation WebUI - Mais técnico, muito configurável
- Jan.ai - Interface bonita, tipo ChatGPT
- LocalAI - API compatível com OpenAI
3. Como Funciona o Ollama
Instalação
O processo é muito simples:
Vantagens
- Vantagem Gratuito e sem limites
- Vantagem Privacidade completa
- Vantagem Funciona offline
- Vantagem Controlo total
- Vantagem Sem censura excessiva
Desvantagens
- Desvantagem Precisa de hardware razoável (mínimo 8GB RAM, idealmente 16GB+)
- Desvantagem Modelos open-source geralmente menos capazes que GPT-4/Claude
- Desvantagem Processamento mais lento que cloud
- Desvantagem Manutenção por conta própria
4. Requisitos de Hardware
| Categoria | Especificações | Modelos Suportados |
|---|---|---|
| Mínimo Aceitável |
• CPU moderna • 8GB RAM • Sem GPU dedicada |
Modelos pequenos (3B-7B parâmetros) |
| Recomendado |
• CPU moderna • 16GB+ RAM • GPU NVIDIA (opcional mas acelera) |
Modelos médios (7B-13B) |
| Ideal |
• CPU de topo • 32GB+ RAM • GPU com 8GB+ VRAM |
Modelos grandes (70B+) |
Montar um Agente de IA para um Website
Conceito Geral
Um agente de IA num website é essencialmente um chatbot inteligente que interage com visitantes em tempo real. As suas funções principais incluem:
- Responder a perguntas sobre produtos/serviços
- Auxiliar na navegação do site
- Processar pedidos e realizar ações
- Fornecer suporte ao cliente automatizado
- Qualificar leads e potenciais clientes
Arquitetura Básica
Um chatbot de IA para website é composto por três componentes principais:
- Frontend (Interface) - O widget de chat visível no site onde o utilizador escreve mensagens
- Backend (Servidor) - Processa pedidos, gere lógica de negócio e comunica com a IA
- API de IA - O modelo de linguagem que gera as respostas (GPT, Claude, Ollama, etc.)
Fluxo de Funcionamento
Implementação em Laravel
Opção 1: API Cloud (OpenAI/Anthropic)
Esta é a abordagem mais comum para chatbots profissionais com IA de alta qualidade.
Passo 1: Instalação de Dependências
Passo 2: Configuração (.env)
Passo 3: Controller (app/Http/Controllers/ChatbotController.php)
Passo 4: Route (routes/web.php)
Passo 5: Frontend - Widget HTML (resources/views/layouts/app.blade.php)
Passo 6: JavaScript (public/js/chatbot.js)
Este código gere toda a interação do utilizador com o chatbot:
Opção 2: Ollama Local (Grátis e Privado)
Vantagens do Ollama
- Sem custos de API - completamente grátis
- Privacidade total - dados não saem do servidor
- Sem limites de requests
- Controlo total sobre o modelo
- Funciona offline
A implementação é muito semelhante, apenas mudando a chamada da API:
Implementação em WordPress
Para WordPress, existem duas abordagens principais:
Opção 1: Plugins Prontos (Mais Rápido)
| Plugin | Características | Custo |
|---|---|---|
| AI Engine |
• Integração OpenAI/Anthropic • Chatbot customizável • Suporte para Custom GPTs |
Premium (~$60/ano) |
| Tidio |
• Chat com IA integrada • Interface drag-and-drop • Analytics incluído |
Freemium |
| Chatbot with Watson |
• IBM Watson AI • Mais robusto • Ideal para empresas |
Grátis até limite |
Instalação típica de plugin:
Opção 2: Plugin Personalizado (PHP)
Para quem quer controlo total, pode criar um plugin WordPress personalizado:
Estrutura do Plugin
Ficheiro Principal (custom-ai-chatbot.php):
Comparação: Laravel vs WordPress
| Aspecto | Laravel | WordPress |
|---|---|---|
| Controlo | Total | Limitado por plugins |
| Customização | Ilimitada | Moderada |
| Velocidade de Desenvolvimento | Média | Rápida (com plugins) |
| Performance | Melhor (otimizado) | Depende dos plugins |
| Manutenção | Requer conhecimento PHP | Mais simples |
| Custo | Grátis (exceto API) | Grátis ou plugins pagos |
| Escalabilidade | Excelente | Boa |
Funcionalidades Avançadas
1. Memória de Conversação
Permite que o chatbot se lembre do contexto da conversa:
2. Integração com Base de Conhecimento (RAG)
O chatbot procura informação relevante no teu site antes de responder:
3. Analytics e Monitorização
Rastreia conversas para melhorar o serviço:
4. Fallback Humano
Transferir para operador humano quando necessário:
Treino vs Prompt Engineering
⚠️ Questão Importante: Os packages e plugins já incluem o "treino" do GPT?
Resposta curta: Não existe treino tradicional. O que existe é configuração via prompts.
Esclarecimento de Conceitos
1. Prompt Engineering (O que packages/plugins fazem)
Como Funciona
- Defines instruções no momento (system prompt)
- Forneces contexto específico (FAQs, produtos, políticas)
- Ajustas o comportamento através de prompts
- Não modifica o modelo - apenas guia as respostas
- Efeito é imediato
Exemplo de System Prompt:
Isto NÃO é treino, mas funciona muito bem para a maioria dos casos!
2. Fine-tuning (Treino Real - Raramente Necessário)
O que é Fine-tuning
- Treinas o modelo com dados específicos da tua empresa
- Requer milhares de exemplos de conversas (mínimo 500-1000)
- Muito caro - centenas/milhares de euros
- Disponível apenas via API OpenAI (não em ChatGPT Plus)
- Processo demora horas/dias
- Raramente necessário para chatbots de website
Fine-tuning Explicado em Detalhe
O que é Fine-tuning?
Fine-tuning (afinação) é o processo de re-treinar um modelo de IA pré-existente com dados específicos do teu domínio. É como pegar num estudante universitário genérico e especializá-lo numa área específica através de treino intensivo.
Analogia Prática
Sem Fine-tuning (Prompt Engineering): Contratas um assistente inteligente e dás-lhe um manual de 50 páginas sobre a tua empresa. Ele lê antes de cada tarefa.
Com Fine-tuning: O assistente passa 6 meses a trabalhar na tua empresa, internalizando completamente a cultura, processos e linguagem. Já não precisa de consultar o manual constantemente.
Como Funciona Tecnicamente
- Preparação de Dados
- Reúnes milhares de exemplos (conversas, documentos, respostas)
- Formatas em pares pergunta-resposta ou input-output
- Qualidade > Quantidade (mas precisas de ambas)
- Processo de Treino
- O modelo aprende padrões específicos dos teus dados
- Ajusta os "pesos" internos da rede neural
- Preserva conhecimento geral mas adiciona especialização
- Resultado
- Novo modelo especializado no teu domínio
- Gera respostas mais consistentes e precisas
- Usa automaticamente a tua terminologia e estilo
Exemplo Prático: Suporte Técnico de Software
Cenário: Empresa de software com terminologia técnica muito específica e centenas de tickets de suporte por dia.
Fine-tuning com OpenAI (API)
Passo 1: Preparar Dados
Passo 2: Upload e Fine-tuning (OpenAI CLI)
Passo 3: Usar o Modelo Fine-tuned em Laravel
Custos de Fine-tuning (OpenAI)
| Aspecto | Custo Aproximado |
|---|---|
| Treino (GPT-3.5-turbo) | $0.008 por 1K tokens |
| Treino (GPT-4) | $0.03 por 1K tokens |
| Uso do modelo fine-tuned | ~2x o preço do modelo base |
| Exemplo: 1M tokens de treino | $8 (GPT-3.5) ou $30 (GPT-4) |
| Total para projecto médio | $100-$500 inicial + custos de uso |
Fine-tuning com Ollama (Modelos Locais)
Com Ollama, tens controlo total e podes fazer fine-tuning gratuitamente, mas é mais técnico.
Possibilidades com Ollama
✅ O que podes fazer
- Fine-tuning completo de modelos open-source (Llama, Mistral, etc.)
- Custo zero - apenas hardware (GPU recomendada)
- Privacidade total - dados nunca saem do teu servidor
- Controlo completo - podes experimentar livremente
- Integração directa com Laravel
❌ Desafios
- Requer conhecimento técnico - Machine Learning, Python, GPU
- Hardware exigente - GPU com 16GB+ VRAM recomendada
- Tempo de treino - Pode levar dias
- Complexidade - Mais difícil que usar API OpenAI
Processo de Fine-tuning com Ollama
Opção 1: Usar Modelfiles (Simples, mas limitado)
Ollama permite criar modelos customizados através de Modelfiles. Não é verdadeiro fine-tuning, mas permite adicionar conhecimento específico:
Usar em Laravel:
Opção 2: Fine-tuning Real com Unsloth/LoRA (Avançado)
Para verdadeiro fine-tuning de modelos Llama/Mistral, usa ferramentas como Unsloth ou LoRA:
Ferramentas para Fine-tuning Local
- Unsloth - Framework rápido para fine-tuning (2x-5x mais rápido)
- LoRA/QLoRA - Técnica eficiente que usa menos memória
- Axolotl - Framework completo para treino
- LLaMA-Factory - Interface gráfica para fine-tuning
Passo 3: Converter para Ollama
Passo 4: Integração Laravel (Igual ao anterior)
Comparação: Fine-tuning OpenAI vs Ollama
| Aspecto | OpenAI Fine-tuning | Ollama Fine-tuning |
|---|---|---|
| Facilidade | ⭐⭐⭐⭐⭐ Muito fácil | ⭐⭐ Requer expertise |
| Custo Inicial | $100-$500 | $0 (só hardware) |
| Custo de Uso | ~$0.002/1K tokens | $0 (grátis) |
| Qualidade | ⭐⭐⭐⭐⭐ Excelente | ⭐⭐⭐⭐ Muito boa |
| Privacidade | ⭐⭐ Dados na cloud | ⭐⭐⭐⭐⭐ 100% local |
| Tempo Setup | Horas | Dias/Semanas |
| Hardware Necessário | Nenhum | GPU 16GB+ VRAM |
| Manutenção | Zero | Alta |
| Flexibilidade | ⭐⭐⭐ Limitada | ⭐⭐⭐⭐⭐ Total |
Quando Vale a Pena Fine-tuning?
✅ Vale a Pena se:
- Tens 10.000+ exemplos de conversas de alta qualidade
- Linguagem/terminologia é muito específica e única
- Prompt engineering + RAG não conseguem resultados aceitáveis
- Precisas de consistência absoluta nas respostas
- Volume de uso é muito alto (custo justifica investimento)
- Tens orçamento (€1000-5000) ou hardware adequado
- É um projecto de longo prazo (2+ anos)
❌ Não Vale a Pena se:
- Tens menos de 1000 exemplos
- O domínio é genérico (suporte geral, FAQs básicas)
- Prompt engineering já dá resultados 80%+ bons
- É um projecto piloto ou de curto prazo
- Não tens orçamento ou hardware
- Não tens expertise técnica (para Ollama)
Recomendação Prática: Abordagem Progressiva
🎯 Estratégia Recomendada
- Fase 1: Prompt Engineering (Semana 1)
- Cria chatbot com prompts bem escritos
- Testa com utilizadores reais
- Custo: €0-50 (apenas API)
- Fase 2: RAG (Semanas 2-4)
- Adiciona base de conhecimento
- Implementa busca semântica
- Mede melhoria de qualidade
- Fase 3: Decisão sobre Fine-tuning (Mês 2+)
- Se Prompt+RAG atinge 85%+ satisfação → Não faças fine-tuning
- Se precisas de mais → Avalia custo/benefício do fine-tuning
Quando considerar Fine-tuning:
- Tens 10.000+ conversas reais anotadas
- O modelo precisa de linguagem muito específica (jargão técnico único)
- Prompt engineering não consegue o resultado pretendido
- Tens orçamento para investir (€1000+)
- É um projeto de longo prazo
3. RAG - Retrieval Augmented Generation (Solução Prática)
Como funciona o RAG
- Utilizador faz pergunta: "Qual o prazo de entrega?"
- Sistema procura na base de conhecimento (FAQs, produtos, políticas)
- Encontra informação relevante sobre prazos de entrega
- Injeta essa informação no prompt enviado à IA
- IA responde com base na informação fornecida
Onde o RAG Procura? Base de Conhecimento
O RAG pode procurar em múltiplas fontes. A base de conhecimento pode ser:
Fontes Comuns para RAG
- Base de dados relacional - MySQL, PostgreSQL, SQL Server
- Tabelas: FAQs, produtos, artigos, documentação
- Pesquisa: SQL LIKE, FULLTEXT SEARCH, ou busca semântica
- Base de dados NoSQL - MongoDB, Elasticsearch
- Documentos JSON com conteúdo
- Pesquisa: Text search, agregações
- Vector Database - Pinecone, Weaviate, ChromaDB, Qdrant
- Armazena embeddings (representações vectoriais do texto)
- Pesquisa semântica (por significado, não palavras exactas)
- Ficheiros - PDFs, DOCX, TXT
- Documentação técnica, manuais, contratos
- Processados e indexados antes da pesquisa
- APIs externas - CRM, ERP, sistemas internos
- Dados em tempo real de outros sistemas
- CMS/Website - WordPress, Laravel posts/pages
- Conteúdo publicado no site
Tipos de Pesquisa RAG
1. Pesquisa por Palavras-chave (Keyword Search)
Como funciona: Procura palavras exactas ou similares no texto
Tecnologia: SQL LIKE, FULLTEXT, Elasticsearch
Vantagens: Simples, rápida, não requer treino
Desvantagens: Não entende contexto/sinónimos
2. Pesquisa Semântica (Semantic Search)
Como funciona: Procura por significado, não palavras exactas
Tecnologia: Embeddings + Vector Database
Vantagens: Entende sinónimos, contexto, intenção
Desvantagens: Mais complexo, requer embeddings
Exemplo de diferença:
- Pergunta: "Quanto tempo demora o envio?"
- Keyword: Procura "tempo demora envio" → Pode não encontrar
- Semantic: Entende que "envio" = "entrega" → Encontra "prazo de entrega"
Implementação RAG Básico (Keyword Search)
Exemplo 1: MySQL com Laravel
Exemplo 2: Pesquisa em Ficheiros (PDFs, DOCX)
Implementação RAG Avançado (Semantic Search)
Para pesquisa semântica, precisas de embeddings (representações vectoriais do texto):
RAG com Vector Database (Recomendado para Produção)
Para aplicações sérias, usa uma vector database especializada:
Comparação de Abordagens RAG
| Abordagem | Precisão | Complexidade | Custo | Caso de Uso |
|---|---|---|---|---|
| SQL LIKE | ⭐⭐ | Muito Baixa | €0 | Protótipos, FAQs simples |
| MySQL FULLTEXT | ⭐⭐⭐ | Baixa | €0 | Sites pequenos/médios |
| Elasticsearch | ⭐⭐⭐⭐ | Média | €20-100/mês | Sites grandes, e-commerce |
| Embeddings DIY | ⭐⭐⭐⭐ | Alta | €10-50/mês | Projetos custom |
| Vector DB | ⭐⭐⭐⭐⭐ | Média | €50-200/mês | Produção, escala |
Recomendação por Fase do Projeto
🎯 Estratégia Recomendada
- MVP/Protótipo: SQL LIKE - Rápido de implementar, testa o conceito
- Lançamento Inicial: MySQL FULLTEXT ou Elasticsearch - Qualidade aceitável, baixo custo
- Escala/Produção: Vector Database (Pinecone, Weaviate) - Melhor qualidade, escalável
Nota: Podes começar simples e migrar gradualmente. O importante é ter ALGUM sistema de RAG funcionando desde o início.
Comparação das Abordagens
| Abordagem | Custo | Complexidade | Eficácia | Tempo Setup |
|---|---|---|---|---|
| Prompt Engineering | €0 | Baixa | ⭐⭐⭐⭐ | Minutos |
| RAG (Prompt + Search) | €0-€50 | Média | ⭐⭐⭐⭐⭐ | Horas/Dias |
| Fine-tuning | €1000+ | Alta | ⭐⭐⭐⭐⭐ | Semanas |
O que Packages/Plugins Incluem
✅ Incluem Sempre
- Sistema de prompts - Configuração de system prompts
- Interface de configuração - Definir comportamento do bot
- Gestão de conversações - Histórico e contexto
✅ Alguns Incluem (Versões Premium)
- RAG básico - Pesquisa em FAQs/documentos
- Analytics - Relatórios de conversas
- A/B Testing - Testar diferentes prompts
❌ Não Incluem
- Fine-tuning - Treino real do modelo
- Modelos proprietários - Precisas de API externa
- Infraestrutura GPU - Para modelos locais
Recomendação Prática
Para 95% dos Casos: Prompt Engineering + RAG
Porquê?
- ✅ Rápido de implementar - Funcional em horas/dias
- ✅ Custo baixo - Apenas API calls (€20-100/mês)
- ✅ Muito eficaz - Resolve 90%+ das necessidades
- ✅ Fácil de ajustar - Mudas prompts em tempo real
- ✅ Sem dependências complexas - Não precisa treino
Quando Considerar Fine-tuning:
- ❌ Prompt engineering + RAG não funcionam
- ✅ Tens budget significativo (€5000+)
- ✅ Tens milhares de exemplos de conversas reais
- ✅ É um projeto de longo prazo (1+ anos)
- ✅ Precisas de linguagem muito específica
Relação com Objetivo 4 (Prompt Engineering)
Sim, está diretamente relacionado! O objetivo 4 do curso - "Dominar prompt engineering para criar conteúdo em escala" - é exactamente a habilidade que precisas para configurar chatbots eficazes.
Prompt Engineering é a Skill Fundamental
- Configurar chatbots - 90% do trabalho é escrever bons prompts
- Definir personalidade - Tom, estilo, comportamento
- Gerir contexto - O que o bot sabe e como usa essa informação
- Optimizar respostas - Melhorar qualidade iterativamente
- Criar conteúdo - Blogs, emails, descrições de produtos
Dominar prompt engineering permite-te criar chatbots sofisticados sem precisar de treinar modelos, poupando tempo e dinheiro enquanto obténs resultados excelentes.
Comparação de Plataformas
| Característica | ChatGPT Plus | Claude Pro | Ollama (Local) |
|---|---|---|---|
| Custo | $20/mês | $20/mês | Grátis |
| Qualidade | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐ |
| Privacidade | ⭐⭐ | ⭐⭐ | ⭐⭐⭐⭐⭐ |
| Velocidade | Rápido | Rápido | Depende do PC |
| Offline | ❌ | ❌ | ✅ |
| Custom GPTs | ✅ | ❌ | ✅ (com configuração) |
| Integração API | ✅ (extra) | ✅ (extra) | ✅ (incluído) |