Assistente de IA

O Assistente de IA e um painel de chat integrado ao HarbourBuilder que se conecta ao Ollama para assistencia de codificacao com IA local. Sem chaves de API, sem servicos em nuvem, sem dados saindo da sua maquina — apenas um modelo local fornecendo assistencia instantanea enquanto voce codifica.

100% Local e Privado

O Assistente de IA se comunica com uma instancia local do Ollama rodando na sua maquina. Seu codigo, perguntas e prompts nunca saem do seu computador. Isso e ideal para ambientes empresariais, bases de codigo proprietarias e desenvolvedores que valorizam a privacidade.

Backends Suportados

BackendTipoChave APIRede
OllamaLocalNenhumaApenas localhost
LM StudioLocalNenhumaApenas localhost

Seletor de Modelos

O Assistente de IA inclui um seletor de modelos que lista todos os modelos disponiveis detectados da sua instancia Ollama ou LM Studio em execucao. As opcoes disponiveis normalmente incluem:

ModeloTamanhoMelhor Para
llama3~5 GBUso geral, codificacao, explicacao
codellama~4 GBGeracao e refatoracao de codigo
mistral~4 GBRespostas rapidas, tarefas de codificacao
deepseek-coder~4 GBConsultas especificas de codigo
phi3~2 GBLeve, rapido em hardware modesto
qwen2.5-coder~3 GBAssistencia de codigo multi-linguagem
Gerenciamento de Modelos

Execute ollama list no seu terminal para ver os modelos instalados. Instale novos modelos com ollama pull <nome-do-modelo>. O Assistente de IA deteta automaticamente os modelos disponiveis ao abrir o painel.

Interface de Chat

O painel do Assistente de IA oferece uma experiencia de chat familiar:

Prompts de Exemplo

Aqui estao alguns prompts eficazes para testar com o Assistente de IA:

CategoriaPrompt
Geracao de codigo"Escreva uma funcao Harbour que ordena um array usando quicksort"
Explicacao"Explique como o componente TTransformer funciona"
Depuracao"Por que estou recebendo um erro 'variavel nao encontrada' nesta linha?"
Refatoracao"Reescreva este codigo procedural como uma classe Harbour"
Boas praticas"Qual a melhor forma de lidar com conexoes de banco de dados no HarbourBuilder?"
Aprendizado"Mostre como usar eventos com um TButton"

Usando TOllama no Seu Codigo

O mesmo componente TOllama que alimenta o Assistente de IA esta disponivel nas suas proprias aplicacoes. Veja como usa-lo:

Uso Basico

#include "hbbuilder.ch"

function Main()

   local oOllama, cResponse

   DEFINE OLLAMA oOllama ;
      HOST "localhost" ;
      PORT 11434 ;
      MODEL "llama3"

   cResponse := oOllama:Chat( "O que e a linguagem de programacao Harbour?" )

   ? cResponse

return nil

Resposta em Streaming

static function StreamExample( oOllama, oMemo )

   local cPrompt := "Escreva uma funcao Harbour para calcular fibonacci"

   oMemo:Append( "Gerando...\n\n" )

   // Stream da resposta token por token em um Memo
   oOllama:ChatStream( cPrompt, ;
      { |cToken| oMemo:Append( cToken ) } )

return nil

Definindo um Prompt de Sistema

oOllama:SetSystem( "Voce e um especialista em Harbour/xBase. ;
   Sempre forneca exemplos de codigo completos e funcionais. ;
   Explique seu raciocinio claramente." )

cResponse := oOllama:Chat( "Como leio um arquivo linha por linha?" )

Usando LM Studio

LM Studio fornece uma API compativel. Basta apontar o TOllama para o servidor LM Studio:

oOllama := TOllama():New()
oOllama:cHost := "localhost"
oOllama:nPort := 1234  // Porta padrao do LM Studio
oOllama:cModel := "local-model"

Beneficios de Privacidade

graph LR A["Seu Codigo"] --> B["Ollama / LM Studio\n(na sua maquina)"] B --> C["Modelo de IA\n(local)"] C --> D["Resposta\n(de volta para voce)"] style A fill:#3fb950,stroke:#2ea043,color:#0d1117 style B fill:#58a6ff,stroke:#388bfd,color:#0d1117 style C fill:#d2a8ff,stroke:#bc8cff,color:#0d1117 style D fill:#3fb950,stroke:#2ea043,color:#0d1117
Assistente de IA vs Componente TOllama

O Assistente de IA usa TOllama internamente. Tudo que voce pode fazer no painel do assistente, voce tambem pode fazer programaticamente nas suas proprias aplicacoes HarbourBuilder. Consulte o tutorial de Integracao com IA para um guia completo.

Configuracao

Abra o painel do Assistente de IA pelo menu Ferramentas > Assistente de IA ou use o botao na barra de ferramentas. O icone de engrenagem de configuracoes permite configurar:

ConfiguracaoDescricaoPadrao
BackendOllama ou LM StudioOllama
HostHostname ou IP do servidorlocalhost
PortaPorta do servidor11434
ModeloModelo a usar para o chatllama3
TemperaturaCriatividade (0,0–2,0)0,7
Max TokensTamanho maximo da resposta2048
Prompt de SistemaInstrucoes personalizadas do sistema(vazio)

Nesta Página

Primeiros Passos Paleta de Componentes Recursos do IDE Tutoriais Referencia Plataformas Backends Suportados Seletor de Modelos Interface de Chat Prompts de Exemplo Usando TOllama no Seu Codigo Uso Basico Resposta em Streaming Definindo um Prompt de Sistema Usando LM Studio Beneficios de Privacidade Configuracao