Asistente de IA

El Asistente de IA es un panel de chat integrado dentro de HarbourBuilder que se conecta a Ollama para ayuda de codigo impulsada por IA local. Sin claves de API, sin servicios en la nube, sin datos que salgan de tu maquina — solo un modelo local proporcionando asistencia instantanea mientras programas.

100% Local y Privado

El Asistente de IA se comunica con una instancia local de Ollama ejecutandose en tu maquina. Tu codigo, preguntas y solicitudes nunca salen de tu computadora. Esto es ideal para entornos empresariales, bases de codigo propietarias y desarrolladores que valoran la privacidad.

Backends Soportados

BackendTipoClave APIRed
OllamaLocalNingunaSolo localhost
LM StudioLocalNingunaSolo localhost

Selector de Modelos

El Asistente de IA incluye un menu desplegable de seleccion de modelos que enumera todos los modelos disponibles detectados desde tu instancia de Ollama o LM Studio en ejecucion. Las opciones disponibles tipicamente incluyen:

ModeloTamanoIdeal Para
llama3~5 GBProposito general, programacion, explicaciones
codellama~4 GBGeneracion y refactorizacion de codigo
mistral~4 GBRespuestas rapidas, tareas de programacion
deepseek-coder~4 GBConsultas especificas de codigo
phi3~2 GBLigero, rapido en hardware modesto
qwen2.5-coder~3 GBAsistencia de codigo multi-lenguaje
Gestion de Modelos

Ejecuta ollama list en tu terminal para ver los modelos instalados. Instala nuevos modelos con ollama pull <nombre-del-modelo>. El Asistente de IA detecta automaticamente los modelos disponibles cuando abres el panel.

Interfaz de Chat

El panel del Asistente de IA proporciona una experiencia de chat familiar:

Solicitudes de Ejemplo

Aqui hay algunas solicitudes efectivas para probar con el Asistente de IA:

CategoriaSolicitud
Generacion de codigo"Escribe una funcion Harbour que ordene un arreglo usando quicksort"
Explicacion"Explica como funciona el componente TTransformer"
Depuracion"¿Por que obtengo un error 'variable not found' en esta linea?"
Refactorizacion"Reescribe este codigo procedural como una clase Harbour"
Mejores practicas"¿Cual es la mejor manera de manejar conexiones de base de datos en HarbourBuilder?"
Aprendizaje"Muestrame como usar eventos con un TButton"

Usar TOllama en Tu Codigo

El mismo componente TOllama que impulsa el Asistente de IA esta disponible en tus propias aplicaciones. Asi es como usarlo:

Uso Basico

#include "hbbuilder.ch"

function Main()

   local oOllama, cRespuesta

   DEFINE OLLAMA oOllama ;
      HOST "localhost" ;
      PORT 11434 ;
      MODEL "llama3"

   cRespuesta := oOllama:Chat( "¿Que es el lenguaje de programacion Harbour?" )

   ? cRespuesta

return nil

Respuesta en Streaming

static function EjemploStream( oOllama, oMemo )

   local cSolicitud := "Escribe una funcion Harbour para calcular fibonacci"

   oMemo:Append( "Generando...\n\n" )

   // Transmitir la respuesta token por token a un Memo
   oOllama:ChatStream( cSolicitud, ;
      { |cToken| oMemo:Append( cToken ) } )

return nil

Configurar un Prompt de Sistema

oOllama:SetSystem( "Eres un experto en Harbour/xBase. ;
   Siempre proporciona ejemplos de codigo completos y funcionales. ;
   Explica tu razonamiento claramente." )

cRespuesta := oOllama:Chat( "¿Como leo un archivo linea por linea?" )

Usar LM Studio

LM Studio proporciona una API compatible. Simplemente apunta TOllama al servidor de LM Studio:

oOllama := TOllama():New()
oOllama:cHost := "localhost"
oOllama:nPort := 1234  // Puerto predeterminado de LM Studio
oOllama:cModel := "modelo-local"

Beneficios de Privacidad

Asistente de IA vs Componente TOllama

El Asistente de IA usa TOllama internamente. Todo lo que puedes hacer en el panel del asistente, tambien puedes hacerlo programaticamente en tus propias aplicaciones HarbourBuilder. Consulta el tutorial de Integracion con IA para un recorrido completo.

Configuracion

Abre el panel del Asistente de IA desde el menu Herramientas > Asistente IA o usa el boton de la barra de herramientas. El icono de engranaje de configuracion te permite configurar:

ConfiguracionDescripcionValor por defecto
BackendOllama o LM StudioOllama
HostNombre de host o IP del servidorlocalhost
PuertoPuerto del servidor11434
ModeloModelo a usar para chatllama3
TemperaturaCreatividad (0.0–2.0)0.7
Max TokensLongitud maxima de respuesta2048
Prompt de SistemaInstrucciones personalizadas del sistema(vacio)

En Esta Página

Primeros pasos Paleta de componentes Funciones del IDE Tutoriales Referencia Plataformas Backends Soportados Selector de Modelos Interfaz de Chat Solicitudes de Ejemplo Usar TOllama en Tu Codigo Uso Basico Respuesta en Streaming Configurar un Prompt de Sistema Usar LM Studio Beneficios de Privacidad Configuracion