Asistente de IA
El Asistente de IA es un panel de chat integrado dentro de HarbourBuilder que se conecta a Ollama para ayuda de codigo impulsada por IA local. Sin claves de API, sin servicios en la nube, sin datos que salgan de tu maquina — solo un modelo local proporcionando asistencia instantanea mientras programas.
El Asistente de IA se comunica con una instancia local de Ollama ejecutandose en tu maquina. Tu codigo, preguntas y solicitudes nunca salen de tu computadora. Esto es ideal para entornos empresariales, bases de codigo propietarias y desarrolladores que valoran la privacidad.
Backends Soportados
| Backend | Tipo | Clave API | Red |
|---|---|---|---|
| Ollama | Local | Ninguna | Solo localhost |
| LM Studio | Local | Ninguna | Solo localhost |
Selector de Modelos
El Asistente de IA incluye un menu desplegable de seleccion de modelos que enumera todos los modelos disponibles detectados desde tu instancia de Ollama o LM Studio en ejecucion. Las opciones disponibles tipicamente incluyen:
| Modelo | Tamano | Ideal Para |
|---|---|---|
llama3 | ~5 GB | Proposito general, programacion, explicaciones |
codellama | ~4 GB | Generacion y refactorizacion de codigo |
mistral | ~4 GB | Respuestas rapidas, tareas de programacion |
deepseek-coder | ~4 GB | Consultas especificas de codigo |
phi3 | ~2 GB | Ligero, rapido en hardware modesto |
qwen2.5-coder | ~3 GB | Asistencia de codigo multi-lenguaje |
Ejecuta ollama list en tu terminal para ver los modelos instalados.
Instala nuevos modelos con ollama pull <nombre-del-modelo>. El Asistente de IA
detecta automaticamente los modelos disponibles cuando abres el panel.
Interfaz de Chat
El panel del Asistente de IA proporciona una experiencia de chat familiar:
- Historial de chat — vista de conversacion desplazable con tus mensajes y respuestas de IA.
- Campo de entrada — escribe tu pregunta o pega codigo para analisis.
- Boton enviar — envia tu mensaje al modelo.
- Respuestas en streaming — observa la respuesta aparecer token por token.
- Bloques de codigo — el codigo generado se muestra en bloques formateados con resaltado de sintaxis y un boton de copiar.
- Selector de modelo — cambia modelos sin reiniciar.
- Limpiar chat — reinicia el historial de conversacion.
Solicitudes de Ejemplo
Aqui hay algunas solicitudes efectivas para probar con el Asistente de IA:
| Categoria | Solicitud |
|---|---|
| Generacion de codigo | "Escribe una funcion Harbour que ordene un arreglo usando quicksort" |
| Explicacion | "Explica como funciona el componente TTransformer" |
| Depuracion | "¿Por que obtengo un error 'variable not found' en esta linea?" |
| Refactorizacion | "Reescribe este codigo procedural como una clase Harbour" |
| Mejores practicas | "¿Cual es la mejor manera de manejar conexiones de base de datos en HarbourBuilder?" |
| Aprendizaje | "Muestrame como usar eventos con un TButton" |
Usar TOllama en Tu Codigo
El mismo componente TOllama que impulsa el Asistente de IA esta disponible en tus propias aplicaciones. Asi es como usarlo:
Uso Basico
#include "hbbuilder.ch" function Main() local oOllama, cRespuesta DEFINE OLLAMA oOllama ; HOST "localhost" ; PORT 11434 ; MODEL "llama3" cRespuesta := oOllama:Chat( "¿Que es el lenguaje de programacion Harbour?" ) ? cRespuesta return nil
Respuesta en Streaming
static function EjemploStream( oOllama, oMemo ) local cSolicitud := "Escribe una funcion Harbour para calcular fibonacci" oMemo:Append( "Generando...\n\n" ) // Transmitir la respuesta token por token a un Memo oOllama:ChatStream( cSolicitud, ; { |cToken| oMemo:Append( cToken ) } ) return nil
Configurar un Prompt de Sistema
oOllama:SetSystem( "Eres un experto en Harbour/xBase. ; Siempre proporciona ejemplos de codigo completos y funcionales. ; Explica tu razonamiento claramente." ) cRespuesta := oOllama:Chat( "¿Como leo un archivo linea por linea?" )
Usar LM Studio
LM Studio proporciona una API compatible. Simplemente apunta TOllama al servidor de LM Studio:
oOllama := TOllama():New() oOllama:cHost := "localhost" oOllama:nPort := 1234 // Puerto predeterminado de LM Studio oOllama:cModel := "modelo-local"
Beneficios de Privacidad
- Sin exfiltracion de datos — tu codigo fuente, logica de negocio y claves de API nunca salen de tu maquina.
- Sin claves de API que gestionar — los modelos locales no requieren autenticacion ni configuracion de facturacion.
- Funciona sin conexion — una vez descargados los modelos, no se requiere conexion a internet.
- Sin limites de velocidad — consultas ilimitadas sin limites de uso ni costos por token.
- Seguro para empresas — compatible con politicas que prohiben enviar codigo a servicios de IA externos.
El Asistente de IA usa TOllama internamente. Todo lo que puedes hacer en el panel del asistente, tambien puedes hacerlo programaticamente en tus propias aplicaciones HarbourBuilder. Consulta el tutorial de Integracion con IA para un recorrido completo.
Configuracion
Abre el panel del Asistente de IA desde el menu Herramientas > Asistente IA o usa el boton de la barra de herramientas. El icono de engranaje de configuracion te permite configurar:
| Configuracion | Descripcion | Valor por defecto |
|---|---|---|
| Backend | Ollama o LM Studio | Ollama |
| Host | Nombre de host o IP del servidor | localhost |
| Puerto | Puerto del servidor | 11434 |
| Modelo | Modelo a usar para chat | llama3 |
| Temperatura | Creatividad (0.0–2.0) | 0.7 |
| Max Tokens | Longitud maxima de respuesta | 2048 |
| Prompt de Sistema | Instrucciones personalizadas del sistema | (vacio) |