Hola, buen dia.
No he podido configurar los modelos locales que tengo instalados en mi red.
Via CURL me funciona:
curl http://192.168.1.157:1234/v1/chat/completions ^
-H "Content-Type: application/json" ^
-H "Authorization: Bearer xxxxxxxxxx" ^
-d "{\"model\": \"gpt-4o\", \"messages\": [{\"role\": \"user\", \"content\": \"Hola, prueba de conexion\"}], \"temperature\": 0.7}"
{
"id": "chatcmpl-78q0bwi75c25y9eu7ujmkm",
"object": "chat.completion",
"created": 1774975345,
"model": "llama-3.3-70b-instruct-abliterated",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "¡Hola! Parece que la conexión está funcionando correctamente. ¿En qué puedo ayudarte hoy?",
"tool_calls": []
},
"logprobs": null,
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 40,
"completion_tokens": 22,
"total_tokens": 62
},
"stats": {},
"system_fingerprint": "llama-3.3-70b-instruct-abliterated"
},
pero ni con la ayuda de la IA he podido integrarlos.
Alguno ha logrado hacerlo ?
Gracias de antemano.
Saludos
Osvaldo Ramirez