Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Programa del Curso
Introducción a Ollama
- ¿Qué es Ollama y cómo funciona?
- Beneficios de ejecutar modelos de IA localmente
- Descripción general de los LLM soportados (Llama, DeepSeek, Mistral, etc.)
Instalación y configuración de Ollama
- Requisitos del sistema y consideraciones de hardware
- Instalación de Ollama en diferentes sistemas operativos
- Configuración de dependencias y entorno
Ejecución de modelos de IA localmente
- Descarga y carga de modelos de IA en Ollama
- Interacción con modelos mediante la línea de comandos
- Ingeniería básica de prompts para tareas de IA local
Optimización del rendimiento y uso de recursos
- Gestión de recursos de hardware para una ejecución eficiente de IA
- Reducción de la latencia y mejora del tiempo de respuesta del modelo
- Evaluación comparativa del rendimiento para diferentes modelos
Use Cases para la implementación de IA local
- Chatbots y asistentes virtuales impulsados por IA
- Tareas de procesamiento de datos y automatización
- Aplicaciones de IA centradas en la privacidad
Resumen y próximos pasos
Requerimientos
- Comprensión básica de los conceptos de inteligencia artificial y aprendizaje automático
- Familiaridad con interfaces de línea de comandos
Audiencia
- Desarrolladores que ejecutan modelos de IA sin dependencias en la nube
- Business profesionales interesados en la privacidad de la IA y la implementación rentable
- Entusiastas de la IA que exploran la implementación local de modelos
7 Horas