Programa del Curso

Introducción a Ollama

  • ¿Qué es Ollama y cómo funciona?
  • Beneficios de ejecutar modelos de IA localmente
  • Descripción general de los LLM soportados (Llama, DeepSeek, Mistral, etc.)

Instalación y configuración de Ollama

  • Requisitos del sistema y consideraciones de hardware
  • Instalación de Ollama en diferentes sistemas operativos
  • Configuración de dependencias y entorno

Ejecución de modelos de IA localmente

  • Descarga y carga de modelos de IA en Ollama
  • Interacción con modelos mediante la línea de comandos
  • Ingeniería básica de prompts para tareas de IA local

Optimización del rendimiento y uso de recursos

  • Gestión de recursos de hardware para una ejecución eficiente de IA
  • Reducción de la latencia y mejora del tiempo de respuesta del modelo
  • Evaluación comparativa del rendimiento para diferentes modelos

Use Cases para la implementación de IA local

  • Chatbots y asistentes virtuales impulsados por IA
  • Tareas de procesamiento de datos y automatización
  • Aplicaciones de IA centradas en la privacidad

Resumen y próximos pasos

Requerimientos

  • Comprensión básica de los conceptos de inteligencia artificial y aprendizaje automático
  • Familiaridad con interfaces de línea de comandos

Audiencia

  • Desarrolladores que ejecutan modelos de IA sin dependencias en la nube
  • Business profesionales interesados en la privacidad de la IA y la implementación rentable
  • Entusiastas de la IA que exploran la implementación local de modelos
 7 Horas

Número de participantes


Precio por Participante​

Próximos cursos

Categorías Relacionadas