Curso de Jupyter para Equipos de Ciencia de Datos
Jupyter es un entorno de computación e IDE interactivo de código abierto basado en la web.
Este curso en vivo dirigido por un instructor introduce la idea del desarrollo colaborativo en la ciencia de datos y demuestra cómo usar Jupyter para rastrear y participar como un equipo en el "ciclo de vida de una idea computacional". Lleva a los participantes a través de la creación de un proyecto de muestra de ciencia de datos basado en la parte superior del ecosistema de Jupyter.
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Jupyter, incluida la creación e integración de un repositorio de equipo en Git
- Utilice las funciones de Jupyter, como extensiones, widgets interactivos, modo multiusuario y más para habilitar la colaboración del proyecto
- Crea, comparte y organiza Jupyter Notebooks con miembros del equipo
- Elija entre Scala, Python, R, para escribir y ejecutar código contra sistemas de big data como Apache Spark, a través de la interfaz de Jupyter.
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Nota
- El Juppyter Notebook admite más de 40 idiomas, incluidos R, Python, Scala, Julia, etc. Para personalizar este curso a su (s) idioma (s) de su elección, contáctenos para organizarlo.
Programa del Curso
Introducción a Jupyter
- Descripción general de Jupyter y su ecosistema
- Instalación y configuración
- Configuración de Jupyter para la colaboración en equipo
Funciones colaborativas
- Uso de Git para el control de versiones
- Extensiones y widgets interactivos
- Modo multiusuario
Creación y administración de blocs de notas
- Estructura y funcionalidad del cuaderno
- Compartir y organizar blocs de notas
- Prácticas recomendadas para la colaboración
Programming con Jupyter
- Elección y uso de lenguajes de programación (Python, R, Scala)
- Escribir y ejecutar código
- Integración con sistemas de big data (Apache Spark)
Funciones avanzadas de Jupyter
- Personalización del entorno de Jupyter
- Automatización de flujos de trabajo con Jupyter
- Exploración de casos de uso avanzados
Sesiones Prácticas
- Laboratorios prácticos
- Proyectos de ciencia de datos del mundo real
- Ejercicios grupales y revisiones entre pares
Resumen y próximos pasos
Requerimientos
- Experiencia de programación en lenguajes como Python, R, Scala, etc.
- Un fondo en ciencia de datos
Audiencia
- Equipos de ciencia de datos
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Jupyter para Equipos de Ciencia de Datos - Booking
Curso de Jupyter para Equipos de Ciencia de Datos - Enquiry
Jupyter para Equipos de Ciencia de Datos - Consultas
Consultas
Testimonios (1)
It is great to have the course custom made to the key areas that I have highlighted in the pre-course questionnaire. This really helps to address the questions that I have with the subject matter and to align with my learning goals.
Winnie Chan - Statistics Canada
Curso - Jupyter for Data Science Teams
Próximos cursos
Cursos Relacionados
Introduction to Data Science and AI using Python
35 HorasEsta es una introducción de 5 días a Data Science y Artificial Intelligence (AI).
El curso se imparte con ejemplos y ejercicios utilizando Python
Apache Airflow for Data Science: Automating Machine Learning Pipelines
21 HorasEsta capacitación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está dirigida a participantes de nivel intermedio que desean automatizar y administrar flujos de trabajo de aprendizaje automático, incluida la capacitación, validación e implementación de modelos mediante Apache Airflow.
Al final de esta formación, los participantes serán capaces de:
- Configure Apache Airflow para la orquestación del flujo de trabajo de aprendizaje automático.
- Automatice el preprocesamiento de datos, el entrenamiento de modelos y las tareas de validación.
- Integre Airflow con marcos y herramientas de aprendizaje automático.
- Implemente modelos de aprendizaje automático mediante canalizaciones automatizadas.
- Supervise y optimice los flujos de trabajo de aprendizaje automático en producción.
Anaconda Ecosystem for Data Scientists
14 HorasEsta capacitación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está dirigida a científicos de datos que desean utilizar el ecosistema Anaconda para capturar, administrar e implementar paquetes y flujos de trabajo de análisis de datos en una sola plataforma.
Al final de esta formación, los participantes serán capaces de:
- Instale y configure Anaconda componentes y bibliotecas.
- Comprender los conceptos básicos, las características y los beneficios de Anaconda.
- Administre paquetes, entornos y canales con Anaconda Navigator.
- Utilice los paquetes Conda, R y Python para la ciencia de datos y el aprendizaje automático.
- Conozca algunos casos de uso prácticos y técnicas para la gestión de múltiples entornos de datos.
AWS Cloud9 for Data Science
28 HorasEsta capacitación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está dirigida a científicos y analistas de datos de nivel intermedio que deseen utilizar AWS Cloud9 para optimizar los flujos de trabajo de ciencia de datos.
Al final de esta formación, los participantes serán capaces de:
- Configure un entorno de ciencia de datos en AWS Cloud9.
- Realice análisis de datos con Python, R y Jupyter Notebook en Cloud9.
- Integre AWS Cloud9 con los servicios de datos de AWS, como S3, RDS y Redshift.
- Utilice AWS Cloud9 para el desarrollo y la implementación de modelos de aprendizaje automático.
- Optimice los flujos de trabajo basados en la nube para el análisis y el procesamiento de datos.
Inteligencia de Negocios Big Data para Proveedores de Servicios de Comunicaciones y Telecomunicaciones
35 HorasVisión general
Los proveedores de servicios (CSP) se enfrentan a la presión de reducir los costes y maximizar los ingresos medios por usuario (ARPU), al tiempo que garantizan una excelente experiencia al cliente, pero los volúmenes de datos siguen creciendo. El tráfico global de datos móviles crecerá a una tasa de crecimiento anual compuesta (CAGR) del 78 por ciento hasta 2016, alcanzando los 10,8 exabytes por mes.
Mientras tanto, los CSP están generando grandes volúmenes de datos, incluidos los registros detallados de llamadas (CDR), los datos de red y los datos de los clientes. Las empresas que explotan al máximo estos datos obtienen una ventaja competitiva. Según una encuesta reciente de The Economist Intelligence Unit, las empresas que utilizan la toma de decisiones dirigida por datos disfrutan de un aumento del 5-6% en la productividad. Sin embargo, el 53% de las empresas aprovechan solo la mitad de sus valiosos datos, y una cuarta parte de los encuestados señaló que grandes cantidades de datos útiles no se explotan. Los volúmenes de datos son tan altos que el análisis manual es imposible, y la mayoría de los sistemas de software heredados no pueden seguir el ritmo, lo que hace que los datos valiosos se descarten o se ignoren.
Con el software de big data escalable y de alta velocidad de Big Data & Analytics, los CSP pueden extraer todos sus datos para una mejor toma de decisiones en menos tiempo. Los diferentes productos y técnicas de Big Data proporcionan una plataforma de software de extremo a extremo para recopilar, preparar, analizar y presentar información a partir de Big Data. Las áreas de aplicación incluyen el monitoreo del rendimiento de la red, la detección de fraudes, la detección de pérdida de clientes y el análisis de riesgo crediticio. Los productos de Big Data y Analytics se escalan para manejar terabytes de datos, pero la implementación de tales herramientas necesita un nuevo tipo de sistema de base de datos basado en la nube como Hadoop o un procesador de computación paralela a escala masiva (KPU, etc.)
Este curso sobre Big Data BI para telecomunicaciones cubre todas las nuevas áreas emergentes en las que los CSP están invirtiendo para aumentar la productividad y abrir nuevas fuentes de ingresos comerciales. El curso proporcionará una visión completa de 360 grados de Big Data BI en Telco para que los responsables de la toma de decisiones y los gerentes puedan tener una visión general muy amplia y completa de las posibilidades de Big Data BI en Telco para la productividad y el aumento de ingresos.
Objetivos del curso
El objetivo principal del curso es introducir nuevas técnicas de inteligencia de negocio Big Data en 4 sectores de Telecom Negocio (Marketing/Ventas, Operación de Red, Operación Financiera y Gestión de Relaciones con el Cliente). A los estudiantes se les presentará lo siguiente:
- Introducción al Big Data: qué son las 4V (volumen, velocidad, variedad y veracidad) en Big Data: generación, extracción y gestión desde la perspectiva de las telecomunicaciones
- En qué se diferencia el análisis de Big Data del análisis de datos heredado
- Justificación interna de la perspectiva Big Data -Telco
- Introducción al ecosistema de Hadoop: familiaridad con todas las herramientas de Hadoop como Hive, Pig, SPARC: cuándo y cómo se utilizan para resolver problemas de Big Data.
- Cómo se extrae Big Data para analizarlo para la herramienta de análisis: cómo los análisis de negocios pueden reducir sus puntos débiles de recopilación y análisis de datos a través del enfoque integrado del panel de control de Hadoop
- Introducción básica de la analítica de Insight, la analítica de visualización y la analítica predictiva para las empresas de telecomunicaciones
- Análisis de pérdida de clientes y Big Data: cómo el análisis de Big Data puede reducir la pérdida de clientes y la insatisfacción de los clientes en los estudios de casos de telecomunicaciones
- Análisis de fallos de red y fallos de servicio a partir de metadatos de red e IPDR
- Análisis financiero: estimación de fraude, desperdicio y ROI a partir de datos operativos y de ventas
- Problema de adquisición de clientes: marketing objetivo, segmentación de clientes y venta cruzada a partir de datos de ventas
- Introducción y resumen de todos los productos analíticos de Big Data y dónde encajan en el espacio analítico de las telecomunicaciones
- Conclusión: cómo adoptar un enfoque paso a paso para introducir Big Data Business Intelligence en su organización
Público objetivo
- Operación de redes, gerentes financieros, gerentes de CRM y altos gerentes de TI en la oficina de CIO de telecomunicaciones.
- Business Analistas de telecomunicaciones
- Gerentes/analistas de la oficina del CFO
- Gerentes de operaciones
- Gerentes de control de calidad
Introduction to Google Colab for Data Science
14 HorasEsta capacitación en vivo dirigida por un instructor en Bolivia (en línea o en el sitio) está dirigida a científicos de datos de nivel principiante y profesionales de TI que deseen aprender los conceptos básicos de la ciencia de datos utilizando Google Colab.
Al final de esta formación, los participantes serán capaces de:
- Configurar y navegar Google Colab.
- Escribir y ejecutar código básico Python.
- Importar y manejar conjuntos de datos.
- Cree visualizaciones utilizando Python bibliotecas.
A Practical Introduction to Data Science
35 HorasLos participantes que completen esta capacitación obtendrán una comprensión práctica y del mundo real de Data Science y sus tecnologías, metodologías y herramientas relacionadas.
Los participantes tendrán la oportunidad de poner en práctica estos conocimientos a través de ejercicios prácticos. La interacción grupal y la retroalimentación del instructor constituyen un componente importante de la clase.
El curso comienza con una introducción a los conceptos elementales de Data Science, luego avanza hacia las herramientas y metodologías utilizadas en Data Science.
Audiencia
- Desarrolladores
- Analistas técnicos
- Consultores de TI
Formato del curso
- En parte conferencia, en parte discusión, ejercicios y práctica práctica intensa
Nota
- Para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para concertarlo.
Data Science Programme
245 HorasLa explosión de información y datos en el mundo actual no tiene paralelo, nuestra capacidad para innovar y ampliar los límites de lo posible está creciendo más rápido que nunca. El rol de científico de datos es una de las habilidades más demandadas en la industria actual.
Ofrecemos mucho más que aprender a través de la teoría; brindamos habilidades prácticas y comercializables que cierran la brecha entre el mundo académico y las demandas de la industria.
Este plan de estudios de 7 semanas se puede adaptar a los requisitos específicos de su industria, contáctenos para obtener más información o visite el sitio web del Instituto Nobleprog
Audiencia:
Este programa está dirigido a graduados de posgrado, así como a cualquier persona con los requisitos previos requeridos que se determinarán mediante una evaluación y una entrevista.
Entrega:
La entrega del curso será una mezcla de Instructor Ded Classroom y Instructor Led Online; por lo general, la primera semana será 'aula dirigida', las semanas 2 a 6 'aula virtual' y la semana 7 de vuelta a 'aula dirigida'.
Ciencia de Datos para Big Data Analytics
35 HorasBig data son conjuntos de datos que son tan voluminosos y complejos que el software de aplicación de procesamiento de datos tradicional es inadecuado para manejarlos. Los grandes desafíos de datos incluyen la captura de datos, el almacenamiento de datos, el análisis de datos, la búsqueda, el intercambio, la transferencia, la visualización, la consulta, la actualización y la privacidad de la información.
Data Science essential for para los profesionales de marketing / ventas
21 HorasEste curso está dirigido a Marketing profesionales de ventas que tienen la intención de profundizar en la aplicación de la ciencia de datos en Marketing/ Ventas. El curso proporciona Cobertura detallada de las diferentes técnicas de ciencia de datos utilizadas para "upsale", "cross-sale", segmentación de mercado, branding y CLV.
Diferencia de Marketing y Ventas: ¿en qué se diferencian las ventas y el marketing?
En palabras muy simples, las ventas se pueden denominar como un proceso que se enfoca o se dirige a individuos o grupos pequeños. Marketing Por otro lado, se dirige a un grupo más grande o al público en general. Marketing incluye la investigación (identificación de las necesidades del cliente), el desarrollo de productos (producción de productos innovadores) y la promoción del producto (a través de anuncios) y la creación de conciencia sobre el producto entre los consumidores. Como tal, el marketing significa generar clientes potenciales o prospectos. Una vez que el producto está en el mercado, es tarea del vendedor persuadir al cliente para que compre el producto. Las ventas significan convertir los clientes potenciales o potenciales en compras y pedidos, mientras que el marketing está dirigido a plazos más largos, las ventas pertenecen a objetivos más cortos.
Kaggle
14 HorasEsta capacitación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está dirigida a científicos de datos y desarrolladores que desean aprender y desarrollar sus carreras en Data Science utilizando Kaggle.
Al final de esta formación, los participantes serán capaces de:
- Más información sobre la ciencia de datos y el aprendizaje automático.
- Explora el análisis de datos.
- Obtenga más información sobre Kaggle y cómo funciona.
Accelerating Python Pandas Workflows with Modin
14 HorasEsta capacitación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está dirigida a científicos de datos y desarrolladores que desean usar Modin para crear e implementar cálculos paralelos con Pandas para un análisis de datos más rápido.
Al final de esta formación, los participantes serán capaces de:
- Configure el entorno necesario para comenzar a desarrollar Pandas flujos de trabajo a escala con Modin.
- Comprender las características, la arquitectura y las ventajas de Modin.
- Conoce las diferencias entre Modin, Dask y Ray.
- Realice Pandas operaciones más rápido con Modin.
- Implemente toda la API Pandas y las funciones.
GPU Data Science with NVIDIA RAPIDS
14 HorasEsta capacitación en vivo dirigida por un instructor en Bolivia (en línea o presencial) está dirigida a científicos de datos y desarrolladores que desean usar RAPIDS para crear canalizaciones, flujos de trabajo y visualizaciones de datos acelerados GPU, aplicando algoritmos de aprendizaje automático, como XGBoost, cuML etcetera.
Al final de esta formación, los participantes serán capaces de:
- Configure el entorno de desarrollo necesario para crear modelos de datos con NVIDIA RAPIDS.
- Comprenda las características, componentes y ventajas de RAPIDS.
- Aproveche GPUs para acelerar las canalizaciones de datos y análisis de extremo a extremo.
- Implemente la preparación de datos acelerada GPU y ETL con cuDF y Apache Arrow.
- Aprenda a realizar tareas de aprendizaje automático con los algoritmos XGBoost y cuML.
- Cree visualizaciones de datos y ejecute análisis de gráficos con cuXfilter y cuGraph.