Desarrollo de Aplicaciones con Android AND-X01

 

Calendario

Estamos preparando nuevas convocatorias, déjanos tus datos a través del formulario y te avisaremos en cuanto estén disponibles.

Acerca del curso

Este curso de desarrollo de aplicaciones con Android enseña a los profesionales de TI cómo diseñar y construir una aplicación Android completa. Ofrece una capacitación extensiva de los componentes principales del SDK de Android y sus interacciones. El curso está actualizado para incluir temas compatibles con todas las versiones de Android  y el código fuente actualizado. El curso te prepara para la certificación AND-X01

Preparación examen_: Desarrollador Certificado de Aplicaciones Android” versión 12 (código del examen: AND-X01)

  • Diseñar y construir una aplicación Android completa
  • Debugar y mantener aplicaciones Android usando diferentes herramientas y plugins
  • Comprender en profundidad el ciclo de vida de una aplicación Android y sus componentes principales
  • Utilizar recursos externos, archivos manifiesto, intentos y adaptadores.
  • Comprender y utilizar técnicas de almacenaje persistente: Preferencias, archivos, bases de datos, y proveedores de contenido
  • Utilizar técnicas de procesamiento en segundo plano
  • Construir aplicaciones que detectan la ubicación utilizando el GPS como proveedor de ubicación y Google Maps

No es necesario cumplir con requisitos previos para acceder a este curso

Modulo 1: Introduction to Kotlin

Modulo 2: Control Flow Statements

Modulo 3: Functions & Object-Oriented Programming (OOP)

Modulo 4: Android Framework and Android Studio

Modulo 5: Creating User Interface

Modulo 6: Android Layouts, Styles, Theme and Menus

Modulo 7: Snackbar, Activities, Android Intent, Alert Dialog and Android Notifications

Modulo 8: Android Widgets

Modulo 9: Android Navigation Components

Modulo 10: Firebase Authentication and Database

Modulo 11: Location-Aware Apps: Using GPS and Google Maps

Modulo 12: App Testing and Publishing

Documentación Oficial Android Certified Application Developer AND-X01

  • Formador Certificado por The linux Foundation
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:

Acerca del curso

LFCE was developed by The Linux Foundation to help meet the increasing demand for Linux engineering talent.

The exam is performance-based on the command-line, and includes items simulating on-the-job scenarios. Candidates can select either Ubuntu 18 or CentOS 7.

Preparation for the exam:

Certified Kubernetes Application Developer (CKAD)

Holding an LFCE demonstrates that the certificant is able to deploy and configure the Linux operating system at enterprise scale. It shows they possess all the necessary skills to work as a Linux engineer.

Passing a performance-based exam demonstrates the candidate's ability to perform challenging real world tasks under time constraints.

There are no pre-requisites for this exam.

Modulo 1: Introduction to Linux (LFS101x)

Modulo 2: Introducción a Linux (LF-UPV-101x)

Modulo 3: Introduction to DevOps and Site Reliability Engineering (LFS162x)

Modulo 4: Introduction to Cloud Infrastructure Technologies (LFS151x)

Modulo 5: A Beginner’s Guide to Open Source Software Development (LFD102)

Modulo 6: Open Source Licensing Basics for Software Developers (LFC191)

Modulo 7: Secure Software Development: Requirements, Design, and Reuse (LFD104x)

Modulo 8: Secure Software Development: Implementation (LFD105x)

Modulo 9: Secure Software Development: Verification and More Specialized Topics (LFD106x)

Modulo 10: Fundamentals of Open Source IT and Cloud Computing (LFS200)

Modulo 11: Linux Foundation Certified IT Associate (LFCA)

Modulo 12:Essentials of Linux System Administration (LFS201)

Modulo 13:Linux Foundation Certified System Administrator (LFCS)

Modulo 14:Linux Networking and Administration (LFS211)

Modulo 15:Linux Security Fundamentals (LFS216)

  • Documentación Oficial de The linux Foundation de Linux Foundation Certified Engineer (LFCE)

  • Formador Certificado por The linux Foundation
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:

Acerca del curso

LFCS was developed by The Linux Foundation to help meet the increasing demand for Linux administration talent. The exam consists of performance-based items that simulate on-the-job tasks and scenarios faced by sysadmins in the real world. Candidates can select either Ubuntu 18 or CentOS 7.

Preparation for the exam:

Linux Foundation Certified System Administrator (LFCS)

Certified Linux systems administrators can work proficiently to design, install, configure, and manage a system installation.

They will have an understanding of key concepts such as networking, storage, security, maintenance, logging and monitoring, application lifecycle, troubleshooting, API object primitives and the ability to establish basic use-cases for end users.

There are no pre-requisites for this exam.

Modulo 1: Introduction to Linux (LFS101x)

Modulo 2: Introducción a Linux (LF-UPV-101x)

Modulo 3: Introduction to DevOps and Site Reliability Engineering (LFS162x)

Modulo 4: Introduction to Cloud Infrastructure Technologies (LFS151x)

Modulo 5: A Beginner’s Guide to Open Source Software Development (LFD102)

Modulo 6: Open Source Licensing Basics for Software Developers (LFC191)

Modulo 7: Secure Software Development: Requirements, Design, and Reuse (LFD104x)

Modulo 8: Secure Software Development: Implementation (LFD105x)

Modulo 9: Secure Software Development: Verification and More Specialized Topics (LFD106x)

Modulo 10: Fundamentals of Open Source IT and Cloud Computing (LFS200)

Modulo 11: Linux Foundation Certified IT Associate (LFCA)

Modulo 12: Essentials of Linux System Administration (LFS201)

Modulo 13: Linux Foundation Certified System Administrator (LFCS)

  • Documentación Oficial de The linux Foundation de Linux Foundation Certified System Administrator (LFCS)

  • Formador Certificado por The linux Foundation
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

This two-hour exam is an online, proctored, performance-based test that consists of a set of performance-based tasks (problems) to be solved in a Web IDE and the command line.

Preparation for the exam:

Linux Foundation deCertified Hyperledger Fabric Developer (CHFD)

A CHFD should demonstrate the knowledge to develop and maintain client applications and smart contracts using the latest Fabric programming model.

    Such a developer must also be able to:
  • - package and deploy Fabric applications and smart contracts, perform end-to-end Fabric application life-cycle and smart contract management
  • - program in Node.js

Passing a performance-based exam demonstrates the candidate's ability to perform challenging real world tasks under time constraints.

There are no pre-requisites for this exam.

Modulo 1: Blockchain: Understanding Its Uses and Implications (LFS170x)

Modulo 2: Introduction to Hyperledger Blockchain Technologies (LFS171x)

Modulo 3: Introduction to Hyperledger Sovereign Identity Blockchain Solutions: Indy, Aries & Ursa (LFS172x)

Modulo 4: Becoming a Hyperledger Aries Developer (LFS173x)

Modulo 5: Hyperledger Besu Essentials: Creating a Private Blockchain Network (LFS176x)

Modulo 6: Hyperledger Fabric for Developers (LFD272)

Modulo 7: Certified Hyperledger Fabric Developer (CHFD)

  • Documentación Oficial de The linux Foundation deCertified Hyperledger Fabric Developer (CHFD)

  • Formador Certificado por The linux Foundation
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

This two-hour Hyperledger Fabric certification exam is an online, proctored, performance-based test that consists of a set of performance-based tasks (problems) to be solved in a command line.

Preparation for the exam:

Certified Hyperledger Fabric Administrator (CHFA)

The CHFA will be able to effectively build a secure Hyperledger Fabric network for commercial deployment. Additionally, the CHFA will be able to install, configure, operate, manage, and troubleshoot the nodes on that network. Passing a performance-based exam demonstrates the candidate's ability to perform challenging real world tasks under time constraints.

There are no pre-requisites for this exam.

Modulo 1: Blockchain: Understanding Its Uses and Implications (LFS170x)

Modulo 2: Introduction to Hyperledger Blockchain Technologies (LFS171x)

Modulo 3: Introduction to Hyperledger Sovereign Identity Blockchain Solutions: Indy, Aries & Ursa (LFS172x)

Modulo 4: Becoming a Hyperledger Aries Developer (LFS173x)

Modulo 5: Hyperledger Besu Essentials: Creating a Private Blockchain Network (LFS176x)

Modulo 6: Hyperledger Fabric for Developers (LFD272)

Modulo 7: Certified Hyperledger Fabric Developer (CHFD)

Modulo 8: Hyperledger Fabric Administration (LFS272)

Modulo 9: Certified Hyperledger Fabric Administrator (CHFA)

  • Documentación Oficial de The Certified Hyperledger Fabric Administrator (CHFA)

  • Formador Certificado por The linux Foundation
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

The two-hour exam tests your skills in the areas of services, servers and security. Specific knowledge and skills tested are those an experienced Node.js developer would be expected to have. The exam is performance-based and includes items simulating on-the-job scenarios.

Preparation for the exam:

OpenJS Node.js Services Developer (JSNSD)

JSNSD certification demonstrates the ability to perform tasks in a real world-type environment, giving employers confidence that the certificant possesses a broad range of skills around JavaScript and related technologies. Passing a performance-based exam demonstrates the candidate's ability to perform challenging real world tasks under time constaints.

There are no pre-requisites for this exam.

Modulo 1:

Introduction to Open Source Development, Git, and Linux (LFD201)

Modulo 2:

FDC3: Interoperability for the Financial Desktop (LFS177x)

Modulo 3:

Introduction to WebAssembly (LFD133x)

Modulo 4:

Modulo 1: Introduction to Open Source Development, Git, and Linux (LFD201)

Modulo 2: FDC3: Interoperability for the Financial Desktop (LFS177x)

Modulo 3: Introduction to WebAssembly (LFD133x)

Modulo 4: WebAssembly Actors: From Cloud to Edge (LFD134x)

Modulo 5: Introduction to Node.js (LFW111x)

Modulo 6: Node.js Application Development (LFW211)

Modulo 7: OpenJS Node.js Application Developer (JSNAD)

Modulo 8: Node.js Services Development (LFW212)

Modulo 9: OpenJS Node.js Services Developer (JSNSD)

  • Documentación Oficial de The OpenJS Node.js Services Developer (JSNSD)

  • Formador Certificado por The linux Foundation
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Cloud Digital Leader training consists of four courses, designed to skill up individual practitioners or entire teams in cloud literacy, common business use cases and how cloud solutions and the capabilities of Google Cloud core products support an enterprise.

  • Recall fundamental cloud terminology
  • Identify Google Cloud products and solutions that support digital transformation
  • Explain how cloud technology and data can be leveraged to innovate within organizations
  • Identify key change patterns and Google Cloud products for infrastructure and application modernization
  • Describe contributing factors to the success of cloud operations and security

No es necesario cumplir con requisitos previos para acceder a este curso

Modulo 1: Introduction to Digital Transformation with Google Cloud

  • Define fundamental terms such as data, cloud technology, and digital transformation
  • Use customer use cases to demonstrate how cloud technology is transforming businesses
  • Recognize the Google Cloud solution pillars and use cases for each
  • Describe key principles that help to scale an innovation mindset across an organization

Modulo 2: Innovating with Data and Google Cloud

  • Describe the role of data in digital transformation and the importance of a data-driven culture
  • Identify common Google Cloud solutions for data management
  • Identify common Google Cloud solution for smart analytics
  • Identify Google Cloud’s solutions for Machine Learning and AI

Modulo 3: Infrastructure and Application Modernization with Google Cloud

  • Describe the key benefits of infrastructure and app modernization with reference to cloud technology
  • Differentiate between virtual machines, containers, and Kubernetes
  • Explain the Google Cloud solutions that help businesses to better manage their systems, such as App Engine and Google Kubernetes Engine
  • Explain how Google Cloud solutions support app modernization and simplify API management.

Modulo 4: Understanding Google Cloud Security and Operations

  • Describe financial governance in the cloud and Google Cloud's recommended best practices for effective cloud cost management
  • Define a shared responsibility model for optimal cloud security
  • Explain how IT teams and business leaders can use principles from DevOps and SRE to increase cloud operational efficiency
  • Identify Google Cloud solutions for cloud resource monitoring and application performance management

Documentación Oficial de Google Cloud - Cloud Digital Leader Training

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

This four day, instructor-led course prepares students to modernize, manage, and observe their containerized applications using Kubernetes, in Google Cloud, AWS, Azure, and on-premises. Through presentations and hands-on labs, participants explore Google Kubernetes Engine (GKE), Connect Agent, Anthos Service Mesh
and Anthos Config Management features. Participants learn how to work with containerized applications even when split between multiple clusters, hosted by multiple cloud providers or on-premises. This course is a continuation of Architecting with GKE and assumes direct experience with the technologies covered in that course.

  • Explain each layer of the Anthos technology stack and the problems it is designed to address
  • Explain each layer of the Anthos technology stack and the problems it is designed to address
  • Create, connect and manage Anthos clusters from multiple deployment environments
  • Load-balance clusters running in Google Cloud
  • Describe automating policy and security at scale with Config Management.

  • Google Cloud Platform Fundamentals
  • Core Infrastructure
  • Architecting with GKE

Modulo 1: Introducing Anthos

  • Overview
  • Anthos technology stack
  • Anthos components
  • Billing

Modulo 2: Anthos Environments

  • Containers and GKE review
  • Anthos for centrally managed clusters
  • Creating and managing Anthos clusters
  • Anthos clusters on AWS
  • Anthos clusters on Azure

Modulo 3: Multi-cluster Concepts on Anthos

  • Anthos fleets
  • Fleet networking
  • Multi-cluster Service
  • Multi-cluster Gateway

Modulo 4: Managing Configuration with Anthos

  • Challenges with configuration management
  • Anthos Config Management
  • Config Sync
  • Hierarchy Controller
  • Policy Controller
  • Config Connector
  • Blueprints

Modulo 5: Introducing Anthos Service Mesh

  • Introduction to Anthos Service Mesh
  • Architecture
  • Installation
  • Life of a request in the mesh
  • Mesh telemetry and instrumentation
  • Anthos Service Mesh dashboards
  • Anthos Service Mesh pricing and support

Modulo 6: Anthos Service Mesh Routing

  • Networking and service discovery
  • Anthos Service Mesh API resources
  • Network resilience and testing

Modulo 7: Securing Network Traffic with Anthos Service Mesh

  • Security across services
  • Authentication and encryption
  • Service authentication in the mesh
  • End-user authentication in the mesh
  • Authorization in the mesh
  • Bonus: Employee authentication and authorization in the mesh

Modulo 8: Multi-cluster Networking with Anthos Service Mesh

  • Fleet networking
  • Single network east-west routing
  • Multiple network east-west routing
  • North-south routing

Modulo 9: Introduction to Anthos Clusters on Bare Metal

  • Overview
  • Use cases for clusters on-premises
  • Anthos on bare metal specifics
  • Components and services
  • Support
  • Billing

Modulo 10: Planning and Building the Admin Cluster

  • Architecture
  • Resource requirements
  • Setting up the admin workstation
  • Building the admin cluster
  • Troubleshooting the admin bootstrap process
  • Additional architectural options

Modulo 11: Adding and Configuring User Clusters

  • Building the user cluster
  • Enabling authentication
  • Deploying applications
  • Configuring storage

Modulo 12: Operating and Managing Clusters

  • Observability
  • Logging
  • Monitoring
  • Operations
  • Security

Modulo 13: Application Migration with Anthos

  • Modernization vision
  • Workload discovery and migration assessment
  • Migrating applications to containers

Modulo 14: Modern CI/CD for Anthos

  • CI/CD in Google Cloud
  • CI/CD in a private network
  • CI/CD on-premises and multi-cloud environments
  • Securing the software supply chain
  • Deploying 3rd party software

Modulo 15: Serverless Computing Solutions on Anthos

  • Overview of serverless computing solutions and their associated Anthos components
  • Install Cloud Run for Anthos
  • Running serverless workloads on Anthos

Documentación Oficial de Google Cloud - Architecting Hybrid Cloud Infrastructure with Anthos

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Con el curso Architecting with Google Kubernetes Engine aprenderás a implementar y administrar aplicaciones en contenedores en Google Kubernetes Engine (GKE). Conocerás cómo usar otras herramientas en Google Cloud que interactúen con las implementaciones de GKE. Este curso presenta una combinación de conferencias, demostraciones y laboratorios prácticos para ayudarte a explorar e implementar elementos de solución, incluidos componentes de infraestructura como pods, contenedores, implementaciones y servicios, junto con redes y servicios de aplicaciones. También, aprenderás a implementar soluciones prácticas, incluida la administración de seguridad y acceso, la administración de recursos y la supervisión de recursos.

  • Arquitectos de nube, administradores y personal de SysOps/DevOps.
  • Personas que utilicen Google Cloud para crear nuevas soluciones o para integrar sistemas existentes, entornos de aplicaciones e infraestructura con Google Cloud.

  • Comprender cómo funcionan los contenedores de software.
  • Comprender la arquitectura de Kubernetes.
  • Comprender la arquitectura de Google Cloud.
  • Comprender cómo funciona la red de pods en Google Kubernetes Engine.
  • Crear y administrar clústeres de Kubernetes Engine con Google Cloud Console y los comandos gcloud/kubectl.
  • Iniciar, revertir y exponer trabajos en Kubernetes.
  • Administrar el control de acceso mediante Kubernetes RBAC e IAM.
  • Administrar las políticas de seguridad y de red de los pods.
  • Utilizar Secrets y ConfigMaps para aislar las credenciales de seguridad y los artefactos de configuración.
  • Comprender las opciones de Google Cloud para los servicios de almacenamiento administrado.
  • Supervisar las aplicaciones que se ejecutan en Google Kubernetes Engine.

Haber completado el curso Google Cloud Fundamentals: Core Infrastructure o tener una experiencia equivalente.

Módulo 1: Introduction to Google Cloud

  • Temas:
    • Use the Google Cloud Console
    • Use Cloud Shell
    • Define Cloud Computing
    • Identify Google Cloud Compute Services
    • Understand Regions and Zones
    • Understand the Cloud Resource Hierarchy
    • Administer your Google Cloud Resources
  • Objetivos:
    • Identify Google Cloud services and their function.
    • Choose the right Google Cloud services to create your own Cloud solution

Módulo  2: Containers and Kubernetes in Google Cloud

  • Temas:
    • Create a Container Using Cloud Build
    • Store a Container in Container Registry
    • Understand the Relationship Between Kubernetes and Google Kubernetes Engine (GKE)
    • Understand how to Choose Among Google Cloud Compute Platforms
  • Objetivos:
    • Create a Container using Cloud Build.
    • Store a Container in Container Registry.
    • Compare and Contrast Kubernetes and GKE features.

Módulo 3: Kubernetes Architecture

  • Temas:
    • Understand the Architecture of Kubernetes: Pods, Namespaces
    • Understand the Control-plane Components of Kubernetes
    • Create Container Images using Cloud Build
    • Store Container Images in Container Registry
    • Create a Kubernetes Engine Cluster
  • Objetivos:
    • Conceptualize the Kubernetes Architecture.
    • Deploy a Kubernetes Cluster using GKE.
    • Deploy Pods to a GKE Cluster.
    • View and Manage Kubernetes Objects.
    • Conceptualize the Migrate for Anthos process

Módulo 4: Kubernetes Operations

  • Temas:
    • The Kubectl Command
  • Objetivos:
    • Work with the Kubectl Command.
    • Inspect the Cluster and Pods.
    • View a Pod’s Console Output.
    • Sign in to a Pod Interactively.

Módulo 5: Deployment, Jobs, and Scaling

  • Temas:
    • Deployments
    • Ways to Create Deployments
    • Services and Scaling
    • Updating Deployments
    • Rolling Updates
    • Blue/Green Deployments
    • Canary Deployments
    • Managing Deployments
    • Jobs and CronJobs
    • Parallel Jobs
    • CronJobs
    • Cluster Scaling
    • Downscaling
    • Node Pools
    • Controlling Pod Placement
    • Affinity and Anti-Affinity
    • Pod Placement Example
    • Taints and Tolerations
    • Getting Software into your Cluster
  • Objetivos:
    • Create and Use Deployments.
    • Create and Run Jobs and CronJobs.
    • Scale Clusters Manually and Automatically.
    • Configure Node and Pod Affinity.
    • Get Software into your Cluster with Helm Charts and Kubernetes Marketplace.

Módulo 6: GKE Networking

  • Temas:
    • Introduction
    • Pod Networking
    • Services
    • Finding Services
    • Service Types and Load Balancers
    • How Load Balancers Work
    • Ingress Resource
    • Container-Native Load Balancing
    • Network Security
  • Objetivos:
    • Create Services to expose applications that are running within Pods.
    • Use load balancers to expose Services to external clients.
    • Create Ingress resources for HTTP(S) load balancing.
    • Leverage container-native load balancing to improve Pod load balancing.
    • Define Kubernetes network policies to allow and block traffic to Pods.

Módulo 7: Persistent Data and Storage

  • Temas:
    • Volumes
    • Volume Types
    • The PersistentVolume Abstraction
    • More on PersistentVolumes
    • StatefulSets
    • ConfigMaps
    • Secrets
  • Objetivos:
    • Use Secrets to isolate security credentials.
    • Use ConfigMaps to isolate configuration artifacts.
    • Push out and roll back updates to Secrets and ConfigMaps.
    • Configure Persistent Storage Volumes for Kubernetes Pods.
    • Use StatefulSets to ensure that claims on persistent storage volumes persist across restarts.

Módulo 8: Access Control and Security in Kubernetes and Kubernetes Engine

  • Temas:
    • Understand Kubernetes Authentication and Authorization
    • Define Kubernetes RBAC Roles and Role Bindings for Accessing Resources in Namespaces
    • Define Kubernetes RBAC Cluster Roles and ClusterRole Bindings for
    • Accessing Cluster-scoped Resources
    • Define Kubernetes Pod Security Policies
    • Understand the Structure of IAM
    • Define IAM roles and Policies for Kubernetes Engine Cluster Administration
  • Objetivos:
    • Define IAM roles and policies for GKE.
    • Define Kubernetes RBAC roles and role bindings.
    • Define Kubernetes pod security policies.

Módulo 9: Logging and Monitoring

  • Temas:
    • Use Cloud Monitoring to monitor and manage availability and performance
    • Locate and inspect Kubernetes logs
    • Create probes for wellness checks on live applications
  • Objetivos:
    • Create forensic logs for systems monitoring.
    • Monitor your system performance from different vantage points.
    • Create probes for wellness checks on live applications.

Módulo 10: Using Google Cloud Managed Storage Services from Kubernetes Applications

  • Temas:
    • Understand Pros and Cons for Using a Managed Storage Service Versus
    • Self-managed Containerized Storage
    • Enable Applications Running in GKE to Access Google Cloud Storage Services
    • Understand Use Cases for Cloud Storage, Cloud SQL, Cloud Spanner, Cloud Bigtable, Cloud Firestore, and BigQuery from within a Kubernetes Application
  • Objetivos:
    • Understand use cases for Cloud Storage within a Kubernetes application.
    • Understand use cases for Cloud SQL and Cloud Spanner within a Kubernetes application.
    • Understand use cases for Datastore within a Kubernetes application
    • Understand use cases for Cloud Bigtable within a Kubernetes application.

Módulo 11: Logging and Monitoring

  • Temas:
    • CI/CD overview
    • CI/CD for Google Kubernetes Engine
    • CI/CD Examples
  • Objetivos:
    • Manage application code in a source repository that can trigger code changes to a continuous delivery pipeline.
    • Create a continuous delivery pipeline using Cloud Build and start it manually or automatically with a code change.
    • Implement a canary deployment that hosts two versions of your application in production for release testing.

Documentación oficial para el curso Architecting with Google Kubernetes Engine.

  • Formador certificado por Google Cloud.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

In this course, you learn how to design APIs, and how to use OpenAPI specifications to document them. You learn about the API life cycle, and how the Apigee API platform helps you manage all aspects of the life cycle. You learn how APIs can be designed using API proxies, and how APIs are packaged as API products to be used by app developers.
Through a combination of lectures, hands-on labs, and supplemental materials,
you will learn how to design, build, secure, deploy, and manage API solutions using Google Cloud’s Apigee API Platform.

  • Explore and put into practice API design, development and management concepts
  • Understand the value of API-first development and how to apply it
  • Describe the fundamentals of REST API design
  • Describe API products, API product strategies, and how to publish APIs to a developer portal
  • Understand the role of user authentication and authorization and the importance of API security
  • Understand the out-of-the-box platform capabilities for implementing mediation, traffic management, caching, and fault handling
  • Describe the value and use of API analytics
  • Understand the deployment options for the Apigee platform

Familiarity with HTTP, XML, JSON, and JavaScript is helpful

Modulo 1: Apigee Overview

  • Understand the placement and role of API management in modern application development
  • Define logical components and organizational structure of Apigee API platform
  • Differentiate between Apigee flexible deployment models
  • Explain the API lifecycle

Modulo 2: API-First and OpenAPI Specifications

  • Describe the fundamentals of REST API design
  • Understand the value of API-first development and how to apply it.
  • Discuss OpenAPI specifications and their use in the context of API-first development

Modulo 3: API Proxies

  • Define the building blocks of APIs and API proxies
  • Describe how APIs proxies work and how capabilities such as flows, policies, route rules, environment groups, and target servers play a role
  • Describe how APIs are exposed
  • Describe how API proxies connect to backend systems

Modulo 4: API Products

  • Define API products and API product strategies
  • Understand the role of developers, applications, and API keys in API management
  • Describe the API publication process
  • Understand API responses and status codes for REST APIs

Modulo 5: Authentication, Authorization, and OAuth

  • Discuss the importance of API security
  • Understand the value of application identity
  • Understand the role of user authentication and authorization
  • Gain deep understanding of OAuth (access tokens, refresh tokens, common patterns for all grant types) and its application in the context of API design and management
  • Discuss federated identity and the use of JSON Web Tokens in API proxies

Modulo 6: Content, Transport, and Internal Security

  • Explore platform capabilities for protecting against content-based attacks
  • Discuss transport security and how to protect the connection between Apigee and backend services
  • Understand how to protect sensitive data using KVMs, data masking, and private variables

Modulo 7: Mediation

  • Understand the out-of-the-box platform capabilities for implementing mediation and fault handling
  • Describe implementation patterns and policies for JSON, XML, and SOAP
  • Understand extensibility options using Service Callouts, JavaScript, and Java
  • Explore development practices and capabilities used to reuse, share, and enforce execution of flows and policies

Documentación Oficial de Google Cloud - Developing APIs with Google Cloud's Apigee API platform

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Learn how to install and manage Google Cloud’s Apigee API Platform in a hybrid cloud. This course uses lectures, hands-on labs, and supplemental resources to show you how to design, install, manage, and scale your Apigee API Platform.

  • Identify the purpose and value of Apigee API Platform
  • Gain detailed understanding of Apigee API Platform architecture and recommended practices for topology design
  • Gain detailed understanding of Apigee terminology and logical organizational structures
  • Interact with Apigee API Platform and solve scenarios by leveraging recommended practices
  • Understand capabilities and practices to secure, manage and scale the platform
  • Understand and put in practice installation and upgrade processes

  • Familiarity with Linux command and command line interface
  • Basic understanding of Google Cloud
  • Basic understanding of Anthos and GKE
  • Basic understanding of networking
  • Basic understanding of shell script, XML, JSON, HTTP, REST, and TLS.

Modulo 1: Fundamentals

  • Familiarize with Apigee product capabilities
  • Familiarize with Google Cloud, Kubernetes and Anthos concepts
  • Discuss REST fundamentals

Modulo 2: Architecture

  • Discuss Apigee hybrid architecture
  • Gain an understanding of the Apigee technology stack
  • Discuss Apigee terminology and organizational structure
  • Familiarize with the Apigee API

Modulo 3: Installation and Pla orm Operation

  • Discuss installation process
  • Discuss installation prerequisites
  • Gain detail understanding of and practice installation process
  • Gain an understanding of common operational capabilities and practices
  • Discuss backup and restore strategy

Modulo 4: Deployment and Environment Management

  • Familiarize with API proxy concept and deployment process
  • Familiarize with API tracing and debugging
  • Discuss Developer Portal solutions
  • Gain understanding of and practice capabilities available for environment management

Modulo 5: Security

  • Discuss infrastructure security
  • Discuss data storage and encryption
  • Discuss hybrid access management capabilities and RBAC

Modulo 6: Capacity Planning and Scaling

  • Discuss capacity planning considerations
  • Gain understanding of and practice capabilities to scale up/down runtime components

Modulo 7: Upgrade

  • Familiarize with the upgrade process
  • Discuss the rollback process

Modulo 8: Logging and Monitoring

  • Familiarize with logging capabilities
  • Understand metrics generated and captured by the system
  • Discuss Apigee analytics
  • Discuss monitoring and troubleshooting techniques
  • Familiarize with the Apigee support process

Documentación Oficial de Google Cloud - Managing Google Cloud's Apigee API Platform for hybrid cloud

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

This course introduces you to the fundamentals and advanced practices used to install and manage Google Cloud’s Apigee API Platform for private cloud.
Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, install, secure, manage, and scale the Apigee API Platform for Private Cloud.

  • Identify the purpose and value of the Apigee API Platform
  • Gain a detailed understanding of the Apigee API Platform for Private Cloud architecture and the recommended practices for topology design
  • Gain a detailed understanding of the Apigee terminology and logical organizational structure
  • Interact with the Apigee API Platform and solve scenarios by leveraging recommended practices
  • Understand the capabilities and practices used to secure, manage and scale the platform
  • Learn  and practice the installation and upgrade  of the Apigee API Platform for Private Cloud

  • Familiarity with Linux command and command line interface
  • Basic understanding of networking
  • Basic understanding of shell script, XML, JSON, HTTP, REST, and TLS.

Modulo 1: Architecture

  • Familiarize with Apigee product capabilities and its place in theenterprise architecture
  • Gain an understanding of the Apigee technology stack
  • Gain a basic understanding of Apache Cassandra capabilities and how they are leveraged by the Apigee platform
  • Gain a detailed understanding of Apigee terminology and organizational structure
  • Explore topology design options

Modulo 2: Installation

  • Discuss installation planning
  • Understand installation dependencies
  • Learn and practice the installation process
  • Discuss post installation tasks and recurring  activities recommended for the platform
  • Learn how to uninstall the platform

Modulo 3: Developer Portal installation

  • Discuss the role of the Apigee Developer Portal
  • Discuss recommended practices for hosting the Developer Portal
  • Discuss the software distribution and installation process

Modulo 4: Management

  • Discuss platform operations capabilities and recommended practices
  • Discuss the role of the Management API and how it is leveraged by the platform
  • Gain an understanding of the API deployment process
  • Gain an understanding of Apigee analytics
  • Discuss infrastructure operations capabilities and recommended practices

Modulo 5: Security

  • Discuss Apigee capabilities to secure API traffic
  • Understand how to configure TLS and mTLS for critical path components and user facing interfaces
  • Learn how to configure single sign-on (SSO)

Modulo 6: Upgrade

  • Discuss upgrade planning and recommended practices
  • Discuss upgrade prerequisites and dependencies
  • Learn and practice the upgrade process
  • Discuss rollback scenarios and the rollback process

Modulo 7: Capacity Planning and Scaling

  • Understand scenarios and recommended practices for capacity planning
  • Understand how to scale up/down physical and logical capacity
  • Understand how to add individual components, extend clusters and add new regions

Modulo 8: Monitoring

  • Discuss recommended practices for monitoring the platform
  • Understand how to monitor individual components
  • Discuss the role of synthetic transactions monitoring
  • Discuss recommended practices for API monitoring

Modulo 9: Troubleshooting

  • Discuss failure scenarios and troubleshooting practices
  • Understand the Apigee support model

Documentación Oficial de Google Cloud - Installing and Managing Google Cloud's Apigee API Platform for Private Cloud

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

El curso Application Development with Cloud Run presenta los conceptos básicos, las prácticas, las capacidades y las herramientas aplicables al desarrollo moderno de aplicaciones nativas de la nube con Google Cloud Run. A través de una combinación de conferencias, laboratorios prácticos y materiales complementarios, aprenderás a diseñar, implementar, proteger, administrar y escalar aplicaciones en Google Cloud mediante Cloud Run.

Desarrolladores de la nube, desarrolladores de API, clientes y socios.

  • Obtener un conocimiento detallado de Cloud Run, la plataforma informática completamente administrada de Google Cloud para implementar y escalar aplicaciones en contenedores de forma rápida y segura.
  • Escribir y migrar código utilizando tus lenguajes favoritos (Go, Python, Java, Ruby, Node.js y más).
  • Comunicación segura de servicio a servicio basada en identidades de servicio y otorgar a las aplicaciones solo los permisos que necesitan.
  • Aprender a crear aplicaciones de alta disponibilidad con baja latencia para el usuario final, a nivel mundial.
  • Obtener información sobre cómo conectarse y conservar datos en las ofertas de bases de datos administradas en Google Cloud.
  • Comprender cómo la abstracción de toda la gestión de la infraestructura crea una experiencia de desarrollador sencilla.

  • Estar familiarizado con los comandos de Linux y la interfaz de línea de comandos.
  • Tener un conocimiento básico de Google Cloud.
  • Tener un conocimiento básico de redes.
  • Tener un conocimiento básico de uno o más lenguajes de programación como Go, Python, Java, Ruby o Node.js.
  • Tener un conocimiento básico de shell scripts, YAML, JSON, HTTP y TLS.

Módulo 1: Introducing Application Development with Cloud Run

Temas:

This module gives a general overview of Cloud Run. If you’re new to Cloud Run (or even to Google Cloud), this will be a great introduction.

Objetivos:

  • A general understanding of Cloud Run
  • Understand how how high availability, low end-user latency and developer productivity are important architectural drivers for web based applications today
  • Understand the advantages of serverless on Google Cloud.

Módulo 2: Understanding Cloud Run

Temas:

  • You can use any language, any library and any binary. Cloud Run expects your app (in a container image) to listen on a port and respond to HTTP requests.
  • Use a docker repository on Artifact Registry to store your images: Cloud Run only deploys from there.
  • Cloud Run uses autoscaling to handle all incoming requests
  • Pay for use pricing model
  • No background tasks: Container lifetime is only guaranteed while handling requests
  • There is no persistent storage: Store data downstream
  • Cloud Run is portable (containers and Knative)

Objetivos:

  • Understand Container Images and Containers
  • Understand how Cloud Run is different from an always-on server
  • Implement the deployment of a container image to Cloud Run (hands-on lab)
  • Understand auto-scaling and on-demand containers

Módulo 3: Building Container Images

Temas:

  • The contents of a container image (deep dive)
  • There are two ways to build container images
    • Buildpacks (hands-off)
    • Docker (you’re in control)
  • Cloud Run supports both source-based and a container image based workflow
  • The most important considerations of building a secure container image

Objetivos:

  • Deeply understand what is inside a container image
  • Package an application into a container image with Buildpacks (hands-on lab activity)
  • Understand that Dockerfiles are a lower-level and more transparent alternative to Buildpacks

Módulo 4: Building Container Images

Temas:

  • Container lifecycle
    • Idle vs serving
    • Shutdown lifecycle hook
  • Cold starts
    • Min instances
  • Container readiness
  • The service resource and what it describes
  • Configuring memory limits and CPU allocation
  • Deploying a new revision
  • Traffic steering (tagging, gradual rollouts)

Objetivos:

  • Understand the advantages of the shutdown lifecycle hook
  • Understand how to avoid request queuing
  • Implement new versions of an application (hands-on lab activity)
  • Implement gradual traffic migration (hands-on lab activity)

Módulo 5: Configuring Service Identity and Authorization

Temas:

  • Cloud IAM
    • Service account, policy binding, roles, types of members, resource hierarchy (in practice)
    • Service accounts
    • Cloud Run IAM roles
  • Cloud Run
    • Default service account
    • Risks of using the default service account

Objetivos:

  • Understand that every action on a Cloud resource is actually an API call
  • Understand how and why to limit the permissions in your Cloud Run service to only specific and necessary API calls
  • Understand the process needed to make the default permissions of a Cloud API more secure
  • Use the client libraries to call other Google Cloud services (hands-on lab activity)

Módulo 6: Serving Requests

Temas:

  • Custom Domains
  • Global Load Balancer
    • URL Map
    • Frontend
    • Backend services
  • Benefits and drawbacks of GLB over custom domain
  • Types of GLB Backends
  • Multi-region load balancing
  • Multi-regional applications challenges
  • Cloud CDN

Objetivos:

  • Use Cloud CDN to improve the reliability and performance of an application
  • Use path-based routing to combine multiple applications on one domain
  • Route incoming requests to the Cloud Run service closest to clients

Módulo 7: Using Inbound and Outbound Access Control

Temas:

  • Ingress settings
  • Cloud Armor
  • Using Cloud IAM to protect services
    • Understand how authenticated requests (IAM + OIDC tokens) work (builds on Module 5)
  • VPC, VPC Access Connector
  • Egress settings

Objetivos:

  • Connecting your project to resources with a private IP
  • Implementing controls to prevent outbound traffic to dangerous or unwanted hosts
  • Implementing filters for inbound traffic using content-based rules
  • Implementing controlled access to only specific service accounts

Módulo 8: Persisting Data

Temas:

  • Understanding why you need to store data externally when running a workload on Cloud Run.
  • Connect with Cloud SQL from Cloud Run
    • Understand how it works (managed Cloud SQL Proxy)
  • Managing concurrency as a way to safeguard performance (understand why and when)
  • Connecting with Memorystore
  • VPC Connector
    • Challenges with scaling Memorystore (throughput)
  • Briefly introduce Cloud Storage, Firestore and Cloud Spanner, while reinforcing how the client libraries use the built-in service account to connect (Module 5 is prerequisite knowledge).
  • Multi-region data storage (and what Spanner and Firestore can do for you)

Objetivos:

  • Understand how to connect your application with Cloud SQL to store relational data
  • Use a VPC Connector to reach a private Memorystore instance
  • Understand how to connect with Cloud Storage, Spanner and Firestore

Módulo 9: Implementing Service-to-Service Communication

Temas:

  • Understanding Cloud Pub/Sub
    • Understanding topics, push subscriptions
    • Idempotency (Handling retries and at-least-once invocation)
      • Event ID, design for resume, or use a lease
    • Handling undeliverable messages
  • How to asynchronously schedule a background task on a different service
  • Cloud Tasks, and when to choose it over Cloud Pub/Sub
  • Benefits of using Pub/Sub to pass messages over making sync RPC requests
  • Learn about services in Google Cloud with a built-in integration to push events to Pub/Sub (Cloud Build, Artifact Registry, Cloud Storage, IOT
  • Core, BigQuery)
  • Cloud Scheduler to invoke services on a schedule.
  • CloudEvents
  • EventArc, and how to consume Audit logs
    • What to expect now, and how EventArc will develop over time

Objetivos:

  • Using Cloud Pub/Sub to send messages between services
  • Discovering the URL of other Cloud Run services
  • Receiving events from other Google Cloud services
  • Processing background tasks asynchronously

Módulo 10: Orchestrating and Automating Serverless Workflows

Temas:

  • Conceptual overview of Cloud Workflows
  • Invoking and passing parameters
  • Understand steps and jumps
  • Defining, using and passing values with variables
  • Using the switch statement to add logic
  • Workflow visualization
  • Calling HTTPS endpoints
  • Calling an authenticated Cloud Run service
  • Example: polling API for completion

Objetivos:

  • Understand the capabilities of Cloud Workflows
  • Learn how to model a simple workflow with steps and conditional jumps
  • Integrating Cloud Run with Cloud Workflows
  • Understand how to invoke workflows

Documentación oficial para el curso Application Development with Cloud Run.

  • Formador certificado por Google Cloud.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

This instructor-led course introduces participants to contact center artificial intelligence and its use in design, development, and deployment of customer conversational solutions.

Additionally, this course provides best practices on integrating conversational solutions with existing contact center software; on establishing a framework for human agent assistance; and on implementing the solution securely and at scale.

  • Define what Google Contact Center AI is
  • Explain how Dialogflow can be used in contact center applications
  • Describe how natural language understanding (NLU) is used to enable Dialogflow conversations
  • Implement a chat virtual agent
  • Implement a voice virtual agent
  • Describe options for storing parameters and fulfilling user requests
  • Deploy a virtual agent to production
  • Identify best practices for design and deployment of virtual agents
  • Identify key aspects, such as security and compliance in the context of contact centers.

  • Completed Google Cloud Product Fundamentals or have equivalent experience

Modulo 0: Course Overview

Modulo 1: Overview of Contact Center AI

  • Define what Contact Center AI (CCAI) is and what it can do for contact centers
  • Identify each component of the CCAI Architecture: Speech Recognition Dialogflow, Speech Synthesis, Agent Assist, and Insights
  • Describe the role each component plays in a CCAI solution

Modulo 2: Google Implementation Methodology

  • Identify the stages of the Google Implementation Methodology
  • Enumerate the key activities of each implementation stage
  • Acknowledge how to use Google's support assets for Partners

Modulo 3: Conversational Experiences

  • List the basic principles of a conversational experience
  • Explain the role of conversation virtual agents in a conversational experience
  • Articulate how STT (speech to text) can determine the quality of a conversational experience
  • Demonstrate and test how speech adaptation can improve the speech recognition accuracy of the agent
  • Recognize the different NLU (natural language understanding) and NLP(natural language processing) techniques and the role they play on conversational experiences
  • Explain the different elements of a conversation (intents, entities, etc)
  • Use sentiment analysis to help with the achievement of a higher-quality conversational experience
  • Improve conversational experiences by choosing different TTS voices(Wavenet vs Standard)
  • Modify the speed and pitch of a synthesized voice
  • Describe how to leverage SSML to modify the tone and emphasis of a synthesized passage

Modulo 4: Fundamentals of building conversations with Dialogflow

  • Identify user roles and their journeys
  • Write personas for virtual agents and users
  • Model user-agent interactions
  • List the basics elements of the Dialogflow user interface
  • Build a virtual agent to handle identified user journeys
  • Train the NLU model through the Dialogflow console
  • Define and test intents for a basic agent
  • Train the agent to handle expected and unexpected user scenarios
  • Recognize the different types of entities and when to use them
  • Create entities
  • Define and test entities on a basic agent
  • Implement slot filling using the Dialogflow UI
  • Describe when Mega Agent might be used

Modulo 5: Maintaining context in a conversation

  • Create follow up intentsRecognize the scenarios in which context should be used
  • Identify the possible statuses of a context (active versus inactive context)
  • Implement dialogs using input and output contexts

Modulo 6: Moving from Chat agent to Voice agent

  • Describe two ways that the media type changes the conversation
  • Configure the telephony gateway for testing
  • Test a basic voice agent
  • Modify the voice of the agent
  • Show how the different media types can have different responses
  • Consider the modifications needed when moving to production
  • Be aware of the telephony integration for voice in a production environment

Modulo 7: Taking actions with fulfillment

  • Define the role of fulfillment with respect to CCAI
  • Characterize what needs to be collected in order to fulfill a request
  • Identify existing backend systems on the customer infrastructure
  • Use Firestore to store mappings returned from functions
  • Appreciate that the interaction with customers' data storages will vary based on the customer's data warehouses
  • Implement fulfillment using Cloud Functions
  • Implement fulfillment using Python on AppEngine
  • Describe the use of Apigee for application deployment

Modulo 8: Testing and Logging

  • Debug a virtual agent by testing intent accuracy
  • Debug fulfillment by testing the different functions and integrations with backend systems through API calls
  • Implement version control to achieve more scalable collaboration
  • Log conversations using Cloud Logging
  • Recognize ways that audits can be performed

Modulo 9: Environment Management

  • Create Draft and Published versions of your virtual agent
  • Create environments where your virtual agent will be published
  • Load a saved version of your virtual agent to Draft
  • Change which version is loaded to an environment

Modulo 10: Intelligent Assistance for Live Agents

  • Recognize use cases where Agent Assist adds value
  • Identify, collect, and curate documents for knowledge base construction
  • Set up knowledge bases
  • Describe how FAQ Assist works
  • Describe how Document Assist works
  • Describe how the Agent Assist UI works
  • Describe how Dialogflow Assist works
  • Describe how Smart Reply works
  • Describe how real-time entity extraction works

Modulo 11: Integrating a virtual agent with third parties

  • Use the Dialogflow API to programmatically create and modify the virtual agent
  • Describe connectivity protocols: gRPC, REST, SIP endpoints, and phone numbers over PSTN
  • Replace existing head intent detection on IVRs with Dialogflow intents
  • Describe virtual agent integration with Google Assistant
  • Describe virtual agent integration with messaging platforms
  • Describe virtual agent integration with CRM platforms (eg. Salesforce and Zendesk)
  • Describe virtual agent integration with enterprise communication platforms(eg. Genesys, Avaya, Cisco, and Twilio)
  • Explain the ability that telephony providers have of identifying the caller and how that can modify the agent design
  • Incorporate IVR features in the virtual agent.

Modulo 12: Drawing insights from call recordings

  • Analyze audio recordings using the Speech Analytics Framework (SAF)

Modulo 13: Methods of compliance with federal regulations

  • Describe two ways that security can be implemented on a Contact CenterAI integration
  • Identify current compliance measures and scenarios where compliance is needed

Modulo 14: Best practices for virtual agents

  • Convert pattern matching and decision trees to smart conversational design
  • Recognize situations that require escalation to a human agent
  • Support multiple platforms, devices, languages, and dialects
  • Use Diagflow’s built-in analytics to assess the health of the virtual agent
  • Perform agent validation through the Dialogflow UI
  • Monitor conversations and Agent Assist
  • Institute a DevOps and version control framework for agent development and maintenance
  • Consider enabling spell correction to increase the virtual agent's accuracy

Modulo 15: Course Summary

  • Recapitulate was covered during this course

Documentación Oficial de Google Cloud - Customer Experiences with Contact Center AI

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

In this course, learn how to design customer conversations using Contact Center Artificial Intelligence (CCAI). You’ll use Dialogflow CX to create virtual agents and test them using the simulator. Learn to add functionality to access data from external systems, making virtual agents conversationally dynamic. You’ll be introduced to testing methods, connectivity protocols, APIs, environment management, and compliance measures. Learn best practices for integrating conversational solutions with your existing contact center software and implementing solutions securely and at scale.

  • Define Google CCAI
  • Explain how Dialogflow can be used in Contact Center applications
  • Implement a virtual agent using Dialogflow CX
  • Read and write data from Firestore using Cloud Functions
  • Use Dialogflow tools and cloud logging for troubleshooting
  • Describe how to manage virtual agent environments
  • Identify general best practices for virtual agents
  • Identify key aspects such as security and compliance in the context of contact centers
  • Analyze audio recordings using the Speech Analytics Framework (SAF)
  • Recognize use cases where Agent Assist adds value.

Completed Google Cloud Fundamentals or have equivalent experience

Modulo 1: Overview of Contact Center AI

  • Define what Contact Center AI (CCAI) is and what it can do for contact centers
  • Identify each component of the CCAI Architecture: Speech Recognition, Dialogflow, Speech Synthesis, Agent Assist, and Insights AI
  • Describe the role each component plays in a CCAI solution

Modulo 2: Conversational Experiences

  • List the basic principles of a conversational experience
  • Explain the role of Conversation virtual agents in a conversation experience
  • Articulate how STT (Speech to Text) can determine the quality of aconversation experience
  • Demonstrate and test how Speech adaptation can improve the speech recognition accuracy of the agent
  • Recognize the different NLU (Natural Language Understanding) andNLP (Natural Language Processing) techniques and the role they play on conversation experiences

Modulo 3: Fundamentals of Designing Conversations

  • Identify user roles and their journeys
  • Write personas for virtual agents and users
  • Model user-agent interactions

Modulo 4: Dialogflow Product Options

  • Describe two primary differences between Dialogflow Essentials (ES) and Dialogflow Customer Experience (CX)
  • Identify two design principles for your virtual agent which apply regardless of whether you implement in Dialogflow ES or CX
  • Identify two ways your virtual agent implementation changes based on whether you implement in Dialogflow ES or CX
  • List the basic elements of the Dialogflow user interface

Modulo 5: Course Review

  • Review what was covered in the course as relates to the objectives

Modulo 6: Fundamentals of building conversations with Dialogflow CX

  • List the basic elements of the Dialogflow CX User Interface
  • Create entities
  • Create intents and form fill entities in training phrases
  • Train the NLU model through the Dialogflow console
  • Build a basic virtual agent to handle identified user journeys

Modulo 7: Scaling with standalone flows

  • Recognize the scenarios in which standalone flows can help scale your virtual agent
  • Implement a flow that uses other flows

Modulo 8: Using route groups for reusable routes

  • Define the concept of route groups with respect to Dialogflow CX
  • Create a route group
  • Recognize the scenarios in which route groups should be used
  • Identify the possible scope of a route group
  • Implement a flow that uses a route group

Modulo 9: Course Review

  • Review what was covered in the course as relates to the objectives

Modulo 10: Testing and logging

  • Use Dialogflow tools for troubleshooting
  • Use Google Cloud tools for debugging your virtual agent
  • Review logs generated by virtual agent activity
  • Recognize ways an audit can be performed

Modulo 11: Taking Actions with Fulfillment

  • Characterize the role of fulfillment with respect to Contact Center AI Implement a virtual agent using Dialogflow ES
  • Use Cloud Firestore to store customer data
  • Implement fulfillment using Cloud Functions to read and write Firestore data
  • Describe the use of Apigee for application deployment

Modulo 12: Integrating Virtual Agents

  • Describe how to use the Dialogflow API to programmatically create and modifythe virtual agent
  • Describe connectivity protocols: gRPC, REST, SIP endpoints, and phone numbers over PSTN
  • Describe how to replace existing head intent detection on IVRs with Dialogflow intents
  • Describe virtual agent integration with Google Assistant
  • Describe virtual agent integration with messaging platforms
  • Describe virtual agent integration with CRM platforms (such as Salesforceand Zendesk)
  • Describe virtual agent integration with enterprise communication platforms (such as Genesys, Avaya, Cisco, and Twilio)
  • Explain the ability that telephony providers have of identifying the caller and how that can modify the agent design
  • Describe how to incorporate IVR features in the virtual agent

Modulo 13: Course Review

  • Review what was covered in the course as relates to the objectives

Modulo 14: Environment Management

  • Create Draft and Published versions of your virtual agent
  • Create environments where your virtual agent will be published
  • Load a saved version of your virtual agent to Draft
  • Change which version is loaded to an environment

Modulo 15: Drawing Insights from Recordings with SAF

  • Analyze audio recordings using the Speech Analytics Framework (SAF)

Modulo 16: Intelligence Assistance for Live Agents

  • Recognize use cases where Agent Assist adds value
  • Identify, collect and curate documents for knowledge base construction
  • Describe how to set up knowledge bases
  • Describe how FAQ Assist works
  • Describe how Document Assist works
  • Describe how the Agent Assist UI worksDescribe how Dialogflow Assist works
  • Describe how Smart Reply works
  • Describe how Real-time entity extraction works

Modulo 17: Compliance and Security

  • Describe two ways security can be implemented on a CCAI integration
  • Identify current compliance measures and scenarios where compliance is needed

Modulo 18: Best Practices

  • Convert pattern matching and decision trees to smart conversational design
  • Recognize situations that require escalation to a human agen
  • Support multiple platforms, devices, languages, and dialects
  • Use Diagflow’s built-in analytics to assess the health of the virtual agent
  • Perform agent validation through the Dialogflow UI
  • Monitor conversations and Agent Assist
  • Institute a DevOps and version control framework for agent development and maintenance
  • Consider enabling spell correction to increase the virtual agent's accuracy

Modulo 19: Implementation Methodology

  • Identify the stages of the Google Enterprise Sales Process
  • Describe the Partner role in the Enterprise Sales Process
  • Detail the steps in a Contact Center AI project using Google’s ESP
  • Describe the key activities of the Implementation Phase in ESP
  • Locate and understand how to use Google's support assets for Partners

Documentación Oficial de Google Cloud - Customer Experiences with Contact Center AI - Dialogflow CX

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

In this course, learn how to design customer conversations using Contact Center Artificial Intelligence (CCAI). You’ll use Dialogflow ES to create virtual agents and test them using the simulator. Learn to add functionality to access data from external systems, making virtual agents conversationally dynamic. You’ll be introduced to testing methods, connectivity protocols, APIs, environment management, and compliance measures. Learn best practices for integrating conversational solutions with your existing contact center software and implementing solutions securely and at scale.

  • Define Google CCAI
  • Explain how Dialogflow can be used in Contact Center applications
  • Implement a virtual agent using Dialogflow ES
  • Read and write data from Firestore using Cloud Functions
  • Use Dialogflow tools and cloud logging for troubleshooting
  • Describe how to manage virtual agent environments
  • Identify general best practices for virtual agents
  • Identify key aspects such as security and compliance in the context of contact centers
  • Analyze audio recordings using the Speech AnalyticsFramework (SAF)
  • Recognize use cases where Agent Assist adds value

Completed Google Cloud Fundamentals or have equivalent experience

Modulo 1: Overview of Contact Center AI

  • Define what Contact Center AI (CCAI) is and what it can do for contact centers
  • Identify each component of the CCAI Architecture: Speech Recognition, Dialogflow, Speech Synthesis, Agent Assist, and Insights AI
  • Describe the role each component plays in a CCAI solution

Modulo 2: Conversational Experiences

  • List the basic principles of a conversational experience
  • Explain the role of Conversation virtual agents in a conversation experience
  • Articulate how STT (Speech to Text) can determine the quality of aconversation experience
  • Demonstrate and test how Speech adaptation can improve the speech recognition accuracy of the agent
  • Recognize the different NLU (Natural Language Understanding) andNLP (Natural Language Processing) techniques and the role they play on conversation experiences

Modulo 3: Fundamentals of Designing Conversations

  • Identify user roles and their journeys
  • Write personas for virtual agents and users
  • Model user-agent interactions

Modulo 4: Dialogflow Product Options

  • Describe two primary differences between Dialogflow Essentials (ES) and Dialogflow Customer Experience (CX)
  • Identify two design principles for your virtual agent which apply regardless of whether you implement in Dialogflow ES or CX
  • Identify two ways your virtual agent implementation changes based on whether you implement in Dialogflow ES or CX
  • List the basic elements of the Dialogflow user interface

Modulo 5: Course Review

  • Review what was covered in the course as relates to the objectives

Modulo 6: Fundamentals of building conversations with Dialogflow ES

  • List the basic elements of the Dialogflow CX User Interface.• List the basic elements of the Dialogflow CX User Interface
  • Build a virtual agent to handle identified user journeys
  • Train the NLU model through the Dialogflow console
  • Define and test intents for a basic agent
  • Train the agent to handle expected and unexpected user scenarios
  • Recognize the different types of entities and when to use them
  • Create entities
  • Define and test entities on a basic agent
  • Implement slot filling using the Dialogflow UI
  • Describe when Mega Agent might be used
  • Demonstrate how to add access to a knowledge base for your virtual agent to answer customer questions straight from a company FAQ

Modulo 7: Maintaining Context in a Conversation

  • Create follow-up intents
  • Recognize the scenarios in which context should be used
  • Identify the possible statuses of a context (active versus inactive context)
  • Implement dialogs using input and output contexts

Modulo 8: Moving From Chat to Voice Virtual Agent

  • Describe two ways that the media type changes the conversation
  • Configure the telephony gateway for testing
  • Test a basic voice agent
  • Modify the voice of the agent
  • Show how the different media types can have different responses
  • Consider the modifications needed when moving to production
  • Be aware of the telephony integration for voice in a production environment

Modulo 9: Course Review

  • Review what was covered in the course as relates to the objectives

Modulo 10: Testing and logging

  • Use Dialogflow tools for troubleshooting
  • Use Google Cloud tools for debugging your virtual agent
  • Review logs generated by virtual agent activity
  • Recognize ways an audit can be performed

Modulo 11: Taking Actions with Fulfillment

  • Characterize the role of fulfillment with respect to Contact Center AI
  • Implement a virtual agent using Dialogflow ES
  • Use Cloud Firestore to store customer data
  • Implement fulfillment using Cloud Functions to read and write Firestore data
  • Describe the use of Apigee for application deployment

Modulo 12: Integrating Virtual Agents

  • Quiz - IVR Features
    Quiz - Contact Center AI integration points
  • Quiz - Common Platforms of

Modulo 13: Course Review

  • Review what was covered in the course as relates to the objectives

Modulo 14: Environment Management

  • Create Draft and Published versions of your virtual agent
  • reate environments where your virtual agent will be published
  • Load a saved version of your virtual agent to Draft
  • Change which version is loaded to an environment

Modulo 15: Drawing Insights from Recordings with SAF

  • Analyze audio recordings using the Speech Analytics Framework (SAF)

Modulo 16: Intelligence Assistance for Live Agents

  • Recognize use cases where Agent Assist adds value
  • Identify, collect and curate documents for knowledge base construction
  • Describe how to set up knowledge bases
  • Describe how FAQ Assist works
  • Describe how Document Assist works
  • Describe how the Agent Assist UI works
  • Describe how Dialogflow Assist works
  • Describe how Smart Reply works
  • Describe how Real-time entity extraction works

Modulo 17: Compliance and Security

  • Describe two ways security can be implemented on a CCAI integration
  • Identify current compliance measures and scenarios where compliance is needed

Modulo 18: Best Practices

  • Convert pattern matching and decision trees to smart conversational design
  • Recognize situations that require escalation to a human agent
  • Support multiple platforms, devices, languages, and dialects
  • Use Diagflow’s built-in analytics to assess the health of the virtual agen
  • Perform agent validation through the Dialogflow UI
  • Monitor conversations and Agent Assist
  • Institute a DevOps and version control framework for agent development and maintenance
  • Consider enabling spell correction to increase the virtual agent's accuracy

Modulo 19: Implementation Methodology

  • Identify the stages of the Google Enterprise Sales Process
  • Describe the Partner role in the Enterprise Sales Process
  • Detail the steps in a Contact Center AI project using Google’s ESP
  • Describe the key activities of the Implementation Phase in ESP
  • Locate and understand how to use Google's support assets for Partners

Modulo 20: Course Review

  • Review what was covered in the course as relates to the objectives

Documentación Oficial de Google Cloud - Customer Experiences with Contact Center AI - Dialogflow ES

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Este curso presenta la capacidad de integración de datos de Google Cloud mediante Cloud Data Fusion.

Abordaremos los retos de la integración de datos y las necesidades de una plataforma de integración de datos (middleware); analizaremos cómo Cloud Data Fusion puede ayudar a integrar eficazmente datos procedentes de diversas fuentes y formatos, y a generar información y conoceremos los principales componentes de Cloud Data Fusion y su funcionamiento, cómo procesar datos por lotes y datos de flujo en tiempo real con un diseño visual de canalización, un seguimiento exhaustivo de los metadatos y el linaje de los datos, y cómo desplegar canalizaciones de datos en varios motores de ejecución.

Este curso está dirigido a ingenieros de datos y analistas de datos.

  • Identificar la necesidad de integración de datos.
  • Comprender las capacidades que Cloud Data Fusion proporciona como plataforma de integración de datos.
  • Identificar casos de uso para la posible implementación de Cloud Data Fusion.
  • Conocer los componentes principales de Cloud Data Fusion.
  • Diseñar y ejecutar pipelines de procesamiento de datos por lotes y en tiempo real.
  • Trabajar con Wrangler para construir transformaciones de datos.
  • Utilizar conectores para integrar datos de diversas fuentes y formatos.
  • Configurar el entorno de ejecución; supervisar y solucionar problemas de ejecución de canalizaciones.
  • Comprender la relación entre los metadatos y el linaje de los datos.

Es recomendable haber completado, previamente, el curso Google Cloud Big Data and Machine Learning Fundamentals.

Módulo 1: Introduction to data integration and Cloud Data Fusion

Contenidos:

  • Data integration: what, why, challenges.
  • Data integration tools used in industry.
  • User personas.
  • Introduction to Cloud Data Fusion.
  • Data integration critical capabilities.
  • Cloud Data Fusion UI components.

Objetivos:

  • Understand the need for data integration.
  • List the situations/cases where data integration can help businesses.
  • List the available data integration platforms and tools.
  • Identify the challenges with data integration.
  • Understand the use of Cloud Data Fusion as a data integration platform.
  • Create a Cloud Data Fusion instance.
  • Familiarize with core framework and major components in Cloud Data Fusion.

Módulo 2: Building pipelines

Contenidos:

  • Cloud Data Fusion architecture.
  • Core concepts.
  • Data pipelines and directed acyclic graphs (DAG).
  • Pipeline Lifecycle.
  • Designing pipelines in Pipeline Studio.

Objetivos:

  • Understand Cloud Data Fusion architecture.
  • Define what a data pipeline is.
  • Understand the DAG representation of a data pipeline.
  • Learn to use Pipeline Studio and its components.
  • Design a simple pipeline using Pipeline Studio.
  • Deploy and execute a pipeline.

Módulo 3: Designing complex pipelines

Contenidos:

  • Branching, Merging and Joining.
  • Actions and Notifications.
  • Error handling and Macros.
  • Pipeline Configurations, Scheduling, Import and Export.

Objetivos:

  • Perform branching, merging, and join opeations.
  • Execute pipeline with runtime arguments using macros.
  • Work with error handlers.
  • Execute pre- and post-pipeline executions with help of actions and notifications.
  • Schedule pipelines for execution.
  • Import and export existing pipelines.

Módulo 4: Pipeline execution environment

Contenidos:

  • Schedules and triggers.
  • Execution environment: Compute profile and provisioners.
  • Monitoring pipelines.

Objetivos:

  • Understand the composition of an execution environment.
  • Configure your pipeline’s execution environment, logging, and Understand concepts like compute profile and provisioner.
  • Create a compute profile.
  • Create pipeline alerts.
  • Monitor the pipeline under execution.

Módulo 5: Building Transformations and Preparing Data with Wrangler

Contenidos:

  • Wrangler.
  • Directives.
  • User-defined directives.

Objetivos:

  • Understand the use of Wrangler and its main components.
  • Transform data using Wrangler UI.
  • Transform data using directives/CLI methods.
  • Create and use user-defined directives.

Módulo 6: Connectors and streaming pipelines

Contenidos:

  • Understand the data integration architecture.
  • List various connectors.
  • Use the Cloud Data Loss Prevention (DLP) API.
  • Understand the reference architecture of streaming pipelines.
  • Build and execute a streaming pipeline.

Objetivos:

  • Connectors.
  • DLP.
  • Reference architecture for streaming applications.
  • Building streaming pipelines.

Módulo 7: Metadata and data lineage

Contenidos.

  • Metadata.
  • Data lineage.

Objetivos:

  • List types of metadata.
  • Differentiate between business, technical, and operational metadata.
  • Understand what data lineage is.
  • Understand the importance of maintaining data lineage.
  • Differentiate between metadata and data lineage.

Módulo 8: Summary

Documentación oficial para el curso Data Integration with Cloud Data Fusion.

  • Formador certificado por Google Cloud.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Explore ways to derive insights from data at scale using BigQuery, Google Cloud’s serverless, highly scalable, and cost-effective cloud data warehouse. This course uses lectures, demos, and hands-on labs to teach you the fundamentals of BigQuery, including how to create a data transformation pipeline, build a BI dashboard, ingest new datasets, and design schemas at scale.

  • Derive insights from data using the analysis and visualization tools on Google Cloud Platform
  • Load, clean, and transform data at scale with GoogleCloud Dataprep
  • Explore and Visualize data using Google Data Studio
  • Troubleshoot, optimize, and write high performance queries
  • Practice with pre-built ML APIs for image and text understanding
  • Train classification and forecasting ML models using SQLwith BQML

Basic proficiency with ANSI SQL

Modulo 1: Introduction to Data on the Google Cloud Platform

Modulo 2: Big Data Tools Overview

Modulo 3: Exploring your Data with SQL

Modulo 4: Google BigQuery Pricing

Modulo 5: Cleaning and Transforming your Data

Modulo 6: Storing and Exporting Data

Modulo 7: Ingesting New Datasets into Google BigQuery

Modulo 8: Data Visualization

Modulo 9: Joining and Merging Datasets

Modulo 10: Advanced Functions and Clauses

Modulo 11: Schema Design and Nested Data Structures

Modulo 12: More Visualization with Google Data Studio

Modulo 13: Optimizing for Performance

Modulo 14: Data Access

Modulo 15: Notebooks in the Cloud

Modulo 16: How Google does Machine Learning

Modulo 17: Applying Machine Learning to your Datasets (BQML)

Documentación Oficial de Google Cloud -From Data to Insights with Google Cloud Platform

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Con el curso Data Engineering on Google Cloud obtendrás experiencia práctica con el diseño y la creación de sistemas de procesamiento de datos en Google Cloud. Este curso utiliza conferencias, demostraciones y laboratorios prácticos para mostrarte cómo diseñar sistemas de procesamiento de datos, crear canalizaciones de datos de un extremo a extremo, analizar datos e implementar el (machine learning). Este curso cubre datos estructurados, no estructurados y de transmisión.

Este curso está destinado a desarrolladores que sean responsables de:

  • Extracción, carga, transformación, limpieza y validación de datos.
  • Diseño de pipelines y arquitecturas para el procesamiento de datos.
  • Integración de capacidades de análisis y machine learning en canalizaciones (pipelines) de datos.
  • Consulta de conjuntos de datos, visualización de resultados de consultas y creación de informes.

  • Diseñar y crear sistemas de procesamiento de datos en Google Cloud.
  • Procesar datos por lotes y de transmisión mediante la implementación de canalizaciones (pipelines) de datos de escalado automático en Dataflow.
  • Obtener información empresarial a partir de conjuntos de datos extremadamente grandes con BigQuery.
  • Aprovechar los datos no estructurados con las APIs de Spark y ML en Dataproc.
  • Habilitar conocimientos instantáneos a partir de la transmisión de datos.
  • Comprender las APIs de ML y BigQuery ML, y aprender a usar AutoML para crear modelos potentes sin codificación.

  • Haber completado el curso Google Cloud Big Data and Machine Learning Fundamentals o tener una experiencia equivalente.
  • Tener competencia básica con un lenguaje de consulta común como SQL.
  • Tener experiencia con actividades de modelado de datos y ETL (extracción, transformación, carga).
  • Tener experiencia en el desarrollo de aplicaciones utilizando un lenguaje de programación común como Python.
  • Estar familiarizado con el machine learning y/o estadísticas.

Módulo 1: Introduction to Data Engineering

Temas:

  • Explore the role of a data engineer
  • Analyze data engineering challenges
  • Introduction to BigQuery
  • Data lakes and data warehouses
  • Transactional databases versus data warehouses
  • Partner effectively with other data teams
  • Manage data access and governance
  • Build production-ready pipelines
  • Review Google Cloud customer case study

Objetivos:

  • Understand the role of a data engineer
  • Discuss benefits of doing data engineering in the cloud
  • Discuss challenges of data engineering practice and how building data pipelines in the cloud helps to address these
  • Review and understand the purpose of a data lake versus a data warehouse, and when to use which

Módulo 2: Building a Data Lake

Temas:

  • Introduction to data lakes
  • Data storage and ETL options on Google Cloud
  • Building a data lake using Cloud Storage
  • Securing Cloud Storage
  • Storing all sorts of data types
  • Cloud SQL as a relational data lake

Objetivos:

  • Understand why Cloud Storage is a great option for building a data lake on Google Cloud
  • Learn how to use Cloud SQL for a relational data lake

Módulo  3: Building a Data Warehouse

Temas:

  • The modern data warehouse
  • Introduction to BigQuery
  • Getting started with BigQuery
  • Loading data
  • Exploring schemas
  • Schema design
  • Nested and repeated fields
  • Optimizing with partitioning and clustering

Objetivos:

  • Discuss requirements of a modern warehouse
  • Understand why BigQuery is the scalable data warehousing solution on Google Cloud
  • Understand core concepts of BigQuery and review options of loading data into BigQuery

Módulo  4: Introduction to Building Batch Data Pipelines

Temas:

  • EL, ELT, ETL
  • Quality considerations
  • How to carry out operations in BigQuery
  • Shortcomings
  • ETL to solve data quality issues

Objetivos:

  • Review different methods of loading data into your data lakes and warehouses: EL, ELT, and ETL
  • Discuss data quality considerations and when to use ETL instead of EL and ELT

Módulo 5: Executing Spark on Dataproc

Temas:

  • The Hadoop ecosystem
  • Run Hadoop on Dataproc
  • Cloud Storage instead of HDFS
  • Optimize Dataproc

Objetivos:

  • Review the parts of the Hadoop ecosystem
  • Learn how to lift and shift your existing Hadoop workloads to the cloud using Dataproc
  • Understand considerations around using Cloud Storage instead of HDFS for storage
  • Learn how to optimize Dataproc jobs

Módulo 6: Serverless Data Processing with Dataflow

Temas:

  • Introduction to Dataflow
  • Why customers value Dataflow
  • Dataflow pipelines
  • Aggregating with GroupByKey and Combine
  • Side inputs and windows
  • Dataflow templates
  • Dataflow SQL

Objetivos:

  • Understand how to decide between Dataflow and Dataproc for processing data pipelines
  • Understand the features that customers value in Dataflow
  • Discuss core concepts in Dataflow
  • Review the use of Dataflow templates and SQL

Módulo 7: Manage Data Pipelines with Cloud Data Fusion and Cloud Composer

Temas:

  • Building batch data pipelines visually with Cloud Data Fusion
  • Components
  • UI overview
  • Building a pipeline
  • Exploring data using Wrangler
  • Orchestrating work between Google Cloud services with Cloud Composer
  • Apache Airflow environment
  • DAGs and operators
  • Workflow scheduling
  • Monitoring and logging

Objetivos:

  • Discuss how to manage your data pipelines with Data Fusion and Cloud Composer
  • Understand Data Fusion’s visual design capabilities
  • Learn how Cloud Composer can help to orchestrate the work across multiple Google Cloud services

Módulo 8: Introduction to Processing Streaming Data

Temas:

Process Streaming Data

Objetivos:

  • Explain streaming data processing
  • Describe the challenges with streaming data
  • Identify the Google Cloud products and tools that can help address streaming data challenges

Módulo 9: Serverless Messaging with Pub/Sub

Temas:

  • Introduction to Pub/Sub
  • Pub/Sub push versus pull
  • Publishing with Pub/Sub code

Objetivos:

  • Describe the Pub/Sub service
  • Understand how Pub/Sub works
  • Gain hands-on Pub/Sub experience with a lab that simulates real-time streaming sensor data

Módulo 10: Dataflow Streaming Features

Temas:

  • Steaming data challenges
  • Dataflow windowing

Objetivos:

  • Understand the Dataflow service
  • Build a stream processing pipeline for live traffic data
  • Demonstrate how to handle late data using watermarks, triggers, and accumulation

Módulo 11: High-Throughput BigQuery and Bigtable Streaming Features

Temas:

  • Streaming into BigQuery and visualizing results
  • High-throughput streaming with Cloud Bigtable
  • Optimizing Cloud Bigtable performance

Objetivos:

  • Learn how to perform ad hoc analysis on streaming data using BigQuery and dashboards
  • Understand how Cloud Bigtable is a low-latency solution
  • Describe how to architect for Bigtable and how to ingest data into Bigtable
  • Highlight performance considerations for the relevant services

Módulo  12: Advanced BigQuery Functionality and Performance

Temas:

  • Analytic window functions
  • Use With clauses
  • GIS functions
  • Performance considerations

Objetivos:

  • Review some of BigQuery’s advanced analysis capabilities
  • Discuss ways to improve query performance

Módulo 13: Introduction to Analytics and AI

Temas:

  • What is AI?
  • From ad-hoc data analysis to data-driven decisions
  • Options for ML models on Google Cloud

Objetivos:

  • Understand the proposition that ML adds value to your data
  • Understand the relationship between ML, AI, and Deep Learning
  • Identify ML options on Google Cloud

Módulo 14: Prebuilt ML Model APIs for Unstructured Data

Temas:

  • Unstructured data is hard
  • ML APIs for enriching data

Objetivos:

  • Discuss challenges when working with unstructured data
  • Learn the applications of ready-to-use ML APIs on unstructured data

Módulo 15: Big Data Analytics with Notebooks

Temas:

  • What’s a notebook?
  • BigQuery magic and ties to Pandas

Objetivos:

  • Introduce Notebooks as a tool for prototyping ML solutions
    Learn to execute BigQuery commands from Notebooks

Módulo 16: Production ML Pipelines with Kubeflow

Temas:

  • Ways to do ML on Google Cloud
  • Vertex AI Pipelines
  • AI Hub

Objetivos:

  • Describe options available for building custom ML models
  • Understand the use of tools like Vertex AI Pipelines

Módulo 17: Custom Model Building with SQL in BigQuery ML

Temas:

  • BigQuery ML for quick model building
  • Supported models

Objetivos:

  • Learn how to create ML models by using SQL syntax in BigQuery
  • Demonstrate building different kinds of ML models using BigQuery ML

Módulo 18: Custom Model Building with AutoML

Temas:

  • Why AutoML?
  • AutoML Vision
  • AutoML NLP
  • AutoML tables

Objetivos:

  • Explore various AutoML products used in machine learning
  • Learn to use AutoML to create powerful models without coding

Documentación oficial para el curso Google Cloud Big Data and Machine Learning Fundamentals.

  • Formador certificado por Google Cloud.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Con el curso Developing Applications with Google Cloud aprenderás a diseñar, desarrollar e implementar aplicaciones que integren a la perfección componentes del ecosistema de Google Cloud. Este curso utiliza conferencias, demostraciones y laboratorios prácticos para mostrarte cómo usar los servicios de Google Cloud y las APIs de aprendizaje automático (machine learning) pre-entrenadas para crear aplicaciones nativas de la nube seguras, escalables e inteligentes.

Desarrolladores de aplicaciones que deseen crear aplicaciones nativas de la nube o rediseñar aplicaciones existentes que sean ejecutadas en Google Cloud.

  • Utilizar las mejores prácticas para el desarrollo de aplicaciones.
  • Seleccionar la opción de almacenamiento de datos adecuada para los datos de la aplicación.
  • Implementar la gestión de identidades federadas.
  • Desarrollar microservicios o componentes de aplicación poco acoplados.
  • Integrar componentes de aplicaciones y fuentes de datos.
  • Depurar, rastrear y monitorear aplicaciones.
  • Realizar implementaciones repetibles con contenedores y servicios de implementación.
  • Seleccionar el entorno de tiempo de ejecución de la aplicación adecuado.

Módulo 1: Best Practices for Application Development

Temas:

  • Code and environment management
  • Design and development of secure, scalable, reliable, loosely coupled application components and microservices
  • Continuous integration and delivery
  • Re-architecting applications for the cloud

Objetivos:

  • Design and develop secure, scalable, reliable, loosely coupled application components and microservices.
  • Understand how to rearchitect applications for the cloud.

Módulo 2: Getting Started with Google Cloud Development

Temas:

  • Overview of Google Cloud services for apps and scripts:
    • Google Cloud APIs
    • Cloud SDK
    • Cloud Client Libraries
    • Cloud Shell
    • Cloud Code
  • Demo: Google APIs Explorer
  • Lab: Setting up a Development Environment

Objetivos:

Identify different Google Cloud services for hosting applications and scripts.

Módulo 3: Overview of Data Storage Options

Temas:

  • Overview of options to store application data
  • Use cases for Cloud Storage, Firestore, Cloud Bigtable, Cloud SQL, and Cloud Spanner
  • Demo: Connecting Securely to a Cloud SQL Database

Objetivos:

Choose the appropriate data storage option for application data.

Módulo 4: Best Practices for Using Datastore

Temas:

  • Best practices related to using Firestore in Datastore mode for:
    • Queries
    • Built-in and composite indexes
    • Inserting and deleting data (batch operations)
    • Transactions
    • Error handling
  • Demo: Explore Datastore
  • Demo: Use Dataflow to Bulk-load Data into Datastore
  • Lab: Storing Application Data in Datastore

Objetivos:

  • Bulk-load data into Firestore by using Dataflow.
  • Understand best practices related to queries, built in and composite indexes, inserting and deleting data (batch operations), and transactions error handling.

Módulo 5: Performing Operations on Buckets and Objects

Temas:

  • Cloud Storage concepts
  • Consistency model
  • Demo: Explore Cloud Storage
  • Request endpoints
  • Composite objects and parallel uploads
  • Truncated exponential backoff
  • Demo: Enable CORS Configuration in Cloud Storage

Objetivos:

  • Understand Cloud Storage concepts.
  • Differentiate between strongly consistent and eventually consistent operations.
  • Access Cloud Storage through request endpoints.
  • Use object composition to upload an object in parallel.
  • Use truncated exponential backoff to deal with network failures.

Módulo 6: Best Practices for Using Cloud Storage

Temas:

  • Naming buckets for static websites and other uses
  • Naming objects (from an access distribution perspective)
  • Performance considerations
  • Lab: Storing Image and Video Files in Cloud Storage

Objetivos:

Understand how to name buckets for static websites and other uses, how to name objects (from an access distribution perspective, and performance considerations.

Módulo 7: Handling Authentication and Authorization

Temas:

  • Identity and Access Management (IAM) roles and service accounts
  • User authentication by using Firebase Authentication
  • User authentication and authorization by using Identity-Aware Proxy
  • Lab: Adding User Authentication to your Application

Objetivos:

Implement federated identity management.

Módulo 8: Using Pub/Sub to Integrate Components of Your Application

Temas:

  • Topics, publishers, and subscribers
  • Pull and push subscriptions
  • Use cases for Pub/Sub
  • Lab: Developing a Backend Service

Objetivos:

  • Understand Pub/Sub topics, publishers, and subscribers.
  • Understand pull and push subscriptions.
  • Explore use cases for Pub/Sub.

Módulo 9: Adding Intelligence to Your Application

Temas:

Overview of pre-trained machine learning APIs such as the Vision API and the Cloud Natural Language Processing API.

Objetivos:

Explore pre-trained machine learning APIs such as Cloud Vision API and Cloud Natural Language API.

Módulo 10: Using Cloud Functions for Event-Driven Processing

Temas:

  • Key concepts such as triggers, background functions, HTTP functions
  • Use cases
  • Developing and deploying functions
  • Logging, error reporting, and monitoring
  • Demo: Invoke Cloud Functions Through Direct Request-response
  • Lab: Processing Pub/Sub Data using Cloud Functions

Objetivos:

Use Cloud Functions for event-driven processing.

Módulo 11: Managing APIs with Cloud Endpoints

Temas:

  • Open API deployment configuration
  • Lab: Deploying an API for the Quiz Application

Objetivos:

Understand OpenAPI deployment configuration.

Módulo 12: Deploying Applications

Temas:

  • Creating and storing container images
  • Repeatable deployments with deployment configuration and templates
  • Demo: Exploring Cloud Build and Cloud Container Registry
  • Lab: Deploying the Application into Kubernetes Engine

Objetivos:

  • Understand how to create and store container images.
  • Create repeatable deployments with deployment configuration and templates.

Módulo 13: Compute Options for Your Application

Temas:

  • Considerations for choosing a compute option for your application or service:
    • Compute Engine
    • Google Kubernetes Engine (GKE)
    • Cloud Run
    • Cloud Functions
  • Platform comparisons.
    • Comparing App Engine and Cloud Run

Objetivos:

Explore considerations for choosing a compute option for your application or service.

Módulo 14: Debugging, Monitoring, and Tuning Performance

Temas:

  • Google Cloud’s operations suite
  • Managing performance
  • Lab: Debugging Application Errors
  • Logging
  • Monitoring and tuning performance
  • Identifying and troubleshooting performance issues
  • Lab: Harnessing Cloud Trace and Cloud Monitoring

Objetivos:

  • Debug an application error by using Cloud Debugger and Error Reporting.
  • Use Cloud Monitoring and Cloud Trace to trace a request across services, observe, and optimize performance.

Documentación oficial para el curso Developing Applications with Google Cloud.

  • Formador certificado por Google Cloud.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

El curso Architecting with Google Compute Engine te familiarizarás con la infraestructura flexible y los servicios de la plataforma de Google Cloud, con un enfoque específico en Compute Engine. Esta sesión utiliza una combinación de conferencias, demostraciones y laboratorios prácticos para explorar e implementar elementos de solución, incluidos componentes de infraestructura como redes, sistemas y servicios de aplicaciones. También, aprenderás a implementar soluciones prácticas, como redes híbridas, claves de cifrado proporcionadas por el cliente, administración de seguridad y acceso, cuotas y facturación, y monitoreo de recursos.

  • Cloud Solutions Architects, DevOps Engineers.
  • Personas que utilicen Google Cloud para crear nuevas soluciones o para integrar sistemas existentes, entornos de aplicación e infraestructura, con un enfoque en Compute Engine.

  • Configurar redes VPC y máquinas virtuales.
  • Administrar Identity and Access Management para recursos.
  • Implementar servicios de almacenamiento de datos en Google Cloud.
  • Administrar y examinar la facturación de los recursos de Google Cloud.
  • Supervisar los recursos mediante los servicios de Google Cloud.
  • Conectar tu infraestructura a Google Cloud.
  • Configurar balanceadores de carga y escalado automático para instancias de VM.
  • Automatizar la implementación de los servicios de infraestructura de Google Cloud.
  • Aprovechar los servicios administrados en Google Cloud.

  • Haber completado el curso Google Cloud Fundamentals: Core Infrastructure o tener una experiencia equivalente.
  • Tener competencia básica con herramientas de línea de comandos y entornos de sistema operativo Linux.
  • Tener experiencia en operaciones de sistemas, incluida la implementación y administración de aplicaciones, ya sea en las instalaciones o en un entorno de nube pública.

Módulo 1: Introduction to Google Cloud

  • List the different ways of interacting with Google Cloud
  • Use the Cloud Console and Cloud Shell
  • Create Cloud Storage buckets
  • Use the Google Cloud Marketplace to deploy solutions

Módulo 2: Virtual Networks

  • List the VPC objects in Google Cloud
  • Differentiate between the different types of VPC networks
  • Implement VPC networks and firewall rules
  • Implement Private Google Access and Cloud NAT

Módulo 3: Virtual Machines

  • Recall the CPU and memory options for virtual machines
  • Describe the disk options for virtual machines
  • Explain VM pricing and discounts
  • Use Compute Engine to create and customize VM instances

Módulo 4: Cloud IAM

  • Describe the Cloud IAM resource hierarchy
  • Explain the different types of IAM roles
  • Recall the different types of IAM members
  • Implement access control for resources using Cloud IAM

Módulo 5: Storage and Database Services

  • Differentiate between Cloud Storage, Cloud SQL, Cloud Spanner, Cloud Firestore and Cloud Bigtable
  • Choose a data storage service based on your requirements
  • Implement data storage services

Módulo 6: Resource Management

  • Describe the cloud resource manager hierarchy
  • Recognize how quotas protect Google Cloud customers
  • Use labels to organize resources
  • Explain the behavior of budget alerts in Google Cloud
  • Examine billing data with BigQuery

Módulo 7: Resource Monitoring

  • Describe the services for monitoring, logging, error reporting, tracing, and debugging
  • Create charts, alerts, and uptime checks for resources with Cloud Monitoring
  • Use Cloud Debugger to identify and fix errors

Módulo 8: Interconnecting Networks

  • Recall the Google Cloud interconnect and peering services available to connect your infrastructure to Google Cloud
  • Determine which Google Cloud interconnect or peering service to use in specific circumstances
  • Create and configure VPN gateways
  • Recall when to use Shared VPC and when to use VPC Network Peering

Módulo 9: Load Balancing and Autoscaling

  • Recall the various load balancing services
  • Determine which Google Cloud load balancer to use in specific circumstances
  • Describe autoscaling behavior
  • Configure load balancers and autoscaling

Módulo 10: Infrastructure Automation

  • Automate the deployment of Google Cloud services using Deployment Manager or Terraform
  • Outline the Google Cloud Marketplace

Módulo 11: Managed Services

  • Describe the managed services for data processing in Google Cloud

Documentación oficial para el curso Architecting with Google Compute Engine.

  • Formador certificado por Google Cloud.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el curso Advanced Architecting on AWS, por medio de una serie de casos de uso y de experiencias prácticas, aprenderás sobre los servicios de AWS que pueden aplicarse para solucionar problemas de arquitectura. Tendrás la oportunidad de combinar tus conocimientos con el pensamiento crítico y las habilidades para la resolución de problemas.

Obtendrás información relevante al participar en discusiones basadas en problemas y aprender sobre los servicios de AWS que podrías aplicar para enfrentar los desafíos. El curso va más allá de los conceptos básicos de una infraestructura en la nube y cubre temas para satisfacer una variedad de necesidades de los clientes de AWS.

Cada módulo presenta un escenario con un desafío arquitectónico a resolver. Los módulos del curso se enfocan en la administración de múltiples cuentas de AWS, conectividad y dispositivos híbridos, redes con un enfoque en la conectividad de AWS Transit Gateway, servicios de contenedores, herramientas de automatización para integración continua/entrega continua (CI/CD), seguridad y protección contra denegación de servicio distribuida (DDoS), data lakes y almacenes de datos, servicios perimetrales, opciones de migración y costos de administración.

Preparación para el examen de certificación:

Examen AWS Certified Solutions Architect Professional

  • Arquitectos de nube.
  • Arquitectos de soluciones.
  • Personas que diseñan soluciones para infraestructuras de nube.

  • Conocer cómo proteger las conexiones del punto de enlace de la red virtual privada (VPC) de Amazon Simple Storage Service (Amazon S3) en un entorno de laboratorio.
  • Conocer las mejores prácticas para decidir qué servicios utilizar y cómo implementar la administración de permisos.
  • Crear diseños híbridos de AWS destinados a atender los aumentos de tráfico y optimizar el trabajo remoto para garantizar la conformidad de los niveles 2 o 3 de seguridad FIPS 140-2.
  • Aprender sobre soluciones y productos disponibles para diseñar una infraestructura híbrida.

Módulo 1: Reviewing Architecting Concepts

  • Group Exercise: Review Architecting on AWS core best practices
  • Lab 1: Securing Amazon S3 VPC Endpoint Communications

Módulo 2: Single to Multiple Accounts

  • AWS Organizations for multi-account access and permissions
  • AWS SSO to simplify access and authentication across AWS accounts and third-party services
  • AWS Control Tower
  • Permissions, access, and authentication

Módulo 3: Hybrid Connectivity

  • AWS Client VPN authentication and control
  • AWS Site-to-Site VPN
  • AWS Direct Connect for hybrid public and private connections
  • Increasing bandwidth and reducing cost
  • Basic, high, and maximum resiliency
  • Amazon Route 53 Resolver DNS resolution

Módulo 4: Specialized Infrastructure

  • AWS Storage Gateway solutions
  • On-demand VMware Cloud on AWS
  • Extending cloud infrastructure services with AWS Outposts
  • AWS Local Zones for latency-sensitive workloads
  • Your 5G network with and without AWS Wavelength

Módulo 5: Connecting Networks

  • Simplifying private subnet connections
  • VPC isolation with a shared services VPC
  • Transit Gateway Network Manager and VPC Reachability Analyzer
  • AWS Resource Access Manager
  • AWS PrivateLink and endpoint services
  • Lab 2: Configuring Transit Gateways

Módulo 6: Containers

  • Container solutions compared to virtual machines
  • Docker benefits, components, solutions architecture, and versioning
  • Container hosting on AWS to reduce cost
  • Managed container services: Amazon Elastic Container Service (Amazon ECS) and Amazon Elastic Kubernetes Service (Amazon EKS)
  • AWS Fargate
  • Lab 3: Deploying an Application with Amazon EKS on Fargate

Módulo 7: Continuous Integration/Continuous Delivery (CI/CD)

  • CI/CD solutions and impact
  • CI/CD automation with AWS CodePipeline
  • Deployment models
  • AWS CloudFormation StackSets to improve deployment management

Módulo 8: High Availability and DDoS Protection

  • Common DDoS attacks layers
  • AWS WAF
  • AWS WAF web access control lists (ACLs), real-time metrics, logs, and security automation
  • AWS Shield Advanced services and AWS DDoS Response Team (DRT) services
  • AWS Network Firewall and AWS Firewall Manager to protect accounts at scale

Módulo 9: Securing Data

  • What cryptography is, why you would use it, and how to use it
  • AWS KMS
  • AWS CloudHSM architecture
  • FIPS 140-2 Level 2 and Level 3 encryption
  • Secrets Manager

Módulo 10: Large-Scale Data Stores

  • Amazon S3 data storage management including storage class, inventory, metrics, and policies
  • Data lake vs. data warehouse: Differences, benefits, and examples
  • AWS Lake Formation solutions, security, and control
  • Lab 4: Setting Up a Data Lake with Lake Formation

Módulo 11: Large-Scale Applications

  • What edge services are and why you would use them
  • Improve performance and mitigate risk with Amazon CloudFront
  • Lambda@Edge
  • AWS Global Accelerator: IP addresses, intelligent traffic distribution, and health checks
  • Lab 5: Migrating an On-Premises NFS Share Using AWS DataSync and Storage Gateway

Módulo 12: Optimizing Cost

  • On-premises and cloud acquisition/deprecation cycles
  • Cloud cost management tools including reporting, control, and tagging
  • Examples and analysis of the five pillars of cost optimization

Módulo 13: Migrating Workloads

  • Business drivers and the process for migration
  • Successful customer practices
  • The 7 Rs to migrate and modernize
  • Migration tools and services from AWS
  • Migrating databases and large data stores
  • AWS Schema Conversion Tool (AWS SCT)

Módulo 14: Capstone Project

  • Use the Online Course Supplement (OCS) to review use cases, investigate data, and answer architecting design questions about Transit Gateway, hybrid connectivity, migration, and cost optimization

Documentación oficial del curso Advanced Architecting on AWS.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Este curso intensivo ayuda a los arquitectos ocupados a alejarse del día a día para concentrarse y prepararse para su examen de certificación AWS Certified Solutions Architect Associate. Los asistentes aprenden los fundamentos de la construcción de infraestructura de TI en AWS, para que puedan crear soluciones escalables y resistentes en la nube. Comenzarán a adoptar la mentalidad de preparación para el examen con cuestionarios adicionales al final del módulo. A continuación, aprenderán estrategias para responder las preguntas del examen y evitar errores comunes. El curso amplía el conocimiento de los asistentes sobre los servicios de AWS con inmersiones profundas en Amazon Redshift, Amazon Kinesis y AWS Key Management Service, y luego concluye con dos cuestionarios y una revisión guiada del examen de práctica AWS Certified Solutions Architect Associate.

Preparación para el examen de certificación:

AWS Certified Solutions Architect Associate

  • Todo aquel que desee obtener la certificación AWS Certified Solutions Architect Associate.
  • Clientes y socios de AWS que tengan entre seis y doce meses de experiencia con AWS, incluida una sólida formación y experiencia en arquitectura.
  • Personas que desempeñen roles de arquitecto de soluciones o arquitecto de la nube que diseñen servicios o arquitecturas en la nube de AWS.
  • Personas que no hayan realizado el curso Architecting on AWS en los últimos seis meses aproximadamente.

  • Tome decisiones sobre arquitecturas basadas en los principios y las mejores prácticas de AWS.
  • Usar los servicios de AWS para hacer que su infraestructura sea escalable, confiable y de alta disponibilidad
  • Usar AWS Managed Services para lograr mayor flexibilidad y resiliencia en una infraestructura.
  • Aumentar la eficiencia de una infraestructura basada en AWS para incrementar el rendimiento y reducir costos.
  • Utilizar el Well-Architected Framework para mejorar las arquitecturas con las soluciones de AWS.
  • Navegar por la logística del proceso de evaluación, la estructura del examen y los tipos de preguntas.
  • Identificar cómo se relacionan las preguntas con los conceptos de arquitectura de AWS.
  • Interpretar los conceptos evaluados mediante preguntas de examen.

  • Tener de seis a doce meses de experiencia práctica en el diseño con servicios de AWS.
  • Tener experiencia práctica en el uso de los servicios de cómputo, redes, almacenamiento y bases de datos de AWS.
  • Tener comprensión de los principios de arquitectura básicos para crear en la nube de AWS.
  • Tener comprensión de la infraestructura global de AWS.

Architecting on AWS

  • Módulo 1: Introduction
  • Módulo 2: The Simplest Architectures
  • Hands-On Lab 1: Hosting a Static Website
  • Módulo 3: Adding a Compute Layer
  • Módulo 4: Adding a Database Layer
  • Hands-On Lab 2: Deploying a Web Application on AWS
  • Módulo 5: Networking in AWS Part 1
  • Hands-On Lab 3: Creating a Virtual Private Cloud
  • Módulo 6: Networking in AWS Part 2
  • Módulo 7: AWS Identity and Access Management (IAM)
  • Módulo 8: Elasticity, High Availability, and Monitoring
  • Hands-On Lab 4: Creating a Highly Available Environment
  • Módulo 9: Automation
  • Hands-On Lab 5: Automating Infrastructure Deployment with AWS CloudFormation
  • Módulo 10: Caching
  • Módulo 11: Building Decoupled Architectures
  • Módulo 12: Microservices and Serverless Architectures
  • Hands-On Lab 6: Implementing a Serverless Architecture with AWS Managed Services
  • Módulo 13: RTP/RPO and Backup Recovery Setup
  • Módulo 14: Optimizations and Review

Preparación para el examen de certificación AWS Certified Solutions Architect Associate

  • Módulo 0: The Exam
  • Módulo 1: Design Resilient Architectures
  • Módulo 2: Design Performant Architectures
  • Módulo 3: Specify Secure Applications and Architectures
  • Módulo 4: Design Cost-Optimized Architectures
  • Módulo 5: Define Operationally Excellent Architectures
  • Additional deep dive of AWS services
  • Quiz #1
  • Practice exam: AWS Certified Solutions Architect Associate
  • Quiz #2
  • Wrap-up

Documentación oficial del curso intensivo de preparación examen AWS Certified Solutions Architect Associate.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Este curso te prepara para el examen de certificación AWS Certified Advanced Networking Specialty, el cual valida las habilidades y la experiencia técnica avanzada en el diseño y la implementación de arquitecturas de red de TI híbridas de AWS a escala. Como especialista en redes, diseñarás una infraestructura de red segura, escalable y de alta disponibilidad en AWS mientras abordas requisitos como la seguridad de la red, la conectividad de TI híbrida, la integración de la red con otros servicios de AWS, las técnicas de enrutamiento y la resolución de problemas de red.

Preparación para el examen de certificación:

AWS Certified Advanced Networking Specialty

  • Navegar por el examen AWS Certified Advanced Networking Specialty.
  • Comprender los conceptos avanzados de redes en AWS para poder diseñar marcos de redes bien diseñados para las cargas de trabajo en Amazon Virtual Private Cloud (Amazon VPC).
  • Conectar centros de datos en las instalaciones a Amazon VPC (AWS Direct Connect, VPN de AWS), que le permitan a AWS funcionar como una extensión del centro de datos.
  • Aprovechar la automatización de la red para acelerar la implementación de cargas de trabajo y la migración de aplicaciones.
  • Practicar las mejores prácticas de seguridad y solución de problemas de redes.
  • Prepararte para el examen de certificación AWS Certified Advanced Networking Specialty.

  • Módulo 1: Testing (center) information and expectations
  • Módulo 2: Exam overview and structure
  • Módulo 3: Content domains and question breakdown
  • Módulo 4: Topics and concepts within content domains
  • Módulo 5: Question structure and interpretation techniques
  • Módulo 6: Practice exam questions

Documentación oficial del curso preparación de examen AWS Certified Advanced Networking Specialty.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Importante: la certificación AWS Certified Database Specialty será retirada el 30 de abril de 2024.

Este curso te prepara para realizar el examen de certificación AWS Certified Database Specialty, el cual valida tu capacidad para diseñar, implementar, implementar y mantener soluciones de bases de datos. Aprenderás sobre la logística del examen y la mecánica de las preguntas del examen, y explorarás los dominios técnicos del examen.

Revisarás los servicios básicos de AWS y los conceptos clave para los dominios del examen:

También aprenderás estrategias clave para tomar exámenes y las pondrás en acción mientras trabaja con múltiples preguntas de estudio. Una vez que haya perfeccionado tus habilidades, tendrás la oportunidad de realizar un cuestionario que te ayudará a evaluar tus áreas de fortaleza y debilidad para que sepas qué enfatizar en tus estudios previos al examen.

Preparación para el examen de certificación:

AWS Certified Database Specialty

  • Ingenieros de plataformas de datos.
  • Administradores de bases de datos.
  • Arquitectos de soluciones.

  • Identificar tus fortalezas y debilidades en cada dominio del examen para que sepas en qué concentrarte cuando estudies para el examen.
  • Describir los temas y conceptos técnicos que componen cada uno de los dominios del examen.
  • Resumir la logística y mecánica del examen y sus preguntas.
  • Usar estrategias efectivas para estudiar y tomar el examen.
  • Prepararte para el examen de certificación AWS Certified Database Specialty.

Módulo 0: Course introduction

Módulo 1: Domain 1 – Workload-Specific Database Design

  • Select the appropriate database services for specific types of data and workloads
  • 1.2 Determine strategies for disaster recovery and high availability
  • 1.3 Design database solutions for performance, compliance, and scalability
  • 1.4 Compare the costs of database solutions
  • Multiple question interactive domain review

Módulo 2: Domain 2 – Deployment and Migration

  • 2.1 Automate database solution deployments
  • 2.2 Determine data preparation and migration strategies
  • 2.3 Execute and validate data migration
  • Multiple question interactive domain review

Módulo 3: Domain 3 – Management and Operations

  • 3.1 Determine maintenance tasks and processes
  • 3.2 Determine backup and restore strategies
  • 3.3 Manage the operational environment of a database solution
  • Multiple question interactive domain review

Módulo 4: Domain 4 – Monitoring and Troubleshooting

  • 4.1 Determine monitoring and alerting strategies
  • 4.2 Troubleshoot and resolve common database issues
  • 4.3 Optimize database performance
  • Multiple question interactive domain review

Módulo 5: Domain 5 – Database Security

  • 5.1 Encrypt data at rest and in transit
  • 5.2 Evaluate auditing solutions
  • 5.3 Determine access control and authentication mechanisms
  • 5.4 Recognize potential security vulnerabilities within database solutions

Multiple question interactive domain review

Módulo 6: AWS Exam Preparation

  • 20 sample exam questions

Módulo 7: Course Review and Wrap-Up

Documentación oficial del curso preparación de examen AWS Certified Database Specialty.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Importante: la certificación AWS Certified Data Analytics Specialty será retirada el 9 de abril de 2024.

Este curso te prepara para superar el examen de certificación AWS Certified Data Analytics Specialty, el cual valida tu capacidad para diseñar, implementar, desplegar y mantener soluciones de análisis de datos. Aprenderás sobre la logística del examen y la mecánica de las preguntas del examen, y explorarás los dominios técnicos del examen.

Repasarás los servicios principales de AWS y los conceptos clave para los dominios del examen:

También aprenderás estrategias clave para la realización de exámenes y las pondrás en práctica trabajando con múltiples preguntas de estudio. Una vez que haya perfeccionado tus habilidades, tendrás la oportunidad de realizar un cuestionario que te ayudará a evaluar tus puntos fuertes y débiles para que sepas en qué debe hacer hincapié en tus estudios previos al examen.

Preparación para el examen de certificación:

Examen AWS Certified Data Analytics Specialty

  • Ingenieros de plataformas de datos.
  • Arquitectos de datos.
  • Científicos de datos.
  • Analistas de datos.
  • Arquitectos de soluciones.

  • Saber orientarse a lo largo del proceso evaluativo.
  • Comprender la estructura del examen y los tipos de preguntas.
  • Identificar cómo las preguntas se relacionan con los conceptos de análisis de datos de AWS.
  • interpretar los conceptos que se evalúan con cada pregunta del examen.
  • Prepararte para el examen de certificación AWS Certified Data Analytics Specialty.

Módulo 0: Introduction and Overview

Módulo 1: Domain 1 – Data Collection Systems

  • Determine the operational characteristics of the collection system
  • Select a collection system that handles the frequency, volume, and source of data
  • Select a collection system that addresses the key properties of data, such as order, format, and compression
  • Multiple question interactive domain review

Módulo 2: Domain 2 – Storage and Data Management Concerns

  • Determine the operational characteristics of the storage system for analytics
  • Determine data access and retrieval patterns
  • Select an appropriate data layout, schema, structure, and format
  • Define a data lifecycle based on usage patterns and business requirements
  • Determine the appropriate system for cataloging data and managing metadata
  • Multiple question interactive domain review

Módulo 3: Domain 3 – Data Processing Solutions

  • Determine appropriate data processing solution requirements
  • Design a solution for transforming and preparing data for analysis
  • Automate and operationalize a data processing solution
  • Multiple question interactive domain review

Módulo 4: Domain 4 – Analysis and Visualization of Analytical Data

  • Determine the operational characteristics of the analysis and visualization solution
  • Select the appropriate data analysis solution for a given scenario
  • Select the appropriate data visualization solution for a given scenario
  • Multiple question interactive domain review

Módulo 5: Domain 5 – Security of the Data Analysis System

  • Select the appropriate authentication and authorization mechanisms
  • Apply data protection and encryption techniques
  • Apply data governance and compliance controls
  • Multiple question interactive domain review

Módulo 6: AWS Exam Preparation

  • Sample exam questions

Módulo 7: Course Review and Wrap-Up

Documentación oficial del curso de preparación de examen AWS Certified Data Analytics Specialty.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Las personas certificadas Yellow Belt son fundamentales en la creación de un cambio de mentalidad necesario para una cultura de mejora.

La certificación Yellow Belt está un nivel por encima del White Belt.

Aunque todavía se considera una introducción básica a los conceptos de Six Sigma, en la certificación Yellow Belt, se adquieren, además, conocimientos básicos sobre el método DMAIC

Preparación para el examen:

Certificación Lean Six Sigma Yellow Belt

Conocer la metodología Lean Six Sigma Yellow Belt

Aunque no es necesario, es recomendable poseer la certificación Lean Six Sigma White Belt

Modulo 1: ¿Qué es Six Sigma?

Modulo 2: Historia y aplicación de Six Sigma

Modulo 3: Otros métodos de calidad y mejora de procesos

Modulo 4: Conceptos Lean

Modulo 5: Conceptos básicos de Six Sigma

Modulo 6: Acercamiento al Problema

Modulo 7: ¿Qué es un Proceso?

Modulo 8: Calidad

Modulo 9: Selección de los proyectos adecuados

Modulo 10: Gestión básica de equipos Six Sigma

Modulo 11: Introducción a DMAIC y DMADV

  • Documentación Oficial de Lean Six Sigma Yellow Belt

  • Formador Certificado por Six Sigma
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Las personas certificadas Green Belt trabajan dentro de los equipos Six Sigma, generalmente bajo la supervisión de un Black Belt o un Master Black Belt. En algunos casos, los Green Belt pueden liderar o manejar proyectos más pequeños por su cuenta.

Los Green Belt generalmente disponen de capacidades intermedias de análisis estadístico; pueden abordar inquietudes sobre datos y análisis, ayudar a Black Belts a aplicar las herramientas de Six Sigma en un proyecto o enseñar a otros integrantes de la organización la metodología general de Six Sigma.

Preparación para el examen:

Certificación Lean Six Sigma Green Belt

  • Modo de Fallos y Análisis de Efectos
  • Gestión de proyectos y equipos
  • Probabilidad y Teorema del Límite Central
  • Distribuciones estadísticas
  • Estadísticas descriptivas
  • Cómo realizar pruebas de hipótesis básicas
  • Eliminación de residuos y Kaizen
  • Gráficos de control básicos

Aunque no es necesario, es recomendable poseer la certificación Lean Six Sigma White Belt y/o tener conocimientos básicos de estadística.

Modulo 1: ¿Qué es Six Sigma?

Modulo 2: Historia y aplicación de Six Sigma

Modulo 3: Otros métodos de calidad y mejora de procesos

Modulo 4: Conceptos Lean

Modulo 5: Conceptos básicos de Six Sigma

Modulo 6: Abordando el Problema

Modulo 7: ¿Qué es un Proceso?

Modulo 8: Calidad

Modulo 9: Selección de los proyectos correctos

Modulo 10: Gestión básica de equipos Six Sigma

Modulo 11: Introducción a DMAIC y DMADV

  • Definir
  • Medida
  • Analizar
  • Mejorar
  • Control

Modulo 12: Análisis Gráfico Intermedio

Modulo 13: Distribuciones de probabilidad normal

Modulo 14: Correlación y regresión

Modulo 15: Distribuciones de probabilidad no normales

Modulo 16: Evaluación de la hipótesis

Modulo 17: Tamaño de la muestra

Modulo 18: Gráficos de control avanzados

Modulo 19: Aplicando Estadísticas a procesos de Negocios a través de Six Sigma

  • Documentación Oficial de Lean Six Sigma Green Belt

  • Formador Certificado por Six Sigma
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Las personas certificadas Black Belt poseen el mayor nivel de formación y ven la mejora continua de procesos como su profesión.

Los Black Belt son considerados los líderes dentro de un equipo Six Sigma. Parte de su deber es supervisar lo que otros miembros (Green Belt y Yellow Belt) han logrado y mantener a todos los miembros del equipo encaminados para alcanzar las metas y los plazos.

Su tarea principal es la gestión de proyectos también realizan la definición del proyecto Six Sigma y su alcance. Es su tarea establecer objetivos y plazos para el proyecto, así como la actualización constante sobre el estado actual del negocio. Con excelentes habilidades de comunicación y asumen el papel de “agente de cambio” dentro de su organización.

Dado que se les asigna una gran responsabilidad dentro de un equipo Six Sigma, es un requisito que estas personas reciban capacitación y adquieran suficiente experiencia en la forma de liderar proyectos Six Sigma. Estos expertos poseen conocimiento de análisis financiero y estadístico, gestión de proyectos y herramientas Six Sigma. Este conocimiento y experiencia les permite realizar una gama más amplia de tareas. Los Black Belt a menudo son buscados y son altamente empleables debido a estas características

Preparación para el examen:

Certificación Lean Six Sigma Black Belt

  • Habilidades avanzadas de gestión de proyectos y equipos
  • Conocimiento de la amplia lista de herramientas de lluvia de ideas y proyectos de Six Sigma
  • Estadísticas intermedias a avanzadas
  • Comprensión de otros programas de calidad y mejora de procesos, incluidos Lean y Total Quality Management
  • Habilidad para diseñar procesos
  • Capacidades avanzadas para diagramar procesos, incluidos diagramas de flujo y mapas de flujo de valor
  • Uso de software para realizar análisis, como Excel o Minitab

Es recomendable poseer la certificación Lean Six Sigma Green Belt y/o nivel medio de estadística

Modulo 1: ¿Qué es Six Sigma?

Modulo 2: Historia y aplicacion de Six Sigma

Modulo 3: Otros métodos de calidad y mejora de procesos

Modulo 4: Conceptos Lean

Modulo 5: Conceptos básicos de Six Sigma

Modulo 6: Abordando el Problema

Modulo 7: ¿Qué es un proceso?

Modulo 8: Calidad

Modulo 9: Seleccion de los proyectos correctos

Modulo 10: Gestion básica de equipos Six Sigma

Modulo 11: Introduccion a DMAIC y DMADV

  • Definir
  • Medida
  • Analizar
  • Mejorar
  • Control

Modulo 12: Análisis Gráfico Intermedio

Modulo 13: Distribuciones de probabilidad normal

Modulo 14: Correlacion y regresion

Modulo 15: Distribuciones de probabilidad no normales

Modulo 16: Evaluacion de la hipotesis

Modulo 17: Tamaño de la muestra

Modulo 18: Gráficos de control avanzados

Modulo 19: Aplicacion de estadísticas a aplicaciones comerciales a través de Six Sigma

Modulo 20: Introduccion a Minitab

Modulo 21: Gráficos y herramientas de calidad en Minitab

Modulo 22: El menú Estadísticas en Minitab

Modulo 23: Análisis de varianza (ANOVA de 1 way)

Modulo 24: Diseño de experimentos

Modulo 25: Interacciones, factoriales multinivel y creacion de experimentos

Modulo 26: Lluvia de ideas y herramientas de mejora de procesos

Modulo 27: Mapas de procesos

Modulo 28: Mapeo de flujo de valor

  • Documentación Oficial de Lean Six Sigma Black Belt

  • Formador Certificado por Six Sigma
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En este curso, aprenderá como ha explorar y un análisis de datos
en Looker que antes lo hacían principalmente los desarrolladores o analistas de SQL.

Al finalizar este curso, podrá aprovechar la tecnología Looker (plataforma de análisis) para encontrar y explorar contenido relevante en su organizacion, haga preguntas sobre sus datos, cree nuevas métricas según sea necesario, y crear y compartir visualizaciones y tableros para facilitar la gestion basada en datos toma de decisiones.

Preparación para el examen:

Certificacion Cloud Digital Leader

  • Definir y configurar Looker, definiendo las capacidades que proporciona para trabajar con datos
  • Conocimientos en los cuatro conceptos analíticos centrales en Looker (dimensiones,
    medidas, filtros, pivotes)
  • Usar dimensiones, medidas, filtros y pivotes para analizar y
    visualizar datos
  • Cree métricas avanzadas instantáneamente con cálculos de tablas
  • Cree y comparta visualizaciones usando Looks y tableros
  • Utilice carpetas y tableros en Looker para administrar y organizar
    contenido

No son necesarios conocimientos previos para la realización del curso.

Se recomienda conocimientos informáticos nivel usuario

Modulo 1: Introduccion a Looker

  • Definir Looker y las capacidades que proporciona para trabajar con datos
  • Navegar por la interfaz de usuario de Looker para acceder a los datos y las funcionalidades

Modulo 2: Explicar los cuatro conceptos analíticos centrales en Looker (dimensiones, medidas, filtros, pivotes)

  • Utilizar dimensiones para acceder a atributos de datos
  • Utilizar medidas para agregar atributos de datos
  • Combinar dimensiones y medidas para un análisis y visualizacion de datos más completos
  • Filtrar dimensiones y medidas para analizar un subconjunto de los datos
  • Utilizar pivotes para reestructurar y agrupar datos

Modulo 3: Cálculos de tablas

  • Como se utilizan los cálculos de tablas y las funciones de compensacion para trabajar con datos en Looker
  • Tipos de cálculos de tablas y funciones de compensacion disponibles en Looker
  • Crear nuevas métricas instantáneamente con cálculos de tablas y funciones de compensacion

Modulo 4: Looks y Dashboards

  • Como crear y entregar Looks y tableros en Looker para compartir resultados con las partes interesadas
  • Crear y compartir informes de visualizacion independientes llamados Looks
  • Creear y compartir paneles para combinar múltiples visualizaciones para un tema o dominio comercial
  • Agregar contenido nuevo a un tablero existente
  • Agregar filtros a un Look o tablero para un análisis flexible de un subconjunto de los datos Entregue datos fuera de Looker para el acceso de otras partes interesadas o sistemas

Modulo 5: Gestion de contenido

  • Utilizar carpetas en Looker para organizar el contenido para la navegabilidad y el descubrimiento
  • Crear y comparta tableros para centralizar el contenido que vive en diferentes carpetas en una instancia de Looker

Documentación Oficial de Google Cloud - Analyzing and Visualizing Data in Looker

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Business professionals in non-technical roles have a unique opportunity to lead and influence machine learning projects. In this course, you’ll explore machine learning without the technical jargon. You’ll learn how to translate business problems into custom machine learning use cases, assess each phase of the project, and translate the requirements to your technical team.

  • Thoroughly understand how ML can be used to improve business processes and create new value
  • Thoroughly understand how ML can be used to improve business processes and create new value
  • Explore common machine learning use cases implemented by businesses
  • Identify the requirements to carry out an ML project, from assessing feasibility, to data preparation, model training, evaluation, and deployment
  • Define data characteristics and biases that affect the quality of ML models
  • Recognize key considerations for managing ML projects, including data strategy, governance, and project teams
  • Pitch a custom ML use case that can meaningfully impact your business

  • No prior technical knowledge is required
  • No prior technical knowledge is required
  • Savvy about your own business and objectives
  • Recommended: Business Transformation with Google Cloud (on-demand)

Modulo 1: Introduction

  • Differentiate between AI, machine learning, and deep learning
  • Differentiate between AI, machine learning, and deep learning
  • Describe the high-level uses of ML to improve business processes or to  create new value
  • Begin assessing the feasibility of ML use cases

Modulo 2: What is Machine Learning?

  • Differentiate between supervised and unsupervised machine learning problem types
  • Differentiate between supervised and unsupervised machine learning problem types
  • Identify examples of regression, classification, and clustering problem statements
  • Recognize the core components of Google’s standard definition for ML and considerations for each when carrying out an ML project

Modulo 3: Employing ML

  • Describe the end-to-end process to carry out an ML project and considerations within each phase
  • Describe the end-to-end process to carry out an ML project and considerations within each phase
  • Practice pitching a custom ML problem statement that has the potential to meaningfully impact your business

Modulo 4: Discovering ML Use Cases

  • Discover common machine learning opportunities in day-to-day business processes

Modulo 5: How to Be Successful at ML

  • Identify the requirements for businesses to successfully use ML

Modulo 6: Summary

  • Summarize key concepts and tools covered in the course content
  • Summarize key concepts and tools covered in the course content
  • Compete for best ML use case presentation based on creativity, originality, and feasibility

Documentación Oficial de Google Cloud - Managing Machine Learning Projects with Google Cloud

  • Formador Certificado por GCP
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el curso Architecting on AWS, a través de una serie de escenarios de casos de uso y aprendizaje práctico, aprenderás a identificar servicios y características para crear soluciones de TI resistentes, seguras y de alta disponibilidad en la nube de AWS. Los formadores expertos de AWS hacen hincapié en las prácticas recomendadas mediante el AWS Well-Architected Framework y te guían a través del proceso de diseño de soluciones de TI óptimas, basadas en escenarios de la vida real.

Preparación para el examen de certificación AWS Certified Solutions Architect Associate.

  • Arquitectos de soluciones.
  • Ingenieros de diseño de soluciones.
  • Desarrolladores que quieran comprender la arquitectura de AWS.

  • Identificar las prácticas básicas de arquitectura de AWS.
  • Identificar servicios y características para crear soluciones de TI resistentes, seguras y de alta disponibilidad en la nube de AWS.
  • Aprender el proceso de diseño de soluciones de TI óptimas mediante el AWS Well-Architected Framework, basado en escenarios de la vida real.
  • Explorar los servicios de AWS para la seguridad de las cuentas, las redes, la informática, el almacenamiento, las bases de datos, el monitoreo, la automatización, los contenedores, la arquitectura sin servidor, los servicios de borde, y las copias de seguridad y recuperación.

  • Es recomendable haber obtenido, previamente, la certificación AWS Certified Cloud Practitioner Foundational o haber superado el curso AWS Technical Essentials.
  • Tener conocimientos prácticos sobre los sistemas distribuidos.
  • Estar familiarizado con los conceptos generales sobre redes.
  • Estar familiarizado con el direccionamiento IP.
  • Tener conocimientos prácticos sobre las arquitecturas de varios niveles.
  • Estar familiarizado con los conceptos de informática en la nube.

Módulo 1: Architecting Fundamentals

  • AWS services
  • AWS infrastructure
  • AWS Well-Architected Framework
  • Hands-on lab: Explore and interact with the AWS Management Console and AWS Command Line Interface

Módulo 2: Account Security

  • Principals and identities
  • Security policies
  • Managing multiple accounts

Módulo 3: Networking 1

  • IP addressing
  • VPC fundamentals
  • VPC traffic security

Módulo 4: Compute

  • Compute services
  • EC2 instances
  • Storage for EC2 instances
  • Amazon EC2 pricing options
  • AWS Lambda
  • Hands-On Lab: Build your Amazon VPC infrastructure

Módulo 5: Storage

  • Storage services
  • Amazon S3
  • Shared file systems
  • Data migration tools

Módulo 6: Database Services

  • Database services
  • Amazon RDS
  • Amazon DynamoDB
  • Database caching
  • Database migration tools
  • Hands-on Lab: Create a database layer in your Amazon VPC infrastructure

Módulo 7: Monitoring and Scaling

  • Monitoring
  • Alarms and events
  • Load balancing
  • Auto scaling
  • Hands-on Lab: Configure high availability in your Amazon VPC

Módulo 8: Automation

  • AWS CloudFormation
  • Infrastructure management

Módulo 9: Containers

  • Microservices
  • Containers
  • Container services

Módulo 10: Networking 2

  • VPC endpoints
  • VPC peering
  • Hybrid networking
  • AWS Transit Gateway

Módulo 11: Serverless

  • What is serverless?
  • Amazon API Gateway
  • Amazon SQS
  • Amazon SNS
  • Amazon Kinesis
  • AWS Step Functions
  • Hands-on Lab: Build a serverless architecture

Módulo 12: Edge Services

  • Edge fundamentals
  • Amazon Route 53
  • Amazon CloudFront
  • DDoS protection
  • AWS Outposts
  • Hands-On Lab: Configure an Amazon CloudFront distribution with an Amazon S3 origin

Módulo 13: Backup and Recovery

  • Disaster planning
  • AWS Backup
  • Recovery strategies
  • Hands-on Lab: Capstone lab – Build an AWS Multi-Tier architecture. Participants review the concepts and services learned in class and build a solution based on a scenario. The lab environment provides partial solutions to promote analysis and reflection. Participants deploy a highly available architecture. The instructor is available for consultation.

Documentación oficial del curso Architecting on AWS.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Este curso es para personas que buscan comprender cómo administrar, optimizar y predecir costos como ejecuta cargas de trabajo en AWS. Aprende cómo implementar las mejores prácticas arquitectónicas, explorar el costo estrategias de optimización y patrones de diseño para ayudarlo a diseñar soluciones rentables en AWS.

Preparación para el examen:

Exam Readiness: Solutions Architect – Associate

Este curso te prepara para la certificación de AWS Certified Solutions Architect – Associate

  • Explicar los costos de los servicios básicos de AWS
  • Determinar y estimar costos asociados con las cargas de trabajo en la nube actuales y futuras
  • Utilizar estrategias y prácticas recomendadas para reducir los costos de AWS
  • Utilizar herramientas de AWS para administrar, monitorear, alertar y optimizar los gastos de AWS

  • Aconsejamos que los participantes de este curso tengan: Architecting on AWS

Modulo 0: Couse Overview

  • Course introduction

Modulo 1: Introduction to Cloud Financial Management

  • Introduction to Cloud Financial Management
  • Four pillars of Cloud Financial Management

Modulo 2: Resource Tagging

  • Tagging resources
  • Hands-On Lab: Cost optimization: Control Resource Consumption Using Tagging and AWS Config

Modulo 3: Pricing and Cost

  • Fundamentals of pricing
  • AWS Free Tier
  • Volume discounts
  • Savings plans and Reserved Instances
  • Demonstration: AWS Pricing Calculator

Modulo 4: AWS Billing, Reporting, and Monitoring

  • Understanding AWS invoices
  • Reporting and planning
  • AWS Cost Explorer
  • AWS Budgets
  • Demonstration: AWS Billing Console
  • Demonstration: AWS Cost Explorer
  • Demonstration: Trusted Advisor
  • Hands-On Lab: Cost optimization: Deploy Ephemeral Environments Using Amazon EC2 Auto Scaling

Modulo 5: Architecting for Cost: Compute

  • Evolution of compute efficiency
  • Amazon EC2 right-sizing
  • Purchasing options
  • Architect for Amazon EC2 Spot Instance
  • Impact of software licensing
  • Demonstration: Compute Optimizer
  • Demonstration: Spot Instance Advisor
  • Hands-On Lab: Cost optimization: Right Size Amazon EC2 Instances Using Amazon CloudWatch Metrics

Modulo 6: Architecting for Cost: Networking

  • Data transfer costs
  • Understand data costs for different services
  • How to triage network costs
  • Hands-On Lab: Cost optimization: Reduce Data Transfer Costs Using Amazon CloudFront and Endpoints

Modulo 7: Architecting for Cost: Storage

  • Amazon EBS cost, pricing, and best practices
  • Amazon S3 cost, pricing, and best practices
  • Amazon EFS cost, pricing, and best practices
  • Hands-On Lab: Cost optimization: Reduce Storage Costs Using Amazon S3 Lifecycle Management

Modulo 8: Architecting for Cost: Databases

  • Amazon RDS cost, pricing, and best practices
  • Amazon Aurora cost, pricing, and best practices
  • Amazon DynamoDB cost, pricing, and best practices
  • Amazon ElastiCache cost, pricing, and best practices
  • Amazon Redshift cost, pricing, and best practices

Modulo 9: Cost Governance

  • Setting up AWS Organizations
  • AWS Systems Manager
  • Hands-On Lab: Cost optimization: Reduce Compute Costs Using AWS Instance Scheduler

Modulo 10: Course Summary

  • Course review

  • Documentación del curso AWS Cloud Financial Management for Builders

  • Formador Certificado por AWS
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

La seguridad es fundamental para AWS. El gobierno a escala es un nuevo concepto para automatizar el gobierno de la nube que puede ayudar a las empresas a retirar los procesos manuales en la gestión de cuentas, la aplicación del presupuesto y seguridad y cumplimiento.

Al automatizar los desafíos comunes, las empresas pueden escalar sin inhibirse agilidad, velocidad o innovación. Además, pueden proporcionar a los tomadores de decisiones visibilidad, control y gobernanza necesaria para proteger datos y sistemas confidenciales.

Preparación para el examen:

Exam Readiness: AWS Certified Security - Specialty

Este curso te prepara para la certificación de AWS Certified Security - Specialty

  • Establezca una zona de aterrizaje con AWS Control Tower
  • Configurar AWS Organizations para crear un entorno de varias cuentas
  • Implementación de la administración de identidades mediante usuarios y grupos de AWS Single Sign-On (SSO)
  • Federar el acceso mediante AWS SSO

  • Conocimiento y experiencia con los servicios de AWS, como AWS Control Tower, AWS Service Catalog, AWS Config y AWS Systems Manager
  • Recomendamos que los asistentes a este curso hayan tomado AWS Security Fundamentals y AWS Security Essentials

Modulo 1: Governance at Scale

  • Governance at scale focal points
  • Business and Technical Challenges

Modulo 2: Governance Automation

  • Multi-account strategies, guidance, and architecture
  • Environments for agility and governance at scale
  • Governance with AWS Control Tower
  • Use cases for governance at scale

Modulo 3: Preventive Controls

  • Enterprise environment challenges for developers
  • AWS Service Catalog
  • Resource creation
  • Workflows for provisioning accounts
  • Preventive cost and security governance
  • Self-service with existing IT service management (ITSM) tools

Lab 1: Deploy Resources for AWS Catalog

Modulo 4: Detective Controls

  • Operations aspect of governance at scale
  • Resource monitoring
  • Configuration rules for auditing
  • Operational insights
  • Remediation
  • Clean up accounts

Lab 2: Compliance and Security Automation with AWS Config

Lab 3: Taking Action with AWS Systems Manager

Modulo 5: Resources

  • Explore additional resources for security governance at scale

  • Documentación del curso AWS Security Governance at Scale

  • Formador Certificado por AWS
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

El marco de buena arquitectura le permite tomar decisiones informadas sobre las arquitecturas de sus clientes de forma nativa en la nube y comprender el impacto de las decisiones de diseño que se toman. Al utilizar el marco de buena arquitectura, comprenderá los riesgos de su arquitectura y las formas de mitigarlos.

Preparación para el examen:

Exam Readiness: Solutions Architect - Associate

Este curso te prepara para la certificación de AWS Certified Solutions Architect - Associate

  • Identificar las características de Well-Architected Framework, los principios de diseño, los pilares de diseño y los usos comunes
  • Aplicar los principios de diseño, los servicios clave y las mejores prácticas para cada pilar del Marco Bien Diseñado
  • Utilice la herramienta bien diseñada para realizar revisiones bien diseñadas

  • Recomendamos que los asistentes a este curso tengan conocimientos sobre los servicios de AWS, las interfaces de administración de AWS y el diseño y la arquitectura básicos de AWS
  • Recomendamos que los asistentes a este curso hayan realizado AWS Cloud Practioner Essentials, AWS Technical Essentials y Architecting on AWS

Modulo 1: Well-Architected Introduction

  • History of Well-Architected
  • Goals of Well-Architected
  • What is the AWS Well-Architected Framework?
  • The AWS Well-Architected Tool

Modulo 2: Design Principles

  • Operational Excellence
  • Lab 1: Operational Excellence
  • Reliability
  • Lab 2: Reliability
  • Security
  • Lab 3: Security
  • Performance Efficiency
  • Lab 4: Performance Efficiency
  • Cost Optimization
  • Lab 5: Cost Optimization

  • Documentación del curso AWS Well-Architected Best Practices

  • Formador Certificado por AWS
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En este curso, aprenderá sobre soluciones de big data basadas en la nube como Amazon EMR, Amazon Redshift, Amazon Kinesis y el resto de la plataforma de big data de AWS. Aprenda a utilizar Amazon EMR para procesar datos utilizando el amplio ecosistema de herramientas de Hadoop como Hive y Hue, cree entornos de big data, trabaje con Amazon DynamoDB, Amazon Redshift, Amazon QuickSight, Amazon Athena y Amazon Kinesis, y diseñe entornos de big data para seguridad y rentabilidad.

Preparación para el examen:

Exam Readiness: AWS Certified Data Analytics - Specialty

Este curso te prepara para la certificación de AWS Certified Data Analytics - Specialty

  • Implementar soluciones de AWS en un ecosistema de big data
  • Utilizar Apache Hadoop en el contexto de Amazon EMR
  • Identificar los componentes de un clúster de Amazon EMR, luego lanzarlo y configurar un clúster de Amazon EMR
  • Utilizar marcos de programación habituales disponibles para Amazon EMR, entre otros, Hive, Pig y streaming

  • Conocimientos básicos de tecnologías de big data, incluidos Apache Hadoop, HDFS y consultas SQL/NoSQL
  • Capacitación digital gratuita en Data Analytics Fundamentals completa o una experiencia equivalente
  • Conocimiento práctico sobre los principales servicios de AWS y la implementación de la nube pública
  • Capacitación presencial en AWS Technical Essentials completa o una experiencia equivalente
  • Conocimientos básicos sobre el almacenamiento de datos, los sistemas de bases de datos relacionales y el diseño de base de datos

Modulo 1: Overview of Big Data

    • What is big data
    • The big data pipeline
    • Big data architectural principals

Modulo 2: Big Data ingestion and transfer

  • Overview: Data ingestion
  • Transferring data

Modulo 3: Big data streaming and Amazon Kinesis

  • Stream processing of big data
  • Amazon Kinesis
  • Amazon Kinesis Data Firehose
  • Amazon Kinesis Video Streams
  • Amazon Kinesis Data Analytics
  • Hands-on lab 1: Streaming and Processing Apache Server Logs Using Amazon Kinesis

Modulo 4: Big data storage solutions

  • AWS data storage options
  • Storage solutions concepts
  • Factors in choosing a data store

Modulo 5: Big data processing and analytics

  • Big data processing and analytics
  • Amazon Athena
  • Hands-on lab 2: Using Amazon Athena to Analyze Log Data

Modulo 6: Apache Hadoop and Amazon EMR

  • Introduction to Amazon EMR and Apache Hadoop
  • Best practices for ingesting data
  • Amazon EMR
  • Amazon EMR architecture
  • Hands-on lab 3: Storing and Querying Data on Amazon DynamoDB

Modulo 7: Using Amazon EMR

  • Developing and running your application
  • Launching your cluster
  • Handling output from your completed jobs

Modulo 8: Hadoop programming frameworks

  • Hadoop frameworks
  • Other frameworks for use on Amazon EMR
  • Hands-on lab 4: Processing Server Logs with Hive on Amazon EMR

Modulo 9: Web interfaces on Amazon EMR

  • Hue on Amazon EMR
  • Monitoring your cluster
  • Hands-on lab 5: Running Pig Scripts in Hue on Amazon EMR

Modulo 10: Apache Spark on Amazon EMR

  • Apache Spark
  • Using Spark
  • Hands-on lab 6: Processing NY Taxi Data Using Apache Spark

Modulo 11: Using AWS Glue to automate ETL workloads

  • What is AWS Glue?
  • AWS Glue: Job orchestration

Modulo 12: Amazon Redshift and big data

  • Data warehouses vs. traditional databases
  • Amazon Redshift
  • Amazon Redshift architecture

Modulo 13: Securing your Amazon deployments

  • Securing your Amazon deployments
  • Amazon EMR security overview
  • AWS Identity and Access Management (IAM) overview
  • Securing data
  • Amazon Kinesis security overview
  • Amazon DynamoDB security overview
  • Amazon Redshift security overview

Modulo 14: Managing big data costs

  • Total cost considerations for Amazon EMR
  • Amazon EC2 pricing models
  • Amazon Kinesis pricing models
  • Cost considerations for Amazon DynamoDB
  • Cost considerations and pricing models for Amazon Redshift
  • Optimizing cost with AWS

Modulo 15: Visualizing and orchestrating big data

  • Visualizing big data
  • Amazon QuickSight
  • Orchestrating a big data workflow
  • Hands-on lab 7: Using TIBCO Spotfire to visualize data

Modulo 16: Big data design patterns

  • Common architectures

Modulo 17: Course wrap-up

  • What’s next?

  • Documentación del curso Big Data on AWS

  • Formador Certificado por AWS
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el curso Building Data Analytics Solutions using Amazon Redshift aprenderás a crear una solución de análisis de datos con Amazon Redshift, un servicio de almacén de datos en la nube. El curso se centra en los componentes de recopilación, ingesta, catalogación, almacenamiento y procesamiento de datos de la canalización de análisis. Aprenderás a integrar Amazon Redshift con un lago de datos para soportar cargas de trabajo de análisis y aprendizaje automático. También aprenderá a aplicar las mejores prácticas de seguridad, rendimiento y administración de costos al funcionamiento de Amazon Redshift.

Preparación para el examen de certificación:

Examen AWS Certified Data Analytics Specialty

  • Ingenieros de almacenes de datos.
  • Ingenieros de plataformas de datos.
  • Arquitectos y operadores que construyen y gestionan canalizaciones de análisis de datos.

  • Comparar las características y ventajas de los almacenes de datos, los lagos de datos y las arquitecturas de datos modernas.
  • Diseñar e implementar una solución analítica de almacén de datos.
  • Identificar y aplicar las técnicas adecuadas, incluida la compresión, para optimizar el almacenamiento de datos.
  • Seleccionar e implementar las opciones apropiadas para ingerir, transformar y almacenar datos.
  • Elegir la instancia y los tipos de nodo, los clústeres, el escalado automático y la topología de red adecuados para un caso de uso empresarial concreto.
  • Comprender cómo el almacenamiento y el procesamiento de datos afectan a los mecanismos de análisis y visualización necesarios para obtener información empresarial procesable.
  • Proteger los datos en reposo y en tránsito.
  • Supervisar las cargas de trabajo analíticas para identificar y solucionar problemas.
  • Aplicar las mejores prácticas de gestión de costes.

A: Overview of Data Analytics and the Data Pipeline

  • Data analytics use cases
  • Using the data pipeline for analytics

Módulo 1: Using Amazon Redshift in the Data Analytics Pipeline

  • Why Amazon Redshift for data warehousing?
  • Overview of Amazon Redshift

Módulo 2: Introduction to Amazon Redshift

  • Amazon Redshift architecture
  • Interactive Demo 1: Touring the Amazon Redshift console
  • Amazon Redshift features
  • Practice Lab 1: Load and query data in an Amazon Redshift cluster

Módulo 3: Ingestion and Storage

  • Ingestion
  • Interactive Demo 2: Connecting your Amazon Redshift cluster using a Jupyter notebook with Data API
  • Data distribution and storage
  • Interactive Demo 3: Analyzing semi-structured data using the SUPER data type
  • Querying data in Amazon Redshift
  • Practice Lab 2: Data analytics using Amazon Redshift Spectrum

Módulo 4: Processing and Optimizing Data

  • Data transformation
  • Advanced querying
  • Practice Lab 3: Data transformation and querying in Amazon Redshift
  • Resource management
  • Interactive Demo 4: Applying mixed workload management on Amazon Redshift
  • Automation and optimization
  • Interactive demo 5: Amazon Redshift cluster resizing from the dc2.large to ra3.xlplus cluster

Módulo 5: Security and Monitoring of Amazon Redshift Clusters

  • Securing the Amazon Redshift cluster
  • Monitoring and troubleshooting Amazon Redshift clusters

Módulo 6: Designing Data Warehouse Analytics Solutions

  • Data warehouse use case review
  • Activity: Designing a data warehouse analytics workflow

B: Developing Modern Data Architectures on AWS

  • Modern data architectures

Documentación oficial del curso Building Data Analytics Solutions using Amazon Redshift.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el curso Building Data Lakes on AWS aprenderás a crear un lago de datos operativo que admita el análisis de datos estructurados y no estructurados. Aprenderás los componentes y la funcionalidad de los servicios involucrados en la creación de un lago de datos. Utilizarás AWS Lake Formation para crear un lago de datos, AWS Glue para crear un catálogo de datos y Amazon Athena para analizar datos. Las conferencias y los laboratorios del curso fomentan el aprendizaje con la exploración de varias arquitecturas comunes de lagos de datos.

Preparación para el examen de certificación:

Examen AWS Certified Data Analytics Specialty

  • Ingenieros de plataformas de datos.
  • Arquitectos de soluciones.
  • Profesionales de TI.

  • Aplicar metodologías de lago de datos en el plan y diseño de un lago de datos.
  • Articular los componentes y servicios requeridos para crear un lago de datos de AWS.
  • Asegurar un lago de datos con los permisos adecuados.
  • Incorporar, almacenar y transformar datos en lagos de datos.

  • Haber superado, previamente, el curso AWS Technical Essentials.
  • Tene, al menos, un año de experiencia en la creación de procesos de análisis de datos o haber completado el curso digital Data Analytics Fundamentals.

Módulo 1: Introduction to data lakes

  • Describe the value of data lakes
  • Compare data lakes and data warehouses
  • Describe the components of a data lake
  • Recognize common architectures built on data lakes

Módulo 2: Data ingestion, cataloging, and preparation

  • Describe the relationship between data lake storage and data ingestion
  • Describe AWS Glue crawlers and how they are used to create a data catalog
  • Identify data formatting, partitioning, and compression for efficient storage and query
  • Lab 1: Set up a simple data lake

Módulo 3: Data processing and analytics

  • Recognize how data processing applies to a data lake
  • Use AWS Glue to process data within a data lake
  • Describe how to use Amazon Athena to analyze data in a data lake

Módulo 4: Building a data lake with AWS Lake Formation

  • Describe the features and benefits of AWS Lake Formation
  • Use AWS Lake Formation to create a data lake
  • Understand the AWS Lake Formation security model
  • Lab 2: Build a data lake using AWS Lake Formation

Módulo 5: Additional Lake Formation configurations

  • Automate AWS Lake Formation using blueprints and workflows
  • Apply security and access controls to AWS Lake Formation
  • Match records with AWS Lake Formation FindMatches
  • Visualize data with Amazon QuickSight
  • Lab 3: Automate data lake creation using AWS Lake Formation blueprints
  • Lab 4: Data visualization using Amazon QuickSight

Módulo 6: Architecture and course review

  • Post course knowledge check
  • Architecture review
  • Course review

Documentación oficial del curso Building Data Lakes on AWS.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

El almacenamiento de datos en AWS le presenta conceptos, estrategias y prácticas recomendadas para diseñar una solución de almacenamiento de datos basada en la nube mediante Amazon Redshift, el almacenamiento de datos a escala de petabytes en AWS.

Este curso demuestra cómo recopilar, almacenar y preparar datos para el almacén de datos mediante el uso de servicios de AWS como Amazon DynamoDB, Amazon EMR, Amazon Kinesis y Amazon S3. Además, este curso demuestra cómo utilizar Amazon QuickSight para realizar análisis de sus datos.

Preparación para el examen:

Exam Readiness: AWS Certified Database – Specialty

Este curso te prepara para la certificación de AWS Certified Database – Specialty

  • Evaluar la relación entre Amazon Redshift y otros sistemas de big data
  • Evaluar casos de uso de cargas de trabajo de almacenamiento de datos y revisar implementaciones reales de servicios de análisis y datos de AWS como parte de una solución de almacenamiento de datos
  • Elegir un tamaño y tipo de nodo de Amazon Redshift adecuado para sus necesidades relacionadas con datos. Comprender cuáles son las características de seguridad adecuadas para Amazon Redshift, como el cifrado, los permisos de IAM y los permisos para bases de datos

  • Estar familiarizado con conceptos de diseño de bases de datos y bases de datos relacionales

Modulo 1: Introduction to Data Warehousing

  • Relational databases
  • Data warehousing concepts
  • The intersection of data warehousing and big data
  • Overview of data management in AWS
  • lab 1: Introduction to Amazon Redshift

Modulo 2: Introduction to Amazon Redshift

  • Conceptual overview
  • Real-world use cases
  • lab 2: Launching an Amazon Redshift cluster

Modulo 3: Launching clusters

  • Building the cluster
  • Connecting to the cluster
  • Controlling access
  • Database security
  • Load data
  • lab 3: Optimizing database schemas

Modulo 4: Designing the database schema

  • Schemas and data types
  • Columnar compression
  • Data distribution styles
  • Data sorting methods

Modulo 5: Identifying data sources

  • Data sources overview
  • Amazon S3
  • Amazon DynamoDB
  • Amazon EMR
  • Amazon Kinesis Data Firehose
  • AWS Lambda Database Loader for Amazon Redshift
  • lab 4: Loading real-time data into an Amazon Redshift database

Modulo 6: Loading data

  • Preparing Data
  • Loading data using COPY
  • Maintaining tables
  • Concurrent write operations
  • Troubleshooting load issues
  • lab 5: Loading data with the COPY command

Modulo 7: Writing queries and tuning for performance

  • Amazon Redshift SQL
  • User-Defined Functions (UDFs)
  • Factors that affect query performance
  • The EXPLAIN command and query plans
  • Workload Management (WLM)
  • lab 6: Configuring workload management

Modulo 8: Amazon Redshift Spectrum

  • Amazon Redshift Spectrum
  • Configuring data for Amazon Redshift Spectrum
  • Amazon Redshift Spectrum Queries
  • lab 7: Using Amazon Redshift Spectrum

Modulo 9: Maintaining clusters

  • Audit logging
  • Performance monitoring
  • Events and notifications
  • Lab 8: Auditing and monitoring clusters
  • Resizing clusters
  • Backing up and restoring clusters
  • Resource tagging and limits and constraints
  • lab 9: Backing up, restoring and resizing clusters

Modulo 10: Analyzing and visualizing data

  • Power of visualizations
  • Building dashboards
  • Amazon QuickSight editions and features

  • Documentación del curso Data Warehousing on AWS

  • Formador Certificado por AWS
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el curso Developing on AWS aprenderás a utilizar los servicios de AWS y las herramientas para desarrolladores, como el AWS SDK y la AWS CLI, para desarrollar aplicaciones en la nube seguras y escalables, de la mano de un instructor experto en AWS. Analizarás cómo interactuar con AWS mediante el uso de código. Se presentarán conceptos clave, prácticas recomendadas y sugerencias para la resolución de problemas. Aprenderás a interactuar programáticamente con los servicios de AWS para crear soluciones Web.

Preparación para el examen de certificación:

Examen AWS Certified Developer Associate

  • Desarrolladores de software.
  • Arquitectos de soluciones.
  • Profesionales de TI que quieran mejorar sus habilidades de desarrollo con los servicios de AWS.

  • Crear una sencilla y completa aplicación en la nube con los kits de desarrollo de software de AWS (AWS SDK), la interfaz de línea de comandos (AWS CLI) y los IDE.
  • Configurar los permisos de AWS Identity and Access Management (IAM) para respaldar un entorno de desarrollo.
  • Utilizar múltiples patrones de programación en las aplicaciones para acceder a los servicios de AWS.
  • Utilizar los AWS SDK para realizar operaciones CRUD (crear, leer, actualizar, eliminar) en los recursos de Amazon Simple Storage Service (Amazon S3) y Amazon DynamoDB.

Módulo 1: Course Overview

  • Logistics
  • Student resources
  • Agenda
  • Introductions

Módulo 2: Building a Web Application on AWS

  • Discuss the architecture of the application you are going to build during this course
  • Explore the AWS services needed to build your web application
  • Discover how to store, manage, and host your web application

Módulo 3: Getting Started with Development on AWS

  • Describe how to access AWS services programmatically
  • List some programmatic patterns and how they provide efficiencies within AWS SDKs and AWS CLI
  • Explain the value of AWS Cloud9

Módulo 4: Getting Started with Permissions

  • Review AWS Identity and Access Management (IAM) features and components permissions to support a development environment
  • Demonstrate how to test AWS IAM permissions
  • Configure your IDEs and SDKs to support a development environment
  • Demonstrate accessing AWS services using SDKs and AWS Cloud9

Lab 1: Configure the Developer Environment

Módulo 5: Getting Started with Storage

  • Describe the basic concepts of Amazon S3
  • List the options for securing data using Amazon S3
  • Define SDK dependencies for your code
  • Explain how to connect to the Amazon S3 service
  • Describe request and response objects

Módulo 6: Processing Your Storage Operations

  • Perform key bucket and object operations
  • Explain how to handle multiple and large objects
  • Create and configure an Amazon S3 bucket to host a static website
  • Grant temporary access to your objects
  • Demonstrate performing Amazon S3 operations using SDKs

Lab 2: Develop Solutions Using Amazon S3

Módulo 7: Getting Started with Databases

  • Describe the key components of DynamoDB
  • Explain how to connect to DynamoDB
  • Describe how to build a request object
  • Explain how to read a response object
  • List the most common troubleshooting exceptions

Módulo 8: Processing Your Database Operations

  • Develop programs to interact with DynamoDB using AWS SDKs
  • Perform CRUD operations to access tables, indexes, and data
  • Describe developer best practices when accessing DynamoDB
  • Review caching options for DynamoDB to improve performance
  • Perform DynamoDB operations using SDK

Lab 3: Develop Solutions Using Amazon DynamoDB

Módulo 9: Processing Your Application Logic

  • Develop a Lambda function using SDKs
  • Configure triggers and permissions for Lambda functions
  • Test, deploy, and monitor Lambda functions

Lab 4: Develop Solutions Using AWS Lambda Functions

Módulo 10: Managing the APIs

  • Describe the key components of API Gateway
  • Develop API Gateway resources to integrate with AWS services
  • Configure API request and response calls for your application endpoints
  • Test API resources and deploy your application API endpoint
  • Demonstrate creating API Gateway resources to interact with your application APIs

Lab 5: Develop Solutions Using Amazon API Gateway

Módulo 11: Building a Modern Application

  • Describe the challenges with traditional architectures
  • Describe the microservice architecture and benefits
  • Explain various approaches for designing microservice applications
  • Explain steps involved in decoupling monolithic applications
  • Demonstrate the orchestration of Lambda Functions using AWS Step Functions

Módulo 12: Granting Access to Your Application Users

  • Analyze the evolution of security protocols
  • Explore the authentication process using Amazon Cognito
  • Manage user access and authorize serverless APIs
  • Observe best practices for implementing Amazon Cognito
  • Demonstrate the integration of Amazon Cognito and review JWT tokens

Lab 6: Capstone – Complete the Application Build

Módulo 13: Deploying Your Application

  • Identify risks associated with traditional software development practices
  • Understand DevOps methodology
  • Configure an AWS SAM template to deploy a serverless application
  • Describe various application deployment strategies
  • Demonstrate deploying a serverless application using AWS SAM

Módulo 14: Observing Your Application

  • Differentiate between monitoring and observability
  • Evaluate why observability is necessary in modern development and key components
  • Understand CloudWatch’s part in configuring the observability
  • Demonstrate using CloudWatch Application Insights to monitor applications
  • Demonstrate using X-Ray to debug your applications

Lab 7: Observe the Application Using AWS X-Ray

Módulo 15: Course Wrap-up

  • Course overview
  • AWS training courses
  • Certifications
  • Course feedback

Documentación oficial del curso Developing on AWS.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Este curso brinda a los desarrolladores exposición y práctica con las mejores prácticas para crear aplicaciones sin servidor utilizando AWS Lambda y otros servicios en la plataforma sin servidor de AWS. Utilizará marcos de AWS para implementar una aplicación sin servidor en laboratorios prácticos que progresan desde temas más simples a más complejos.

Con documentación de AWS a lo largo del curso para desarrollar métodos auténticos de aprendizaje y resolución de problemas más allá del aula.

Preparación para el examen:

Exam Readiness: Developer – Associate

Este curso te prepara para la certificación de AWS Certified Developer – Associate

  • Aplicar prácticas recomendadas impulsadas por eventos para el diseño de una aplicación sin servidor con los servicios adecuados de AWS
  • Identificar los desafíos y las compensaciones de la transición al desarrollo sin servidor y hacer recomendaciones que se adapten a la organización y el entorno de desarrollo
  • Construir aplicaciones sin servidor con patrones que conectan los servicios administrados de AWS entre sí y dar cuenta de las características del servicio, que incluyen las cuotas de servicio, las integraciones disponibles, el modelo de invocación, el manejo de errores y la carga de orígenes de eventos
  • Comparar y contrastar las soluciones disponibles para escribir infraestructura como código, que incluyen AWS CloudFormation, AWS Amplify, AWS Serverless Application Model (AWS SAM) y el Kit de desarrollo de la nube de AWS (AWS CDK)

  • Estar familiarizado con la arquitectura básica de la nube de AWS
  • Un entendimiento de desarrollo de aplicaciones en AWS equivalente a completar la capacitación presencial de Developing on AWS
  • Conocimiento equivalente a completar la siguiente capacitación digital: AWS Lambda Foundations y Amazon API Gateway for Serverless Applications

Modulo 0: Introduction

  • Introduction to the application you will build
  • Access to course resources (Student Guide, Lab Guide, and Online Course Supplement)

Modulo 1: Thinking Serverless

  • Best practices for building modern serverless applications
  • Event-driven design
  • AWS services that support event-driven serverless applications

Modulo 2: API-Driven Development and Synchronous Event Sources

  • Characteristics of standard request/response API-based web applications
  • How Amazon API Gateway fits into serverless applications
  • Try-it-out exercise: Set up an HTTP API endpoint integrated with a Lambda function
  • High-level comparison of API types (REST/HTTP, WebSocket, GraphQL)

Modulo 3: Introduction to Authentication, Authorization, and Access Control

  • Authentication vs. Authorization
  • Options for authenticating to APIs using API Gateway
  • Amazon Cognito in serverless applications
  • Amazon Cognito user pools vs. federated identities

Modulo 4: Serverless Deployment Frameworks

  • Overview of imperative vs. declarative programming for infrastructure as code
  • Comparison of CloudFormation, AWS CDK, Amplify, and AWS SAM frameworks
  • Features of AWS SAM and the AWS SAM CLI for local emulation and testing

Modulo 5: Using Amazon EventBridge and Amazon SNS to Decouple Components

  • Development considerations when using asynchronous event sources
  • Features and use cases of Amazon EventBridge
  • Try-it-out exercise: Build a custom EventBridge bus and rule
  • Comparison of use cases for Amazon Simple Notification Service (Amazon SNS) vs. EventBridge
  • Try-it-out exercise: Configure an Amazon SNS topic with filtering Developing Serverless Solutions on AWS

Modulo 6: Event-Driven Development Using Queues and Streams

  • Development considerations when using polling event sources to trigger Lambda functions
  • Distinctions between queues and streams as event sources for Lambda
  • Selecting appropriate configurations when using Amazon Simple Queue Service (Amazon SQS) or Amazon Kinesis Data Streams as an event source for Lambda
  • Try-it-out exercise: Configure an Amazon SQS queue with a dead-letter queue as a Lambda event source Hands-On Labs
  • Hands-On Lab 1: Deploying a Simple Serverless Application
  • Hands-On Lab 2: Message Fan-Out with Amazon EventBridge

Modulo 7: Writing Good Lambda Functions

  • How the Lambda lifecycle influences your function code
  • Best practices for your Lambda functions
  • Configuring a function
  • Function code, versions and aliases
  • Try-it-out exercise: Configure and test a Lambda function
  • Lambda error handling
  • Handling partial failures with queues and streams

Modulo 8: Step Functions for Orchestration

  • AWS Step Functions in serverless architectures
  • Try-it-out exercise: Step Functions states
  • The callback pattern
  • Standard vs. Express Workflows
  • Step Functions direct integrations
  • Try-it-out exercise: Troubleshooting a Standard Step Functions workflow

Modulo 9: Observability and Monitoring

  • The three pillars of observability
  • Amazon CloudWatch Logs and Logs Insights
  • Writing effective log files
  • Try-it-out exercise: Interpreting logs
  • Using AWS X-Ray for observability
  • Try-it-out exercise: Enable X-Ray and interpret X-Ray traces
  • CloudWatch metrics and embedded metrics format
  • Try-it-out exercise: Metrics and alarms
  • Try-it-out exercise: ServiceLensHands-On Labs
  • Hands-On Lab 3: Workflow Orchestration Using AWS Step Functions
  • Hands-On Lab 4: Observability and Monitoring

Modulo 10: Serverless Application Security

  • Security best practices for serverless applications
  • Applying security at all layers
  • API Gateway and application security
  • Lambda and application security
  • Protecting data in your serverless data stores
  • Auditing and traceability

Modulo 11: Handling Scale in Serverless Applications

  • Scaling considerations for serverless applications
  • Using API Gateway to manage scale
  • Lambda concurrency scaling
  • How different event sources scale with Lambda

Modulo 12: Automating the Deployment Pipeline

  • The importance of CI/CD in serverless applications
  • Tools in a serverless pipeline
  • AWS SAM features for serverless deployments
  • Best practices for automation
  • Course wrap-up

  • Documentación del curso Developing Serverless Solutions on AWS

  • Formador Certificado por AWS
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el curso DevOps Engineering on AWS aprenderás a utilizar la combinación de herramientas, prácticas y filosofías culturales de DevOps para aumentar la capacidad de la organización para desarrollar, entregar y mantener aplicaciones y servicios a gran velocidad en AWS. El curso abarca temas como la integración continua (CI), la entrega continua (CD), la infraestructura como código, los microservicios, el monitoreo y el registro, así como la comunicación y la colaboración. Los laboratorios prácticos proporcionan experiencia en la creación e implementación de plantillas de AWS CloudFormation y canalizaciones de integración y entrega continuas que crean e implementan aplicaciones en Amazon Elastic Compute Cloud (Amazon EC2), aplicaciones sin servidor y aplicaciones basadas en contenedores. También se incluyen laboratorios para flujos de trabajo de múltiples canalizaciones y canalizaciones que implementan varios entornos.

Preparación para el examen de certificación:

Examen AWS Certified DevOps Engineer Professional

  • Ingenieros de DevOps.
  • Arquitectos de DevOps.
  • Ingenieros de operaciones.
  • Administradores de sistemas.
  • Desarrolladores.

  • Utilizar las prácticas recomendadas de DevOps para desarrollar, entregar y mantener aplicaciones y servicios a gran velocidad en AWS.
  • Identificar las ventajas, los roles y las responsabilidades de equipos pequeños y autónomos de DevOps.
  • Diseñar e implementar una infraestructura en AWS que admita proyectos de desarrollo de DevOps.
  • Utilizar AWS Cloud9 para escribir, ejecutar y depurar el código.

Módulo 0: Course overview

  • Course objective
  • Suggested prerequisites
  • Course overview breakdown

Módulo 1: Introduction to DevOps

  • What is DevOps?
  • The Amazon journey to DevOps
  • Foundations for DevOps

Módulo  2: Infrastructure Automation

  • Introduction to Infrastructure Automation
  • Diving into the AWS CloudFormation template
  • Modifying an AWS CloudFormation template
  • Demonstration: AWS CloudFormation template structure, parameters, stacks, updates, importing resources, and drift detection

Módulo 3: AWS Toolkits

  • Configuring the AWS CLI
  • AWS Software Development Kits (AWS SDKs)
  • AWS SAM CLI
  • AWS Cloud Development Kit (AWS CDK)
  • AWS Cloud9
  • Demonstration: AWS CLI and AWS CDK
  • Hands-on lab: Using AWS CloudFormation to provision and manage a basic infrastructure

Módulo 4: Continuous integration and continuous delivery (CI/CD) with development tools

  • CI/CD Pipeline and Dev Tools
  • Demonstration: CI/CD pipeline displaying some actions from AWS CodeCommit, AWS CodeBuild, AWS CodeDeploy and AWS CodePipeline
  • Hands-on lab: Deploying an application to an EC2 fleet using AWS CodeDeploy DevOps Engineering on AWS
  • AWS CodePipeline
  • Demonstration: AWS integration with Jenkins
  • Hands-on lab: Automating code deployments using AWS CodePipeline

Módulo 5: Introduction to Microservices

  • Introduction to Microservices

Módulo 6: DevOps and containers

  • Deploying applications with Docker
  • Amazon Elastic Container Service and AWS Fargate
  • Amazon Elastic Container Registry and Amazon Elastic Kubernetes service
  • Demonstration: CI/CD pipeline deployment in a containerized application

Módulo 7: DevOps and serverless computing

  • AWS Lambda and AWS Fargate
  • AWS Serverless Application Repository and AWS SAM
  • AWS Step Functions
  • Demonstration: AWS Lambda and characteristics
  • Demonstration: AWS SAM quick start in AWS Cloud9
  • Hands-on lab: Deploying a serverless application using AWS Serverless Application Model (AWS SAM) and a CI/CD Pipeline

Módulo 8: Deployment strategies

  • Continuous Deployment
  • Deployments with AWS Services

Módulo 9: Automated testing

  • Introduction to testing
  • Tests: Unit, integration, fault tolerance, load, and synthetic
  • Product and service integrations DevOps Engineering on AWS

Módulo 10: Security automation

  • Introduction to DevSecOps
  • Security of the Pipeline
  • Security in the Pipeline
  • Threat Detection Tools
  • Demonstration: AWS Security Hub, Amazon GuardDuty, AWS Config, and Amazon Inspector

Módulo 11: Configuration management

  • Introduction to the configuration management process
  • AWS services and tooling for configuration management
  • Hands-on lab: Performing blue/green deployments with CI/CD pipelines and Amazon Elastic Container Service (Amazon ECS)

Módulo 12: Observability

  • Introduction to observability
  • AWS tools to assist with observability
  • Hands-on lab: Using AWS DevOps tools for CI/CD pipeline automations

Módulo 13: Reference architecture (Optional module)

  • Reference architectures

Módulo 14: Course summary

  • Components of DevOps practice
  • CI/CD pipeline review
  • AWS Certification

Documentación oficial del curso DevOps Engineering on AWS.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el curso The Machine Learning Pipeline on AWS se explora cómo utilizar la canalización de Machine Learning (ML) a fin de resolver un problema empresarial real en un entorno de aprendizaje basado en proyectos. Aprenderás sobre cada fase de la canalización a través de presentaciones y demostraciones del instructor. Luego aplicarás ese conocimiento para completar un proyecto mediante la resolución de uno de los tres problemas empresariales: detección de fraude, motores de recomendación y retrasos en los vuelos. Cuando finalice el curso, habrás creado, capacitado, evaluado, ajustado e implementado de manera satisfactoria un modelo de ML con Amazon SageMaker que resuelva el problema empresarial seleccionado.

Preparación para el examen de certificación:

AWS Certified Machine Learning Specialty

  • Desarrolladores.
  • Arquitectos de soluciones.
  • Ingenieros de datos.
  • Todo aquel con poca experiencia con ML o sin ella que desee aprender sobre la canalización de ML con Amazon SageMaker.

  • Seleccionar y justificar el enfoque de ML adecuado para un problema de negocio determinado.
  • Usar la canalización de ML para resolver un problema empresarial específico.
  • Capacitar, evaluar y ajustar un modelo de ML en Amazon SageMaker.
  • Describir algunas de las prácticas recomendadas para diseñar canalizaciones de ML escalables, optimizadas según el costo y seguras en AWS.
  • Aplicar el aprendizaje automático a un problema comercial de la vida real después de completar el curso.

  • Tener conocimientos básicos del lenguaje de programación Python.
  • Tener una comprensión básica de la infraestructura de la nube de AWS (Amazon S3 y Amazon CloudWatch).
  • Tener experiencia básica de trabajo en un entorno de bloc de notas de Jupyter.

Módulo 0: Introduction

  • Pre-assessment

Módulo 1: Introduction to Machine Learning and the ML Pipeline

  • Overview of machine learning, including use cases, types of machine learning, and key concepts
  • Overview of the ML pipeline
  • Introduction to course projects and approach

Módulo 2: Introduction to Amazon SageMaker

  • Introduction to Amazon SageMaker
  • Demo: Amazon SageMaker and Jupyter notebooks
  • Hands-on: Amazon SageMaker and Jupyter notebooks

Módulo 3: Problem Formulation

  • Overview of problem formulation and deciding if ML is the right solution
  • Converting a business problem into an ML problem
  • Demo: Amazon SageMaker Ground Truth
  • Hands-on: Amazon SageMaker Ground Truth
  • Practice problem formulation
  • Formulate problems for projects

Módulo 4: Preprocessing

  • Overview of data collection and integration, and techniques for data preprocessing and visualization
  • Practice preprocessing
  • Preprocess project data
  • Class discussion about projects

Módulo 5: Model Training

  • Choosing the right algorithm
  • Formatting and splitting your data for training
  • Loss functions and gradient descent for improving your model
  • Demo: Create a training job in Amazon SageMaker

Módulo 6: Model Evaluation

  • How to evaluate classification models
  • How to evaluate regression models
  • Practice model training and evaluation
  • Train and evaluate project models
  • Initial project presentations

Módulo 7: Feature Engineering and Model Tuning

  • Feature extraction, selection, creation, and transformation
  • Hyperparameter tuning
  • Demo: SageMaker hyperparameter optimization
  • Practice feature engineering and model tuning
  • Apply feature engineering and model tuning to projects
  • Final project presentations

Módulo 8: Deployment

  • How to deploy, inference, and monitor your model on Amazon SageMaker
  • Deploying ML at the edge
  • Demo: Creating an Amazon SageMaker endpoint
  • Post-assessment
  • Course wrap-up

Documentación oficial del curso The Machine Learning Pipeline on AWS.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Este curso es para personas que buscan comprender cómo planificar y migrar cargas de trabajo existentes a la nube de AWS. Aprenderá sobre varias estrategias de migración a la nube y cómo aplicar cada paso del proceso de migración, incluido el descubrimiento de carteras, la planificación y el diseño de la migración de aplicaciones, la realización de una migración y la validación posterior a la migración y la optimización de aplicaciones.

Preparación para el examen:

Exam Readiness: Solutions Architect – Associate

Este curso te prepara para la certificación de AWS Certified Solutions Architect – Associate

  • Reconocer los motivos empresariales y técnicos comunes para migrar a la nube
  • Resumir las tres fases de una migración y los objetivos, tareas y partes interesadas asociadas para cada una de ellas
  • Describir la arquitectura, herramientas y prácticas recomendadas de migración de AWS
  • Distinguir entre las distintas estrategias de migración a la nube y cuándo es más apropiada cada una de ellas

  • Conocimientos de la infraestructura de TI empresarial (hardware y software)
  • Haber completado la formación presencial AWS Technical Essentials o Architecting on AWS
  • Tener la certificación AWS Certified Solutions Architect – Associate (opcional)

Modulo 0: Introduction to Migrating to AWS

  • Course introduction

Modulo 1: What Is a Cloud Migration?

  • Summarize the drivers and desired outcomes of a cloud migration
  • Identify the elements of a successful migration journey
  • Describe the three-phase AWS migration process

Modulo 2: Assessing Migration Readiness

  • Summarize the activities and goals of the assess phase
  • Evaluate tools for assessing your organization’s cloud readiness
  • Describe Migration Readiness Assessments (MRAs) and their importance
  • Group Exercise: Assess cloud migration readiness with AWS Cloud Adoption Readiness Tool (CART)

Modulo 3: Preparing for a Migration and Understanding Related Workstreams

  • Summarize the mobilize phase of the process
  • Discuss the eight unique migration-related workstreams

Modulo 4: Discovering Landing Zones and Their Benefits

  • Explain the function of a landing zone
  • Discuss best practices for creating a custom landing zone
  • Describe how you would use AWS Control Tower to create a landing zone

Modulo 5: Building a Landing Zone

  • Summarize the process of building a landing zone
  • Determine the best multi-account structure, governance policies, and connectivity plan for a landing zone
  • Demonstration: AWS Control Tower
  • Lab: Connecting Your On-Premises Network and Directory Services to AWS

Modulo 6: Discovering the Portfolio and Understanding Migration Strategies

  • Explain the activities of the detailed portfolio discovery workstream
  • Describe how to assess an application’s migration readiness
  • Summarize the seven migration strategies
  • Group Exercise: Choose the best strategy (scenario-based)

Modulo 7: Understanding and Choosing Portfolio Discovery Tools

  • Summarize the various discovery tools available
  • Distinguish which tools are best to use based on scenario
  • Lab: Gathering Application Data Necessary for Migration

Modulo 8: Planning and Designing a Migration

  • Describe the planning and design process
  • Summarize how to set up a migration factory
  • Choose and finalize an application migration strategy

Modulo 9: Performing the Migration to AWS

  • Explain the server migration process
  • Discuss the various migration automation and governance tools available
  • Evaluate server migration tools for compatibility with your environment
  • Lab: Migrating an Application to AWS

Modulo 10: Understanding Database and Data Migration Services

  • Summarize the significance of database and data migration
  • Discuss the various data migration tools available
  • Lab: Migrating an Existing Database to Amazon Aurora

Modulo 11: Understanding Additional Migration Support Options

  • Discuss additional migration support options
  • Summarize AWS Managed Services and AWS Marketplace
  • Describe SAP on AWS and services offered for Windows

Modulo 12: Integrating, Validating, and Cutting Over Applications

  • Discuss the process and benefits of integrating, validating, and cutting over applications

Modulo 13: Modernizing and Optimizing an Application Migration

  • Identify post-migration opportunities for modernization and optimization
  • Understand cost and security optimization processes
  • Explore tools available to support these processes
  • Lab: Optimizing an Application with Amazon S3 and Amazon ECS

Modulo 14: Understanding Operations Tools, Integration Testing, and Automation

  • Summarize operations in the cloud
  • Discuss four functions of operations and their domains
  • Review operations automation and relevant support tools

Modulo 15: Migration Best Practices

  • Course review and key takeaways
  • Summarize and reinforce AWS best practices for migrating
  • Lab: Automating Application Deployments

  • Documentación del curso Migrating to AWS

  • Formador Certificado por AWS
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Este curso se basa y amplía la práctica de DevOps predominante en el desarrollo de software para crear, entrenar e implementar modelos de aprendizaje automático (ML). Especial importancia de los datos, el modelo y el código para las implementaciones exitosas de ML. Demostrará el uso de herramientas, automatización, procesos y trabajo en equipo para abordar los desafíos asociados con las transferencias entre ingenieros de datos, científicos de datos, desarrolladores de software y operaciones.

El curso también discutirá el uso de herramientas y procesos para monitorear y tomar medidas cuando la predicción del modelo en producción comienza a desviarse de los indicadores clave de rendimiento acordados.

Preparación para el examen:

Exam Readiness: AWS Certified DevOps Engineer – Professional

Este curso te prepara para la certificación de AWS Certified DevOps Engineer – Professional

  • Cómo implementar sus propios modelos en la nube de AWS
  • Cómo automatizar flujos de trabajo para crear, entrenar, probar e implementar modelos de aprendizaje automático
  • Las diferentes estrategias de implementación para implementar modelos de ML en producción
  • Cómo monitorear la deriva de datos y la deriva de conceptos que podrían afectar la predicción y la alineación con las expectativas comerciales

  • Curso de AWS Technical Essentials
  • Curso de ingeniería de DevOps en AWS o experiencia equivalente
  • Curso práctico de ciencia de datos con Amazon SageMaker o experiencia equivalente
  • Los Elementos de la Ciencia de Datos
  • Terminología y procesos de aprendizaje automático

Modulo 0: Welcome

  • Course introduction

Modulo 1: Introduction to MLOps

  • Machine learning operations
  • Goals of MLOps
  • Communication
  • From DevOps to MLOps
  • ML workflow
  • Scope
  • MLOps view of ML workflow
  • MLOps cases

Modulo 2: MLOps Development

  • Intro to build, train, and evaluate machine learning models
  • MLOps security
  • Automating
  • Apache Airflow
  • Kubernetes integration for MLOps
  • Amazon SageMaker for MLOps
  • Lab: Bring your own algorithm to an MLOps pipeline
  • Demonstration: Amazon SageMaker
  • Intro to build, train, and evaluate machine learning models
  • Lab: Code and serve your ML model with AWS CodeBuild
  • Activity: MLOps Action Plan Workbook

Modulo 3: MLOps Deployment

  • Introduction to deployment operations
  • Model packaging
  • Inference
  • Lab: Deploy your model to production
  • SageMaker production variants
  • Deployment strategies
  • Deploying to the edge
  • Lab: Conduct A/B testing
  • Activity: MLOps Action Plan Workbook

Modulo 4: Model Monitoring and Operations

  • Lab: Troubleshoot your pipeline
  • The importance of monitoring
  • Monitoring by design
  • Lab: Monitor your ML model
  • Human-in-the-loop
  • Amazon SageMaker Model Monitor
  • Demonstration: Amazon SageMaker Pipelines, Model Monitor, model registry, and Feature Store
  • Solving the Problem(s)
  • Activity: MLOps Action Plan Workbook

Modulo 5: Wrap-up

  • Course review
  • Activity: MLOps Action Plan Workbook
  • Wrap-up

  • Documentación del curso MLOps Engineering on AWS

  • Formador Certificado por AWS
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el curso Planning and Designing Databases on AWS obtendrás información sobre cómo identificar y diseñar las soluciones más adecuadas de bases de datos en AWS para poder modernizar su infraestructura de datos con bases de datos personalizadas y completamente administradas a fin de ahorrar tiempo y costos, mejorar el rendimiento y la escalabilidad, y acelerar la innovación.

En este curso, destinado a arquitectos de soluciones, arquitectos de bases de datos y desarrolladores de bases de datos, aprenderás las características de once bases de datos, que incluyen servicios SQL (como Amazon RDS y Amazon Aurora) y servicios NoSQL (como Amazon Neptune, Amazon DynamoDB y Amazon DocumentDB), entre otros, y lo que debes considerar respecto de su diseño cuando las utilizas.

Preparación para el examen de certificación:

AWS Certified Database Specialty

  • Arquitectos de soluciones.
  • Arquitectos de bases de datos.
  • Desarrolladores.

  • Resumir el marco de buena arquitectura de AWS para diseñar soluciones de bases de datos.
  • Elegir un servicio de base de datos diseñado específicamente para una carga de trabajo determinada.
  • Diseñar una solución de base de datos relacional para resolver un problema empresarial.
  • Diseñar una solución de base de datos NoSQL para resolver un problema empresarial.
  • Analizar datos de múltiples bases de datos para resolver un problema empresarial.
  • Discutir las consideraciones de seguridad para su solución de base de datos.

  • Tener conocimiento de los servicios de bases de datos de AWS.
  • Comprender los conceptos del diseño de las bases de datos o el modelado de bases de datos relacionales y no relacionales.
  • Estar familiarizado con los conceptos de informática en la nube.
  • Estar familiarizado con los conceptos generales sobre redes y cifrado.
  • Completar el curso digital Introduction to Building with AWS Databases.

Módulo 0: Course Introduction

  • Course overview

Módulo 1: AWS Purpose-Built Databases

  • Discussing well-architected databases
  • Analyzing workload requirements
  • Choosing the data model
  • Choosing the right purpose-built database
  • Knowledge check

Módulo 2: Amazon Relational Database Service (Amazon RDS)

  • Discussing a relational database
  • What is Amazon RDS?
  • Why Amazon RDS?
  • Amazon RDS design considerations
  • Knowledge check

Módulo 3: Amazon Aurora

  • What is Amazon Aurora?
  • Why Amazon Aurora?
  • Aurora design considerations
  • Knowledge check
  • Challenge Lab 1: Working with Amazon Aurora databases
  • Class Activity 1: Choose the Right Relational Database

Módulo 4: Amazon DynamoDB

  • Discussing a key value database
  • What is DynamoDB?
  • Why DynamoDB?
  • DynamoDB design considerations
  • Knowledge check

Módulo 5: Amazon Keyspaces (for Apache Cassandra)

  • Discussing a wide-column database
  • What is Apache Cassandra?
  • What is Amazon Keyspaces?
  • Why Amazon Keyspaces?
  • Amazon Keyspaces design considerations
  • Knowledge check

Módulo 6: Amazon DocumentDB (with MongoDB compatibility)

  • Discussing a document database
  • What is Amazon DocumentDB?
  • Why Amazon DocumentDB?
  • Amazon DocumentDB design considerations
  • Knowledge check

Módulo 7: Amazon Quantum Ledger Database (Amazon QLDB)

  • Discussing a ledger database
  • What is Amazon QLDB?
  • Why Amazon QLDB?
  • Amazon QLDB design considerations
  • Knowledge check
  • Class Activity 2: Choose the Right Nonrelational Database
  • Challenge Lab 2: Working with Amazon DynamoDB Tables

Módulo 8: Amazon Neptune

  • Discussing a graph database
  • What is Amazon Neptune?
  • Why Amazon Neptune?
  • Amazon Neptune design considerations
  • Knowledge check

Módulo 9: Amazon Timestream

  • Discussing a timeseries database
  • What is Amazon Timestream?
  • Why Amazon Timestream?
  • Amazon Timestream design considerations
  • Knowledge check

Módulo 10: Amazon ElastiCache

  • Discussing an in-memory database
  • What is ElastiCache?
  • Why ElastiCache?
  • ElastiCache design considerations
  • Knowledge check

Módulo 11: Amazon MemoryDB for Redis

  • What is Amazon MemoryDB (for Redis)?
  • Why Amazon MemoryDB?
  • Amazon MemoryDB design considerations
  • Knowledge check
  • Class Activity 3: Let’s Cache In

Módulo 12: Amazon Redshift

  • Discussing a data warehouse
  • What is Amazon Redshift?
  • Why Amazon Redshift?
  • Amazon Redshift design considerations
  • Knowledge check

Módulo 13: Tools for Working with AWS Databases

  • Data access and analysis with Amazon Athena
  • Data migration with SCT and DMS
  • Class Activity 4: Overall Picture
  • Challenge Lab 3: Working with Amazon Redshift clusters

Documentación oficial del curso Planning and Designing Databases on AWS.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Amazon EKS le facilita la ejecución de Kubernetes en AWS sin necesidad de instalar, operar y mantener su propio plano de control de Kubernetes. En este curso, aprenderá a administrar y orquestar contenedores para Kubernetes con Amazon EKS.

Preparación para el examen:

Exam Readiness: Developer – Associate

Este curso te prepara para la certificación de AWS Certified Developer – Associate

  • Revise y examine los fundamentos de los contenedores, Kubernetes y Amazon EKS, y el impacto de los contenedores en los flujos de trabajo
  • Cree un clúster de Amazon EKS seleccionando los recursos informáticos correctos para admitir los nodos de trabajo
  • Proteja su entorno con la autenticación de AWS Identity and Access Management (IAM) mediante la creación de un rol de servicio de Amazon EKS para su clúster
  • Implemente una aplicación en el clúster y, a continuación, publique imágenes de contenedor en ECR y proteja el acceso a través de la política de IAM

  • Introducción completada de Amazon Elastic Kubernetes Service (EKS)
  • AWS Cloud Practitioner Essentials completado (o experiencia equivalente en el mundo real)
  • Experiencia básica en administración de Linux
  • Experiencia básica en administración de redes
  • Conocimientos básicos de contenedores y microservicios

Modulo 0: Course Introduction

  • Course preparation activities and agenda

Modulo 1: Kubernetes Fundamentals

  • Container orchestration
  • Kubernetes objects
  • Kubernetes internals

Modulo 2: Amazon EKS Fundamentals

  • Introduction to Amazon EKS
  • Amazon EKS control plane
  • Amazon EKS data plane
  • Fundamentals of Amazon EKS security
  • Amazon EKS API

Modulo 3: Building an Amazon EKS Cluster

  • Configuring your environment
  • Creating an Amazon EKS cluster
  • Demo: Deploying a cluster
  • Deploying worker nodes
  • Demo: Completing a cluster configuration
  • Preparing for Lab 1: Building an Amazon EKS Cluster

Modulo 4: Deploying Applications to Your Amazon EKS Cluster

  • Configuring Amazon Elastic Container Registry (Amazon ECR)
  • Demo: Configuring Amazon ECR
  • Deploying applications with Helm
  • Demo: Deploying applications with Helm
  • Continuous deployment in Amazon EKS
  • GitOps and Amazon EKS
  • Preparing for Lab 2: Deploying Applications

Modulo 5: Configuring Observability in Amazon EKS

  • Configuring observability in an Amazon EKS cluster
  • Collecting metrics
  • Using metrics for automatic scaling
  • Managing logs
  • Application tracing in Amazon EKS
  • Gaining and applying insight from observability
  • Preparing for Lab 3: Monitoring Amazon EKS

Modulo 6: Balancing Efficiency, Resilience, and Cost Optimization in Amazon EKS

  • The high level overview
  • Designing for resilience
  • Designing for cost optimization
  • Designing for efficiency

Modulo 7: Managing Networking in Amazon EKS

  • Review: Networking in AWS
  • Communicating in Amazon EKS
  • Managing your IP space
  • Deploying a service mesh
  • Preparing for Lab 4: Exploring Amazon EKS Communication

Modulo 8: Managing Authentication and Authorization in Amazon EKS

  • Understanding the AWS shared responsibility model
  • Authentication and authorization
  • Managing IAM and RBAC
  • Demo: Customizing RBAC roles
  • Managing pod permissions using RBAC service accounts

Modulo 9: Implementing Secure Workflows

  • Securing cluster endpoint access
  • Improving the security of your workflows
  • Improving host and network security
  • Managing secrets
  • Preparing for Lab 5: Securing Amazon EKS

Modulo 10: Managing Upgrades in Amazon EKS

  • Planning for an upgrade
  • Upgrading your Kubernetes version
  • Amazon EKS platform versions

  • Documentación del curso Running Containers on Amazon Elastic Kubernetes Service (Amazon EKS)

  • Formador Certificado por AWS
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

El curso Security Engineering on AWS te permitirá adquirir las habilidades y los conocimientos necesarios para salvaguardar la reputación y los beneficios de su organización y mejorar las operaciones de seguridad. Este curso, de nivel intermedio, te guiará a través de las prácticas de seguridad que AWS recomienda para mejorar la seguridad de los datos y los sistemas en la nube. Aprenderás a utilizar de manera eficiente los servicios de seguridad de AWS, como Amazon Security Lake, Amazon Detective, AWS Control Tower, AWS Secrets Manager, Amazon CloudWatch, Amazon GuardDuty y muchos más, para la automatización, la supervisión y el registro continuos y la respuesta a los incidentes de seguridad.

Preparación para el examen de certificación:

AWS Certified Security Specialty

  • Ingenieros de seguridad.
  • Arquitectos de seguridad.
  • Arquitectos de la nube.
  • Operadores de la nube.

  • Exponer una comprensión de la seguridad en la nube de AWS basada en la tríada de la CIA.
  • Crear y analizar la autenticación y las autorizaciones con IAM.
  • Administrar y aprovisionar cuentas en AWS con los servicios de AWS adecuados.
  • Identificar cómo administrar los secretos mediante los servicios de AWS.
  • Supervisar la información confidencial y proteger los datos mediante el cifrado y los controles de acceso.
  • Identificar los servicios de AWS que abordan los ataques de fuentes externas.
  • Supervisar, generar y recopilar registros.
  • Identificar indicadores de incidentes de seguridad.
  • Identificar cómo investigar las amenazas y mitigarlas con los servicios de AWS.

  • Haber completado, previamente, los cursos AWS Security Essentials y Architecting on AWS.
  • Tener conocimientos prácticos sobre prácticas de seguridad y conceptos de la infraestructura de TI.
  • Estar familiarizado con la nube de AWS.

Módulo 1: Security Overview and Review

  • Explain Security in the AWS Cloud.
  • Explain AWS Shared Responsibility Model.
  • Summarize IAM, Data Protection, and Threat Detection and Response.
  • State the different ways to interact with AWS using the console, CLI, and SDKs.
  • Describe how to use MFA for extra protection.
  • State how to protect the root user account and access keys.

Módulo 2: Securing Entry Points on AWS

  • Describe how to use multi-factor authentication (MFA) for extra protection.
  • Describe how to protect the root user account and access keys.
  • Describe IAM policies, roles, policy components, and permission boundaries.
  • Explain how API requests can be logged and viewed using AWS CloudTrail and how to view and analyze access history.
  • Hands-On Lab: Using Identity and Resource Based Policies.

Módulo 3: Account Management and Provisioning on AWS

  • Explain how to manage multiple AWS accounts using AWS Organizations and AWS Control Tower.
  • Explain how to implement multi-account environments with AWS Control Tower.
  • Demonstrate the ability to use identity providers and brokers to acquire access to AWS services.
  • Explain the use of AWS IAM Identity Center (successor to AWS Single Sign-On) and AWS Directory Service.
  • Demonstrate the ability to manage domain user access with Directory Service and IAM Identity Center.
  • Hands-On Lab: Managing Domain User Access with AWS Directory Service

Módulo 4: Secrets Management on AWS

  • Describe and list the features of AWS KMS, CloudHSM, AWS Certificate Manager (ACM), and AWS Secrets Manager.
  • Demonstrate how to create a multi-Region AWS KMS key.
  • Demonstrate how to encrypt a Secrets Manager secret with an AWS KMS key.
  • Demonstrate how to use an encrypted secret to connect to an Amazon Relational Database Service (Amazon RDS) database in multiple AWS Regions
  • Hands-on lab: Lab 3: Using AWS KMS to Encrypt Secrets in Secrets Manager

Módulo 5: Data Security

  • Monitor data for sensitive information with Amazon Macie.
  • Describe how to protect data at rest through encryption and access controls.
  • Identify AWS services used to replicate data for protection.
  • Determine how to protect data after it has been archived.
  • Hands-on lab: Lab 4: Data Security in Amazon S3

Módulo 6: Infrastructure Edge Protection

  • Describe the AWS features used to build secure infrastructure.
  • Describe the AWS services used to create resiliency during an attack.
  • Identify the AWS services used to protect workloads from external threats.
  • Compare the features of AWS Shield and AWS Shield Advanced.
  • Explain how centralized deployment for AWS Firewall Manager can enhance security.
  • Hands-on lab: Lab 5: Using AWS WAF to Mitigate Malicious Traffic

Módulo 7: Monitoring and Collecting Logs on AWS

  • Identify the value of generating and collecting logs.
  • Use Amazon Virtual Private Cloud (Amazon VPC) Flow Logs to monitor for security events.
  • Explain how to monitor for baseline deviations.
  • Describe Amazon EventBridge events.
  • Describe Amazon CloudWatch metrics and alarms.
  • List log analysis options and available techniques.
  • Identify use cases for using virtual private cloud (VPC) Traffic Mirroring.
  • Hands-on lab: Lab 6: Monitoring for and Responding to Security Incidents

Módulo 8: Responding to Threats

  • Classify incident types in incident response.
  • Understand incident response workflows.
  • Discover sources of information for incident response using AWS services.
  • Understand how to prepare for incidents.
  • Detect threats using AWS services.
  • Analyze and respond to security findings.
  • Hands-on lab: Lab 7: Incident Response

Documentación oficial del curso Security Engineering on AWS.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Importante: este curso se denominaba anteriormente Systems Operations on AWS.

El curso Cloud Operations on AWS capacita a los administradores de sistemas, operadores y cualquier persona que realice operaciones cotidianas en la nube de AWS para instalar, configurar, automatizar, supervisar, proteger, mantener y solucionar problemas en los servicios, redes y sistemas de AWS para dar asistencia a las aplicaciones empresariales. En el curso también se enseñan las características específicas de AWS, las herramientas y las prácticas recomendadas relacionadas con estas funciones.

Preparación para el examen de certificación:

Examen AWS Certified SysOps Administrator Associate

  • Administradores y operadores de sistemas que operen en la nube de AWS.
  • Trabajadores de TI que quieran aumentar sus conocimientos sobre el funcionamiento de la nube.

  • Identificar los servicios de AWS que dan asistencia a las distintas fases de la excelencia operativa, un pilar del Marco de AWS Well-Architected.
  • Administrar el acceso a los recursos de AWS mediante cuentas y organizaciones de AWS y AWS Identity and Access Management (IAM).
  • Mantener un inventario de los recursos de AWS en uso utilizando los servicios de AWS, como AWS Systems Manager, AWS CloudTrail y AWS Config.
  • Desarrollar una estrategia de implementación de recursos mediante etiquetas de metadatos, imágenes de máquina de Amazon (AMI) y AWS Control Tower para implementar y mantener un entorno en la nube de AWS

  • Es recomendable haber obtenido, previamente, la certificación AWS Certified Cloud Practitioner Foundational o haber superado el curso AWS Technical Essentials.
  • Disponer de conocimientos de desarrollo de software o administración de sistemas.
  • Dominar el mantenimiento de sistemas operativos en la línea de comandos, como la creación de secuencias de comandos de shell en entornos Linux o de cmd/PowerShell en Windows.
  • Tener conocimientos básicos de protocolos de red (TCP/IP, HTTP).

Módulo 1: Introduction to Cloud Operations on AWS

  • What is Cloud Operations
  • AWS Well-Architected Framework
  • AWS Well-Architected Tool

Módulo 2: Access Management

  • AWS Identity and Access Management (IAM)
  • Resources, accounts, and AWS Organizations

Módulo 3: System Discovery

  • Methods to interact with AWS services
  • Tools for automating resource discovery
  • Inventory with AWS Systems Manager and AWS Config
  • Hands-On Lab: Auditing AWS Resources with AWS Systems Manager and AWS Config

Módulo 4: Deploy and Update Resources

  • Cloud Operations in deployments
  • Tagging strategies
  • Deployment using Amazon Machine Images (AMIs)
  • Deployment using AWS Control Tower

Módulo 5: Automate Resource Deployment

  • Deployment using AWS CloudFormation
  • Deployment using AWS Service Catalog
  • Hands-On Lab: Infrastructure as Code

Módulo 6: Manage Resources

  • AWS Systems Manager
  • Hands-On Lab: Operations as Code

Módulo 7: Configure Highly Available Systems

  • Distributing traffic with Elastic Load Balancing
  • Amazon Route 53

Módulo 8: Automate Scaling

  • Scaling with AWS Auto Scaling
  • Scaling with Spot Instances
  • Managing licenses with AWS License Manager

Módulo 9: Monitor and Maintain System Health

  • Monitoring and maintaining healthy workloads
  • Monitoring AWS infrastructure
  • Monitoring applications
  • Hands-On Lab: Monitor Applications and Infrastructure

Módulo 10: Data Security and System Auditing

  • Maintaining a strong identity and access foundation
  • Implementing detection mechanisms
  • Automating incident remediation

Módulo 11: Operate Secure and Resilient Networks

  • Building a secure Amazon Virtual Private Cloud (Amazon VPC)
  • Networking beyond the VPC

Módulo 12: Mountable Storage

  • Configuring Amazon Elastic Block Store (Amazon EBS)
  • Sizing Amazon EBS volumes for performance
  • Using Amazon EBS snapshots
  • Using Amazon Data Lifecycle Manager to manage your AWS resources
  • Creating backup and data recovery plans
  • Configuring shared file system storage
  • Hands-On Lab: Automating with AWS Backup for Archiving and Recovery

Módulo 13: Object Storage

  • Deploying Amazon Simple Storage Service (Amazon S3)
  • Managing storage lifecycles on Amazon S3

Módulo 14: Cost Reporting, Alerts, and Optimization

  • Gaining AWS cost awareness
  • Using control mechanisms for cost management
  • Optimizing your AWS spend and usage
  • Hands-On Lab: Capstone lab for CloudOps

Documentación oficial del curso Cloud Operations on AWS.

  • Formador certificado por AWS.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Specialist in Camel Development Exam (EX421), se evalúa su capacidad para crear y mantener servicios de integración empresarial utilizando Camel con Red Hat® Fuse.

Preparación para el examen:

Examen EX421: Red Hat Certified Specialist in Camel Development Exam

Red Hat lo invita a realizar el curso Camel Integration and Development with Red Hat Fuse (AD421) a modo de preparación para el examen.

Si aprueba este examen, obtendrá la certificación Red Hat Certified Specialist in Camel Development, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®).

  • Haber realizado el curso Camel Integration and Development with Red Hat Fuse (AD421) o demostrar experiencia laboral equivalente en integración empresarial con Apache Camel
  • Estar familiarizado con el funcionamiento de los entornos de Red Hat® Enterprise Linux®
  • Repasar los objetivos del examen Red Hat Certified Specialist in Camel Development Exam (EX421)

Modulo 1: Crear y mantener las rutas de Camel

Modulo 2: Intercambiar mensajes

Modulo 3: Consumir y generar archivos

Modulo 4: Trabajar con bases de datos y el componente Camel JPA

Modulo 5: Comprender las rutas transaccionales

Modulo 6: Usar EIP

Modulo 7: Usar los componentes de Camel

Modulo 8: Usar las pruebas de Camel

Modulo 9: Enrutar mensajes de forma dinámica

Modulo 10: Gestionar excepciones

Documentación del curso Red Hat Certified Specialist in Security: Linux Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Red Hat Certified Specialist in Business Process Design Exam (EX427) es un examen de certificación basado en el rendimiento.

Preparación para el examen:

Examen EX427: Red Hat Certified Specialist in Business Process Design Exam

Si bien no hay requisitos previos para rendir este examen, se recomienda que los candidatos realicen los cursos Red Hat Decision Manager and Process Automation Manager for Business Users (AD371) y Red Hat Decision Manager and Process Automation Manager for Developers (AD373). 

Los especialistas que obtengan la certificación Red Hat Certified Specialist in Business Process Design podrán realizar las siguientes tareas:

El examen se basa en Red Hat Process Automation Manager 7.3.

No es necesario cumplir con requisitos previos para acceder a este curso

Modulo 1: Configurar y utilizar las actividades de Red Hat Process Automation Manager, entre las que se incluyen las siguientes

Modulo 2: Definir y manipular las variables de Business Process, entre las que se incluyen las siguientes

Modulo 3: Comprender y utilizar el control de flujo en los procesos empresariales de Business Process, lo cual incluye lo siguiente

Modulo 4: Comprender las ventajas y los puntos débiles específicos de los distintos elementos del proceso de Business Process, entre los que se incluyen los siguientes

Modulo 5: Manejar excepciones técnicas y errores de procesos

Documentación del curso Red Hat Certified Specialist in Camel Development Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Red Hat Certified Specialist in High Availability Clustering Exam (EX436) es un examen basado en el desempeño que evalúa si los candidatos poseen las habilidades y el conocimiento necesarios para implementar servicios de alta disponibilidad en Red Hat Enterprise Linux utilizando el complemento Red Hat Enterprise Linux High Availability Add-on.

Preparación para el examen:

Examen EX436: Red Hat Certified Specialist in High Availability Clustering Exam

Red Hat invita a todos los candidatos del examen Red Hat Certified Specialist in High Availability Clustering Exam (EX436) a realizar el curso de capacitación Red Hat High Availability Clustering (RH436).

Si aprueba el examen, obtendrá la certificación Red Hat Certified Specialist y podrá presentarla cuando quiera obtener la acreditación Red Hat Certified Architect (RHCA®).

  • Red Hat recomienda que los candidatos obtengan las acreditaciones Red Hat Certified System Administrator (RHCSA) o Red Hat Certified Engineer (RHCE) antes de presentar el examen, aunque ninguna de ellas es obligatoria.
  • Obtener la acreditación Red Hat High Availability Clustering (RH436); o bien, demostrar que posee experiencia equivalente.
  • Comprender que para preparar el examen es importante tener experiencia real en la administración de sistemas.
  • Revisar los objetivos del examen Red Hat Certified Specialist in High Availability Clustering Exam.

Modulo 1: Configuración de los clústeres de alta disponibilidad

Modulo 2: Configuración del aislamiento de los clústeres

Modulo 3: Configuración de las funciones de registro y supervisión de los clústeres

Modulo 4: Configuración de la supervisión de los clústeres

Modulo 5: Configuración de un servicio de conmutación por error en clústeres

Modulo 6: Configuración de los servicios del clúster

Modulo 7: Configurar el almacenamiento

Modulo 8: Configuración de los sistemas de archivos GFS2

Modulo 9: Aumento de la capacidad de los sistemas de archivos GF2S

Documentación del curso Red Hat Certified Specialist in Business Process Design Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

El examen Red Hat Certified Specialist in Messaging Administration Exam (EX440) pone a prueba la capacidad de los candidatos para crear y mantener sistemas de mensajería empresarial con Red Hat® JBoss® AMQ. El administrador empresarial que obtenga la certificación Red Hat Certified Specialist in Messaging Administration habrá demostrado que posee las habilidades, el conocimiento y la capacidad para crear y mantener sistemas de mensajería empresarial con Red Hat JBoss AMQ.

Preparación para el examen:

Examen EX440: Red Hat Certified Specialist in Messaging Administration Exam

Red Hat invita a todos los candidatos del examen Red Hat Certified Specialist in Messaging Administration Exam (EX440) a realizar los cursos Red Hat AMQ Administration (AD44O), a modo de preparación para el examen.

Si aprueba este examen, obtendrá la certificación Red Hat Certified Specialist in Messaging Administration, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA).

Red Hat AMQ Administration (AD44O): Aprenda a configurar, gestionar y supervisar las instancias del broker con Red Hat JBoss AMQ.

Modulo 1: Crear una instancia simple del broker con JBoss AMQ

Modulo 2: Configurar direcciones, colas y temas

Modulo 3: Configurar la mensajería de punto a punto y de publicación/suscripción

Modulo 4: Comprender la convención de nomenclatura para la mensajería JMS

Modulo 5: Configurar los mensajes que caducan, para que se trasladen a la cola de mensajes no entregados

Modulo 6: Configurar los ajustes detallados de direcciones

Modulo 7: Aplicar la sintaxis comodín para el broker AMQ

Modulo 8: Configurar la paginación

Modulo 9: Comprender y ajustar el rendimiento

Modulo 10: Habilitar, deshabilitar y configurar el acceso de los invitados

Modulo 11: Configurar la autenticación y la autorización

Modulo 12: Proteger tanto las conexiones de red como los sistemas encargados de aceptar y enviar solicitudes de conexión a los servidores

Modulo 13: Configurar un clúster de brokers

Modulo 14: Configurar la alta disponibilidad y la conmutación por error

Documentación del curso Red Hat Certified Specialist in High Availability Clustering Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

El examen Red Hat Certified Engineer Specialist in Advanced Automation: Ansible Best Practices Exam (EX447) es una prueba basada en el desempeño que evalúa los conocimientos y las habilidades para gestionar varios sistemas con Red Hat® Ansible® Engine y Red Hat Ansible Tower.

Preparación para el examen:

Examen EX447: Red Hat Certified Specialist in Advanced Automation: Ansible Best Practices Exam

Red Hat aconseja realizar el curso Advanced Automation: Ansible Best Practices (DO447) a modo de preparación para el examen.

Si aprueba este examen, obtendrá la certificación Red Hat Certified Specialist in Advanced Automation: Ansible Best Practices, que también cuenta para la acreditación Red Hat Certified Architect (RHCA®).

  • Realizar el curso Advanced Automation: Ansible Best Practices (DO447); o bien, contar con experiencia laboral equivalente en Red Hat Enterprise Linux®, Ansible y Ansible Tower
  • Realizar el curso Red Hat System Administration III: Linux Automation (RH294); o bien, contar con experiencia laboral equivalente en Red Hat Enterprise Linux y Ansible
  • Analizar los objetivos del examen

Modulo 1: Compresión y uso de Git

Modulo 2: Gestión de las variables de los inventarios

Modulo 3: Gestión de la ejecución de tareas

Modulo 4: Transformación de los datos con filtros y plugins

Modulo 5: Delegación de tareas

Modulo 6: Instalación de Ansible Tower

Modulo 7: Gestión del acceso de Ansible Tower

Modulo 8: Gestión de los inventarios y las credenciales

Modulo 9: Gestión de proyectos

Modulo 10: Gestionar los flujos de trabajo de las tareas

Modulo 11: API de Ansible Tower

Modulo 12: Backup de Ansible Tower

Documentación del curso Red Hat Certified Specialist in Linux Performance Tuning Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Red Hat Certified Specialist in Ansible Network Automation Exam es una prueba basada en el desempeño donde se evalúan las habilidades y el conocimiento para gestionar la infraestructura de red con Red Hat® Ansible®.

Preparación para el examen:

Examen EX457: Red Hat Certified Specialist in Ansible Network Automation Exam

Red Hat lo invita a que realice el curso Red Hat Ansible for Network Automation (DO457) a modo de preparación para el examen.

Si aprueba el examen, obtendrá la certificación Red Hat Certified Specialist in Ansible Network Automation y podrá presentarla cuando quiera obtener la acreditación Red Hat Certified Architect (RHCA®).

  • Tener experiencia en la administración de redes y comprender los conceptos básicos de red, enrutamiento y configuración de conmutadores y enrutadores
  • Conocer la gestión de la línea de comandos de los dispositivos de red
  • Estar familiarizado con VyOS y Cisco IOS
  • Contar con experiencia de trabajo en un entorno de línea de comandos de LinuxContar con la certificación Red Hat Certified System Administrator (RHCSA) o tener conocimientos equivalentes (recomendado)
  • Conocer los conceptos de Ansible y Ansible Tower
  • Realizar la evaluación de habilidades sin costo para hallar el curso que lo ayude a prepararse mejor para presentar el examen

Modulo 1: Trabajar desde un entorno de línea de comandos de Red Hat Enterprise Linux

Modulo 2: Trabajar con Git y realizar las operaciones básicas de dicho sistema

Modulo 3: Configurar Ansible

Modulo 4: Ejecutar los comandos y los playbooks de Ansible

Modulo 5: Usar los elementos estándar de Ansible

Modulo 6: Trabajar con las funciones de Ansible

Modulo 7: Automatizar la gestión de los dispositivos de red

Modulo 8: Utilizar Ansible Tower

Documentación del curso Red Hat Certified Specialist in Advanced Automation: Ansible Best Practices Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Specialist in Event-Driven Development with Kafka, se evalúan sus habilidades y conocimiento sobre la codificación de aplicaciones basadas en eventos utilizando Apache Kafka y el desarrollo de Apache Kafka Streams. El examen se centra en las habilidades básicas necesarias para crear aplicaciones con la arquitectura basada en eventos.

Preparación para el examen:

Examen EX482: Red Hat Certified Specialist in Event-Driven Development with Kafka

Red Hat recomienda que los candidatos realicen el curso Developing Event-Driven Applications with Apache Kafka and Red Hat AMQ Streams (AD482) a modo de preparación.

Si aprueba el examen, obtendrá la certificación Red Hat Certified Specialist in Event-Driven Development with Kafka, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®).

  • Deben estar familiarizados con el uso de VSCode o VSCodium en un entorno de Red Hat Enterprise Linux.
  • También deben tener bastante experiencia con Java SE, lo que incluye conocer y entender los conceptos básicos de Java y las API. Por ejemplo, se deben conocer las excepciones, las anotaciones, las funciones anónimas, la programación funcional y la API Collections.
  • Les resultarás muy útil tener cierto conocimiento sobre OpenShift o Kubernetes.
  • Deberán realizar una evaluación de habilidades sin costo para hallar el curso que los ayude a prepararse mejor para presentar el examen.

Modulo 1: Comprender y utilizar las aplicaciones basadas en eventos con la API de AMQ Streams

Modulo 2: Comprender la arquitectura y el ecosistema de Kafka

Modulo 3: Comprender y utilizar una aplicación de Quarkus conectada a Kafka

Modulo 4: Brindar y configurar el acceso a un clúster de Kafka

Modulo 5: Proporcionar y usar el esquema de Red Hat Service Registry para separar los datos de las aplicaciones cliente, y compartir y gestionar los tipos de datos durante la ejecución

Modulo 6: Integrar datos con Kafka Connect

Modulo 7: Comprender y utilizar patrones avanzados y basados en eventos en aplicaciones de Apache Kafka

Modulo 8: Solucionar los problemas más comunes en las aplicaciones basadas en eventos, como la conservación del orden de los mensajes, los reintentos y la idempotencia, el manejo de eventos duplicados y la implementación de casos de prueba de Streams

Documentación del curso Red Hat Certified Specialist in Ansible Network Automation Exam

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Traslade las cargas de trabajo de las aplicaciones, incluidos los recursos, los datos y las imágenes de contenedores de Kubernetes, cuando decida pasar de OpenShift 3 a OpenShift 4 o de OpenShift 4.x a la versión más reciente.

La certificación Red Hat OpenShift Migration Lab (DO326) es para los especialistas en OpenShift que necesiten trasladar las cargas de trabajo de las implementaciones heredadas de OpenShift Container Platform 3.11 a la versión 4.6. Gracias al uso del kit de herramientas de migración para contenedores (MTC), los estudiantes obtendrán la experiencia necesaria para realizar traslados reales.

  • Evaluar los casos de migración de OpenShift 3 a OpenShift 4
  • Analizar los casos de migración de las versiones inferiores a OpenShift 4
  • Implementar el kit de herramientas de migración para contenedores
  • Trasladar los datos de las aplicaciones almacenados en los volúmenes permanentes de un clúster de OpenShift a otro
  • Trasladar las imágenes de las aplicaciones del registro interno de un clúster de OpenShift a otro
  • Trasladar los recursos de las aplicaciones de los manifiestos de Kubernetes de un clúster de OpenShift a otro
  • Trasladar la configuración del clúster de Kubernetes entre los distintos clústeres de OpenShift

  • Realice una evaluación sin costo para determinar si esta oferta es la más conveniente en función de sus habilidades.
  • Se recomienda contar con la certificación Red Hat OpenShift Administration II: Operating a Production Kubernetes Cluster (DO280) para obtener buenos resultados en este curso.
  • También se recomienda contar con la certificación Red Hat OpenShift Installation Lab (DO322).

Modulo 1: Planificación del traslado de OpenShift 3 a OpenShift 4

Modulo 2: Preparación del clúster de destino para el traslado

Modulo 3: Implementación del kit de herramientas de migración para contenedores (MTC)

Modulo 4: Uso del MTC para trasladar las aplicaciones

Modulo 5: Asignación de las dependencias de las aplicaciones y gestión de los problemas relacionados con los traslados

Modulo 6: Automatización de los traslados de las aplicaciones con la API del MTC y Ansible

Modulo 7: Reducción del tiempo de inactividad durante los procesos de migración

Modulo 8: Revisión integral del laboratorio de migración de Red Hat OpenShift 3 a 4

Documentación del curso Red Hat Certified Specialist in Event-Driven Application Development Exam

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Mejore sus habilidades de Ansible y desarrolle una automatización que se amplíe mediante la aplicación de prácticas recomendadas con las nuevas herramientas centradas en contenedores de Red Hat Ansible Automation Platform

El desarrollo de la automatización avanzada con Red Hat Ansible Automation Platform (DO374) está diseñado para que los desarrolladores de contenido de automatización aprovechen las nuevas herramientas centradas en contenedores de Red Hat® Ansible Automation Platform para desarrollar de manera eficiente la automatización que puede ser gestionada por el controlador de automatización. Aprenda las prácticas recomendadas para el desarrollo de automatización utilizando código reutilizable, técnicas avanzadas de libro de jugadas, entornos de ejecución compartidos y preparación para la automatización escalable con el navegador de contenido de automatización.

Preparación para el examen:

Examen DO375: Developing Advanced Automation with Red Hat Ansible Automation Platform and exam

Mejore sus habilidades de Ansible y desarrolle una automatización que se amplíe mediante la aplicación de prácticas recomendadas con las nuevas herramientas centradas en contenedores de Red Hat Ansible Automation Platform

  • Aplique las prácticas recomendadas para una automatización efectiva y eficiente con Ansible.
  • Realice operaciones de automatización como actualizaciones continuas.
  • Utilice las funciones avanzadas de Red Hat Ansible Automation Platform para trabajar con datos, incluidos filtros y complementos.
  • Cree entornos de ejecución de automatización para contener y escalar Red Hat Ansible Automation.
  • Aproveche las capacidades del navegador de contenido de automatización para desarrollar Ansible Playbooks.

  • Realice nuestra evaluación gratuita para evaluar si esta oferta es la mejor opción para sus habilidades.
  • Red Hat Enterprise Linux Automation con Ansible (RH294)
  • Ser red hat certified engineer (RHCE®) en Red Hat Enterprise Linux 8 o demostrar una experiencia equivalente en Ansible

Módulo 1: Desarrolle Playbooks con Ansible Automation Platform 2

Desarrolle Playbooks de Ansible siguiendo las prácticas recomendadas con Red Hat Ansible Automation Platform 2.

Módulo 2: Administrar colecciones de contenido y entornos de ejecución

Ejecute playbooks que utilicen colecciones de contenido no incluidas en ansible-core, ya sea desde un entorno de ejecución existente o descargándolos desde el centro de automatización.

Módulo 3: Ejecutar Playbooks con controlador de automatización

Use el controlador de automatización para ejecutar libros de jugadas que desarrolló con el navegador de contenido de automatización.

Módulo 4: Trabajar con los ajustes de configuración de Ansible

Examine y ajuste la configuración del navegador de contenido de automatización y el ejecutor de Ansible dentro de los entornos de ejecución para simplificar el desarrollo y solucionar problemas.

Módulo 5: Administrar inventarios

Administre inventarios mediante el uso de funciones avanzadas de Ansible.

Módulo 6: Administrar la Ejecución de Tareas

Controle y optimice la ejecución de tareas mediante Ansible Playbooks.

Módulo 7: Transformar datos con filtros y complementos

Rellene, manipule y administre datos en variables usando filtros y complementos.

Módulo 8: Actualizaciones continuas de coordenadas

Use las funciones avanzadas de Ansible para administrar las actualizaciones periódicas a fin de minimizar el tiempo de inactividad y garantizar la facilidad de mantenimiento y la simplicidad de Ansible Playbooks.

Módulo 9: Crear colecciones de contenido y entornos de ejecución

Escriba sus propias colecciones de contenido de Ansible, publíquelas, intégrelas en un entorno de ejecución personalizado y ejecútelas en libros de jugadas mediante el controlador de automatización.

Documentación del curso Developing Advanced Automation with Red Hat Ansible Automation Platform

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Una introducción pragmática a la implementación de DevOps en la ingeniería de confiabilidad del sitio

Red Hat Transformational Learning: Introduction to Pragmatic Site Reliability Engineering (TL112) enseña el vocabulario, los conceptos y las consideraciones culturales necesarias para prepararse para adoptar una implementación de DevOps denominada Site Reliability Engineering (SRE). En este curso, se explorará la historia, las definiciones y la visión específica de Red Hat sobre esta práctica a medida que el estudiante se prepara para continuar el camino de aprendizaje de unirse o implementar un equipo de SRE.

  • Introducción a la ingeniería de confiabilidad del sitio
  • Determinación de la preparación operativa
  • Descripción del trabajo e implementación de la automatización
  • Explicación y cálculo de presupuestos de errores
  • Explicación de la gestión de incidentes
  • Implementación de la ingeniería de confiabilidad del sitio

No es necesario cumplir con requisitos previos para acceder a este curso

Modulo 1: Introducción a la ingeniería de confiabilidad del sitio

Compare y contraste la administración de sistemas tradicionales con Site Reliability Engineering (SRE) y DevOps.

Modulo 2: Determinación de la preparación operativa

Determine si su organización está lista para adoptar los principios de SRE

Modulo 3: Descripción del trabajo e implementación de la automatización

Defina y describa el trabajo y cómo aprovechar la automatización.

Modulo 4: Explicación y cálculo de presupuestos de errores

Explicar la importancia de establecer presupuestos de error

Modulo 5: Explicación de la gestión de incidentes

Describir la gestión de incidentes y la relación con la ingeniería de confiabilidad del sitio

Documentación del curso Developing Advanced Automation with Red Hat Ansible Automation Platform and exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En este curso, aprenderá las mejores prácticas para diseñar y usar flujos de trabajo de video basados en la nube. Cubre conceptos importantes relacionados con el procesamiento y la entrega de videos, las variables que pueden afectar la migración decisiones y ejemplos del mundo real de casos de uso híbrido y en la nube para AWS Media Services.

también introduce conceptos de seguridad, aprendizaje automático y análisis para ayudarlo a considerar cómo encajan los servicios multimedia de AWS en su estrategia global de nube.

Preparación para el examen:

Exam Readiness: Solutions Architect – Associate

Este curso te prepara para la certificación de AWS Certified Solutions Architect – Associate

  • Los términos y conceptos esenciales que son fundamentales para tomar decisiones sobre el flujo de trabajo del streaming de vídeo, incluidas las métricas de video, la compresión, la distribución y los protocolos
  • Las cuatro etapas fundamentales de los flujos de trabajo de streaming de video: captura, procesamiento, almacenamiento y entrega
  • Qué servicios de AWS se pueden utilizar en cada etapa de un flujo de trabajo de streaming de video, incluida la captura, el procesamiento, el almacenamiento y la entrega
  • Cómo analizar los diagramas de flujo de trabajo de streaming de video mediante los servicios de AWS, a partir de casos de uso simples y complejos

  • Video Streaming Concepts: AWS Media Services
  • Introduction to AWS Media Services by Use Case

Modulo 1: Important Video Concepts

  • Resolution, bitrate, frame rate, latency, and compression
  • Codecs and containers
  • Group of pictures (GOP) encoding
  • ABR, packaging and distribution
  • Internet protocols used in video streaming

Modulo 2: Anatomy of Streaming Workflows

  • Four stages of video streaming
  • Variables that affect design decisions

Modulo 3: Using AWS Services in Video-on-Demand (VOD) Workflows

  • Converting a film or tape library for internet streaming
  • Increasing reach and accessibility using multiple languages and captions
  • Streaming edited highlights from a live event
  • Analyzing and tagging VOD files for media content analysis using machine learning and data analytics

Modulo 4: Optimizing Workflows

  • Security
  • Migrating to the cloud
  • Cloud financial management

Modulo 5: Using AWS Services in Live Workflows

  • Challenges of live streaming
  • Live streaming a simple interview show
  • Live streaming a major sporting event to a global audience
  • Live switching between multiple inputs
  • Saving segments from a live show to create VOD segments

Modulo 6: Recap and Review

Modulo 7: Next Step

  • Documentación del curso Media Essentials for IT Decision Makers

  • Formador Certificado por AWS
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Desarrolle y adapte las aplicaciones de microservicios basadas en eventos y solucione los problemas asociados a ellas.

Aprenda a utilizar Kafka y AMQ Streams para diseñar, desarrollar y probar aplicaciones basadas en eventos. Los microservicios basados en eventos se pueden ampliar de manera masiva, almacenan y transmiten los datos de los procesos, y brindan información con baja latencia a los clientes. Este curso está dirigido a los desarrolladores de aplicaciones y se basa en Red Hat AMQ Streams 1.8 y Red Hat OpenShift Container Platform 4.6.

  • Describir los conceptos básicos de Kafka y su arquitectura
  • Desarrollar aplicaciones con la API de Kafka Streams
  • Integrar aplicaciones con Kafka Connect
  • Detectar los cambios en la base de datos con Debezium
  • Solucionar los problemas comunes de transmisión de las aplicaciones

  • Tener experiencia en el desarrollo y el diseño de aplicaciones de microservicios, como la que se adquiere con el curso DO378, o experiencia equivalente.
  • Se recomienda tener experiencia en OpenShift, aunque no es obligatorio.

Modulo 1: Diseño de aplicaciones basadas en eventos

Describa los principios de las aplicaciones basadas en eventos.

Modulo 2: Presentación de los conceptos de Kafka y AMQ Streams

Cree aplicaciones con las funciones básicas de mensajería: de lectura y de escritura.

Modulo 3: Desarrollo de aplicaciones con la API de Streams

Aproveche la API de Streams para crear aplicaciones de transmisión de datos.

Modulo 4: Creación de servicios asíncronos con colaboración de eventos

Cree y adopte servicios asíncronos con el patrón de colaboración de eventos.

Modulo 5: Integración de sistemas de datos con Kafka Connect

Conecte los sistemas de datos y responda ante los cambios en la base de datos con Kafka Connect y Debezium.

Modulo 6: Solución de problemas de las aplicaciones de AMQ Streams

Solucione los problemas comunes en las aplicaciones de Kafka y AMQ Streams.

Documentación del curso Developing Workflow Applications with Red Hat JBoss BPM Suite with Exam

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Desarrolle y adapte las aplicaciones de microservicios basadas en eventos y solucione los problemas asociados a ellas.

Aprenda a utilizar Kafka y AMQ Streams para diseñar, desarrollar y probar aplicaciones basadas en eventos. Los microservicios basados en eventos se pueden ampliar de manera masiva, almacenan y transmiten los datos de los procesos, y brindan información con baja latencia a los clientes. Este curso está dirigido a los desarrolladores de aplicaciones y se basa en Red Hat AMQ Streams 1.8 y Red Hat OpenShift Container Platform 4.6.

  • Describir los conceptos básicos de Kafka y su arquitectura
  • Desarrollar aplicaciones con la API de Kafka Streams
  • Integrar aplicaciones con Kafka Connect
  • Detectar los cambios en la base de datos con Debezium
  • Solucionar los problemas comunes de transmisión de las aplicaciones

  • Tener experiencia en el desarrollo y el diseño de aplicaciones de microservicios, como la que se adquiere con el curso DO378, o experiencia equivalente.
  • Se recomienda tener experiencia en OpenShift, aunque no es obligatorio.

Modulo 1: Diseño de aplicaciones basadas en eventos

Describa los principios de las aplicaciones basadas en eventos.

Modulo 2: Presentación de los conceptos de Kafka y AMQ Streams

Cree aplicaciones con las funciones básicas de mensajería: de lectura y de escritura.

Modulo 3: Desarrollo de aplicaciones con la API de Streams

Aproveche la API de Streams para crear aplicaciones de transmisión de datos.

Modulo 4: Creación de servicios asíncronos con colaboración de eventos

Cree y adopte servicios asíncronos con el patrón de colaboración de eventos.

Modulo 5: Integración de sistemas de datos con Kafka Connect

Conecte los sistemas de datos y responda ante los cambios en la base de datos con Kafka Connect y Debezium.

Modulo 6: Solución de problemas de las aplicaciones de AMQ Streams

Solucione los problemas comunes en las aplicaciones de Kafka y AMQ Streams.

Documentación del curso Developing Event-Driven Applications with Apache Kafka and Red Hat AMQ Streams

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Specialist in Containers and Kubernetes Exam (EX180), se ponen a prueba sus habilidades y conocimientos en relación con los conceptos básicos de los contenedores y OpenShift. Esto incluye la capacidad de hallar, personalizar, ejecutar y gestionar servicios en contenedores, tanto en entornos independientes como en aquellos con Kubernetes y OpenShift.

Si lo aprueba, obtendrá la certificación Red Hat Certified Specialist in Containers and Kubernetes, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®).

Preparación para el examen:

Examen EX180: Red Hat Certified Specialist in Containers and Kubernetes Exam

Red Hat recomienda realizar el curso Red Hat OpenShift I: Containers & Kubernetes (DO180) como preparación para el examen. 

  • Haber realizado el curso Red Hat OpenShift I: Containers & Kubernetes (DO180).
  • Realizar una evaluación de habilidades sin costo para encontrar el curso que lo ayude a prepararse para presentar el examen.

Modulo 1: Implementación de imágenes con Podman

Modulo 2: Gestión de imágenes

Modulo 3: Ejecutar contenedores de manera local con Podman

Modulo 4: Conocimientos básicos de OpenShift

Modulo 5: Creación de aplicaciones en OpenShift

Modulo 6: Resolución de los problemas con las aplicaciones en OpenShift

Documentación del curso Developing Event-Driven Applications with Apache Kafka and Red Hat AMQ Streams with Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat® Certified Enterprise Application Developer Exam (EX183), se evalúa su conocimiento básico sobre las principales API de Java empresariales que se requieren para implementar servicios empresariales modernos y sin estado.

Preparación para el examen:

Examen EX183: Red Hat Certified Enterprise Application Developer Exam

Si lo que busca es estar mejor preparado para el examen EX183, Red Hat le sugiere que realice el curso Red Hat Application Development I: Programming in Java EE (AD183).

  • Uso de JAX-RS para crear, leer/buscar, actualizar y eliminar las API con REST simple.
  • Uso de JAAS para garantizar el acceso a los servicios.
  • Uso de EJB sin estado para proporcionar la lógica empresarial.
  • Uso de CDI para integrar los componentes.
  • Uso de JMS para enviar y recibir mensajes.
  • Uso de la validación de beans para garantizar el formato y la consistencia de los datos.
  • Uso de JPA básico para crear, leer, actualizar y eliminar los objetos permanentes y sus relaciones.

  • Estar familiarizados con el uso de Red Hat JBoss Developer Studio en un entorno Red Hat Enterprise Linux.
  • Tener sólidos conocimientos de JSE, lo que incluye aprender y entender los conceptos básicos de Java y las API. Por ejemplo, las excepciones, las anotaciones y las colecciones de API son necesarias durante el examen.
  • Revisar los objetivos del examen Red Hat Certified Enterprise Application Developer Exam y asegurarse de estar familiarizado con todos los temas mencionados.

Modulo 1: Validación de beans

Modulo 2: Mapeo de JPA

Modulo 3: Consulta JPA

Modulo 4: Mensajería

Modulo 5: Servicios REST con JAX-RS

Modulo 6: Seguridad

Modulo 7: CDI

Documentación del curso Red Hat Certified Specialist in Containers and Kubernetes Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen práctico Red Hat Certified System Administrator (RHCSA) Exam (EX200), se ponen a prueba sus conocimientos en áreas comunes de administración de sistemas en una amplia variedad de entornos y escenarios de implementación. Las habilidades que se evalúan en este examen son esenciales para la administración de sistemas en todos los productos de Red Hat®.

Preparación para el examen:

Examen EX200: Red Hat Certified System Administrator (RHCSA) Exam

A modo de preparación para el examen, Red Hat recomienda que realice los cursos Red Hat System Administration I (RH124) y II (RH134). 

Administración de sistemas en todos los productos de Red Hat®.

  • Haber realizado los cursos Red Hat System Administration I (RH124) y II (RH134) o el curso RHCSA Rapid Track Course (RH199) que combina los dos anteriores; o bien, tener experiencia laboral equiparable como administrador de sistemas en Red Hat Enterprise Linux
  • Revisar los objetivos del examen Red Hat Certified System Administrator Exam (EX200)
  • Realice una evaluación sin costo y descubra qué curso lo preparará mejor para presentar el examen.

Modulo 1: Conocer y usar las herramientas principales

Modulo 2: Crear scripts de shell sencillos

Modulo 3: Operar sistemas en funcionamiento

Modulo 4: Configurar el almacenamiento local

Modulo 5: Crear y configurar sistemas de archivos

Modulo 6: Implementar, configurar y mantener sistemas

Modulo 7: Gestionar las conexiones de red básicas

Modulo 8: Gestionar usuarios y grupos

Modulo 9: Gestionar la seguridad

Modulo 10: Gestionar contenedores

Documentación del curso Red Hat Certified Enterprise Application Developer Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Specialist in Cloud Infrastructure Exam (EX210), se evalúan las habilidades, el conocimiento y las destrezas que se necesitan para crear, configurar y gestionar nubes privadas utilizando Red Hat® Enterprise Linux® y Red Hat® OpenStack Platform. El examen se centra en las tareas necesarias para mantener un clúster de Red Hat OpenStack Platform en funcionamiento y gestionar las operaciones diarias.

Preparación para el examen:

Examen EX210: Red Hat Certified Specialist in Cloud Infrastructure Exam

Se recomienda que los candidatos realicen los cursos Red Hat OpenStack Administration I: Core Operations for Cloud Operators (CL110) y Red Hat OpenStack Administration II: Day 2 Operations for Cloud Operators (CL210), a modo de preparación.

Mantener un clúster de Red Hat OpenStack Platform en funcionamiento y gestionar las operaciones diarias.

  • Haber adquirido la certificación Red Hat Certified System Administrator; o bien, demostrar que posee habilidades y experiencia laboral equiparables
  • Haber realizado los cursos Red Hat OpenStack Administration I : Core Operations for Domain Operators (CL110) y Red Hat OpenStack Administration II: Day 2 Operations for Cloud Operators (CL210); o bien, demostrar que posee experiencia laboral equiparable en el uso de Red Hat OpenStack Platform
  • Repase los objetivos del examen Red Hat Certified Specialist in Cloud Infrastructure Exam (EX210)

Modulo 1: Gestión del plano de control de Red Hat OpenStack Platform

Modulo 2: Gestión de la seguridad de la infraestructura

Modulo 3: Gestión de la seguridad de los usuarios

Modulo 4: Gestión de los recursos para la implementación de las aplicaciones

Modulo 5: Gestión del almacenamiento en Red Hat OpenStack Platform

Modulo 6: Gestión de las redes

Modulo 7: Gestión de las operaciones de los nodos informáticos

Modulo 8: Supervisión de las operaciones

Modulo 9: Automatización de la implementación de las aplicaciones en la nube

Modulo 10: Resolución de los problemas relacionados con las operaciones

Documentación del curso Red Hat Certified System Administrator (RHCSA) Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Si lo aprueba, obtendrá la certificación Red Hat Certified Specialist in API Management, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA).

Preparación para el examen:

Examen EX248: Red Hat Certified Specialist in Enterprise Application Server Administration Exam

Red Hat Certified Specialist in Enterprise Application Server Administration Exam es un examen basado en el rendimiento que evalúa el conocimiento y las habilidades del candidato para administrar aplicaciones empresariales utilizando JBoss EAP.

En el examen Red Hat Certified Specialist in API Management Exam (EX240), se evalúa su capacidad para crear y mantener API empresariales con Red Hat® 3scale API Management.

  • Tener experiencia práctica con la plataforma Red Hat 3scale API Management

Modulo 1: Control de acceso

Modulo 2: Cuentas

Modulo 3: Análisis

Modulo 4: Autenticación de API

Modulo 5: Documentación de API

Modulo 6: Facturación

Modulo 7: Portal para desarrolladores

Modulo 8: Descubrimiento de servicios

Modulo 9: Definición de servicios

Modulo 10: Integración de servicios

Documentación del curso Red Hat Certified Specialist in Cloud Infrastructure Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

La certificación Red Hat Certified Specialist in Enterprise Application Server Administration está diseñada para administradores de sistemas o desarrolladores de aplicaciones que se encargan de distribuir, implementar y gestionar JBoss EAP y sus aplicaciones.

Preparación para el examen:

Examen EX240: Red Hat Certified Specialist in API Management Exam

Red Hat le recomienda realizar el curso Build and Administer API with Red Hat 3scale API Management (AD240) para prepararse para el examen. 

En el examen Red Hat Certified Specialist in Enterprise Application Server Administration Exam (EX248) basado en el rendimiento, se evalúan el conocimiento y las habilidades para instalar, configurar, supervisar, gestionar e implementar aplicaciones en Red Hat® JBoss® Enterprise Application Platform (JBoss EAP).

  • Contar con la certificación Red Hat Certified System Administrator (RHCSA) o tener experiencia laboral y habilidades similares
  • Haber realizado el curso Red Hat JBoss Application Administration I (AD248) o tener experiencia laboral en la administración de JBoss EAP y de las aplicaciones que se ejecutan en esa plataforma

Modulo 1: Instalación y gestión de JBoss EAP

Modulo 2: Configuración de servidores, hosts y dominios JBoss EAP

Modulo 3: Configuración de JBoss EAP para admitir el funcionamiento en clúster y de alta disponibilidad

Modulo 4: Supervisión y gestión de JBoss EAP

Modulo 5: Configuración del servicio de mensajería de Java

Modulo 6: Gestión de aplicaciones

Modulo 7: Configuración de los conectores web de JBoss

Modulo 8: Configuración de la seguridad de JBoss EAP

Documentación del curso Red Hat Certified Specialist in API Management Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Specialist in Ceph Cloud Storage Exam (EX260), se evalúan el conocimiento, las habilidades y la capacidad de los candidatos para instalar, configurar y gestionar clústeres de Red Hat® Ceph Storage.

Preparación para el examen:

Examen EX260: Red Hat Certified Specialist in Ceph Cloud Storage Exam

Red Hat le recomienda realizar el curso Cloud Storage with Red Hat Ceph Storage (CL260) a modo de preparación.

Si aprueba el examen, obtendrá la certificación Red Hat Certified Specialist in Ceph Cloud Storage, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®).

  • Contar con la certificación Red Hat Certified System Administrator (RHCSA); o bien, tener habilidades y experiencia laboral equiparables (sería incluso mejor que haya obtenido la acreditación Red Hat Certified Engineer [RHCE])
  • Haber realizado el curso Cloud Storage with Red Hat Ceph Storage (CL260) o tener experiencia laboral equiparable
  • Repasar los objetivos del examen Red Hat Certified Specialist in Ceph Cloud Storage Exam

Modulo 1: Instalar el servidor de Red Hat Ceph Storage

Modulo 2: Trabajar con los dispositivos actuales del servidor de Red Hat Ceph Storage

Modulo 3: Configurar servidores de Red Hat Ceph Storage

Modulo 4: Proporcionar almacenamiento en bloques con RBD

Modulo 5: Almacenamiento de objetos con RADOSGW

Modulo 6: Almacenamiento de archivos con CephFS

Modulo 7: Configurar un mapa de CRUSH

Modulo 8: Gestionar y actualizar los mapas de clústeres

Modulo 9: Gestión de un clúster de Red Hat Ceph Storage

Modulo 10: Ajuste de Red Hat Ceph Storage

Modulo 11: Resolución de los problemas de los servidores de Red Hat Ceph Storage

Modulo 12: Integración de Red Hat Ceph Storage y Red Hat OpenStack Platform

Documentación del curso Red Hat Certified Specialist in Enterprise Application Server Administration Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

El examen Red Hat Certified Specialist in OpenShift Administration Exam (EX280) pone a prueba sus conocimientos, habilidades y capacidad para crear, configurar y gestionar una plataforma de aplicaciones en la nube con Red Hat® OpenShift® Container Platform.

Preparación para el examen:

Examen EX280: Red Hat Certified Specialist in OpenShift Administration Exam

Red Hat recomienda realizar los cursos Red Hat OpenShift I: Containers & Kubernetes (DO180) y Red Hat OpenShift Administration II: Operating a Production Kubernetes Cluster (DO280) como preparación para el examen.

Si aprueba este examen, obtendrá la certificaciónRed Hat Certified Specialist, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®).

  • Obtener la acreditación Red Hat Certified System Administrator (RHCSA), o tener habilidades y experiencia laboral equiparables
  • Realizar el curso Red Hat OpenShift Administration II: Operating a Production Kubernetes Cluster (DO280), o tener experiencia laboral equivalente en el uso de OpenShift Container Platform
  • Repasar los objetivos del examen Red Hat Certified Specialist in OpenShift Administration Exam (EX280)
  • Se recomienda contar con experiencia en el ámbito de la tecnología de contenedores
  • Realice nuestra evaluación sin costo y descubra qué curso lo ayudará a estar mejor preparado para presentar este examen

Modulo 1: Gestión de OpenShift Container Platform

Modulo 2: Gestión de usuarios y políticas

Modulo 3: Control de acceso a los recursos

Modulo 4: Configuración de los elementos de la red

Modulo 5: Configuración de la programación de pods

Modulo 6: Configuración del escalamiento de los clústeres

Documentación del curso Red Hat Certified Specialist in Ceph Cloud Storage Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Specialist in OpenShift Application Development Exam (EX288), se evalúa su capacidad para implementar las aplicaciones actuales en un entorno de Red Hat® OpenShift® Container Platform.

Preparación para el examen:

Examen EX288: Red Hat Certified Specialist in OpenShift Application Development Exam

Red Hat le recomienda realizar los cursos Red Hat OpenShift I: Containers & Kubernetes (DO180) y Red Hat OpenShift Development II: Containerizing Applications (DO288) a modo de preparación para el examen. 

Si aprueba este examen, obtendrá la certificación Red Hat Certified Specialist in OpenShift Application Development, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®).

  • Antes de presentar este examen, debe tener un conocimiento básico sobre los contenedores. Se recomienda tener cierta experiencia en programación, aunque no es obligatorio. Asimismo, debe poder utilizar la documentación para aprender a usar las aplicaciones nuevas o desconocidas.
  • Realice nuestra evaluación de habilidades sin costo para encontrar el curso que lo ayude a prepararse mejor para presentar el examen.
  • Aunque no es obligatorio, se recomienda que haya completado el curso Red Hat OpenShift Development II: Containerizing Applications (DO288).
  • Se recomienda contar con la certificación Red Hat Certified Specialist in Containers and Kubernetes, pero no es obligatorio.

Modulo 1: Uso de Red Hat OpenShift Container Platform

Modulo 2: Implementación de aplicaciones en varios contenedores

Modulo 3: Uso de las imágenes de contenedores

Modulo 4: Resolución de los problemas relacionados con la implementación de las aplicaciones

Modulo 5: Uso de los flujos de imágenes

Modulo 6: Uso de los mapas de configuración

Modulo 7: Uso de la herramienta Source-to-Image (S2I)

Modulo 8: Uso de enlaces y activadores

Modulo 9: Uso de plantillas

Documentación del curso Red Hat Certified Specialist in OpenShift Administration Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen práctico Red Hat Certified Engineer (RHCE) Exam for Red Hat Enterprise Linux 8 (EX294), pondrá a prueba su conocimiento y sus habilidades para gestionar sistemas con Red Hat® Ansible® Automation Platform y para ejecutar tareas comunes de administración en varios sistemas con Ansible. Las habilidades que se evalúan son esenciales para la administración de sistemas en muchos de los productos de Red Hat.

Preparación para el examen:

Examen EX294: Red Hat Certified Engineer (RHCE) Exam

Red Hat recomienda que realice los cursos Red Hat System Administration I (RH124), Red Hat System Administration II (RH134) y Red Hat System Administration III: Linux Automation with Ansible (RH294) a modo de preparación para el examen.

En caso de aprobarlo, obtendrá la certificación Red Hat Certified Engineer. Un RHCE® es el especialista que cuenta con la certificación Red Hat Certified System Administrator (RHCSA) y que está preparado para utilizar Ansible y los programas de creación de scripts con el objetivo de automatizar las tareas de Red Hat® Enterprise Linux®, integrar las tecnologías nuevas de Red Hat y aplicar la automatización para alcanzar mayores niveles de eficiencia e innovación. Para obtener la acreditación RHCE, se requiere la certificación RHCSA. Si decide continuar con el proceso de aprendizaje después de conseguir la acreditación RHCE, esta también le servirá para obtener el nivel de certificación superior: Red Hat Certified Architect.

  • Haber realizado los cursos Red Hat System Administration I (RH124) y II (RH134) o el curso RHCSA Rapid Track Course (RH199); o bien, contar con experiencia laboral equivalente como administrador de sistemas en Red Hat Enterprise Linux
  • Haber realizado el curso Red Hat System Administration III: Linux Automation with Ansible (RH294); o bien, contar con experiencia laboral equivalente
  • Revisar los objetivos del examen Red Hat Certified System Administrator (RHCSA) Exam (EX200)
  • Revisar los objetivos del examen Red Hat Certified Engineer (RHCE) Exam for Red Hat Enterprise Linux 8 (EX294)
  • Realice una evaluación de habilidades sin costo y encuentre el curso que lo ayude a prepararse mejor para presentar el examen.

Modulo 1: Poder realizar todas las tareas de un Red Hat Certified System Administrator

Modulo 2: Comprender cuáles son los elementos principales de Ansible

Modulo 3: Instalar y configurar un nodo de control de Ansible

Modulo 4: Configurar los nodos gestionados de Ansible

Modulo 5: Tareas de administración de scripts

Modulo 6: Crear plays y playbooks de Ansible

Modulo 7: Utilizar los módulos de Ansible para las tareas de administración de sistemas que funcionen con

Modulo 8: Trabajar con funciones

Modulo 9: Usar las características avanzadas de Ansible

Documentación del curso Red Hat Certified Specialist in OpenShift Application Development Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Specialist in Virtualization Exam (EX318) basado en el rendimiento, se evalúa su capacidad para crear, implementar y gestionar máquinas virtuales de Linux® utilizando Red Hat® Virtualization Manager.

Preparación para el examen:

Examen EX318: Red Hat Certified Specialist in Virtualization Exam

Red Hat recomienda que todos los candidatos a obtener la certificación Red Hat Certified Specialist in Red Hat Virtualization asistan a los cursos Red Hat Virtualization para prepararse para el examen. 

Si aprueba este examen, obtendrá la certificación Red Hat Certified Specialist in Virtualization, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®).

  • Contar con experiencia en el uso de Red Hat Enterprise Virtualization
  • Obtener la certificación Red Hat Certified System Administrator (RHCSA®) o demostrar experiencia equivalente

Modulo 1: Instalar Red Hat Virtualization Manager (RHVM) y Red Hat Virtualization

Modulo 2: Gestionar el almacenamiento

Modulo 3: Crear y gestionar máquinas virtuales

Modulo 4: Trabajar con imágenes de máquinas virtuales

Modulo 5: Crear y gestionar usuarios de Red Hat Virtualization Manager

Modulo 6: Implementar automáticamente máquinas virtuales

Modulo 7: Crear y gestionar objetos de red

Modulo 8: Crear y gestionar políticas de clústeres

Documentación del curso Red Hat Certified Engineer Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Demuestra tus habilidades para analizar los sistemas en busca de problemas comunes.

En el examen de certificación Red Hat Certified Specialist in Linux Diagnostics and Troubleshooting Exam (EX342) se pone a prueba tu capacidad para analizar los sistemas Red Hat® Enterprise Linux® en busca de problemas comunes que puedan causar disminución o pérdida de rendimiento, y para corregirlos o recopilar información forense que se pueda transmitir a un tercero.

Al aprobar este examen, obtendrás la certificación Red Hat Certified Specialist in Linux Diagnostics and Troubleshooting, que también cuenta para obtener la acreditación Red Hat® Certified Architect (RHCA®).

El examen se basa en Red Hat Enterprise Linux 8.4.

Preparación para el examen:

Examen EX342: Red Hat Certified Specialist in Linux Diagnostics and Troubleshooting Exam

Red Hat invita a todos los candidatos del examen Red Hat Certified Specialist in Linux Diagnostics and Troubleshooting Exam a realizar el curso Red Hat Enterprise Linux Diagnostics and Troubleshooting (RH342).

Este examen de certificación está dirigido a especialistas como son:

  • Administradores que gestionen sistemas Red Hat Enterprise Linux.
  • Administradores de sistemas que deseen demostrar sus habilidades para analizar y resolver problemas.
  • Especialistas que cuenten con la acreditación Red Hat Certified Engineer (RHCE) y estén interesados en obtener las certificaciones Red Hat Certified Specialist in Linux Diagnostics and Troubleshooting o Red Hat Certified Architect (RHCA)

Obtener la certificación Red Hat Certified Specialist, que también cuenta para obtener la acreditación Red Hat® Certified Architect (RHCA®).

  • Es recomendable haber completado, previamente, el curso Red Hat Enterprise Linux Diagnostics and Troubleshooting (RH342), o tener experiencia equiparable en la resolución de problemas de las implementaciones de Red Hat Enterprise Linux.
  • Es recomendable haber obtenido, previamente, la certificación Red Hat Certified Engineer (RHCE), o tener experiencia equiparable en la administración de sistemas.

A continuación, se detallan las áreas temáticas que pueden aparecer en el examen y las tareas que deben poder realizar los candidatos del examen*:

  • Conocimiento y empleo de métodos generales para la resolución de problemas
    • Recopilar información del sistema que sea útil para resolver problemas
    • Consultar los recursos de documentación que facilitan la resolución de problemas
    • Supervisar las características esenciales de los sistemas
    • Configurar los sistemas para que envíen mensajes de registro a un host centralizado
  • Diagnóstico y resolución de problemas asociados con el arranque del sistema
    • Identificar y solucionar los fallos del servicio que afectan el arranque
    • Recuperar el control de superusuario de un sistema
    • Solucionar problemas de arranque
    • Identificar el hardware y sus problemas
    • Gestionar los módulos del kernel y sus parámetros
  • Diagnóstico y resolución de problemas relacionados con el sistema de archivos
    • Recuperar los sistemas de archivos dañados
    • Recuperar las configuraciones erróneas o dañadas del LVM
    • Recuperar datos de los sistemas de archivos cifrados
    • Identificar y solucionar los problemas del iSCSI
  • Resolución de problemas de gestión de paquetes
    • Resolver problemas de dependencia de la gestión de paquetes
    • Recuperar una base de datos de RPM dañada
    • Identificar y restaurar archivos modificados
  • Resolución y corrección de problemas de conectividad de la red
    • Utilizar las herramientas estándar para comprobar la conectividad de la red
    • Identificar y solucionar problemas de conectividad de la red
    • Inspeccionar el tráfico de red para facilitar la resolución de los problemas
  • Diagnóstico de problemas asociados a las aplicaciones
    • Identificar las dependencias de las bibliotecas para los sistemas de software de terceros
    • Identificar si una aplicación sufre fugas de memoria
    • Usar herramientas estándar para depurar una aplicación
    • Identificar y solucionar problemas relacionados con SELinux
  • Identificación y resolución de los problemas asociados con la autenticación
    • Identificar y solucionar los problemas del módulo de autenticación conectable (PAM)
    • Identificar y solucionar los problemas de gestión de identidades de LDAP y Kerberos
  • Recopilación de información para ayudar a terceros en la investigación de problemas
    • Crear volcados de memoria del kernel
    • Compilar y ejecutar los módulos de SystemTap

*Red Hat se reserva el derecho de agregar, modificar y eliminar cualquier objetivo.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Specialist in Services Management and Automation Exam (EX358) basado en el desempeño, se evalúa su capacidad para configurar y gestionar los servicios estándares de Linux, así como para automatizar su configuración.

Preparación para el examen:

Examen EX358: Red Hat Certified Specialist in Services Management and Automation Exam

Red Hat recomienda realizar el curso Red Hat Services Management and Automation (RH358) para prepararse mejor.

Las habilidades que se evalúan en el examen son esenciales para la administración de sistemas en todos los productos de Red Hat®.

  • Contar con la certificación Red Hat Certified Engineer (RHCE) o Red Hat Certified System Administrator (RHCSA); o bien, tener habilidades y experiencia laboral equivalentes.
  • Realizar una evaluación de habilidades sin costo para hallar el curso que lo ayude a prepararse mejor para presentar el examen.
  • Realizar el curso Red Hat Services Management and Automation (RH358); o bien, contar con habilidades y experiencia laboral equivalentes.

Modulo 1: Gestión de los servicios de red

Modulo 2: Gestión de los servicios de firewall

Modulo 3: Gestión de SELinux

Modulo 4: Gestión de los procesos del sistema

Modulo 5: Gestión de la agregación de enlaces

Modulo 6: Gestión del DNS

Modulo 7: Gestión del DHCP

Modulo 8: Gestión de impresoras

Modulo 9: Gestión de servicios de correo electrónico

Modulo 10: Gestión de un servidor de base de datos MariaDB

Modulo 11: Gestión del acceso web HTTPD

Modulo 12: Gestión de la iSCSI

Modulo 13: Gestión del NFS

Modulo 14: Gestión del SMB

Modulo 15: Uso de Ansible para configurar servicios estándares

Documentación del curso Red Hat Certified Specialist in Linux Diagnostics and Troubleshooting Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Specialist in Identity Management Exam (EX362), se evalúan el conocimiento, las habilidades y la capacidad para crear, configurar y gestionar los servicios de autenticación de Red Hat® Enterprise Linux e integrarlos con una amplia variedad de productos y tecnologías de Red Hat y de otros proveedores.

Preparación para el examen:

Examen EX362: Red Hat Certified Specialist in Identity Management Exam

Red Hat invita a todos los interesados en obtener la certificación Red Hat Certified Specialist in Identity Management a realizar el curso Red Hat Security: Identity Management and Active Directory Integration (RH362) para prepararse para el examen. 

Si aprueba este examen, obtendrá la acreditación Red Hat Certified Specialist in Identity Management, que también cuenta para la certificación Red Hat® Certified Architect (RHCA®).

  • Contar con la certificación Red Hat Certified System Administrator o tener experiencia laboral y habilidades similares (sería mejor contar con la certificación Red Hat Certified Engineer [RHCE])
  • Realizar el curso Red Hat Security: Identity Management and Active Directory Integration (RH362) o tener experiencia laboral similar
  • Revisar los objetivos del examen Red Hat Certified Specialist in Directory Services and Authentication Exam
  • Si bien no es obligatorio, también se recomienda tener experiencia con los siguientes productos:
    • Red Hat Satellite Server 6.3
    • Red Hat Ansible Tower
    • Microsoft Active Directory Server 2016

Modulo 1: Instalar Red Hat Identity Management (IdM) en un entorno escalable y con tolerancia a los errores

Modulo 2: Crear usuarios, grupos y políticas

Modulo 3: Instalar y configurar clientes de IdM

Modulo 4: Configurar los directorios principales de roaming/de automontaje

Modulo 5: Usar las API REST para realizar consultas a IdM

Modulo 6: Configurar los servicios kerberizados

Modulo 7: Crear una relación de confianza con Active Directory

Modulo 8: Configurar/controlar las políticas y el acceso de los usuarios

Modulo 9: Configurar y gestionar una autoridad de certificación

Modulo 10: Realizar copias de seguridad de una infraestructura de IdM

Modulo 11: Configurar IdM como backend de LDAP para servicios externos, como Red Hat Satellite Server o Red Hat Ansible Tower

Modulo 12: Implementar un SSO

Documentación del curso Red Hat Certified Specialist in Services Management and Automation Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen basado en el desempeño Red Hat Certified Specialist in Decision Management Exam (EX364), se evalúa si posee las habilidades y los conocimientos que se necesitan para gestionar e implementar las reglas y las decisiones empresariales con Red Hat® Decision Manager.

Preparación para el examen:

Examen EX364: Red Hat Certified Specialist in Decision Management Exam

Red Hat invita a todos los interesados en obtener la certificación Red Hat Certified Specialist in Identity Management a realizar el curso Red Hat Security: Identity Management and Active Directory Integration (RH362) para prepararse para el examen. 

Deberá completar una serie de tareas de diferente complejidad, las cuales abarcan desde la aplicación de reglas y decisiones empresariales muy sencillas hasta la creación de flujos de lógica empresarial relativamente complejos, los cuales requieren el uso de técnicas de resolución de conflictos para garantizar que las diversas reglas se activen en el orden correcto. Además, se lo evaluará en función de qué tan bien sus implementaciones cumplen con los criterios objetivo, por ejemplo, si pueden conseguir un determinado resultado dado un conjunto específico de datos de entrada.

No hay requisitos previos, pero se recomienda presentar el examen Developing Application Business Rules with Red Hat Decision Manager (AD364).

Modulo 1: Diseño de reglas empresariales

Modulo 2: Creación de reglas empresariales

Modulo 3: Diseño de un servicio de decisiones utilizando modelos del DMN

Modulo 4: Resolución de conflictos

Modulo 5: Gestión de sesiones

Modulo 6: Prueba y mantenimiento

Modulo 7: Rendimiento

Documentación del curso Red Hat Certified Specialist in Identity Management Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Cloud-Native Developer Exam (EX378), se evalúa si posee las habilidades y el conocimiento necesarios para codificar el servidor de las aplicaciones Java creadas originalmente en Kubernetes con el marco Quarkus. El examen se centra en las habilidades básicas que se necesitan para crear un microservicio completo usando un almacén de datos permanente.

Preparación para el examen:

Examen EX378: Red Hat Certified Cloud-Native Developer Exam

Red Hat recomienda que los candidatos realicen el curso Red Hat Cloud-Native Microservices Development with Quarkus (DO378) para prepararse mejor.

Si aprueba este examen, obtendrá la certificación Red Hat Certified Cloud-Native Developer, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®)

  • Se recomienda que los estudiantes hayan realizado el curso Red Hat Cloud-Native Microservices Development with Quarkus (DO378); o bien, que tengan experiencia práctica equivalente.
  • Deben estar familiarizados con el uso de Visual Code o Codium en un entorno de Red Hat Enterprise Linux.
  • Además, es preciso que tengan bastante experiencia con JSE, lo que incluye conocer y entender los conceptos básicos de Java y las API. Por ejemplo, para el examen necesitará las API Collections, Annotations y Exceptions.
  • Le resultará muy útil tener ciertos conocimientos de OpenShift o Kubernetes.

Modulo 1: Proporcionar y obtener propiedades de configuración a través de distintas fuentes que reconocen el entorno, las cuales están disponibles a través de la inyección o la búsqueda de dependencias

Modulo 2: Diseñar microservicios de Quarkus con tolerancia a los errores utilizando las estrategias de la función de Microprofile específica para ello

Modulo 3: Verificar el estado de una aplicación de Quarkus desde otra máquina usando la función MicroProfile Health Check

Modulo 4: Exportar los datos de supervisión a los agentes de gestión desde una aplicación de Quarkus en funcionamiento utilizando Microprofile Metrics

Modulo 5: Especificación MicroProfile Interoperable JWT RBAC en aplicaciones de Quarkus: JSON Web Tokens (JWT) de OpenID Connect (OIDC) para el control de acceso basado en funciones (RBAC) de los extremos de los microservicios

Modulo 6: Implementar aplicaciones de Quarkus y permitir el acceso a los extremos del servicio de REST con JAX-RS

Modulo 7: Simplificar la asignación de la API JPA con Panache

Modulo 8: Especificación Microprofile OpenAPI para documentar las API de RESTful

Modulo 9: Interactuar con las API de REST en Quarkus mediante el uso de MicroProfile REST Client

Documentación del curso Red Hat Certified Specialist in Decision Management exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el examen Red Hat Certified Specialist in Deployment and Systems Management Exam (EX403), se evalúan la capacidad, el conocimiento y las habilidades que se necesitan para gestionar grandes instalaciones de sistemas Red Hat® Enterprise Linux® utilizando Red Hat Satellite Server y otras tecnologías relacionadas.

Preparación para el examen:

Examen EX403: Red Hat Certified Specialist in Deployment and Systems Management Exam

Este es un examen basado en el rendimiento que evalúa el conocimiento y las habilidades relacionados con la implementación y la gestión de sistemas. Deberá realizar una serie de tareas de administración de sistemas centradas en la configuración de Red Hat Satellite Server y, a continuación, utilizar dicho sistema para implementar sistemas clientes.

Si lo aprueba, obtendrá la certificación Red Hat Certified Specialist in Deployment and Systems Management, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®).

  • Contar con la certificación Red Hat Certified Engineer o Red Hat Certified System Administrator, o tener conocimiento y experiencia laboral equiparables
  • Haber realizado el curso Red Hat Satellite 6 Administration (RH403) o tener amplia experiencia laboral en el manejo de Red Hat Satellite Server
  • Analizar los objetivos del examen

Modulo 1: Configuración de Red Hat Satellite Server

Modulo 2: Gestión de contenido y canales de software

Modulo 3: Gestión de sistemas

Modulo 4: Gestión de funciones de Ansible

Modulo 5: Gestión de variables de Ansible

Modulo 6: Gestión de clientes

Modulo 7: Programación de clientes

Documentación del curso Red Hat Certified Cloud-native Developer Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Con el examen Red Hat Certified Specialist in Security: Linux Exam, se validan sus habilidades y conocimiento para proteger Red Hat® Enterprise Linux®.

Preparación para el examen:

Examen EX415: Red Hat Certified Specialist in Security: Linux Exam

Red Hat recomienda que todos los candidatos a la acreditación Red Hat Certified Specialist in Security: Linux se preparen con el curso Red Hat Security: Linux in Physical, Virtual, and Cloud (RH415).

Si aprueba el examen, obtendrá la certificación Red Hat Certified Specialist: Linux, que también cuenta para obtener la acreditación Red Hat Certified Architect (RHCA®).

  • Contar con la certificación Red Hat Certified System Administrator o tener experiencia laboral y habilidades equiparables (sería mejor contar con la certificación Red Hat Certified Engineer)
  • Haber realizado el curso Red Hat Security: Linux in Physical, Virtual, and Cloud (RH415) o tener experiencia laboral equiparable
  • Revisar los objetivos del examen Red Hat Certified Specialist in Security: Linux Exam o tener experiencia laboral similar en el uso de Red Hat OpenStack Platform

Modulo 1: Uso de Red Hat Ansible® Engine

Modulo 2: Configuración de la detección de intrusiones

Modulo 3: Configuración del almacenamiento cifrado

Modulo 4: Restricción de acceso para dispositivos USB

Modulo 5: Gestión de la seguridad del inicio de sesión en el sistema con módulos de autenticación conectables (PAM)

Modulo 6: Configuración de la auditoría del sistema

Modulo 7: Configuración de SELinux

Modulo 8: Cumplimiento de normativas de seguridad

Documentación del curso Red Hat Certified Specialist in Deployment and Systems Management Exam

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

El curso PL-300 Microsoft Power BI Data Analyst cubre los diversos métodos y mejores prácticas que están en línea con los requisitos comerciales y técnicos para modelar, visualizar y analizar datos con Power BI. El curso mostrará cómo acceder y procesar datos de una variedad de fuentes de datos, incluidas las fuentes relacionales y no relacionales. Finalmente, analizará cómo administrar e implementar informes y paneles para compartir y distribuir contenido.

Este curso te preparará para el examen de certificación PL-300 Power BI Data Analyst.

Preparación para el examen de certificación:

PL-300 Power BI Data Analyst

  • Profesionales de datos y de inteligencia de negocios que deseen aprender cómo realizar análisis de datos con precisión utilizando Power BI.
  • Personas que desarrollen informes que visualizan datos de las tecnologías de la plataforma de datos que existen tanto en la nube como en las instalaciones.

  • Comprender los conceptos básicos de datos.
  • Tener conocimientos de trabajo con datos relacionales en la nube.
  • Tener conocimientos de trabajo con datos no relacionales en la nube.
  • Tener conocimiento de los conceptos de análisis y visualización de datos.

  • Módulo 1: Descripción del análisis de datos
  • Módulo 2: Introducción a la compilación con Power BI
  • Módulo 3: Obtención de datos en Power BI
  • Módulo 4: Limpieza, transformación y carga de datos en Power BI
  • Módulo 5: Diseño de un modelo de datos en Power BI
  • Módulo 6: Introducción a la creación de medidas con DAX en Power BI
  • Módulo 7: Optimización de un modelo para rendimiento en Power BI
  • Módulo 8: Uso de objetos visuales de Power BI
  • Módulo 9: Creación de una historia basada en datos con informes de Power BI
  • Módulo 10: Creación de paneles en Power BI
  • Módulo 11: Realización de análisis en Power BI
  • Módulo 12: Trabajo con objetos visuales de inteligencia artificial en Power BI
  • Módulo 13: Creación y administración de áreas de trabajo en Power BI
  • Módulo 14: Administración de conjuntos de datos en Power BI
  • Módulo 15: Implementación de la seguridad de nivel de fila

Documentación oficial para el curso PL-300 Microsoft Power BI Data Analyst.

  • Formador certificado por Microsoft.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

En el curso DP-500 Designing and Implementing Enterprise-Scale Analytics Solutions Using Microsoft Azure and Microsoft Power BI se tratan métodos y prácticas para realizar análisis avanzados de datos a gran escala. Aprovecharás la experiencia de análisis y aprenderás a implementar y administrar un entorno de análisis de datos, a consultar y transformar datos, a implementar y administrar modelos de datos y a explorar y visualizar datos. Usarás Microsoft Purview, Azure Synapse Analytics y Power BI para crear soluciones de análisis.

Este curso te preparará para el examen de certificación DP-500 Designing and Implementing Enterprise-Scale Analytics Solutions Using Microsoft Azure and Microsoft Power BI.

Los candidatos para este curso deben tener experiencia en el diseño, la creación y la implementación de soluciones de análisis de datos a escala empresarial. En concreto, deben tener un conocimiento avanzado de Power BI, incluidos el procesamiento de datos en la nube y en el entorno local y la administración de repositorios de datos, junto con el uso de Power Query y Data Analysis Expressions (DAX). También deben ser expertos en consumir datos de Azure Synapse Analytics y deben tener experiencia en consultar bases de datos relacionales, analizar datos mediante Transact-SQL (T-SQL) y visualizar datos.

Módulo 1: Exploración de los servicios de datos de Azure para el análisis moderno
Módulo 2: Descripción de los conceptos de análisis de datos
Módulo 3: Exploración del análisis de datos a escala
Módulo 4: Introducción a Microsoft Purview
Módulo 5: Descubra datos confidenciales con Microsoft Purview
Módulo 6: Catalogación de artefactos de datos con Microsoft Purview
Módulo 7: Administración de activos de Power BI con Microsoft Purview
Módulo 8: Integración de Microsoft Purview y Azure Synapse Analytics
Módulo 9: Introducción a Azure Synapse Analytics
Módulo 10: Uso de un grupo de SQL sin servidor de Azure Synapse para consultar archivos en un lago de datos
Módulo 11: Definición de la ingeniería de macrodatos con Apache Spark en Azure Synapse Analytics
Módulo 12: Análisis de datos en un almacenamiento de datos relacional
Módulo 13: Elección de un marco de modelo de Power BI
Módulo 14: Escalabilidad en Power BI
Módulo 15: Creación y administración de flujos de datos de Power BI escalables
Módulo 16: Creación de relaciones de modelos de Power BI
Módulo 17: Uso de las funciones de inteligencia de tiempo de DAX en modelos de Power BI Desktop
Módulo 18: Creación de grupos de cálculo
Módulo 19: Aplicación de la seguridad de modelos de Power BI
Módulo 20: Uso de herramientas para optimizar el rendimiento de Power BI
Módulo 21: Conceptos avanzados de la visualización de datos
Módulo 22: Supervisión de datos en tiempo real con Power BI
Módulo 23: Creación de informes paginados
Módulo 24: Provisión de gobernanza en un entorno de Power BI
Módulo 25: Facilitación de la colaboración y el uso compartido en Power BI
Módulo 26: Supervisión y auditoría del uso
Módulo 27: Aprovisionamiento de capacidades Premium en Power BI
Módulo 28: Establecimiento de una infraestructura de acceso a datos en Power BI
Módulo 29: Ampliación del alcance de Power BI
Módulo 30: Automatización de la administración de Power BI
Módulo 31: Creación de informes mediante Power BI dentro de Azure Synapse Analytics
Módulo 32: Diseño de una estrategia de administración del ciclo de vida de aplicaciones de Power BI
Módulo 33: Creación y administración de una canalización de implementación de Power BI
Módulo 34: Creación y administración de recursos de Power BI

Documentación oficial para el curso DP-500 Designing and Implementing Enterprise-Scale Analytics Solutions Using Microsoft Azure and Microsoft Power BI.

  • Formador certificado por Microsoft.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Aprenda a automatizar las tareas de administración de los sistemas Linux con Red Hat Ansible Automation Platform

El curso Red Hat Enterprise Linux Automation with Ansible (RH294) está diseñado para los desarrolladores y los administradores de sistemas Linux que necesitan automatizar la preparación, la configuración, la organización y la implementación de las aplicaciones.

  • Instalar Red Hat Ansible Automation Platform en los nodos de control
  • Crear y actualizar los inventarios de hosts gestionados y administrar sus conexiones
  • Automatizar las tareas administrativas con los comandos específicos y los playbooks de Ansible
  • Redactar playbooks efectivos según sean necesarios
  • Proteger la información confidencial que se utiliza en Ansible Automation Platform con Ansible Vault
  • Reutilizar el código y simplificar el desarrollo de los playbooks con las funciones de Ansible y Ansible Content Collections

  • Aprobar el examen Red Hat Certified System Administrator (RHCSA) Exam (EX200), o demostrar que posee el conocimiento y la experiencia equivalentes en Red Hat Enterprise Linux
  • Realizar una evaluación sin costo para determinar si esta oferta es la más conveniente en función de sus habilidades

Modulo 1: Introducción a Ansible

Describa los conceptos básicos y el modo de uso de Red Hat Ansible Automation Platform, e instale la plataforma.

Modulo 2: Implementación de un playbook de Ansible

Cree un inventario de hosts gestionados, escriba un playbook simple de Ansible y ejecútelo para automatizar las tareas en los hosts.

Modulo 3: Gestión de variables y datos de sistemas remotos

Redacte playbooks que utilicen variables para simplificar su gestión, y que usen los datos de los sistemas remotos para ubicar la información sobre los hosts gestionados.

Modulo 4: Implementación del control de las tareas

Gestione el control y los errores de las tareas, así como los controladores en los playbooks de Ansible.

Modulo 5: Implementación de archivos en los hosts gestionados

Implemente, gestione y ajuste los archivos en los hosts gestionados con Ansible.

Modulo 6: Gestión de plays y playbooks complejos

Redacte playbooks optimizados para respaldar plays y playbooks más grandes y complejos.

Modulo 7: Simplificación de los playbooks con las funciones

Use las funciones de Ansible para crear playbooks con mayor rapidez y para reutilizar el código de Ansible.

Modulo 8: Resolución de problemas de Ansible

Solucione los problemas relacionados con los playbooks y los hosts gestionados.

Modulo 9: Automatización de las tareas de administración de Linux

Automatice las tareas comunes de administración de sistemas Linux con Ansible.

Documentación del curso RHCSA Rapid Track Course with Exam

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Desarrolle las habilidades avanzadas que le permitan realizar las operaciones del día 2 de Red Hat OpenStack Platform y gestionar la infraestructura de nube híbrida

El curso Red Hat OpenStack Administration II: Day 2 Operations for Cloud Operators (CL210) se diseñó para los operadores de nube, los administradores de servicios y los ingenieros de automatización que utilizan Red Hat OpenStack Platform para operar y gestionar un entorno completo de cloud computing privado e híbrido. Aprenderá a gestionar, supervisar y ajustar una infraestructura de Red Hat OpenStack Platform, así como a solucionar los problemas asociados a ella. El curso se centra en el uso de la interfaz de usuario de la línea de comandos de OpenStackClient para configurar los indicadores, las políticas y las arquitecturas, con el fin de admitir las aplicaciones empresariales de la nube y respaldar las operaciones diarias.

  • Gestionar la tecnología de organización en contenedores para los servicios overcloud
  • Proporcionar indicadores para ajustar y controlar el rendimiento
  • Supervisar el flujo de red de Open Virtual Networking (OVN) y solucionar los problemas asociados a este sistema
  • Configurar el servicio de identidad mediante un almacén de Red Hat IdM externo
  • Gestionar el plano de control central, incluido Pacemaker
  • Personalizar las imágenes con técnicas que se pueden adaptar a diversos casos de uso
  • Gestionar los backends de almacenamiento en bloques y de objetos
  • Gestionar los nodos informáticos, lo que incluye los de ajuste e hiperconvergencia
  • Solucionar los problemas de Red Hat OpenStack Platform

  • Obtener las certificaciones Red Hat Certified Engineer (RHCE) o Red Hat Certified Specialist in Ansible Automation; o bien, demostrar que posee experiencia equivalente.
  • Los candidatos que no hayan obtenido esta certificación o no cuenten con experiencia equivalente podrán realizar una evaluación gratuita para determinar si esta oferta es la más adecuada para sus habilidades.
  • Realizar el curso Red Hat OpenStack Administration I: Core Operations for Domain Operators (CL110); o bien, demostrar que posee experiencia equivalente.

Modulo 1: Análisis de la arquitectura de Red Hat OpenStack Platform

Describa la arquitectura del undercloud y el overcloud, y los elementos del servicio.

Modulo 2: Operación del plano de control

Describa y gestione los principales servicios del plano de control de Red Hat OpenStack Platform.

Modulo 3: Gestión de la seguridad de la infraestructura

Proteja los extremos y los archivos de los elementos del servicio para garantizar la seguridad de la infraestructura de Red Hat OpenStack Platform.

Modulo 4: Gestión de la seguridad de los usuarios

Configure los privilegios de usuarios seguros mediante la gestión de identidades basada en dominios, las funciones definidas por el usuario que permiten otorgar permisos y la organización de proyectos.

Modulo 5: Gestión de los recursos para la implementación de las aplicaciones

Cree y gestione los recursos de implementación comunes y compartidos, que incluyen imágenes personalizadas, variantes y servicios de metadatos.

Modulo 6: Gestión del almacenamiento

Describa y gestione la arquitectura y los elementos del almacenamiento, en especial los backends de Red Hat Ceph Storage.

Modulo 7: Gestión de las redes

Cree y gestione la infraestructura de la red virtual y el centro de datos, y solucione los problemas asociados a ellos.

Modulo 8: Gestión de las operaciones de los nodos informáticos

Describa la arquitectura y los procesos de gestión de los nodos informáticos normales e hiperconvergentes. Realice tareas operativas comunes para que los nodos informáticos admitan el ajuste y el tiempo de actividad de las cargas de trabajo.

Modulo 9: Supervisión de las operaciones de Red Hat OpenStack Platform

Describa la arquitectura y el marco de supervisión para recopilar, almacenar y usar indicadores operativos.

Modulo 10: Automatización de las aplicaciones en la nube

Utilice las tecnologías de automatización para implementar aplicaciones complejas y flexibles.

Modulo 11: Resolución de problemas operativos

Describa y utilice las herramientas y los métodos para diagnosticar y solucionar los problemas que se detectan durante las operaciones de implementación y gestión.

Modulo 12: Repaso completo

Revise las tareas de Red Hat OpenStack Platform Administration II: Day 2 Operations for Cloud Operators.

Documentación del curso Red Hat Enterprise Linux Automation with Ansible and Exam

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Desarrolle las habilidades que se necesitan para gestionar Red Hat Ceph Storage en un entorno de nube híbrida, para aplicaciones empresariales de mediana escala y de la nube, y para Red Hat OpenStack Platform.

El curso Cloud Storage with Red Hat Ceph Storage (CL260) se diseñó para administradores de almacenamiento y operadores de nube que desean implementar Red Hat Ceph Storage en un centro de datos de producción, o como uno de los elementos de la infraestructura de Red Hat OpenStack Platform. Los estudiantes aprenderán a implementar, gestionar y ajustar un clúster de almacenamiento de Ceph para proporcionar recursos de almacenamiento híbrido, lo que incluye el almacenamiento de objetos compatible con Amazon S3 y OpenStack Swift, el almacenamiento en bloques basado en iSCSI y original de Ceph, y el almacenamiento de archivos compartidos. El curso se basa en Red Hat Ceph Storage 4.2.

  • Utilizar Red Hat Ansible Automation Platform para implementar y gestionar un clúster de Red Hat Ceph Storage en servidores básicos
  • Crear, ampliar y controlar el acceso a los grupos de almacenamiento provistos por el clúster de Ceph
  • Obtener acceso a Red Hat Ceph Storage desde los clientes utilizando métodos basados en objetos, bloques y archivos
  • Analizar y ajustar el rendimiento de Red Hat Ceph Storage
  • Utilizar un clúster de Red Hat Ceph Storage para integrar el almacenamiento de imágenes, objetos, archivos y bloques de Red Hat OpenStack Platform

  • Se recomienda obtener la certificación Red Hat Certified Engineer (RHCE) o Red Hat Certified Specialist in Ansible Automation; o bien, demostrar que posee experiencia equivalente.
  • Los candidatos que no hayan obtenido la certificación RHCE, o no tengan experiencia equivalente, deberán aprobar la evaluación de habilidades en línea para confirmar que poseen las competencias necesarias. Para ello, deberán ingresar a http://www.redhat.com/training/skills_assessment/.
  • Se recomienda tener cierta experiencia en la administración del almacenamiento, aunque no es obligatorio.

Modulo 1: Introducción a la arquitectura de Red Hat Ceph Storage

Describa la arquitectura de Red Hat Ceph Storage, lo cual incluye la organización y distribución de los datos, y los métodos de acceso que utilizan los clientes.

Modulo 2: Implementación de Red Hat Ceph Storage

Implemente un nuevo clúster de Red Hat Ceph Storage y amplíe su capacidad.

Modulo 3: Configuración de un clúster de Red Hat Ceph Storage

Gestione la configuración de Red Hat Ceph Storage, lo cual incluye los ajustes principales, el uso de monitores y el diseño de la red del clúster.

Modulo 4: Creación de los elementos del clúster de almacenamiento de objetos

Cree y gestione los elementos que integran el clúster de almacenamiento de objetos, como los OSD, los grupos y el método de autorización del clúster.

Modulo 5: Creación y personalización de mapas de almacenamiento

Gestione y ajuste los mapas CRUSH y OSD para optimizar la ubicación de los datos a fin de cumplir con los requisitos de rendimiento y redundancia de las aplicaciones de nube.

Modulo 6: Almacenamiento en bloques con los dispositivos de bloques RADOS

Configure Ceph para proporcionar a los clientes almacenamiento en bloques utilizando los dispositivos de bloques RADOS (RBD).

Modulo 7: Almacenamiento de objetos con una puerta de enlace RADOS

Configure Ceph para proporcionar a los clientes almacenamiento de objetos con una puerta de enlace RADOS (RGW).

Modulo 8: Almacenamiento de archivos con CephFS

Configure Ceph para proporcionar a los clientes almacenamiento de archivos con Ceph File System (CephFS).

Modulo 9: Administración de un clúster de Red Hat Ceph Storage

Gestione un clúster operativo de Ceph con herramientas que sirven para verificar el estado, supervisar los servicios e iniciar y detener correctamente todo el clúster, o parte de él. Para realizar el mantenimiento de los clústeres, reemplace o repare sus elementos, como los mapas MON, OSD y PG.

Modulo 10: Ajuste Red Hat Ceph Storage y solucione los problemas asociados a la plataforma

Identifique los indicadores de rendimiento clave para un clúster de Ceph y úselos para ajustar las operaciones de Ceph y solucionar los problemas asociados a esta plataforma, lo cual le permitirá optimizar el rendimiento.

Modulo 11: Administración del almacenamiento de Red Hat OpenStack Platform con Red Hat Ceph Storage

Gestione una infraestructura de OpenStack y utilice Red Hat Ceph Storage para proporcionar el almacenamiento en bloques y de imágenes, volúmenes, objetos y archivos compartidos.

Modulo 12: Repaso completo

Revise las tareas de Cloud Storage with Red Hat Ceph Storage.

Documentación del curso Red Hat OpenStack Administration II: Day 2 Operations for Cloud Operators with Exam

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Aprenda a diseñar y gestionar contenedores de Linux, y a configurar y administrar un clúster de OpenShift

El curso Containers, Kubernetes, and Red Hat OpenShift Administration II (DO285) le permite desarrollar los conocimientos básicos sobre el diseño y la gestión de contenedores de Linux® y Red Hat® OpenShift® Container Platform. En este curso práctico de laboratorio, aprenderá a implementar aplicaciones de muestra en un tiempo de ejecución de contenedores local o en un clúster de OpenShift, y a configurar y gestionar clústeres de OpenShift. Si usted es desarrollador, administrador o ingeniero de confiabilidad del sitio, le resultará muy útil contar con estas habilidades.

  • Conocer la arquitectura de OpenShift y de los contenedores
  • Gestionar contenedores e imágenes en contenedores
  • Crear imágenes personalizadas en contenedores
  • Implementar aplicaciones en OpenShift y solucionar los problemas asociados a ellas
  • Configurar la autenticación con los usuarios locales
  • Controlar el acceso a los proyectos utilizando el control de acceso basado en funciones
  • Configurar la red de servicios y contenedores
  • Configurar la programación de pods a través de etiquetas y selectores
  • Limitar el uso de los recursos informáticos
  • Expandir un clúster
  • Supervisar eventos y alertas de clústeres

Obtener la acreditación Red Hat Certified System Administrator (RHCSA) o demostrar experiencia equivalente en la administración de sistemas Red Hat Enterprise Linux

Modulo 1: Introducción a la tecnología de contenedores

Describa cómo se ejecutan las aplicaciones en contenedores coordinados por Red Hat OpenShift Container Platform.

Modulo 2: Creación de servicios en contenedores

Implemente un servicio utilizando la tecnología de contenedores.

Modulo 3: Gestión de contenedores

Modifique imágenes en contenedores previamente diseñadas para crear y gestionar servicios en contenedores.

Modulo 4: Gestión de imágenes en contenedores

Gestione el ciclo de vida de una imagen en contenedor, desde su creación hasta su eliminación.

Modulo 5: Creación de imágenes personalizadas en contenedores

Diseñe y codifique un Dockerfile para crear una imagen personalizada en contenedor.

Modulo 6: Implementación de aplicaciones en contenedores en OpenShift

Utilice OpenShift Container Platform para implementar aplicaciones de un solo contenedor.

Modulo 7: Implementación de aplicaciones en varios contenedores

Implemente aplicaciones que estén organizadas en contenedores utilizando imágenes en múltiples contenedores.

Modulo 8: Análisis de Red Hat OpenShift Container Platform

Describa la arquitectura de OpenShift Container Platform.

Modulo 9: Verificación de un clúster

Revise los métodos de instalación y verifique la funcionalidad de un clúster recientemente instalado.

Modulo 10: Configuración de autenticaciones

Configure las autenticaciones con un proveedor de identidad.

Modulo 11: Control de acceso a los recursos de OpenShift

Defina y aplique los controles de acceso basado en funciones y proteja la información confidencial con secretos.

Modulo 12: Configuración de los elementos de la red de OpenShift

Identifique los elementos de la red definida por software de OpenShift Container Platform y configure algunos de ellos.

Modulo 13: Control de la programación de pods

Controle los nodos en que se ejecuta un pod.

Modulo 14: Expansión de un clúster de OpenShift

Controle el tamaño de un clúster de OpenShift.

Modulo 15: Actualizaciones de clústeres

Describa cómo se realiza la actualización de un clúster.

Modulo 16: Gestión de clústeres con la consola web

Utilice la consola web para gestionar y configurar un clúster de OpenShift.

Modulo 17: Realización de un repaso completo

Verifique y gestione clústeres de OpenShift para uso empresarial y solucione los problemas asociados a ellos.

Documentación del curso Red Hat OpenShift I: Containers & Kubernetes with Exam

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Diseño, compilación e implementación de aplicaciones en contenedores en Red Hat OpenShift

En el curso Red Hat OpenShift Development II: Containerizing Applications (DO288), aprenderá a diseñar, compilar e implementar aplicaciones de software en contenedores en un clúster de OpenShift.

Ya sea que busque trasladar las aplicaciones actuales o escribir otras directamente en los contenedores, conocerá de qué forma puede aumentar la productividad de los desarrolladores de la mano de Red Hat® OpenShift Container Platform, una plataforma de aplicaciones en contenedores que permite que las empresas gestionen las implementaciones de los contenedores y utilicen Kubernetes para ajustar sus aplicaciones.

  • Diseñar aplicaciones en contenedores para OpenShift
  • Gestionar y comenzar a crear las compilaciones de aplicaciones con Source-to-Image (S2I)
  • Personalizar una imagen básica actual generada con la herramienta Source-to-Image (S2I)
  • Implementar las aplicaciones en varios contenedores con las plantillas Charts de Helm
  • Crear comprobaciones de estado para supervisar y mejorar la confiabilidad de las aplicaciones
  • Cree e implemente aplicaciones nativas de la nube en OpenShift.

  • Realizar nuestra evaluación sin costo para determinar si esta oferta es la más conveniente en función de sus habilidades
  • Completar el curso Red Hat OpenShift I: Containers & Kubernetes (DO180) o contar con los conocimientos equivalentes
  • Haber obtenido la acreditación Red Hat Certified System Administrator o una superior (se recomienda para navegar y usar la línea de comandos, pero no es obligatorio)

Modulo 1: Implementación y gestión de aplicaciones en un clúster de OpenShift

Implemente aplicaciones utilizando varios métodos de empaquetado de aplicaciones en un clúster de OpenShift y gestione sus recursos.

Modulo 2: Diseño de aplicaciones en contenedores para OpenShift

Seleccione un método para organizar una aplicación en contenedores y cree un contenedor para que se ejecute en un clúster de OpenShift.

Modulo 3: Publicación de imágenes de contenedores empresariales

Cree un registro empresarial y publique imágenes de contenedores en él.

Modulo 4: Gestión de las compilaciones en OpenShift

Describa el proceso de compilación de OpenShift y comience a crear y gestionar compilaciones.

Modulo 5: Personalización de las compilaciones Source-to-Image (S2I)

Personalice una imagen básica actual generada con la herramienta Source-to-Image y cree una nueva.

Modulo 6: Implementación de aplicaciones en varios contenedores

Implemente aplicaciones en varios contenedores con las plantillas Charts de Helm y Kustomize.

Modulo 7: Gestión de las implementaciones de aplicaciones

Supervise el estado de las aplicaciones y utilice varios métodos de implementación para las aplicaciones nativas de la nube.

Modulo 8: Diseño de aplicaciones para OpenShift

Cree, implemente e integre aplicaciones externas en OpenShift.

Documentación del curso Containers, Kubernetes, and Red Hat OpenShift Administration II with Exam

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Crea y gestiona máquinas virtuales en OpenShift con el operador de Red Hat OpenShift Virtualization.

En este curso, desarrollarás las habilidades fundamentales para crear y gestionar máquinas virtuales (VM) en OpenShift mediante el operador de Red Hat OpenShift Virtualization. No necesitas contar con conocimientos previos de contenedores ni de Kubernetes.

Al completar este curso, obtendrás:

Este curso incluye el examen de certificación Red Hat Certified Specialist in OpenShift Virtualization (EX316).

Certificación oficial Red Hat Certified Specialist in OpenShift Virtualization.

  • Administradores de máquinas virtuales interesados en trasladar las cargas de trabajo virtualizadas de los hipervisores tradicionales a OpenShift Virtualization.
  • Administradores de Kubernetes (administradores e ingenieros de clústeres) que deseen admitir cargas de trabajo en contenedores y virtualizadas en el mismo clúster de OpenShift.
  • Ingenieros de confiabilidad del sitio interesados en usar GitOps y Ansible Automation para gestionar máquinas virtuales en OpenShift.

  • Crear máquinas virtuales a partir de medios de instalación e imágenes de disco.
  • Acceder a las consolas gráficas y de texto de una máquina virtual.
  • Preparar almacenamiento en las máquinas virtuales mediante el almacenamiento de Kubernetes (PVC, PV y clases de almacenamiento).
  • Iniciar, pausar y detener las máquinas virtuales.
  • Clonar las máquinas virtuales y generar instantáneas de ellas.
  • Conectar las máquinas virtuales con redes externas y adicionales (fuera de las redes de servicio y del pod de Kubernetes).
  • Preparar los servicios del equilibrador de carga para las máquinas virtuales y, luego, usarlos para habilitar el acceso SSH a las VM.
  • Conectar las máquinas virtuales con el almacenamiento del host y el almacenamiento externo.
  • Crear máquinas virtuales a partir de plantillas.
  • Migrar las máquinas virtuales desde hipervisores compatibles.
  • Obtener la certificación oficial Red Hat Certified Specialist in OpenShift Virtualization.

Es recomendable haber completado, previamente, el curso Red Hat OpenShift I: Containers & Kubernetes (DO180).

 Introducción a OpenShift Virtualization

Describir las funciones y los casos prácticos de OpenShift Virtualization.

Ejecución de máquinas virtuales y acceso a ellas

Crear, gestionar, inspeccionar y supervisar máquinas virtuales en Red Hat OpenShift Virtualization.

Configuración de la red de Kubernetes para máquinas virtuales

Configurar los objetos estándares de la red de Kubernetes y el acceso externo para las máquinas virtuales y las aplicaciones que respaldan.

Conexión de máquinas virtuales a redes externas

Configurar las redes de nodos para poder conectar máquinas virtuales y nodos con redes externas al clúster.

Configuración del almacenamiento de Kubernetes para máquinas virtuales

Gestionar el almacenamiento y los discos de las máquinas virtuales en Red Hat OpenShift.

Gestión de plantillas de máquinas virtuales

Crear y gestionar plantillas para preparar máquinas virtuales.

Gestión avanzada de máquinas virtuales

Realizar instantáneas de una máquina virtual, clonarla, importarla, exportarla, realizar migraciones activas con ella e iniciar el mantenimiento del nodo.

Configuración de la alta disponibilidad de Kubernetes en las máquinas virtuales

Configurar los recursos de Kubernetes para implementar la alta disponibilidad en las máquinas virtuales.

Documentación oficial del curso Managing Virtual Machines with Red Hat OpenShift Virtualization con examen (DO317).

  • Formador certificado por Red Hat.
  • Más de 5 años de experiencia profesional.
  • Más de 4 años de experiencia docente.
  • Profesional activo en empresas del sector IT.

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Controle, gestione, supervise y pruebe los microservicios, y realice un seguimiento de ellos con Red Hat OpenShift Service Mesh

En el curso Building Resilient Microservices with Istio and Red Hat OpenShift Service Mesh (DO328), los estudiantes aprenden sobre la instalación, la supervisión, la gestión y la resistencia de los servicios de Red Hat OpenShift® Service Mesh.

OpenShift diseñó una plataforma de arquitectura empresarial que sirve a muchos clientes, y permite implementar y adaptar las aplicaciones de microservicios de manera eficiente y constante. Sin embargo, a medida que las arquitecturas crecen y se tornan más complejas, es cada vez más difícil definir la manera en que los servicios interactúan entre sí. Red Hat OpenShift Service Mesh comprende tres productos (Istio, Jaeger y Kiali) que facilitan la forma de gestionar la interacción entre los servicios, permiten realizar un seguimiento de ellos y crean una representación visual de las vías de comunicación.

  • Instalar Red Hat OpenShift Service Mesh en un clúster de OpenShift
  • Implementar estrategias de lanzamiento controlando el tráfico de los servicios
  • Brindar mayor resistencia a los servicios con el equilibrio de carga y las conmutaciones por error
  • Evaluar la resistencia de los servicios por medio de las pruebas de caos
  • Aplicar las normas de seguridad de los servicios
  • Observar, medir y rastrear el tráfico de red con OpenShift Service Mesh

  • Se recomienda asistir al curso Red Hat Application Development II: Implementing Microservice Architectures (DO283) o demostrar la experiencia equivalente en el diseño de aplicaciones de microservicios, aunque no es obligatorio.
  • Se recomienda especialmente asistir a los cursos Red Hat OpenShift I: Containers & Kubernetes (DO180) y Red Hat OpenShift Development II: Containerizing Applications (DO288) y aprobar el examen Red Hat Certified Specialist in OpenShift Application Development Exam (EX288), o bien contar con un nivel básico de experiencia en OpenShift.

Modulo 1:Presentación de Red Hat OpenShift Service Mesh

Describa los conceptos básicos de la arquitectura de microservicios y OpenShift Service Mesh.

Modulo 1:Observación de una red de servicios

Visualice una OpenShift Service Mesh y realice el seguimiento de ella con Jaeger y Kiali.

Modulo 1:Control del tráfico de los servicios

Gestione y oriente el tráfico con OpenShift Service Mesh.

Modulo 1:Lanzamiento de aplicaciones con OpenShift Service Mesh

Lance aplicaciones utilizando las estrategias "Canary" y de copias idénticas.

Modulo 1:Evaluación de la resistencia de los servicios con pruebas de caos

Evalúe la resistencia de una OpenShift Service Mesh utilizando pruebas de caos.

Modulo 1:Diseño de servicios resistentes

Utilice las estrategias de OpenShift Service Mesh para diseñar servicios resistentes.

Modulo 1:Protección de una OpenShift Service Mesh

Cifre y proteja los servicios de su aplicación con OpenShift Service Mesh.

Documentación del curso Managing Virtual Machines with Red Hat OpenShift Virtualization with Exam

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid

Acerca del curso

Desarrolle aplicaciones basadas en microservicios con Quarkus y OpenShift.

Aunque muchas empresas buscan aprovechar las arquitecturas diseñadas originalmente en la nube, varias de ellas desconocen cuál es el mejor enfoque para lograrlo. Quarkus es una tecnología nueva y emocionante que ofrece la confianza, la familiaridad y la avanzada evolución de Java Enterprise, con un tiempo de implementación extremadamente rápido y listo para los contenedores. Red Hat Cloud-native Microservices Development with Quarkus (DO378) se centra en el aprendizaje de los principios de arquitectura y en la implementación de microservicios basados en Quarkus y OpenShift. A partir de los aspectos fundamentales del desarrollo de aplicaciones, usted se enfocará en la creación, la supervisión, la prueba y la implementación de aplicaciones modernas de microservicios.

  • Implementar aplicaciones de microservicios en Red Hat® OpenShift Container Platform
  • Diseñar una aplicación de microservicios con Quarkus
  • Implementar pruebas de unidad e integración para los microservicios
  • Usar las especificaciones de configuración para introducir datos en un microservicio
  • Utilizar OAuth para proteger los microservicios
  • Diseñar e implementar aplicaciones originales de Quarkus

  • Experiencia en el desarrollo de aplicaciones o Red Hat Application Development I: Programming in Java EE (JB183)
  • Competencia en el uso de entornos de desarrollo integrado (IDE), como Red Hat® Developer Studio o VSCode
  • Experiencia en Maven y el control de versiones, aunque no es un requisito obligatorio
  • Experiencia en OpenShift o haber realizado el curso Introduction to OpenShift Applications (DO101), aunque no es un requisito obligatorio
  • Realizar una evaluación sin costo para determinar si esta oferta es la más conveniente en función de sus habilidades

Modulo 1:Descripción de las arquitecturas de microservicios

Describa los elementos y los patrones de las arquitecturas de aplicaciones basadas en microservicios.

Modulo 2:Implementación de un microservicio con Quarkus

Describa las especificaciones en Quarkus e implemente un microservicio con algunas de ellas en un clúster de OpenShift.

Modulo 3:Diseño de aplicaciones de microservicios con Quarkus

Diseñe una aplicación de microservicios de Quarkus que sea permanente, distribuida y que pueda configurarse.

Modulo 4:Implementación de la tolerancia a los errores

Implemente la tolerancia a los errores en una arquitectura de microservicios.

Modulo 5:Diseño e implementación de aplicaciones originales de Quarkus

Describa Quarkus en el modo original y su implementación en OpenShift Container Platform.

Modulo 6:Análisis de los microservicios

Implemente pruebas de unidad e integración para los microservicios.

Modulo 7:Creación de comprobaciones de estado de las aplicaciones

Cree una comprobación de estado para un microservicio.

Modulo 8:Protección de los microservicios

Proteja los extremos de los microservicios y la comunicación entre ellos.

Modulo 9:Supervisión de los microservicios

Supervise el funcionamiento de un microservicio a través de métricas y el rastreo de entornos distribuidos.

Documentación del curso Building Resilient Microservices with Istio and Red Hat OpenShift Service Mesh with Exam

  • Formador Certificado por Red Hat
  • Más de 5 años de experiencia profesional
  • Más de 4 años de experiencia docente
  • Profesional activo en empresas del sector IT

Solicita información


Descarga el programa del curso
Descargar programa
Hoja de Matriculación:
Descargar matrícula

Si no has encontrado lo que buscabas, prueba buscar tu curso o certificación aquí

Compartir:
Descubre nuestras ofertas y promociones
Plan amigo, ven con un amigo y tienes descuento!
Plan Amigo
Desempleados. Si estás sin empleo tienes descuento!
Desempleado
Antiguos alumnos. Si has sido alumno de CAS Training tienes un descuento!
Antiguos Alumnos
Bonificación FUNDAE. Contamos con cursos boficados. Consúltanos!
Bonificación Fundae
Puedes pagar los cursos con Sodexo
Paga con Sodexo
Si tienes el Carné jóven de la comunidad de Madrid, tienes un descuento, consúltanos!
Carné Joven Comunidad de Madrid