Świat Devopsów

IaaC, GitOps – wprowadzenie

Czas trwania  – 2 dni

Informacje o szkoleniu
W trakcie szkolenia uczestnicy poznają podstawową wiedzę związaną z podejściem Infrastructiure as a Code (IaaC) oraz GitOps. Zostaną przedstawione możliwości implementacji z wykorzystaniem najlepszych praktyk pod względem użytkowania oraz bezpieczeństwa. W trakcie szkolenia odbędą się również praktyczne warsztaty, na których będzie implementowana przykładowa infrastruktura IT.

Dla kogo jest przeznaczone szkolenie? 
Dla administratorów IT,
dla DevOps inżynierów interesujących się automatyzacją i bezpiecznym, szybkim konfigurowaniem infrastruktury IT.

Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa wiedza związania z zarządzaniem serwerami oraz tworzeniem infrastruktury IT.

Zagadnienia
1.Co to znaczy IaaC oraz GitOps
2.Różnice w implementacji
3.Korzyści wynikające z korzystania z IaaC oraz GitOps
4.Przegląd narzędzi
5.Warsztaty: Implementacja podejścia IaaC oraz GitOps
– Azure Cloud
– Azure DevOps
– Kubernetes
– Terraform
– Argo CD

Wprowadzenie do systemów monitoringu TICK (Telegraf, InfluxDB, Kapacitor, Chronograf)

Czas trwania – 2 dni

Informacje o szkoleniu
W trakcie szkolenia uczestnicy zapoznają się ze stosem monitoringu TICK (Telegraf, InfluxDB, Chronograf, Kapacitor) dostarczonym przez InfluxData.      Szkolenie ma formę warsztatów i ma na celu przedstawić instalacje i konfiguracje omawianego monitoringu w oparciu o systemy Debian Linux. Na szkoleniu również zostają poruszone sposoby monitoringu aplikacji uruchomionych w kontenerach. Każdy z uczestników na czas trwania zajęć dostaje swoją infrastrukturę wirtualną w chmurze publicznej, na których są wykonywane ćwiczenia.

Dla kogo jest przeznaczone szkolenie?
Dla inżynierów, którzy zajmują się systemami monitoringu,
dla programistów,
dla osób zainteresowanych praktycznym wykorzystywaniem przedstawionych narzędzi.

Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa znajomość:
-systemów Linux,
-podstawy konteneryzacji z wykorzystaniem narzędzia Docker,
-SSH – wszystkie ćwiczenia wykonywane są na zdalnych serwerach w chmurze publicznej poprzez klienta SSH.

Zagadnienia
Podstawy monitoringu
Wprowadzenie do TICK
Instalacja i konfiguracja w systemie Debian:
-InfluxDB
-Telegraf
-Chronograf
-Kapacitor
Wprowadzenie do InfluxQL i eksploracja InfluxDB
Wprowadzenie do Tick script i tworzenie alertów w Kapacitor
Tworzenie wizualizacji za pomocą Chronograf
Ćwiczenia z instalacji i konfiguracji kompletnego systemu monitoringu w oparciu o systemy Linux Debian.

Wymagania sprzętowe
Każdy z uczestników powinien posiadać Laptop z systemem:
-Windows 10
-MacOS
-Linux np. Ubuntu
Zainstalowany klient OpenSSH

Wprowadzenie do systemów monitoringu Prometheus i Grafana

Czas trwania – 2 dni

Informacje o szkoleniu
W trakcie szkolenia uczestnicy zapoznają się z oprogramowaniem do monitoringu Prometheus i Grafana. Zajęcia mają formę warsztatów, których celem jest  między innymi przedstawienie instalacji i konfiguracji omawianego monitoringu w oparciu o systemy Debian Linux. Uczestnikom zostają pokazane sposoby monitoringu aplikacji uruchomionych w kontenerach. Każdy z nich na czas trwania szkolenia dostaje swoją infrastrukturę wirtualną w chmurze publicznej, na których są wykonywane ćwiczenia.

Dla kogo jest przeznaczone szkolenie?
Dla inżynierów, którzy zajmują się systemami monitoringu,
dla programistów,
dla innych osób zainteresowanych praktycznym wykorzystywaniem przedstawionych narzędzi.

Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa znajomość:
– systemów Linux,
– podstawy konteneryzacji z wykorzystaniem narzędzia Docker,
– SSH – wszystkie ćwiczenia wykonywane są na zdalnych serwerach w chmurze publicznej poprzez klienta SSH.

Zagadnienia
Podstawy monitoringu
Wprowadzenie do Prometheus i omówienie architektury
Instalacja i konfiguracja Prometheus
Monitowanie serwerów
Monitorowanie kontenerów
Wprowadzenie do Dashboards
Tworzenie node exporter
Wprowadzenie do alertów
Wprowadzenie do Grafana
Instalacja i konfiguracja Grafana
Integracja Grafana i Prometheus
Ćwiczenia z instalacji i konfiguracji kompletnego systemu monitoringu w oparciu o systemy Debian Linux.

Wymagania sprzętowe
Każdy z uczestników powinien posiadać Laptop z systemem:
–Windows 10
–MacOS
–Linux np. Ubuntu
Zainstalowany klient OpenSSH

Monitorowanie systemów przy użyciu Grafana, Prometheus i Thanos oraz Loki

Czas trwania – 3 dni

Szkolenie jest w języku polskim.

Wersja angielska – english version

Szkolenie dostępne jest zarówno w formie zdalnej jak i stacjonarnej.

Poziom podstawowy 

Informacje o szkoleniu:
W trakcie szkolenia uczestnik zostaje zaznajomiony z Prometheusem, komponentami Thanos jak również eksporterami, które to służą do monitoringu aplikacji i serwerów. Zostają przybliżone mu narzędzia Grafana Loki i Promtail – wykorzystywane do agregacji logów z aplikacji i serwerów. Kursant zapoznaje się z Grafaną – oprogramowaniem do analityki i interaktywnej wizualizacji danych. Podczas zajęć każdy uczestnik ma dostęp do infrastruktury w chmurze publicznej, na których są wykonywane ćwiczenia. Szkolenie ma formę warsztatów i ma na celu przedstawić instalacje i konfiguracje omawianego monitoringu w oparciu o systemy Debian Linux oraz klaster Kubernetes.

Forma szkolenia – Warsztaty
95%  czasu szkolenia poświęcone jest wykonywanie zadań podczas workshop-ów.
5 %  – czasu szkolenia to  teoretyczne wprowadzenie do wykonywanych labów.

Parę informacji o samych narzędziach – kliknij 

Dla kogo jest przeznaczone szkolenie?
Dla inżynierów zajmujących się systemami monitoringu,
dla programistów,
dla innych osób zainteresowanych praktycznym wykorzystywaniem przedstawionych narzędzi.

Co należy wiedzieć przed szkoleniem?
Wymagane są:
– podstawowa znajomość systemów Linux: wykonywanie poleceń w terminalu,
– podstawy konteneryzacji z wykorzystaniem narzędzia Docker,
– SSH – wszystkie ćwiczenia wykonywane są na zdalnych serwerach w chmurze publicznej z wykorzystaniem klienta SSH.

Zagadnienia:
I Dzień
1.Wprowadzenie do systemu monitoringu Prometheus:
Instalacja i weryfikacja działania na serwerze w chmurze publicznej,
Uruchomienie Prometheus jako usługi.
2.Wprowadzenie do konfiguracji Prometheus:
Zapoznanie się z panelem kontrolnym,
Instalacja kilku Node-Exporter na lokalnym i zdalnym serwerach.
3.Prometheus i język zapytań PromQL:
Wprowadzenie do PromQL,
Wyrażenia regularne,
Typy danych w PromQL,
Zaawansowane zapytania PromQL.
4.Tworzenie własnych metryk ze skomplikowanych zapytań i zapisywanie ich jako Recording Rules.
5.Alerty i Prometheus:
Wprowadzenie,
Tworzenie Alerting rules,
Instalacja Alert Manager,
Wysyłanie powiadomień przez SMTP.
6.Prometheus i protokół SNMP:
Monitoring serwerów przez protokół SNMP.
7.Monitorowanie certyfikatów SSL za pomocą node-cert-exporter.
8.Monitorowanie końcówek za pomocą blackbox-exporter.
9.Prometheus i Thanos:
Wprowadzenie do Thanos,
Thanos z punktu widzenia użytkownika,
Thanos i setup HA (ang. High Availability).

II Dzień 
1.Wprowadzenie do Grafana.
2.Instalacja Grafana.
3.Wprowadzenie do tworzenia wykresów: Graph, Stat, Gauge, Bar Gauge, Table i Logs Panels.
4.Konfiguracja Data Source i wyświetlanie danych w Grafana:
MySQL,
Prometheus
Zabbix
ElasticSearch
5.Instalacja dashboardów w Grafana
6.Wprowadzenie do Loki i Promtail:
Konfiguracja i PromQL w Grafanie
Dodatkowe logi w Loki jak konfigurować
Konfiguracja Data Source – Loki

III Dzień 
1.Konfiguracja Annotation Queries i łączenie paneli grafami i logami.
2.Konfiguracja: Dynamic Dashboard Variables, Dynamic Tables.
3.Konfiguracja alertów.
4.Kopiowanie,backup i odtwarzanie dashboardów.
5.Zarządzanie użytkownikami.
6.Monitoring K8s za pomocą Prometheus
Konfiguracji monitoringu aplikacji
Tworzenie dashboardów dla aplikacji
Wyświetlanie logów z aplikacji w Grafana

Jakie korzyści daje szkolenie?
Uczestnik po zakończeniu szkolenia będzie posiadał wiedzę z zakresu:
1. Architektury ekosystemu Prometheus, Thanos, Grafana i Loki,
2. Dostępnych metryk w Prometheus,
3. Podstaw języka PromQL co przełoży się na efektywne wykonywanie odpowiednich zapytań np. do wizualizacji metryk w Grafana,
4. Podstaw Thanos.
Ponadto dowie się w jaki sposób:
5.Współpracuje Thanos z Prometheus tak aby łatwo korzystać z rozbudowanych systemów monitoringu,
6.Zbierać metryki z różnych systemów np. baz danych, systemów operacyjnych z użyciem eksporterów,
7.Z integrować kod swojej aplikacji z Prometheus wykorzystując dostępne biblioteki dla różnych języków programowania oraz framework-ów.
Jak również nauczy się:
8. W Grafanie tworzyć efektywne wizualizacje metryk, które pomogą rozwiązywać problemy związane z działaniem systemów i aplikacji,
9. Po przez ćwiczenia związane z Loki – praktycznego sposobu agregowania logów z aplikacji i systemów, a także jak integrować je w Grafana.

Wymagania sprzętowe i środowiskowe
Każdy z uczestników powinien posiadać.
1.Laptop z systemem:
●Windows 10
●MacOS
●Linux np. Ubuntu
2.Zainstalowany klient OpenSSH
3.Ćwiczenie są prowadzone na infrastrukturze w chmurze publicznej. Należy upewnić się, że uczestnicy będą mogli połączyć się do niej z sieci
firmowej z użyciem protokołów: SSH, HTTP i HTTPS.

W przypadku szkolenia zdalnego – dodatkowy monitor mile widziany:)

Jesteś zainteresowany szkoleniem?
Kliknij poniżej
KONTAKT

Prometheus and Grafana – monitoring and alerting

Lenght – 3 days

Overview
During training participants will get familiar with the software for:
●applications and servers monitoring using Prometheus, Thanos and Prometheus exporters
●logs aggregation using Grafana Loki and Promtail
●visualizing metrics using Grafana
This is a „Learn by example” course.
The main purpose is to demonstrate how to install and configure Prometheus, Grafana, Loki
and Thanos on Debian Linux systems and Kubernetes clusters.
Each participant will get access to the infrastructure in the public cloud on which the exercises
are performed.

Audience
This course is appropriate for:
-Network, Systems and Database Administrators
-Infrastructure Monitoring Specialists
-IT Platform Specialists
-DevOps Technicians
-Enthusiasts wanting a better understanding and better visibility of their networks in the home or office
-Someone who is curious and wants a good understanding of what Grafana and Prometheus do and what they’re good at.

Requirements or prerequisites
-Basic Linux experience,
-Basic Docker experience,
-All commands entered during the lectures are provided in the corresponding resources.

Agenda
1st day:
1.Introduction to Prometheus system:
Prometheus installation on server,
Starting Prometheus as a service in Linux.
2.Introduction to Prometheus config:
Getting to know the Prometheus control panel,
Installing node-exporters on servers in the public cloud to collect metrics from these servers.
3.Prometheus and PromQL:
Introduction to PromQL,
Regular expressions in PromQL,
PromQL data types,
Advanced PromQL queries.
4.Creating custom metrics from complicated queries and save them as Recording Rules.
5.Prometheus alerts:
Introduction to Prometheus alerting,
Creating Alerting rules,
Alert Manager installation,
Configuring Alert Manager to send alerts from Prometheus.
6.Configuring Prometheus to collect metrics from devices by SNMP
7.Monitoring SSL certificates by using node-cert-exporter
8.Monitoring endpoints over HTTP, HTTPS, TCP, ICMP by using blackbox-exporter
9.Thanos:
Introduction to Thanos,
Explaining Thanos for Prometheus user,,
Setup Thanos in HA mode (ang. High Availability).

2nd day:
1.Introduction to Grafana
2.Installing Grafana on server in public cloud
3.Exploring the Graph, Stat, Gauge, Bar Gauge, Table and Logs Panels
4.Creating many different types of Data Sources:
MySQL,
Prometheus
Zabbix
ElasticSearch
5.Experimenting with community created dashboards plus experimenting with our own
6.Introduction to Loki and Promtail:
Installing Loki,
Creating Loki Data Source in Grafana
Installing Promtail,
configuring Promtail to read Nginx logs.

3rd day:
1.Use Annotation Queries to link Logs Panels and Graph Panel
2.Use Dashboard Variables to create Dynamic Dashboards with Automatic Visualization Placement
3.Setup Grafana alerts
4.Grafana backups methods
5.Users management in Grafana
6.Kubernetes Monitoring with Prometheus:
Custom application monitoring,
Creating dashboards for custom application,
Displaying custom application logs in Grafana.

Requirements or prerequisites
1.Laptop with one of following operating systems:
Windows 10
MacOS
Linux e.g.. Ubuntu
2.OpenSSH client installed in the operating system
3.Each participant will use infrastructure in a public cloud
4.Make sure that participants will be able to connect to the public
cloud from the corporate network using the protocols: SSH, HTTP and
HTTPS

Role techniczne w metodologii DevOps – Pogaducha dla rekruterów

Czas trwania – 2 dni

Informacje o szkoleniu:
Szkolenie powstało zmyślą o osobach pracujących w działach: HR, Rekrutacji pracowników, Szkoleń IT. Skierowane jest do osób, które chcą dowiedzieć się czym jest DevOps, a także pokrótce Agile. Uczestnik zostaje zaznajomiony z poszczególnymi rolami technicznymi dla metodologii DevOps oraz Agile. Kurs koncentruje się na czterech stanowiskach: Programista (Developer), DevOps Engineer, Administrator IT oraz Tester Aplikacji. Wskazuje najczęstsze błędy popełniane podczas rekrutacji, a także przyszłość poszczególnych ról.

Dla kogo jest przeznaczone szkolenie?
Dla rekruterów,
dla headhunterów,
dla specjalistów ds. wyszukiwania/organizacji szkoleń dla pracowników,
dla każdego chętnego zapoznać się bliżej z rolami technicznymi w metodologii DevOps.

Zagadnienia
1. Programista (Developer)
-Opis stanowiska
-Rola developera w zespole DevOps
-Umiejętności miękkie, formy współpracy (Agile itd)
-Przyszłość stanowiska
2. DevOps Engineer
-Jak powstało stanowisko
-Dlaczego tak ciężko znaleźć specjalistów
-Kompetencje techniczne oraz technologie
-Umiejętności miękkie, formy współpracy (Agile itd)
-Przyszłość roli DevOps Engineer
3. Administrator IT
-Opis stanowiska
-Kompetencje techniczne oraz technologie
-Różnice między DevOps Inżynierem, a administratorem IT
-Przyszłość stanowiska
4. Tester Aplikacji
-Opis stanowiska
-Tester automatyczny, a manualny
-Przyszłość stanowiska
5. Najczęściej popełniane błędy podczas wyszukiwania specjalistów na powyższe stanowiska

Podstawy CD/CI – w oparciu o Azure DevOps

Czas trwania  – 3 dni

Informacje o szkoleniu
W trakcie szkolenia uczestnikowi przybliżone zostają zagadnienia związane z Continuous Delivery i Continuous Integration. Poruszane są tematy związane z budową oraz wdrażaniem aplikacji na serwery. Szkolenie ma formę warsztatów i jest prowadzone z wykorzystaniem platformy Azure DevOps, na przykładzie aplikacji .NET Core.

Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa wiedza programistyczna związana z budową aplikacji oraz fundamentalna wiedza związana z administracją serwerów.

Zagadnienia
Co to jest Continous Delivery i Continuous Integration, po co wymyślono CI/CD?
Przegląd narzędzi CD/CI
Konfiguracja Azure DevOps
Budowa aplikacji .NET (Azure DevOps)
Release aplikacji .NET (Azure DevOps)
Bezpieczeństwo w Azure DevOps
Integracja z innymi narzędziami
Wstęp do testowania i analizy kodu – sonarqube, unitTests

CI/CD w oparciu o Jenkins

Czas trwania – 3 dni

Poziom podstawowy

Szkolenie dostępne jest zarówno w formie zdalnej jak i stacjonarnej.

Informacje o szkoleniu
Szkolenie prowadzone jest z wykorzystaniem narzędzia Jenkins z naciskiem na praktykę. Każdy uczestnik otrzymuje instrukcję z opisem wykonywanych ćwiczeń. W trakcie szkolenia uczestnikowi przybliżone zostają zagadnienia związane z Continuous Integration, Continuous Delivery i Continuous Deployment. Poruszane są tematy związane z budową oraz wdrażaniem aplikacji na serwery z wykorzystaniem najlepszych praktyk Pipeline as Code, które umożliwiają powtarzalne wykonywanie operacji. Uczestnicy poznają najlepsze praktyki związane z konfiguracją i utrzymywaniem serwerów Jenkins. Umożliwia to zarządzania ogromną ilością podobnych środowisk z nakładem minimalnej ilości pracy.
Parę słów o Jenkinsie
1. W pełni darmowe narzędzie na licencji Open Source
2. Posiada największą liczbę wtyczek i integracji
3. Jedno z najstarszych narzędzi, posiada ogromną społeczność użytkowników

Forma szkolenia – Warsztaty
95%  czasu szkolenia poświęcone jest wykonywanie zadań podczas workshop-ów.
5 %  – czasu szkolenia to  teoretyczne wprowadzenie do wykonywanych labów.

Co należy wiedzieć przed szkoleniem?
Wymagana jest znajomość podstaw pracy z terminalem Linux/Unix, Docker Engine.

Zagadnienia
1.Wprowadzenie teoretyczne do CI/CD.
2. Przegląd innych narzędzi CI/CD i porównanie z Jenkins.
Gitlab
Github
cBamboo
3. Wprowadzenie do Jenkins, narzędzia wspomagającego CI/CD
Czym jest pipeline i podejście pipelines as code
Integracja z narzędziami wspomagającymi – SonarQube, Artifactory
Wprowadzenie do Jenkins Configuration as Code
4. Ćwiczenia praktyczne z Jenkins
Instalacja i konfiguracja na systemie Debian (automatyzacja)
○ Jenkins Configuration as Code
○ Instalacja monitoringu
Jenkins Pipelines – wprowadzenie i ćwiczenia praktyczne
○ Integracja z Github
○ Jenkins Agent i Docker
○ Jenkins i jego rozszerzenia
○ Job status i badge status
○ Coverage reports, Broken pipelines
○ Jenkins – uwierzytelnianie i autoryzacja
○ Jenkins – przechowywanie haseł (secrets)
○ Jenkins – audit logs
○ Jenkins – artefakty
○ Jenkins – pipeline gates
○ Jenkins – promoted build
○ Jenkins – wykorzystywanie dokumentacji do tworzenie Pipelines
○ Jenkins – globalne narzędzia do konfiguracji
○ Jenkins Job DSL – wprowadzenie i ćwiczenia praktyczne
Jenkins Pipelines – wprowadzenie i ćwiczenia praktyczne
5.Testowania i analizy kodu za pomocą Jenkins i Sonarqube – ćwiczenia praktyczne
6. Budowa aplikacji w Python – ćwiczenia praktyczne
7. Release aplikacji w Python – ćwiczenia praktyczne
8. Deployment aplikacji za pomocą Ansible
Artefakt
Kontener z aplikacją

Jakie korzyści daje szkolenie?
Uczestnik po zakończeniu szkolenia nabędzie następujące umiejętności:
1. Instalacji serwera Jenkins
2. Sposobów podłączania agentów Jenkinsa
3. Konfiguracji globalnych narzędzi (Git, Maven itp.)
4. Rozszerzanie podstawowych funkcjonalności Jenkinsa z użyciem wtyczek i bibliotek
5. Tworzenie projektów typu Freestyle, Pipeline, Multi-branch Pipeline
6. Umiejętność tworzenia Pipeline’ów za pomocą kodu
7. Tworzenie kompleksowego Pipeline’u do ciągłej integracji oprogramowania (CI/CD)
8. Wdrażanie aplikacji na różnych środowiskach
9. Integracji Jenkins z serwerem Git na przykładzie Github
10. Integracji Jenkins z serweremi Artifactory i Sonarqube
11. Automatycznej konfiguracji Jenkins jako IaC
12. Automatycznej konfiguracji projektów w Jenkins jako IaC

Wymagania sprzętowe i środowiskowe
Każdy z uczestników powinien posiadać:
1. Komputer z klientem SSH z otwartym dostępem do Internetu.
Uczestnicy wykonują zadania na wirtualnych maszynach w chmurze publicznej. Poniższe porty muszą być otwarte na firewallu:
a.SSH (22/TCP)
b.HTTP (80/TCP)
c.HTTPS (443/TCP)
d.Wszystkie powyżej 1024/TCP
2. Zalecany drugi monitor.
3. Znajomość podstawy pracy z terminalem Linux/Unix, Docker Engine.
4. Klient WebEx https://www.webex.com/downloads.html

Jesteś zainteresowany szkoleniem?
Kliknij poniżej
KONTAKT

CI/CD w oparciu o Docker engine i Ansible

Czas trwania – 3 dni

Poziom podstawowy

Informacje o szkoleniu
W trakcie szkolenia uczestnikowi przybliżone zostają zagadnienia związane ze sposobami budowania aplikacji w oparciu o kontenery i ich deployment (na różnych środowiskach włącznie z produkcyjnym) oraz ich późniejsze skalowanie. Szkolenie ma formę warsztatów i jest prowadzone z wykorzystaniem narzędzi Ansible, Docker, Jenkins i system Ubuntu (Linux).
Ćwiczenia są prowadzone w oparciu o przykładową aplikacją napisaną w języku Python. Każdy z uczestników na czas szkolenia dostaje swoją infrastrukturę wirtualną w chmurze publicznej składającą się z kilku serwerów Ubuntu na których są wykonywane ćwiczenia.

Dla kogo jest przeznaczone szkolenie? 
Dla osób budujących procesy CI/CD,
dla programistów,
dla innym osób zainteresowanych praktycznym wykorzystywaniem przedstawionych narzędzi.

Co należy wiedzieć przed szkoleniem?
Wymagana jest podstawowa znajomość:
– systemu kontroli wersji Git,
– systemów Linux,
– sieci komputerowych,
– klienta SSH,
– języka Python i budowy aplikacji webowych.

Zagadnienia
I dzień
1. Wprowadzenie teoretyczne do CI/CD
2. Wprowadzenie do Docker
Wstęp teoretyczny
Ćwiczenia praktyczne
a) Podstawowe operacje na kontenerach
b) Docker i storage
c) Docker i sieci
d) Budowanie obrazów Docker i dzielenie się nimi
e) Docker i logi aplikacji uruchomiomych w kontenerach oraz opcje ich agregacji na przykładzie Elastic (ELK) Stack
f) Docker-Compose

II dzień
1 Wprowadzenie do Ansible
Wstęp teoretyczny
Ćwiczenia praktyczne
a) sposoby instalacji.
b) wykonywanie komend ad-hoc.
c) pisanie playbook-ów.
d) szyfrowanie haseł i innych ważnych danych.
e) tworzenie i testowanie ról.

III dzień
1.  Omówienie strategii deployment-u aplikacji.
2. Omówienie konfiguracji load balancer-a na przykładzie HAproxy.
3. Ćwiczenia na przykładzie deployment-u aplikacji składającej się z Load Balancer-a i kilku mikroserwisów (fontend, backend, baza danych).
4. Budowa CI/CD na omówionym przykładzie w oparciu o Jenkins.

Wymagania sprzętowe
Każdy z uczestników powinien posiadać.
1. Laptop z systemem:
– Windows 10
– MacOS
– Linux np Ubuntu który posiada wsparcie dla Docker CE.
2. Zainstalowany klient OpenSSH

Jesteś zainteresowany szkoleniem?
Kliknij poniżej
KONTAKT

 

Kubernetes – Podstawy

Czas trwania – 2 dni

Informacje o szkoleniu
Szkolenie porusza zagadnienia związane z wymaganiami stawianymi przed platformami orkiestracyjnymi wraz z ich realizacją na przykładzie środowiska Docker Kubernetes. Omawiane są: wysoka dostępność usług (High Availability – HA), automatyzacja, a także równoważenie obciążenia wraz z automatycznym wykrywaniem i rejestracją usług. Szkolenie ma formę warsztatową.

Co należy wiedzieć przed szkoleniem?
Wymagana jest wiedza związana z platformą Docker oraz systemami Linux/Unix. Uczestnik powinien być zaznajomiony na poziomie elementarnym  z systemami kontroli wersji opartych o git oraz z zagadnieniami dotyczącymi sieci TCP/IP.

Zagadnienia
Zakres szkolenia:
Co to jest Kubernetes
Infrastruktura k8s
Możliwości instalacji
Zarządzanie k8s
Podstawowe obiekty – Deployment, Pod, ReplicaSet, Secrets, ConfigMaps
Zaawansowane obiekty Kubernetes
Praktyczna praca z obiektami na podstawie przykładowej aplikacji
Wprowadzenie do monitoringu oraz alertowania
Helm – pakiet manager dla k8s

Kubernetes dla Developerów

Czas trwania – 2 dni

Informacje o szkoleniu
Szkolenie przeznaczone dla programistów interesujących się wdrażaniem aplikacji opartych o mikroserwisy. Poruszane są tematy związane z uruchomieniem aplikacji na klastrze Kubernetes wraz z praktycznymi przykładami. Szkolenie ma formę warsztatów.

Dla kogo jest przeznaczone szkolenie?
Dla programistów,
dla Inżynierów DevOps.

Co należy wiedzieć przed szkoleniem?
Należy posiadać podstawową wiedzę programistyczną oraz podstawy technologii Docker.

Umiejętności po szkoleniu:
Uczestnik będzie potrafił uruchomić podstawową aplikacją na klastrze Kubernetes w oparciu o najlepsze praktyki.

Zagadnienia
Co to jest Kubernetes
Infrastruktura k8s
Możliwości instalacji
Zarządzanie k8s
Podstawowe obiekty – Deployment, Pod, ReplicaSet, Secrets, ConfigMaps
Ingress – wystawienie aplikacji na świat
Storage, Persistent Volume – zarządzanie danymi w k8s
Praktyczna praca z obiektami na podstawie przykładowej aplikacji.

DevOpsowe kompendium dla początkujących- Zwinne dostarczanie aplikacji

Czas trwania – 2 dni

Opis szkolenia
Szkolenie porusza najważniejsze aspekty związane z metodyką DevOps. Omawia najpopularniejsze narzędzia używane na co dzień przez zespoły DevOps do zwinnego dostarczenia aplikacji. Daje obraz czym jest Devops w ujęciu filozoficznym. Kurs jest wstępem do świata DevOps, stąd ma formę teoretyczną z przykładami z życia wziętymi. Osoba prowadząca kurs jest przede wszystkim praktykiem, na co dzień pracującym w metodyce Devopsowej, mająca doświadczenie trenerskie. Każdy z poruszonych modułów może zostać rozwinięty w formie odrębnego warsztatu na dodatkowym kursie.

Dla kogo jest przeznaczone szkolenie?
Dla testerów,
dla developerów,
dla programistów,
dla administratorów, którzy chcą rozpocząć przygodę z zagadnieniami DevOps.

Zagadnienia
1. Omówienie metodyki DevOps?
– Rozwój projektu z punktu widzenia developera.
– Rozwój projektu z punktu widzenia administratora.
– Rozwój projektu z punktu widzenia zespołu DevOps.

2. Omówienie narzędzi DevOps
– Continuous Integration/Continuous Deployment.
– Mikroserwisy, kontenery Linux.
– System kontroli wersji: Git, Mercurial, SVN.
– Automatyzacji infrastruktury i zarządzanie za pomocą kodu (IaC):
– narzędzia do automatyzacji konfiguracji systemów: Ansible, SaltStack, Puppet, Chef.
– narzędzia do automatyzacji zarządzania infrastrukturą: AWS CloufFormation, Terraform.
– Modele pracy z Git-em

3. Zarządzanie oraz konfiguracja elementów środowiska IT przy użyciu narzędzi DevOps do automatyzacji
Wprowadzenie.
– Omówienie Ansible Pull vs Push.
– Omówienie: idempotencja, moduły, inventory, tasks, polecenia ad-hoc.
– Podstawy w Ansible: Playbook, YAML, moduly, zmienne, role.

4. Mikroserwisy bazujące na technologii Docker w procesach DevOps
– Czym jest Docker?
– Architektura oraz komponenty Docker.
– Budowanie obrazów – Dockerfile i uruchamianie na przykładzie docker-compose.
– Omówienie sieci i wolumenów w Docker.
– Zbieranie logów z aplikacji.
– Omówienie koncepcji „The twelve-factor App”.

5. Pipeline DevOps wraz z powiązanymi technologiami oraz narzędziami
– CI/CD na przykładzie Jenkins Pipelines.

6. Porównanie metodyki SRE i DevOps

7. Kubernetes, a DeVops – wprowadzenie

8. Cloud Services w usługach DevOps na podstawie AWS

DevOps – zwinna i skuteczna metoda wdrażania oprogramowania

Czas trwania – 2 dni

Informacje o szkoleniu
Szkolenie dostarcza uczestnikowi podstawową wiedzę z zakresu tematyki  DevOps jak również zapewnia jej większe zrozumienie. Podczas treningu kursant zostaje zaznajomiony z rzeczywistymi przykładami wdrożeń.  Ma sposobność  uczestnictwa w mini-warsztatach, na których są przedstawione pokazowe wdrożenia oprogramowania.

Dla kogo jest przeznaczone szkolenie?
Dla osób z obszarów developmentu, utrzymania oraz zarządzania usługami IT,
dla managerów,
dla kadry zarządzającej,
dla zainteresowanych wdrożeniem metodologii DevOps w firmach/organizacjach.

Jakie wymagane umiejętności należy posiadać aby przystąpić do szkolenia?
Nie ma sprecyzowanych wymagań wstępnych, pomocna będzie znajomość zagadnień związanych z Agile, Lean.

Zagadnienia
Dzień I
Czym jest DevOps?
Koncepcje i zasady DevOps
Zalety DevOps
DevOps, a metodologie Lean, Agile
Dzień II
Przykład wdrażania oprogramowania metodą DevOps z wykorzystaniem popularnych narzędzi:
Jira – definicja i zakres prac
Continuous integration, Continuous Delivery (CI/CD)
Testy aplikacyjne
Automatyzacja (infrastrutktura, build i release, testy)
Monitoring aplikacji
Public Cloud (na podstawie Azure)

Puppet dla początkujących

Czas trwania – 3 dni/4 dni

Informacje o szkoleniu
Szkolenie wprowadza początkujących do podstaw związanych z Puppet, którzy są zainteresowani wdrożeniem i rozwijaniem konfiguracji systemów w oparciu o środowisko Puppet Master-Agent. Poruszane tematy są związane:
• z architekturą systemu Puppet,
• z instalacją i konfiguracją Puppet Agent i Puppet Master,
• pisaniem własnych modułów z wykorzystaniem Puppet Resources, Classes, Defines, Manifests, Facts.

Osoby biorące udział w kursie mają okazję zainstalować na przygotowanym przez siebie środowisku testowym system Puppet w wersji Open Source w oparciu o architekturę Master-Agent oraz zapoznać się z praktycznym podejściem do automatyzacji infrastruktury.

Forma szkolenia – Warsztaty
95% czasu szkolenia poświęcone jest wykonywanie zadań podczas workshop-ów.
5 % – czasu szkolenia to teoretyczne wprowadzenie do wykonywanych labów.

Dla kogo jest przeznaczone szkolenie?
Dla Administratorów systemów,
dla Inżynierów DevOps.

Co należy wiedzieć przed szkoleniem?
Podstawy administracji serwerami Linux/Unix lub Windows.

Jakie korzyści daje szkolenie?
Uczestnik po zakończeniu szkolenia nabędzie następujących umiejętności:
1.Prawidłowej Instalacji i konfiguracji systemu Puppet we własnej organizacji
2.Uruchomienia Puppet w wersji Open Source w konfiguracji Master-Agent
3.Napisania podstawowej konfiguracji dla swoich systemów Linux/Unix lub Windows
4.Wdrożenia przygotowanej przez siebie konfiguracji na systemy z użyciem Puppet Agent

Zagadnienia
Wprowadzenie do Puppet.
Opis architektury.
Opis PuppetDB, PuppetBoard, Fileserver.
Wprowadzenie do Puppet Agent.
Instalacja i Konfiguracja.
Wprowadzenie do Puppet DSL.
-Manifests.
-Resources.
-Classes.
Konfiguracja systemu za pomocą Puppet Agent.
Wprowadzenie do Puppet Master.
Instalacja i konfiguracja.
Środowiska w Puppet Master (Puppet Environments).
Definicja serwerów (Node definitions).
Moduły Puppet (Modules)
Wprowadzenie do Manifests, Classes, Definitions.
Tworzenie modułów i wprowadzenie do PDK
Wprowadzenie do Puppet Hiera czyli bazy typu klucz-wartość w Puppet.
Przygotowanie konfiguracja obejmująca podstawową konfiguracje grup, użytkowników, instalacji oprogramowania, uruchamianie serwisów.
Proste techniki testowanie modułów Puppet.
Kolejność wykonywania kodu w modułach.
Puppet templates czyli sposoby generowania plików konfiguracyjnych.
Wprowadzenie Ruby templates ERB.
Wprowadzenie Puppet templates EPP
Instalacja modułów na Puppet Master.
Zarządzanie agentami na serwerze Puppet Master.

Wymagania sprzętowe
1. Komputer z klientem SSH z otwartym dostępem do Internetu.
2. Uczestnicy wykonuje zadania na wirtualnych maszynach w chmurze publiczne.
3. Poniższe porty muszą być otwarte na firewallu:
– SSH (22/TCP)
– HTTP (80/TCP)
– HTTPS (443/TCP)
– wszystkie powyżej 1024/TCP
4. Zalecany drugi monitor.
5. Znajomość podstawy pracy z terminalem Linux/Unix, Docker Engine lub Podman.
6. W zależności od ustaleń: klient WebEx https://www.webex.com/downloads.html lub Zoom https://zoom.us/download

Jesteś zainteresowany szkoleniem?
Kliknij poniżej
KONTAKT

Puppet dla zaawansowanych

Czas trwania – 3 dni/4 dni

Informacje o szkoleniu
Szkolenie omawia zaawansowane zagadnienia związane z praktycznym wykorzystaniem Puppet do automatyzacji rozbudowanych środowisk IT oraz optymalizacji działania systemów w dużych wdrożeniach. Wprowadza w najlepsze techniki związane z utrzymywaniem konfiguracji w oparciu o system kontroli wersji Git oraz w techniki CI/CD.

Dla kogo jest przeznaczone szkolenie?
Dla  Administratorów systemów
dla Inżynierów DevOps.

Co należy wiedzieć przed szkoleniem?
Uczestnicy powinni posiadać minimum 1-2 lata doświadczenia w administracji systemami Linux/Unix oraz mieć ukończenie szkolenie „Puppet dla początkujących” lub posiadać minimum półroczne doświadczenie związane z używaniem Puppet we własnej organizacji. Konieczna jest również praktyka w użytkowaniu systemu Git.

Umiejętności po szkoleniu
Uczestnik będzie potrafił uruchomić system Puppet w wersji Open Source który może być wykorzystywany do zarządzania konfiguracją setkami serwerów we własnej organizacji.
Zapozna się z zaawansowanymi funkcjami w PuppetDB, Hiera i Hiera-eyaml oraz będzie potrafił monitorować zarządzane systemy za pomocą PuppetBoard. Uczestnik zapozna się z zaawansowanymi konstrukcjami językowymi, z technikami testowania modułów oraz praktykami ze wdrożeniem CI/CD.

Zagadnienia
Skalowalność Puppet
Wprowadzenie do PuppetDB
– Exported Resources w Puppet
– PuppetDB API
Grupowanie i klasyfikacjia serwerów (Grouping and classifying nodes)
Instalacja i wprowadzenie do PuppetBoard
Wprowadzenie i zastosowanie Puppet Environments
Zastosowanie Puppetfile i R10K
Zastosowanie Hiera i Hiera-eyaml.
Zaawansowanie pisanie modułów Puppet
-Najlepsze praktyki
-Automatyczne testowanie CI
-Automatyczny deployment CD
-Zastosowanie Definitions
-Zależności wykonywania kodu
-Custom Facts and Types
-Puppet Forge
Wprowadzenie do architektury Roles i Profiles
Wprowadzenie do Mcollective
Wprowadzenie do Puppet Bolt

Automatyzacja zarządzania systemem Linux z Ansible

Czas trwania – 4 dni

Dla kogo jest przeznaczone szkolenie?
Dla administratorów systemu Linux,
dla administratorów systemu Windows,
dla inżynierów DevOps,
dla inżynierów automatyzacji infrastruktury,
dla inżynierów projektujących systemy.

Co należy wiedzieć przed szkoleniem ?
Bazowa wiedza na temat architektury i zarządzania systemem Linux

Metoda realizacji szkolenia
Wykłady i ćwiczenia praktyczne

Zagadnienia
Koncepcje Ansible i instalacja środowiska
Wdrażanie Ansible i konfiguracja Ansible do zarządzania hostami i uruchamiania poleceń ad hoc
Tworzenie prostego playbook’a Ansible, uruchamianie go, aby zautomatyzować zadania na wielu zarządzanych hostach
Zarządzanie zmiennymi i faktami.
Tworzenie playbook’ów, które używają zmiennych, aby uprościć zarządzanie playbookiem i faktami jak również powiązanie z konfiguracją zarządzanych hostów.
Wdrażanie kontroli zadań i zarządzanie kontrolą zadań, programami obsługi i błędami zadań w Ansible Playbooks.
Zarządzanie dużymi projektami i playbooki, które są zoptymalizowane pod kątem większych, bardziej złożonych projektów.
Uproszczenie playbooków dzięki rolom, użycie ról Ansible, aby szybciej opracować scenariusze i ponownie wykorzystać kod Ansible.
Rozwiązywanie problemów z Ansible. Rozwiązywanie problemów z playbooks i hostami zarządzanymi.
Automatyzacja zadań administracyjnych w systemie Linux i automatyzacja typowych zadań administracyjnych w systemie Linux za pomocą Ansible.

Jakie Umiejętności nabywa uczestnik po szkoleniu?
Instalacja i konfigurowanie Ansible na stacji roboczej do zarządzania
Przygotowanie zarządzanych hostów do automatyzacji
Projektowanie Ansible Playbooks, aby zautomatyzować zadania
Uruchamianie Playbooks, aby upewnić się, że serwery zostały poprawnie wdrożone i skonfigurowane.

Automatyzacja testów aplikacji z językiem Python dla testerów oprogramowania

Czas trwania – 3 dni

Dzień 1
Podstawy języka Python
1. Programowanie strukturalne – tworzenie wyrażeń – struktury danych – warunki
2. Programowanie funkcyjne – funkcje i procedury – dekoratory
3. Programowanie obiektowe – klasy i instancje- dziedziczenie
4. Obsługa wyjątków

Dzień 2
Podstawy testów automatycznych
1. Przygotowanie środowiska testowego
2. Praca z debuggerem
3. Rodzaje testów automatycznych- jednostkowe- integracyjne- systemowe i akceptacyjne
4. Continuous Integration / Cont. Deployment
5. Wstęp do Selenium- instalacje i konfiguracja webdrivera- podstawowe użycie- selektory

Dzień 3
Selenium – projekt
1. Page Object Model
2. Generowanie raportów
3. Warsztaty – Stworzenie projektu testującego przykładową aplikację

Automatyzacja testów aplikacji z językiem Java dla testerów oprogramowania

Czas trwania – 3 dni

Dzień 1
Podstawy języka Java
1. Wprowadzenie
2. Instalacja niezbędnych narzędzi
3. Typy danych w Javie
4. Klasy i metody – podstawy programowania obiektowego
5. Instrukcje warunkowe i pętle
6. Słowo kluczowe static
7. Koncept programowania obiektowego (dziedziczenie, enkapsulacja, abstrakcja, polimorfizm itp.)
8. Obsługa wyjątków w Javie
9. Zaawansowana Java, API i Java Collections Framework (JCF): interfejsy (listy, zbiory, mapy itp.)

Dzień 2
Podstawy testów automatycznych
1. Przygotowanie środowiska testowego
2. Praca z debuggerem
3. Rodzaje testów automatycznych- jednostkowe- integracyjne- systemowe i akceptacyjne
4. Continuous Integration / Cont. Deployment
5. Wstęp do Selenium- instalacje i konfiguracja webdrivera- podstawowe użycie- selektory

Dzień 3
Selenium – projekt
1. Page Object Model
2. Generowanie raportów
3. Warsztaty – Stworzenie projektu testującego przykładową aplikację

Podstawy Konteneryzacji w Docker i Docker Swarm

Czas trwania – 2 dni

Informacje o szkoleniu
Szkolenie przeznaczone dla programistów, administratorów oraz DevOps-ów interesujących się technologiami opartami o ekosystemy kontenerów. Po szkoleniu uczestnicy będą potrafili budować, uruchamiać oraz zarządzać aplikacjami w kontenerach. Szkolenie ma formę warsztatów.

Dla kogo jest przeznaczone szkolenie?
Dla programistów,
dla administratorów,
dla inżynierów DevOps.

Co należy wiedzieć przed szkoleniem?
Należy posiadać podstawową wiedzę w administrowaniu systemami Linux oraz umiejętność poruszania się po dowolnym CommandLine (np bash).

Zagadnienia
Co to konteneryzacja?
Architektura rozwiązania – Docker
Podstawowe zagadnienia oraz komendy
Sieć i storage
Budowa i zarządzanie obrazami
Docker Compose
Docker Swarm

Tworzenie przepływów CI/CD DevOps przy użyciu Java, Gradle, Maven, Artifactory i Sqitch

Czas trwania – 1 dzień
1. Wprowadzenie
2. Ciągła Integracja/Ciągła Dostawa z Jenkinsem
3. Wprowadzenie do Jenkinsa
4. Przepływy CI/CD  z Jenkinsem i Mavenem
5. Przepływy CI/CD z Jenkins. Gradle, Artifactory
6. Zarządzanie Schematami relacyjnych baz danych z Jenkinsa i Sqitcha
7. Operacyjne uwarunkowania Jenkinsa
8. Podsumowanie
9. Ćwiczenia

Azure – usługi dla developerow

Czas trwania – 2 dni

Informacje o szkoleniu
W trakcie szkolenia uczestnicy poznają usługi związane z wytwarzaniem oprogramowania na podstawie Azure Public Cloud.
Zostaną przedstawione możliwości uruchamiania aplikacji z wykorzystaniem najlepszych praktyk pod względem użytkowania oraz bezpieczeństwa.
W trakcie szkolenia odbędą się również praktyczne warsztaty, na których będzie uruchamiana przykładowa aplikacja.

Dla kogo jest przeznaczone szkolenie?
Dla programistów,
dla administratorów IT
dla DevOps inżynierów interesujących się public cloud i chcących się rozwijać w tej dziedzinie.

Co należy wiedzieć przed szkoleniem?
Podstawowa wiedza związania z programowaniem oraz z możliwościami uruchamiania aplikacji na serwerach.

Zagadnienia
1.Przegląd usług związanych w wytwarzaniem oprogramowania
2.Porównanie możliwości hostowania aplikacji
3.Korzyści wynikające z używania Public Cloud
4.Warsztaty: Uruchomienie przykładowej aplikacji na Azure Cloud
– Konfiguracja CI/CD – Azure DevOps
– Tworzenie i konfiguracja Azure AppService
– Konfiguracja Azure Container Registry
– Wstęp do Azure Kubernetes Services
– Monitoring aplikacji w Azure Cloud