Tento web používá soubory cookie. Dalším používáním webu s tímto souhlasíte.
jméno
heslo
přihlásit
zaregistrujte se
zapomněli jste heslo?
Docker a kontejnery
ALMAD
Docker aneb přístupný provoz kontejnerizovaných aplikací
Docker(Hub), Compose, Swarm, boot2docker, DevOps, LXC, ECS, TumTum a jiné buzzwordy
Bezpečnost v prostředí kontejnerů
Related: automatizace [ Centralizovaná správa stanic a ostatních prvků v síti konfigurace/inventarizace/instalace/aktualizace/zalohovani ]
Máte k tomu co říct? Vložte se do diskuze.
SATAI --- 22:04:15 3.5.2018
Google open sources gVisor, a sandboxed container runtime – TechCrunch
https://techcrunch.com/2018/05/02/google-open-sources-gvisor-a-sandboxed-container-runtime/
MUXX --- 9:01:09 12.4.2018
Dneska Troubleshooting Docker na Packtpubu
Free Learning - Free Programming eBooks | PACKT Books
https://www.packtpub.com/packt/offers/free-learning
RUDOLF --- 1:13:42 7.4.2018
hele, když jsem tady.. Už mi na produkci nějakej měsíc jede swarm mode. tak jen pár zkušeností a postřehů. Jedu na upravený Docker4aws z ofiko docker upstreamu. Je to znažší než kubernetes a snažší se to být jednouchý nástoj, bez zbytečné hloubky. Když jsem si zkoušel Kubernets přes yoyo, tak ten management klastru mi přišel hrozně tlustej. Swarm je tenčí.

a.) Bohužel je reálně potřeba mít 5 manager nodes and nikoliv jen 3. Na AWS v pár případech ty stroje ztratili quorum, když dělal nějakou aktualzici, kde se instance manageru museli nahradit. Je na to na githubu issue - myslím, že to může být specifkum clean up skriptů dodaných s docker4aws.

b.) Občas blbne ingress. Typicky, když jsem měl třeba 3+ replik, najednou v jednom kontejneru na konkrétním stroji nefungovalo service discovery, v jiné replikace na jiném stroji už zase jo. Je na to na githubu issue. U jiný appky jsem narazil, že appka nebyla dostupná na port z každého manager nodu. Tj. občas request na appku selhal.

c.) Docker4aws je dodanej s klascikým LB. Abych se přiznal, moc jsem nepochopil jak z toho klastru provozovat různý appky pod různými domain names. Je tam nějaká magice s propojován ARN domény a portem. Udělal jsem aplikační a network load balancer a target groupy pro každou službu. Důležitý bylo vypnout v cloudformation docker4aws healthchecky u toho defaultního LB, ideálně už při prvním vytvoření LB. Když jsem např. zcela legitimně undeploynul službu běžící na nějakém portu, ASG začal mít pocit, že node je rozbitej a začal zabíjet instance. Protože si mysell že ta služba na daným portu má fachat. V kombinaci s těma trablema, kdy člověk má jen 3 manager nodů, to skončilo ztrátou quora.

asi je toho víc, ale už bych měl jít spát.

oběcně, podobně jako s kubernetes, bych dal přednost managed solution - kde za život klastru má zodpovědnost třetí strana.
RUDOLF --- 0:50:01 7.4.2018
INDIAN: swam chceš pokud máš 3+n (n jsou workery) fyzickejch mašin a chceš aby ti swarm rešil životaběh kontejnerů . Jinak bych šel cestou docker-compose, imho lepší než jet one node swarm.

Nomad neznám.
??? --- 15:18:42 6.4.2018
INDIAN: hashicorp nomad jsem používal i pro složitější věci, ale je minimalistický a jednoduchý. me gusta
MARTEN --- 15:09:40 6.4.2018
INDIAN: Pridavam se k docker-compose. Super jednoduche a neni skoro co se k tomu ucit. Pouzivam to jak k developmentu, tak i na nasazovani nekterych lehcich aplikaci. Na slozitejsi aplikace pak rancher.
HVJ3R --- 10:34:23 6.4.2018
INDIAN, NIXIMOR: presne pro tenhle ucel pouzivame docker-compose a bez problemu. Pro komplexnejsi prikazy a jejich retezeni je to vybavene jeste klasickym makefilem, takze
make cont-name.reboot
= down + up,
make cont-name.refresh
= down + pull + up atd.
NIXIMOR --- 10:05:43 6.4.2018
INDIAN: tak minimalne se budou muset naucit balit a pushovat docker image... a k tomu uz si zapamatovat (nebo nascriptovat) docker-compose pull && docker-compose up -d snad zvladnou :)
INDIAN --- 9:53:11 6.4.2018
DANIELSOFT: jj, nak tak balancuju mezi compose a swarm, zbytek mi pride jako kanon na vrabce, spis mi de ale taky o to, ze kluci maj nulovy zkusenosti a ochota se ucit neco navic je nekde u bodu mrazu.