Конечные точки служб (Endpoints) Kubernetes используются для подключения к службам, находящимся за пределами кластера. Иногда через функционал служб Kubernetes требуется обеспечить доступ к внешним службам, чтобы она перенаправляла подключения на внешние IP-адреса и порты, что позволяет использовать преимущества и балансировки нагрузки служб и обнаружения служб. Клиентские модули, работающие в кластере, могут подключаться к внешней службе так же, как и к внутренним службам.
Службы (Service) не связываются с модулями напрямую. Вместо этого между ними находится ресурс конечных точек (Endpoints). Ресурс Endpoints – это список IP-адресов и портов, предоставляющих доступ к службе. Ресурс конечных точек похож на любой другой ресурс Kubernetes, поэтому можно вывести его основную информацию с помощью команды kubectl get:
$ kubectl get endpoints kubia
Если создать службу без селектора модулей, то Kubernetes не создаст ресурс конечных точек. Поэтому, необходимо вручную создать ресурсы Service и Endpoints и указать список конечных точек для службы. (далее…)
Служба Kubernetes – это ресурс, который формирует единую постоянную точку входа в группу модулей, предоставляющих одну и туже службу. Каждая служба имеет IP-адрес и порт, которые никогда не меняются до тех пор, пока существует служба. Клиенты могут открывать подключения к этому IP-адресу и порту, а затем маршрутизировать эти подключения в один из модулей, поддерживающих эту службу. Благодаря этому, клиентам службы не требуется знать расположение отдельных модулей, предоставляющих службу, что позволяет перемещать данные модули по кластеру в любое время. Подключения к службе сбалансированы по нагрузке на всех поддерживающих модулях.
Создание службы
Создать службу (т.е создать объект Service) можно с помощью команды kubectl expose или путем отправки YAML на сервер API Kubernetes.
Для того чтобы создать службу с помощью команды, надо сообщить Kubernetes обеспечить доступ к контроллеру репликации:
$ kubectl expose replicationcontroller kubia --type=LoadBalancer --name kubia-http-service "kubia-http" exposed
Команда expose создаст ресурс Service с тем же селектором модуля, что и используемый контроллером репликации, обеспечивая доступ ко всем своим модулям через единый IP-адрес и порт.
(далее…)
Что такое халвинг Bitcoin?
Халвинг (halving) это уполовинивание Bitcoin, оно происходит после добычи каждых 210 000 блоков, или примерно каждые четыре года, уменьшая вдвое количество Bitcoin, вознаграждаемых за проверку одного блока транзакций. Первоначально майнеры получали по 50 BTC за блок перед первым событием сокращения пополам в 2012 году. Таким образом, три последующих сокращения пополам привели к текущему вознаграждению за блок в размере 6,25 Bitcoin. Этот процесс ограничивает предложение Bitcoin, что увеличивает их дефицит и потенциально повышает их стоимость.
Первое сокращение произошло 28 ноября 2012 года, в результате чего майнеры получили 25 BTC за добытый блок. После второго халвинга 9 июля 2016 года вознаграждение было уменьшено до 12,5 BTC за добытый блок. 11 мая 2020 года последнее сокращение вдвое принесло вознаграждение в размере 6,25 BTC, а следующее событие сокращения произойдет в 2024 году. Последующие сокращения будут продолжаться до тех пор, пока последний из 21 миллиона Bitcoin не будет полностью добыт, что, по оценкам, произойдет где-то в 2140 году.
Какова цель халвинга Bitcoin?
Концепция разделения Bitcoin вдвое была введена как часть исходного протокола Bitcoin. В нем воплощена идея дефляционной крипто валюты, используемой в первую очередь для контроля и сокращения предложения новых Bitcoin, поступающих в рыночное обращение. При ограниченном общем объеме поставок BTC никакие организации, правительства, органы власти или центральные банки не могут создавать больше Bitcoin. В результате в игру вступает идея экономики спроса и предложения.
Тем не менее, протокол Bitcoin был разработан таким образом по разным причинам. Давайте рассмотрим некоторые из них. (далее…)
Ресурс Kubernetes Job
Задания (Job) применяются для нерегулярных задач, где важно, чтобы задача закончилась правильно. Примером такого задания может служить хранение данных в каком-либо месте, а также их преобразование и экспорт.
Для определения ресурса Job создайте манифест ресурса Job:
apiVersion: batch/v1
(далее…)
kind: Job
metadata:
name: batch-job
spec:
template:
metadata:
labels:
app: batch-job
spec:
restartPolicy: OnFailure
containers:
– name: main
image: vasya/batch-job
В статье пойдет речь о запуске только одного модуля на каждом узле с помощью набора демонов (DaemonSet).
Наборы реплик (ReplicaSet) используются для запуска определенного количества модулей, развернутых в кластерной инфраструктуре Kubernetes. Но существуют случаи, когда требуется, чтобы модули связанные с обеспечением работы инфраструктуры, выполняющие операции системного уровня работали на каждом узле в кластере. Например, когда требуется на каждом узле запустить сборщик логов или монитор ресурсов. Еще одним хорошим примером является собственный процесс kube-proxy системы Kubernetes, который должен работать на всех узлах, чтобы заставлять службы работать. Наборы демонов (DaemonSet) запускают только одну реплику модуля на каждом узле, в то время как наборы реплик (replicaset) разбрасывают их по всему кластеру случайным образом.
Для запуска модуля на всех узлах кластера создается объект DaemonSet, который похож на объекты ReplicaSet, за исключением того, что модули, созданные набором демонов, уже имеют заданный целевой узел и пропускают планировщик Kubernetes, т.е. они не разбросаны по кластеру случайным образом. Набор демонов гарантированно создает модули по количеству узлов, и разворачивает каждый на своем узле. Падение узла не заставляет объект DaemonSet создавать модуль в другом месте. Но когда новый узел добавляется в кластер, набор демонов немедленно развертывает в нем новый экземпляр модуля.
Объяснение наборов демонов на примере
Развернем демон ssd-monitor, который должен работать на всех узлах, содержащих твердотельный накопитель (SSD). Создадим объект DaemonSet, который запускает этот демон на всех узлах, помеченных как имеющие SSD. Подразумевается, что администраторы кластера добавили метку disk=ssd во все такие узлы, поэтому создадим объект DaemonSet с помощью селектора узлов, который выбирает только узлы с этой меткой.
Создание YAML-определения ресурса DaemonSet (создайте файл с именем ssd-monitor-daemonset.yaml): (далее…)
0