helm repo add spark-operator https://googlecloudplatform.github.io/spark-on-k8s-operator helm pull spark-operator kubectl create namespace spark-job helm install my-spark spark-operator \ --namespace spark-operator ❯ kubectl get pod -n spark-operator NAME READY STATUS RESTARTS metadata: annotations: meta.helm.sh/release-name: my-spark meta.helm.sh/release-namespace: spark-operator metadata: annotations: meta.helm.sh/release-name: my-spark meta.helm.sh/release-namespace: spark-operator
修改 spark-operator webhook 源码,添加了 ObjectSelector,保证只有 Spark 的 Pod 会被发送到 /webhook。
passwd ]] + echo '185:x:185:0:anonymous uid:/opt/spark:/bin/false' + exec /usr/bin/tini -s -- /usr/bin/spark-operator
云原生批量计算项目-Volcano CNCF Volcano 总览 统一的作业管理 提供完善作业生命周期管理,统一支持几乎所有主流的计算框架,如pytorch,MPI,Horovod,Tensorflow,spark-operator
Operator Custom Resources(自定义资源) 是 K8s 得以成功的关键因素之一 使 K8s 的 API 可以得到第三方扩展,例如 Spark 利用 Custom Resources 创建了 Spark-Operator
Spark作业调度 Spark项目同样有开源的spark-operator来解决其在Kubernetes上的编排问题,之所以Spark可以实现在Kubernetes上的运行,是因为Spark社区从2.3 但无论原生Spark对接Kubernetes的方式还是spark-operator部署Spark作业的方式,都和TensorFlow有相似的资源等待造成资源死锁或者浪费的问题。
storage.googleapis.com/kubernetes-charts-incubator helm install incubator/sparkoperator --namespace spark-operator
使用 gcr.io/spark-operator/spark-py:v3.0.0-hadoop3 镜像作为起点,我们添加了以下 jar:hadoop-aws-3.1.0.jar 和 aws-java-sdk-bundle
而目前很多 AI 和大数据的业务也在积极的向 Kubernetes 靠拢,例如开源机器学习平台 Kubeflow;大数据计算框架 Spark 也推出 Spark-operator 以满足基于 Kubernetes
而目前很多 AI 和大数据的业务也在积极的向 Kubernetes 靠拢,例如开源机器学习平台 Kubeflow;大数据计算框架 Spark 也推出 Spark-operator 以满足基于 Kubernetes
而目前很多 AI 和大数据的业务也在积极的向 Kubernetes 靠拢,例如开源机器学习平台 Kubeflow;大数据计算框架 Spark 也推出 Spark-operator 以满足基于 Kubernetes
第四,大数据,我们做了 spark-operator、YARN-operator、flink-operator、trino-operator,将 YARN 跑在 K8S 上,再通过 YARN 来调度整个大数据