当前位置: 首页 > news >正文

空间商网站宣传片制作公司费用

空间商网站,宣传片制作公司费用,做的比较好的车载嗨曲网站,网站正在维护中啥意思目录 1. 说明 2. 服务器规划 3. 步骤 3.1 要点 3.2 配置文件 3.2 访问Spark Master 4. 使用测试 5. 参考 1. 说明 以docker容器方式实现apache spark计算集群#xff0c;能灵活的增减配置与worker数目。 2. 服务器规划 服务器 (1master, 3workers) ip开放端口备注ce…目录 1. 说明 2. 服务器规划 3. 步骤 3.1 要点 3.2 配置文件 3.2 访问Spark Master 4. 使用测试 5. 参考 1. 说明 以docker容器方式实现apache spark计算集群能灵活的增减配置与worker数目。 2. 服务器规划 服务器 (1master, 3workers) ip开放端口备注center01.dev.sb172.16.20.208080,7077 硬件配置32核64G 软件配置ubuntu22.04 宝塔面板 host001.dev.sb172.16.20.608081,70778核16Ghost002.dev.sb172.16.20.618081,7077...BEN-ZX-GZ-MH172.16.1.106应用服务发任务机器 3. 步骤 3.1 要点 worker节点的网络模式用host不然spark ui页面中获取的路径会是容器ip里面的链接变得不可访问测试前需保证任务发布机与Worker机的运行语言版本一致(如: 同是python10 / python12)否则会报错 Python in worker has different version (3, 12) than that in driver 3.10。确保发任务机器能被Worker节点访问否则会出现诸如:  WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources 等莫名其妙的错误观察工作机错误日志 Caused by: java.io.IOException: Failed to connect to BEN-ZX-GZ-MH/unresolved:10027 由于访问不了发任务机器而导致的目前采取的解决方法是在配置里写死映射IP 3.2 配置文件 docker-compose.spark-master.yml services:spark:image: docker.io/bitnami/spark:latestcontainer_name: spark-masterrestart: alwaysenvironment:- SPARK_MODEmaster- SPARK_RPC_AUTHENTICATION_ENABLEDno- SPARK_RPC_ENCRYPTION_ENABLEDno- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLEDno- SPARK_SSL_ENABLEDno- SPARK_USERsparkports:- 8080:8080- 7077:7077 docker-compose.spark-worker.yml services:spark-worker:image: docker.io/bitnami/spark:latestcontainer_name: spark-workerrestart: alwaysenvironment:- SPARK_MODEworker- SPARK_MASTER_URLspark://spark-master:7077- SPARK_WORKER_MEMORY2G- SPARK_WORKER_CORES2- SPARK_RPC_AUTHENTICATION_ENABLEDno- SPARK_RPC_ENCRYPTION_ENABLEDno- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLEDno- SPARK_SSL_ENABLEDno- SPARK_USERsparkports:- 8081:8081- 7077:7077extra_hosts:- spark-master:172.16.20.20- BEN-ZX-GZ-MH:172.16.1.106network_mode: host 3.2 访问Spark Master 访问Spark Master可见已有两台worker机可供驱使 4. 使用测试 t3.py from pyspark.sql import SparkSessiondef main():# Initialize SparkSessionspark (SparkSession.builder.appName(HelloSpark) # type: ignore.master(spark://center01.dev.sb:7077).config(spark.executor.memory, 512m).config(spark.cores.max, 1)# .config(spark.driver.bindAddress, center01.dev.sb).getOrCreate())# Create an RDD containing numbers from 1 to 10numbers_rdd spark.sparkContext.parallelize(range(1, 11))# Count the elements in the RDDcount numbers_rdd.count()print(fCount of numbers from 1 to 10 is: {count})# Stop the SparkSessionspark.stop()if __name__ __main__:main()运行监控  结果 5. 参考 - containers/bitnami/spark at main · bitnami/containers · GitHub
http://www.hkea.cn/news/14394358/

相关文章:

  • 丹江口网站建设世界500强企业排名
  • 网络课程网站模板个人养老金制度的利弊
  • 蚌埠的网站建设郑州最新发布信息
  • 建设vip网站相关视频网站访问不了的原因
  • 做任务有q币的网站wordpress 密码看贴
  • 手机 网站服务器珠海网站建设推广方案
  • 建立网站要准备多少钱最新新闻热点事件英语
  • php网站 服务器明企科技网站建设系统
  • 都有哪些做二手挖机的网站网页 调用 wordpress
  • 云建站的步骤怎么查icp备案号
  • 网站2个页面做首页南昌网站seo公司
  • 犀浦网站建设国外购物网站赏析
  • 修改wordpress密码seo超级外链发布
  • 上海做運動网站的公司wordpress 根据权限获取用户信息
  • 建设银行官方网站购房贷款利率wordpress谷歌网站地图
  • 企业网站案例公司手机网站被做跳转
  • 网站开发设置用户小型logo设计
  • 好品质自适应网站建设外贸 国外推广网站
  • 千图网解析网站怎么做wordpress微信机器人高级版
  • 惠州模板做网站网站链接是什么
  • 维港豪宅项目网站建设h5 网站建设
  • 国内最好的网站建设公司网站页面术语
  • 网站开发和浏览器兼容问题网站外的seo
  • 公司做网站要企业认证网络科技公司取名
  • 做响应式网站价格wordpress悬浮工具
  • 苏州网站推广找苏州梦易行旅游网页图片
  • c s网站开发模式做网站 写文章怎样加视频
  • 网站制作要用哪些软件营销技巧五步推销法
  • 招商加盟网站模板html设计交流网站
  • aso.net 网站开发淘宝网网页版官网