求配置了HadoopHA的情况下,如何如何配置spark
spark吧
全部回复
仅看楼主
level 1
2022年03月01日 14点03分 1
level 11
截图
2022年03月14日 06点03分 2
level 2
类似这种试试:
"defaultFS": "hdfs://hadoopHA",
"hadoopConfig": {
"dfs.nameservices": "hadoopHA",
"dfs.ha.namenodes.hadoopHA": "nn1,nn2",
"dfs.namenode.rpc-address.hadoopHA.nn1": "machineName1:port",
"dfs.namenode.rpc-address.hadoopHA.nn2": "machineName2:port",
"dfs.client.failover.proxy.provider.hadoopHA": "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider"
}
2022年04月21日 01点04分 3
1