用户登录
用户注册

分享至

mapreduce 队列

  • 作者: ----27414689
  • 来源: 51数据库
  • 2020-09-23
我知道一点。 文件大小,hadoop默认的是64M,并行执行一方面是多个机器(一般是集群),同一个机器上又可以有多个线程同时执行。 Hadoop适合数据特别大的情况,小数据效率反而降低了。 并行计算涉及到很多方面,比如负载均衡,比如单点故障等



  只能通过jobclient.getalljob()遍历所有job,通过username或者jobid获取对应jobstatus 对未完成的job可以通过jobclient.jobstocomplete()遍历所有未完成的job; 但仍需要通过username或者jobid获取对应得jobstatus。
软件
前端设计
程序设计
Java相关