第一范文网 - 专业文章范例文档资料分享平台

2019年全国职业院校技能大赛赛项规程.doc

来源:用户分享 时间:2025/8/16 11:34:15 本文由loading 分享 下载这篇文档手机版
说明:文章内容仅供预览,部分内容可能不全,需要完整文档或者需要复制内容,请下载word后使用。下载word有问题请添加微信号:xxxxxxx或QQ:xxxxxx 处理(尽可能给您提供完整文档),感谢您的支持与谅解。

谢谢分享

(3)使用inspect -f命令查询容器IP地址。 依次将操作命令及返回结果以文本形式提交到答题框。 4.Dockerfile编写(3分)

以上题构建的centos-7镜像为基础,构建数据库镜像centos-mariadb:v1.0,其要求为:

(1)删除镜像的本地yum源,使用容器server节点的yum源文件; (2)安装mariadb服务,使用mysql用户初始化数据库;

(3)设置MYSQL_USER=xiandian、MYSQL_PASS=xiandian环境变量;

(4)数据库支持中文; (5)暴露3306端口;

(6)启动容器时能自动运行mysld_safe命令。

使用cat命令查看Dockerfile文件并构建镜像。依次将操作命令及返回结果以文本形式提交到答题框。

5.PaaS平台应用商店增加TensorFlow应用(3分)

使用提供的TensorFlow安装包,在PaaS平台应用商店上增加TensorFlow应用,配置完成后,通过页面启动TensorFlow服务并验证。依次将操作命令及返回结果以文本形式提交到答题框。

第四部分:大数据平台(共15分) 任务一、大数据平台搭建(5分)

大数据平台的搭建采用分布式部署,部署在云平台的两台虚拟机上,在云主机1上部署大数据平台master节点,在云主机2上部署大数据平台slaver节点:

云主机1:

谢谢分享

谢谢分享

(1)名称:master;

(2)类型:4CPU、8G内存、100G硬盘; (3)网络1:int-net1,绑定浮动IP。 云主机2: (1)名称:slaver;

(2)类型:4CPU、8G内存、100G硬盘; (3)网络1:int-net1,绑定浮动IP。 1.主机名配置(1分)

使用cat命令查看云主机master和slaver的hosts文件。依次将操作命令及返回结果以文本形式提交到答题框。

2.内存大页配置(1分)

检查云主机master和slaver的内存配置文件,查看Transparent Huge Pages状态。依次将操作命令及返回结果以文本形式提交到答题框。

3.大数据平台环境配置(1分)

检查master节点ambari-server的运行状态,如未启动,则启动ambari-server服务。使用curl命令在Linux Shell中查询http://master:8080界面内容。依次将操作命令及返回结果以文本形式提交到答题框。

4.启动大数据平台(2分)

(1)启动大数据平台并登录http://{master-ip}:8080,用户名:admin,密码:admin;

(2)平台中已经安装了以下服务组件:HDFS、MapReduce2、YARN、Tez、Hive、HBase、Pig、Zookeeper、Mahout。其中master节点Mariadb数据库用户密码配置如表3所示。

表3 数据库用户密码配置表 用户名 密码 root bigdata 谢谢分享

谢谢分享

ambari hive bigdata bigdata 启动平台中安装的HDFS、MapReduce2、YARN、Zookeeper等服务; (3)先后在master节点和slaver节点的Linux Shell中查看Hadoop集群的服务进程信息。

依次将操作命令及返回结果以文本形式提交到答题框。

任务二、大数据平台运维(10分)

1.HDFS管理(2分)

(1)在HDFS文件系统的根目录下创建目录yidaoyun/file; (2)将附件中的BigDataSkills.txt文件上传到yidaoyun/file目录中; (3)查看HDFS中yidaoyun/file目录的文件列表信息;

(4)查询HDFS文件系统中/tmp目录下的目录个数、文件个数和文件总大小。

依次将操作命令及返回结果以文本形式提交到答题框。 2.HBase管理(2分)

登录大数据master节点,新建hbasetest.txt文件,编写内容,要求如下:

(1)新建一张表为'test', 列族为'cf'; (2)向这张表批量插入如下数据; 'row1', 'cf:a', 'value1' 'row2', 'cf:b', 'value2' 'row3', 'cf:c', 'value3' 'row4', 'cf:d', 'value4'

(3)插入数据完毕后用scan命令查询表内容; (4)用get命令只查询row1的内容;

谢谢分享

谢谢分享

(5)最后退出hbase shell。

使用命令运行hbasetest.txt。依次将hbasetest.txt的内容、执行命令和返回结果以文本形式提交到答题框。

3.Spark案例-单词统计(2分)

登录大数据master节点,在root目录下新建一个abc.txt,里面的内容为(单词之间用空格隔开):

hadoop hive solr redis kafka hadoop storm flume sqoop docker spark spark hadoop spark elasticsearch hbase hadoop hive spark hive hadoop spark

登录spark-shell,首先使用命令统计abc.txt的行数,接着对abc.txt文档中的单词进行计数,并按照单词首字母的升序进行排序,最后统计结果行数。依次将操作命令及返回结果以文本形式提交到答题框。

4.Sqoop管理(2分)

使用Sqoop工具查询master节点MySQL中的所有数据库。依次将操作命令及返回结果以文本形式提交到答题框。

5.Ambari平台添加MongoDB Cluster模块(2分)

谢谢分享

谢谢分享

使用提供的MongoDB安装包,在Ambari平台增加服务界面增加MongoDB Cluster模块,配置完成后,在页面添加MongoDB服务并验证。依次将操作命令及返回结果以文本形式提交到答题框。

第五部分:SaaS云应用开发(20分) 任务一、大数据案例开发(12分)

开发环境:Eclipse + JDK + Tomcat + Mysql + MongoDB + HBase +xueqing-client.zip + xueqing-server.zip + xueqing-web.zip。

1.搭建开发环境和导入项目(1分)

检查已安装的MongoDB,HBase,MySQL和岗位网站服务,进行大数据学情应用开发准备:

(1)导入三个MongoDB数据库目录employ,job_internet,question_survey;

(2)导入MySQL的xueqing-client项目的sql文件xueqing-client.sql; 在cmd中登录MongoDB数据库,提交查询所有数据库的截图到答题框。

在cmd中登录MySQL数据库,提交查询所有数据库的截图到答题框。 2.HBase建表操作(1分)

完成xueqing-server中HBase数据库建表,建立job_internet表(列簇为PERCEPT_DATA、RAW_DATA、TAG_DATA)和job_cloud表(列簇为cloud)。提交HBase两个表信息的查询结果截图和代码到答题框。

3.岗位学历需求可视化(2分)

爬取xueqing-web网站所有的岗位信息,对数据进行清洗,统计“云计算”岗位信息,将统计数据保存至MongoDB之中。通过xueqing-client展示云计算岗位学历需求分布图表。将统计图表的网页截图和相关代码提交到答题框。

谢谢分享

2019年全国职业院校技能大赛赛项规程.doc.doc 将本文的Word文档下载到电脑,方便复制、编辑、收藏和打印
本文链接:https://www.diyifanwen.net/c2dkhh2adfx68ub00wtu64vbt01gdo5005is_9.html(转载请注明文章来源)
热门推荐
Copyright © 2012-2023 第一范文网 版权所有 免责声明 | 联系我们
声明 :本网站尊重并保护知识产权,根据《信息网络传播权保护条例》,如果我们转载的作品侵犯了您的权利,请在一个月内通知我们,我们会及时删除。
客服QQ:xxxxxx 邮箱:xxxxxx@qq.com
渝ICP备2023013149号
Top