谢谢分享
(3)使用inspect -f命令查询容器IP地址。 依次将操作命令及返回结果以文本形式提交到答题框。 4.Dockerfile编写(3分)
以上题构建的centos-7镜像为基础,构建数据库镜像centos-mariadb:v1.0,其要求为:
(1)删除镜像的本地yum源,使用容器server节点的yum源文件; (2)安装mariadb服务,使用mysql用户初始化数据库;
(3)设置MYSQL_USER=xiandian、MYSQL_PASS=xiandian环境变量;
(4)数据库支持中文; (5)暴露3306端口;
(6)启动容器时能自动运行mysld_safe命令。
使用cat命令查看Dockerfile文件并构建镜像。依次将操作命令及返回结果以文本形式提交到答题框。
5.PaaS平台应用商店增加TensorFlow应用(3分)
使用提供的TensorFlow安装包,在PaaS平台应用商店上增加TensorFlow应用,配置完成后,通过页面启动TensorFlow服务并验证。依次将操作命令及返回结果以文本形式提交到答题框。
第四部分:大数据平台(共15分) 任务一、大数据平台搭建(5分)
大数据平台的搭建采用分布式部署,部署在云平台的两台虚拟机上,在云主机1上部署大数据平台master节点,在云主机2上部署大数据平台slaver节点:
云主机1:
谢谢分享
谢谢分享
(1)名称:master;
(2)类型:4CPU、8G内存、100G硬盘; (3)网络1:int-net1,绑定浮动IP。 云主机2: (1)名称:slaver;
(2)类型:4CPU、8G内存、100G硬盘; (3)网络1:int-net1,绑定浮动IP。 1.主机名配置(1分)
使用cat命令查看云主机master和slaver的hosts文件。依次将操作命令及返回结果以文本形式提交到答题框。
2.内存大页配置(1分)
检查云主机master和slaver的内存配置文件,查看Transparent Huge Pages状态。依次将操作命令及返回结果以文本形式提交到答题框。
3.大数据平台环境配置(1分)
检查master节点ambari-server的运行状态,如未启动,则启动ambari-server服务。使用curl命令在Linux Shell中查询http://master:8080界面内容。依次将操作命令及返回结果以文本形式提交到答题框。
4.启动大数据平台(2分)
(1)启动大数据平台并登录http://{master-ip}:8080,用户名:admin,密码:admin;
(2)平台中已经安装了以下服务组件:HDFS、MapReduce2、YARN、Tez、Hive、HBase、Pig、Zookeeper、Mahout。其中master节点Mariadb数据库用户密码配置如表3所示。
表3 数据库用户密码配置表 用户名 密码 root bigdata 谢谢分享
谢谢分享
ambari hive bigdata bigdata 启动平台中安装的HDFS、MapReduce2、YARN、Zookeeper等服务; (3)先后在master节点和slaver节点的Linux Shell中查看Hadoop集群的服务进程信息。
依次将操作命令及返回结果以文本形式提交到答题框。
任务二、大数据平台运维(10分)
1.HDFS管理(2分)
(1)在HDFS文件系统的根目录下创建目录yidaoyun/file; (2)将附件中的BigDataSkills.txt文件上传到yidaoyun/file目录中; (3)查看HDFS中yidaoyun/file目录的文件列表信息;
(4)查询HDFS文件系统中/tmp目录下的目录个数、文件个数和文件总大小。
依次将操作命令及返回结果以文本形式提交到答题框。 2.HBase管理(2分)
登录大数据master节点,新建hbasetest.txt文件,编写内容,要求如下:
(1)新建一张表为'test', 列族为'cf'; (2)向这张表批量插入如下数据; 'row1', 'cf:a', 'value1' 'row2', 'cf:b', 'value2' 'row3', 'cf:c', 'value3' 'row4', 'cf:d', 'value4'
(3)插入数据完毕后用scan命令查询表内容; (4)用get命令只查询row1的内容;
谢谢分享
谢谢分享
(5)最后退出hbase shell。
使用命令运行hbasetest.txt。依次将hbasetest.txt的内容、执行命令和返回结果以文本形式提交到答题框。
3.Spark案例-单词统计(2分)
登录大数据master节点,在root目录下新建一个abc.txt,里面的内容为(单词之间用空格隔开):
hadoop hive solr redis kafka hadoop storm flume sqoop docker spark spark hadoop spark elasticsearch hbase hadoop hive spark hive hadoop spark
登录spark-shell,首先使用命令统计abc.txt的行数,接着对abc.txt文档中的单词进行计数,并按照单词首字母的升序进行排序,最后统计结果行数。依次将操作命令及返回结果以文本形式提交到答题框。
4.Sqoop管理(2分)
使用Sqoop工具查询master节点MySQL中的所有数据库。依次将操作命令及返回结果以文本形式提交到答题框。
5.Ambari平台添加MongoDB Cluster模块(2分)
谢谢分享
谢谢分享
使用提供的MongoDB安装包,在Ambari平台增加服务界面增加MongoDB Cluster模块,配置完成后,在页面添加MongoDB服务并验证。依次将操作命令及返回结果以文本形式提交到答题框。
第五部分:SaaS云应用开发(20分) 任务一、大数据案例开发(12分)
开发环境:Eclipse + JDK + Tomcat + Mysql + MongoDB + HBase +xueqing-client.zip + xueqing-server.zip + xueqing-web.zip。
1.搭建开发环境和导入项目(1分)
检查已安装的MongoDB,HBase,MySQL和岗位网站服务,进行大数据学情应用开发准备:
(1)导入三个MongoDB数据库目录employ,job_internet,question_survey;
(2)导入MySQL的xueqing-client项目的sql文件xueqing-client.sql; 在cmd中登录MongoDB数据库,提交查询所有数据库的截图到答题框。
在cmd中登录MySQL数据库,提交查询所有数据库的截图到答题框。 2.HBase建表操作(1分)
完成xueqing-server中HBase数据库建表,建立job_internet表(列簇为PERCEPT_DATA、RAW_DATA、TAG_DATA)和job_cloud表(列簇为cloud)。提交HBase两个表信息的查询结果截图和代码到答题框。
3.岗位学历需求可视化(2分)
爬取xueqing-web网站所有的岗位信息,对数据进行清洗,统计“云计算”岗位信息,将统计数据保存至MongoDB之中。通过xueqing-client展示云计算岗位学历需求分布图表。将统计图表的网页截图和相关代码提交到答题框。
谢谢分享
相关推荐: