【Spark编程基础】

大数据技术概述

1.1 大数据时代

1.1.1第三次信息化浪潮

  • 根据IBM前首席执行官郭士纳的观点,IT领域每隔十五年就会迎来一次重大变革
    在这里插入图片描述

1.1.2信息科技为大数据时代提供技术支撑

    1. 存储设备容量不断增加
    1. CPU处理能力大幅提升
    1. 网络带宽不断增加

1.1.3数据产生方式的变革促成大数据时代的来临

在这里插入图片描述

1.2 大数据概念

在这里插入图片描述

1.2.1 数据量大

  • 根据IDC作出的估测,数据一直都在以每年50%的速度增长,也就是说每两年就增长一倍(大数据摩尔定律)(已失效)
  • 人类在最近两年产生的数据量相当于之前产生的全部数据量
  • 预计到2020年,全球将总共拥有35ZB的数据量,相较于2010年,数据量将增长近30倍

1.2.2 数据类型繁多

  • 大数据是由结构化和非结构化数据组成的
    • 10%的结构化数据,存储在数据库中
    • 90%的非结构化数据,它们与人类信息密切相关
  • 应用:
    • 科学研究:基因组;LHC 加速器;地球与空间探测
    • 企业应用:Email、文档、文件;应用日志;交易记录
    • Web 1.0数据:文本、图像、视频
    • Web 2.0数据:查询日志/点击流、Twitter/ Blog / SNS、Wiki

1.2.3 处理速度快

  • 从数据的生成到消耗,时间窗口非常小,可用于生成决策的时间非常少
  • 1秒定律:这一点也是和传统的数据挖掘技术有着本质的不同

1.2.4 价值密度低

  • 价值密度低,商业价值高
  • 以视频为例,连续不间断监控过程中,可能有用的数据仅仅有一两秒,但是具有很高的商业价值

1.3 大数据的影响

  • 图灵奖获得者、著名数据库专家Jim Gray 博士观察并总结人类自古以来,在科学研究上,先后历经了实验、理论、计算和数据四种范式
  • 在思维方式方面,大数据完全颠覆了传统的思维方式:
    • 全样而非抽样
    • 效率而非精确
    • 相关而非因果

1.4 大数据关键技术

在这里插入图片描述

  • 两大核心技术
    在这里插入图片描述

1.5 大数据计算模式

  • 大数据计算模式及其代表产品
    在这里插入图片描述

1.6 代表性大数据技术

1.6.1 Hadoop

  • Hadoop

    • Hadoop生态系统
      在这里插入图片描述
  • Hadoop - MapReduce

    • MapReduce将复杂的、运行于大规模集群上的并行计算过程高度地抽象到了两个函数:Map和Reduce
    • 编程容易,不需要掌握分布式并行编程细节,也可以很容易把自己的程序运行在分布式系统上,完成海量数据的计算
    • MapReduce采用“分而治之”策略,一个存储在分布式文件系统中的大规模数据集,会被切分成许多独立的分片(split),这些分片可以被多个Map任务并行处理
    • MapReduce工作流程:
      在这里插入图片描述
  • Hadoop - YARN

    • YARN的目标就是实现“一个集群多个框架”
    • 一个企业当中同时存在各种不同的业务应用场景,需要采用不同的计算框架
      • MapReduce实现离线批处理
      • 使用Impala实现实时交互式查询分析
      • 使用Storm实现流式数据实时分析
      • 使用Spark实现迭代计算
    • 这些产品通常来自不同的开发团队,具有各自的资源调度管理机制
    • 为避免不同类型应用之间互相干扰,企业把内部的服务器拆分成多个集群,分别安装运行不同的计算框架,即“一个框架一个集群”
    • 导致问题:
      • 集群资源利用率低
      • 数据无法共享
      • 维护代价高
    • YARN的目标就是实现“一个集群多个框架”,即在一个集群上部署一个统一的资源调度管理框架YARN,在YARN之上可以部署其他各种计算框架
    • 由YARN为这些计算框架提供统一的资源调度管理服务,并且能够根据各种计算框架的负载需求,调整各自占用的资源,实现集群资源共享和资源弹性收缩
    • 可以实现一个集群上的不同应用负载混搭,有效提高了集群的利用率
    • 不同计算框架可以共享底层存储,避免了数据集跨集群移动
  • 在YARN上部署各种计算框架
    在这里插入图片描述

1.6.2 Spark

  • Spark架构图
    在这里插入图片描述
  • Spark生态系统
    在这里插入图片描述

1.6.3 Flink

1.6.4 Beam


第2章 Spark设计与运行原理

2.1 Spark概述

2.1.1 Spark简介

  • Spark特点:运行速度快、容易使用、通用性、运行模式多样

2.1.2 Spark与Hadoop对比

  • Hadoop存在的缺点:
    • 表达能力有限
    • 磁盘IO开销大
    • 延迟高
  • Spark优点:
    • 编程模型更灵活
    • 迭代运算效率更高
    • 任务调度机制更优

2.2 Spark生态系统

  • 大数据处理包括三个类型:
    • 复杂的批量数据处理
    • 基于历史数据的交互式查询
    • 基于实时数据流的数据处理
  • 带来的问题:
    • 数据转换
    • 成本
    • 资源调配
  • Spark生态系统
    • Spark设计遵循理念:一个软件栈满足不同应用场景
    • 提供内存计算框架,支持:SQL即席查询、实时流式计算、机器学习、图计算
    • Spark可部署在资源管理器YARN之上,提供一站式大数据解决方案
    • Spark生态系统支持 批处理、交互式查询、流数据处理

2.3 Spark运行架构

2.3.1 基本概念

2.3.2 架构设计

2.3.3 Spark运行基本流程

2.3.4 RDD设计与运行原理

2.4 Spark的部署方式


第3章 Spark环境搭建和使用方法

3.1 安装Spark

3.1.1 基础环境

  • 虚拟机:Ubuntu 22.04
  • 【 Hadoop的安装参考「hadoop docs」】(特别是遇到错误问题)
  • 机器命名 hadoop 1 2 3, master, slaver 1 2 3
  • 安装 JDK17 / JDK11 / JDK8。建议采用 apt 或者 yum 方式,并在 .bashrc 或者 .profile 中正确配置 JAVA_HOME 变量
  • 统一修改 hosts文件,使用 scp 传送到各台机器
  • 安装权限,放置在同一用户的家目录下(全权权限)
    • 家(home)目录:~/
    • 生产环境:运维部署指引
  • 配置免密登录,方便各台机器切换。 ssh-copy-id
  • 所有配置文件都在 etc/hadoop 下,配置包括:
    • hadoop-env.sh > JAVA_HOME
    • core-site.xml > hdfs地址
    • hdfs-site.xml > Namenode节点地址,注意 http:// , replication
    • yarn-site.xml > resourcemanage地址
    • Mapred-site.xml > 启用yarn
  • 所有配置文件修改好,测试之后,再分发到从属机器(scp命令) 所有配置 master → slaver
  • 【 问题指引 】
    • HDFS问题:
      • hdfs
      • 多次执行 format操作, 导致id不一致

3.1.2 下载安装文件

  • ~~解压安装至路径 /usr/local ~~
  • 可以直接解压到家目录下,无需修改权限

3.1.3 配置相关文件

  • 配置 Spark 的 classpath ( 建议显示配置 )

3.1.4 Spark 和 Hadoop 的交互

  • Spark 部署模式包括:
    • Local 模式:本地工作模式
    • Standalong 模式:
    • YARN 模式:使用 YARN 作为 集群管理器
    • Mesos 模式:使用 Mesos 作为 集群管理器

3.2 在 PySpark 中运行代码

3.2.1 PySpark 命令

  • pyspark命令机器常用参数:pyspark --master < master-url >
  • Spark运行模式取决于传递给 SparkContext 的 Master URL 的值。Master URL可以是以下任意模式

3.3 开发 Spark 独立应用程序

3.3.1 安装编译打包工具

  • WordCount.py

3.4 Spark集群环境搭建

3.5 在集群上运行Spark应用陈旭

3.5.1 启动Spark集群

3.5.2 采用独立集群管理器

  • 在集群运行应用程序
    • 向独立集群管理器提交应用,7077作为主节点参数递给spark-submit
    • 运行自带样例程序SparkPi
  • 在集群中运行pyspark

3.5.3 采用Hadoop YARN管理器

  • 集群中运行应用程序
    • 向Hadoop YARN集群管理器提交应用,yarn-client或—作为主节点
    • 复制结果地址
  • 在集群中运行pyspark
  • Tips:
    • 在yarn节点上运行SPARK需要设置
    • spark
      • 将spark/jars 中的 jar包 上传到 hdfs 上的 sparkJars 中
      • 在 spark-default.conf 中设置
      • spark.yarn.jars hdfs://namenodeip:9000/sparkjars/*.jar

第4章 RDD编程

4.1 RDD编程基础

4.1.1 RDD创建

  • 从文件系统中加载数据创建RDD
    在这里插入图片描述

    • 从本地文件系统中加载数据创建RDD
      在这里插入图片描述
    • 从分布式文件系统HDFS中加载数据在这里插入图片描述
  • 通过并行集合(列表)创建RDD
    在这里插入图片描述

4.1.2 RDD操作

  • 转换操作
    在这里插入图片描述

    • fileter(func):
      在这里插入图片描述

    • map(func):
      在这里插入图片描述
      在这里插入图片描述

    • flatMap(func):
      在这里插入图片描述

    • groupByKey():

    • reduceByKey():

  • 行动操作

  • 惰性机制

4.1.3 持续化

4.1.4 分区

4.1.5 一个综合案例

4.2 键值对RDD

4.3 数据读写

4.3.1 文件数据读写

  • 本地文件系统的数据读写
    • 从文件中读取数据创建RDD
      在这里插入图片描述
    • 把RDD写入到文本文件中
      在这里插入图片描述
  • 分布式文件系统HDFS的数据读写
    在这里插入图片描述

4.3.2 读写HBase数据

  • HBase 简介

    • Hbase是Google BigTable的开源实现
    • 稀疏、多维度、排序的映射表
    • 每个值是一个未经解释的字符串,没有数据类型
    • 每一行有一个可排序的行间和任意多的列
    • 列族支持动态扩展,所有列均以字符串形式存储
    • 更新操作不会删除旧版本,而是生成新版本
    • 表:
    • 列族:
    • 列限定符:
    • 单元格:
    • 时间戳:
    • 概念视图
    • 物理视图
      • 列族横向拓展
        在这里插入图片描述
        在这里插入图片描述
  • 创建一个HBase表

    • 启动
      在这里插入图片描述

    • 创建、录入信息
      在这里插入图片描述

  • 配置Spark
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

  • 编写程序读取HBase
    在这里插入图片描述
    在这里插入图片描述

  • 编写程序向HBase写入数据
    在这里插入图片描述
    在这里插入图片描述

4.4 综合案例

Tip of SparkPython
  • 什么时候使用RDD
  • DataFrame

4.4.1 案例1:求TOP值

  • 任务描述

4.4.2 案例2:文件排序

4.4.3 案例3:二次排序

spark编程基础
04-08 665
spark编程基础
Spark核心编程
qq_50231389的博客
04-02 2737
Spark核心编程1.1 RDD1.1.1 什么是 RDD1.1.2 核心属性1.1.3 执行原理1.1.4 基本编程1.1.4.1 RDD创建1.1.4.2 RDD 并行度与分区1.1.4.3 RDD 转换算子 Spark 计算框架为了能够进行高并发和高吞吐的数据处理,封装了三大数据结构,用于 处理不同的应用场景。三大数据结构分别是: ➢ RDD : 弹性分布式数据集 ➢ 累加器:分布式共享只写变量 ➢ 广播变量:分布式共享只读变量 接下来我们一起看看这三大数据结构是如何在数据处理中使用的。 1.1 RD
Spark3.4.0入门-连接Hive读写数据(DataFrame)
最新发布
个人博客地址为https://elikgrade.gitee.io/
04-23 1313
title: Spark3.4.0入门-连接Hive读写数据(DataFrame)description: 大数据spark学习imageSlimsticky: 1。
Spark编程基础】实验一Spark编程初级实践(附源代码)
a1234567822的博客
03-10 1363
Line 类的第一个参数表示其位置,第二个参数表示另一个端点,Line 放缩的时候,其中点位置不变,长度按倍数放缩(注意,缩放时,其两个端点信息也改变了),另外,Line 的 move 行为影响了另一个端点,需要对move 方法进行重载。Circle 类第一个参数表示其圆心,也是其位置,另一个参数表示其半径,Circle 缩放的时候,位置参数不变,半径按倍数缩放。给定任何一个如上格式的清单(不同清单里课程数量可能不一样),要求尽可能采用函 数式编程,统计出各门课程的平均成绩,最低成绩,和最高成绩;
Spark
weixin_46579297的博客
05-27 1074
1.Spark架构设计 1.1架构设计图 1.2 相关术语名词解释 1、RDD(Resillient Distributed DataSet) 弹性分布式数据集,是对数据集在Spark存储和计算过程中的一种抽象 是一组制度,可分区的分布式数据集和 一个RDD包含多个分区Partition(相当于MapReduce中的INputSplit),分区是依照一定的规则的,将具有相同规则的属性的数据记录放在一起 横向上课切分并行计算,以分区Partition为切分后的最小存储和计算单元。 纵向上可
Spark【RDD编程(四)综合案例】
m0_64261982的博客
09-07 864
Spark RDD编程综合案例
Spark编程基础(Python版).rar
05-06
Spark编程基础(Python版).rar
Spark编程基础及项目实践》课后习题及答案4.pdf
04-04
Spark编程基础及项目实践》课后习题及答案4.pdf《Spark编程基础及项目实践》课后习题及答案4.pdf《Spark编程基础及项目实践》课后习题及答案4.pdf《Spark编程基础及项目实践》课后习题及答案4.pdf《Spark编程基础...
Spark编程基础及项目实践》课后习题及答案3.pdf
04-04
Spark编程基础及项目实践》课后习题及答案3.pdf《Spark编程基础及项目实践》课后习题及答案3.pdf《Spark编程基础及项目实践》课后习题及答案3.pdf《Spark编程基础及项目实践》课后习题及答案3.pdf《Spark编程基础...
Spark编程基础及项目实践》试卷及答案2套.pdf
04-04
Spark编程基础及项目实践》试卷及答案2套.pdf《Spark编程基础及项目实践》试卷及答案2套.pdf《Spark编程基础及项目实践》试卷及答案2套.pdf《Spark编程基础及项目实践》试卷及答案2套.pdf《Spark编程基础及项目...
Spark编程基础及项目实践》课后习题及答案7.pdf
04-04
Spark编程基础及项目实践》课后习题及答案7.pdf《Spark编程基础及项目实践》课后习题及答案7.pdf《Spark编程基础及项目实践》课后习题及答案7.pdf《Spark编程基础及项目实践》课后习题及答案7.pdf《Spark编程基础...
Spark 编程基础》 教材讲义 厦门大学 林子雨
04-03
Spark 编程基础 》 教材讲义 厦门大学计算机科学系 林子雨 PPT 版本号:2018 年1月
Spark初级入门——Spark编程基础(二)
05-10
Spark初级入门视频教程,该课程主要包括RDD的依赖关系、RDD的生命周期、RDD transformation操作。详细讲解transformation函数的使用,方法。
Spark 3.4.0新特性--UI支持存储在RocksDB中
monkeyboy_tech的博客
07-01 1016
来说,目前存储所有的事件信息以及UI所需要的信息都是默认存储在内存中,这在CS中,对于以。作为存储以后,能够减少driver所需内存,并且引进新的。数据结构为InMemoryStore。能够大大加快spark事件的读写事件。Spark UI和SHS。
保姆级丨Spark环境搭建
尼泊罗河伯的博客
07-31 2131
Apache Spark 是一种用于大数据工作负载的分布式开源处理系统。它使用内存中缓存和优化的查询执行方式,可针对任何规模的数据进行快速分析查询。
Spark 常用编程技巧
fansy1990的专栏
10-13 2051
Spark 常用编程技巧 Spark Version : 2.2.0 1. 基础篇 1.1 Scala 篇 求均值 描述: 求一个Double类型的均值,含有NaN类型(去掉NaN后求均值); scala&amp;gt; val data = Array(1,2,3.0) data: Array[Double] = Array(1.0, 2.0, 3.0) scala&amp;gt; def sum_num...
Spark:The Definitive Guide--读书小结(四)
Java_Man_China的博客
10-31 262
个人读后小结,如有不对,欢迎批评指正前言第Ⅰ部分 大数据与Spark概述第Ⅱ部分 结构化API--DataFrame、SQL和Dataset第Ⅲ部分 低级API第Ⅳ部分 生产与应用第Ⅴ部分 流处理第Ⅵ部分 高级分析与机器学习第Ⅶ部分 生态系统 前言 大概花了一个月(2020-09~2020-10)左右的时间,看完了整本书。笔者毕业后,主要从事机器学习、数据挖掘方向的相关工作。由于Spark作为目前主流的分布式计算引擎,个人也一直在用Spark进行相关的数据分析与建模工作。通读全书,感觉比较适合入门级学习,主
2、Spark基本工作原理与RDD
weixin_30693683的博客
06-24 111
一、基本工作原理 1、特点 分布式; 主要是基于内存(少数情况基于磁盘); spark与,MapReduce最大的不同在于迭代式计算; MR分为两个阶段,map和reduce,两个阶段完了,job就结束了,所以我们在一个job里能做的处理很有限,只能是在map和reduce里处理; spark计算模型,可以分为n个阶段,因为它是内存迭代式的,我们在处理完一个阶段以后...
Spark工作原理及基础概念(超详细!)
热门推荐
蔡政洁的博客
11-24 3万+
目录一、Spark概述(1)概述(2)Spark整体架构(3)Spark特性(4)Spark与MR(5)Spark Streaming与Storm(6)Spark SQL与Hive二、Spark基本原理(1)Spark Core(2)Spark SQL(3)Spark Streaming(4)Spark基本工作原理(1)分布式数据集(2)弹性(3)迭代式处理(4)容错性三、Spark 运行模式及集群角色(1)Spark运行模式(2)Spark集群角色(1)Cluster Manager(2)worker(3
Spark 编程实践实验结论
06-07
Spark 编程实践实验结论可能因实验内容和环境不同而有所差异,下面是一些可能的结论: 1. Spark 可以处理大规模数据并且具有良好的性能:Spark 的分布式计算能力和内存计算模型可以使其在处理大规模数据时具有很好的性能表现。 2. Spark SQL 可以实现 SQL 查询和数据分析:通过 Spark SQL,可以将结构化数据加载到 Spark 中进行查询和分析,这使得 Spark 不仅可以处理大规模数据,还可以处理结构化数据。 3. 数据缓存可以显著提高处理速度:通过对常用数据进行缓存,可以避免重复计算和读取,从而显著提高处理速度。 4. 使用适当的存储格式可以提高读写速度:使用 Parquet 或 ORC 等列式存储格式可以大大提高读写速度,尤其是在处理大规模数据时。 5. Spark Streaming 可以实现实时数据处理:通过 Spark Streaming,可以将实时数据加载到 Spark 中进行处理,这使得 Spark 可以用于实时数据处理的场景。 6. Spark MLlib 可以实现机器学习任务:通过 Spark MLlib,可以实现常见的机器学习任务,例如分类、回归、聚类等。 7. Spark 可以与其他技术集成使用:Spark 支持与 Hadoop、Kafka、Cassandra 等其他技术集成使用,从而实现更为丰富的应用场景。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • 【Spark】实验四:SparkStreaming编程初级实践 65912
  • 【软件工程】作业3 11229
  • 英语六级过关技巧 6374
  • 【数据可视化】大作业(意向考研高校的数据可视化) 6262
  • 【Spark】实验6 Spark机器学习库MLlib编程实践 4794

分类专栏

  • 【数据库】 1篇
  • IBMDB2
  • MySQL 2篇
  • GaussDB 1篇
  • 【JAVA开发】
  • JavaEE 8篇
  • 考研 3篇
  • 【数据结构】 4篇
  • 【计算机网络】 2篇
  • 【计算机组成原理】 8篇
  • 【杂谈】 6篇
  • 回收站
  • 【数据科学与大数据技术】 31篇
  • 【作业分享交流】 38篇
  • 【软件开发】 5篇
  • 【大数据开发】 5篇
  • 【人工智能】 1篇

最新评论

  • 【大数据处理技术】「#4」利用Spark预测回头客行为

    小手の冰凉: 可能的解决方法: 1. 修改文件路径读写权限,sudo chmod 777 - R [ path ] 2. MySQL等相关服务未启动,启动mysql服务

  • 【大数据处理技术】「#4」利用Spark预测回头客行为

    小手の冰凉: 这个项目重点放在如何在虚拟机中部署,对于模型没有深入理解,你的问题我无法解答

  • 英语六级过关技巧

    小手の冰凉: 祝你六级顺利通过

  • 【线性回归、岭回归、Lasso回归分别预测患者糖尿病病情】数据挖掘实验一

    小手の冰凉: 如果你是我的学弟或学妹,数据集应该在老师发的选题文件里,按住ctrl点击数据集图片会跳转到相应数据集文件

  • 【线性回归、岭回归、Lasso回归分别预测患者糖尿病病情】数据挖掘实验一

    小手の冰凉: 写入数据到本地文件X_train.txt

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • 08章【文件与IO】
  • 07章【常用类库API】
  • 06章【Eclipse与异常处理】
2024年15篇
2023年56篇
2022年58篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

深圳SEO优化公司景德镇关键词排名包年推广报价延边网站优化推广价格平顶山网站推广工具推荐唐山seo推荐临沂建站平湖网站排名优化推荐龙岗SEO按天扣费价格苏州SEO按天收费阜新网站搜索优化宁德网站制作许昌网站优化排名价格罗湖如何制作网站推荐德州网站优化排名价格赣州网页设计报价诸城百度竞价包年推广多少钱黄石网站制作设计哪家好爱联SEO按天收费公司大芬网站优化多少钱深圳百度爱采购公司崇左建网站报价海东关键词按天收费哪家好丹东seo推荐北京企业网站建设公司宣城网站改版公司阳泉网站改版公司襄樊网站开发多少钱辽源企业网站建设价格韶关百度竞价价格清徐设计公司网站推荐贵港设计公司网站歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

深圳SEO优化公司 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化