python爬虫 查询全国大学专业的录取情况

22 篇文章 4 订阅
订阅专栏

估计很多人在填报高考自愿的时候都会难以选择学校,有自己心仪的专业,但是在网上搜了半天也不能确定填哪一所学校。如果填了录取分数线低的,那将会浪费很多分数,表示有点遗憾。如果没有录取上,那就更遗憾了… 在我们想根据专业来选择学校的时候,往往会有很多学校无法被自己根据专业搜索到,但又很适合自己,全国那么多学校,大好的机会就只能完美错过了。所以,该怎么把全国所有带有该专业的学校和往年的录取分数线一起找出来,并进行录取分数对比呢?

数据来源: 高考数据库

操作环境: win10, python3.6, jupyter notebook,谷歌浏览器(都不是必选项)

获取内容: 学校、往年的理科录取情况(最高分,平均分,最低分,最低位次, 录取批次)

实现思路:

  1. 获取高考数据库的数据接口
  2. 查询数据

技术实现讲解

1、查找高考数据库的数据接口

1.1、获取某校的高考录取情况

(1)直接搜索学校,在《XX大学高考分数线_招生信息_中国教育在线》中查看录取分数线,找到专业分数线,(也可以在官网中搜索学校),右击检查。
在这里插入图片描述
(2)粘贴刚才复制的链接到浏览器中看看是否存在我们需要的数据
在这里插入图片描述

1.2、分析其他的数据接口

我们需要的数据都在其中,但这只是一个学校的,我们要怎么查看其他学校的呢?不妨多对比一下其他学校的数据接口吧

在这里插入图片描述
通过对比,发现每个学校链接的id值都不同,如“贵州财经大学”的school_id=520,只需要分别传值给这个链接,就可以获取该系统所有学校的路径了,除了没有填写录取分数线的学校。除此之外,上面还有时间,从网页中可以发现它也对应了每个学校的时间,就可以根据它来查询年度。
在这里插入图片描述

2、查询数据

2.1、请求数据

熟悉了网页数据的结构后,就可以请求数据开始提取了,导入requests库请求数据,网页使用的是post方法请求,一定要注意请求的方法。导入time库间断请求时间,并制作请求头模拟浏览器请求数据,告诉服务器这是一个浏览器来请求数据。

import requests,time #导入库
#制作请求头
headers={
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'
}
major = input("请查询输入专业:")
times = input("请输入查询年份(2014~2018):")

for i in range(32,968,1):#id 从32到967
    url = f'https://api.eol.cn/gkcx/api/?access_token=&local_province_id=52&local_type_id=1&page=1&school_id={i}&signsafe=&size=20&uri=apidata/api/gk/score/special&year='+str(times)
    time.sleep(0.1)
    res = requests.post(url=url,headers=headers)

你可能会好奇为什么id是从32~968呢?因为并不是每个id都有数据,如id为“1”的结果为:

{"code":"0000","message":"成功","data":{"numFound":0,"item":[]},"md5":"F03C3B1E12B97478ED80E3868E2EEA94"}

通过id值测验,发现没有内容的id接口都会返回这个值

"md5":"F03C3B1E12B97478ED80E3868E2EEA94"

我们就可以通过它来过滤掉没有数据的接口,并确定id的总长度。

import requests,time

headers={
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'
}
for i in range(1,1000):#预设学校id有999个,[ 1,1000)
    url = f'https://api.eol.cn/gkcx/api/?access_token=&local_province_id=52&local_type_id=1&page=1&school_id={i}&signsafe=&size=20&uri=apidata/api/gk/score/special&year=2018'
    time.sleep(0.1)
    res = requests.post(url=url,headers=headers)
    if res.json()['md5'] =='F03C3B1E12B97478ED80E3868E2EEA94':
        print ("学校id",i,"不存在")
    else:
        print (res.json()['md5'])

运行结果:

学校id 1 不存在
学校id 2 不存在
学校id 3 不存在
...............#省略部分输出
学校id 30 不存在
学校id 31 不存在
EAA4D9DA22841248D9826B8CF6641F95
B7FD4BC855287B5788366520335B54B4
4653CF0302C731E679E5D1F765A20FE6
...............#省略部分输出
学校id 964 不存在
学校id 965 不存在
8CCBA1E84159C24BA81B3E647198F7FF
98062D0DAFF19F39CA094E714645DB6D
学校id 968 不存在
学校id 969 不存在
...............#省略后面输出

通过这样查找测试,我们就能确定学校id的长度了,同时这样也可以省下前面id的查找时间。

2.2、提取数据

我们请求到的数据是字典型,可以把其中一个学校的数据解析成格式化的json文件,便于查找。可以使用python库来解析

import pprint
pprint.pprint(res.json())

也可以在网上进行线上json解析
在这里插入图片描述

2.3、需要注意的坑

有些学校其他数据都有,包括分数、位次、批次等,就是没有专业。如西南科技大学
在这里插入图片描述
所以必需要判断"spname"是否在字典中,先满足这个条件再获取其他信息。同时,为了提高程序的运行效率,可以先判断它是否有数据再执行其他的条件。

for i in range(32,968,1):
    url = f'https://api.eol.cn/gkcx/api/?access_token=&local_province_id=52&local_type_id=1&page=1&school_id={i}&signsafe=&size=20&uri=apidata/api/gk/score/special&year='+str(times)
    time.sleep(0.1)#暂停0.1秒
    res = requests.post(url=url,headers=headers)
    if res.json()['md5'] !='F03C3B1E12B97478ED80E3868E2EEA94':#字典不为空再继续执行下面条件语句
        for items in res.json()['data']['item']:
            if('spname' in items):#存在spname才执行,如西南科技大学
                if (items['spname'] == major):
                    print (items['name'],'\t',str(times)+"年"+str(major)+"录取最高分",items['max'],'\t',"平均分:",items['average'],'\t',"最低分:",items['min'],'\t',"最低位次:",items['min_section'],'\t',"录取批次:",items['local_batch_name'],'\n')
print (str(times)+"年全国"+str(major)+"专业录取信息查询完成!") #所有数据遍历完成后才会打印它

3、源代码汇总

import requests,time #导入库
#制作请求头
headers={
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'
}

#未来提高代码的效率,没有对输入内容进行判断
major = input("请查询输入专业:")
times = input("请输入查询年份(2014~2018):")

for i in range(32,968,1):#学校id从[32,967),省略前面部分可以节约时间
    url = f'https://api.eol.cn/gkcx/api/?access_token=&local_province_id=52&local_type_id=1&page=1&school_id={i}&signsafe=&size=20&uri=apidata/api/gk/score/special&year='+str(times)
    time.sleep(0.1) #暂停时间模拟人为请求
    res = requests.post(url=url,headers=headers)
    if res.json()['md5'] !='F03C3B1E12B97478ED80E3868E2EEA94': #字典不为空再继续执行下面条件语句,提高效率
        for items in res.json()['data']['item']:
            if('spname' in items): #存在spname才执行,如西南科技大学
                if (items['spname'] == major):
                    print (items['name'],'\t',str(times)+"年"+str(major)+"录取最高分",items['max'],'\t',"平均分:",items['average'],'\t',"最低分:",items['min'],'\t',"最低位次:",items['min_section'],'\t',"录取批次:",items['local_batch_name'],'\n')
print (str(times)+"年全国"+str(major)+"专业录取信息查询完成!") #所有数据遍历完成后才会打印它

运行代码:
在这里插入图片描述
查询结果:
在这里插入图片描述
注意:有很多学校是大类招生,如贵州财经大学的计算机相关专业叫做计算机类,到大二后才细分专业,所有这样是搜索不到的,就只能查询填报志愿时的专业。

特别提示:

上面的代码还存在一些漏洞,有很多学校的数据是分两个页面存放的,我目前还没有找到三个页面存放的。
在这里插入图片描述
如果我们想刷新后再取它的数据接口,它就直接跳到了第一页,第二个接口是不可能取到的,但我们可以直接赋值为page=2。
在这里插入图片描述
而刚才的代码就只爬取了第一个页面,上面第2个页面的信息就获取不到,现在要再遍历查询一次,时间也会相应的增加,它的关键词是专业,就算没有第二个页面,也不会乱码匹配数据的,它本身就不存在对应的专业。遍历两个页面后,就可以获取到第二个页面的值了。
在这里插入图片描述
爬取两页面代码汇总:

import requests,time

headers={
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'
}
major = input("请查询输入专业:")
times = input("请输入查询年份(2014~2018):")

for i in range(32,968,1):
    for page in range(1,3):#增加为第一个和第二个页面
        url = f'https://api.eol.cn/gkcx/api/?access_token=&local_province_id=52&local_type_id=1&page={page}&school_id={i}&signsafe=&size=20&uri=apidata/api/gk/score/special&year='+str(times)
        time.sleep(0.1)
        res = requests.post(url=url,headers=headers)
        if res.json()['md5'] !='F03C3B1E12B97478ED80E3868E2EEA94':
            for items in res.json()['data']['item']:
                if('spname' in items):
                    if (items['spname'] == major):
                        print (items['name'],'\t',str(times)+"年"+str(major)+"录取最高分",items['max'],'\t',"平均分:",items['average'],'\t',"最低分:",items['min'],'\t',"最低位次:",items['min_section'],'\t',"录取批次:",items['local_batch_name'],'\n')
print (str(times)+"年全国"+str(major)+"专业录取信息查询完成!") 

再次提醒: 就只能查询对应的专业,大类招生后的分类专业并不能查询!!!

数据全部来自 高考数据库 ,只供学习使用,如有侵权,敬请联系 ayouleyang@qq.com

python爬取中国教育在线数据
weixin_45208256的博客
05-24 2329
毕设需要参考网上大佬做了个简单的爬虫,对python不熟悉写的不好。 专业信息爬取 ```python # coding=utf-8 import json import pandas as pd import requests def detail(page_num): heads = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko)
老菜鸟学PYthon - 高考志愿填报数据的实时采集
weixin_43975834的博客
09-16 1679
一直想学习Python,又一直懒,直到今年高考志愿填报开始,在跟进学习的过程中发现了很多高分却报漏未被录取或没有报上的情况。(自家小子今年下半年开始高三生涯) 学习目的:2022年7月开始的高考志愿填报时,抓取院校信息、专业信息、每小时更新的志愿填报信息,综合分析意向学校的意向专业录取分数变化情况。 背景说明:我所在内蒙古是全国唯一一个实时网报、实时排名的报考模式。 数据来源:以下学习过程中所使用的数据均为2021年内蒙古志愿填报提前批数据。 开始下载安装PYthon3.5.2、mysql5.6,
高考成绩发布!教你用Python爬取高校数据:看看哪些学校专业更受宠
m0_59164520的博客
06-20 2017
今天各地的2023年高考成绩陆续马上可以查询了,考生的志愿填报也随即提上日程。俗话说,七分考,三分报。想必同学们一定不想因高分低报而浪费分数,也不想低分高报而与大学失之交臂。**那么历年的高考人数、录取率如何?哪个地区的高校最多?都有什么专业最热门?**今天我们就用数据来聊一聊。
基于 Python高考志愿高校及专业分析系统
Python极客之家
06-30 4078
本项目利用网络爬虫技术从某高考网抓取各大高校的历年高空录取分数线,并进行数据清洗存储到文件系统中,对外提供高校信息查询服务和依据高空分数筛选可能录取的高校等信息,方便考生选择合适的学校进行填报。 以高校搜索,查看该高校不同专业历年的录取分数线,以专业搜索,可查看不同高校该专业录取分数线情况,以分数搜索,可查看可录取的高校和专业。......
基于python爬取全国2822所高校在各省,近三年的录取分数线
weixin_42464154的博客
06-18 9399
最近全国高考结束,考生都在等分当中,鉴于自己之前一直有个想法,爬取各高校的信息,方便考生选择,因此完成了一下代码,爬取全国2822所高校,包括本科和高职院校,在各省的分数线。下图是各高校在湖北省的,经过高校软科排名排序后的近3年录取分数情况: 完整的数据下载地址: 链接:https://pan.baidu.com/s/1uohDZQk2SPSjI0htZBJd1g 提取码:z1db数据中分数栏,空白部分,说明该学校在该省不招生。部分代码如下,未优化…...
利用爬虫获取高校及专业录取分数线的python代码
07-26
随着高考的落幕,大家也该估分选大学,突然发现中国教育在线的估分选大学系统开始收费了(3G时代是免费的),所以自己就写了爬虫获取高校各个专业历年在河南的录取分数线、排名,以及大学的基本信息。
Python 爬取高考各学校各专业录取分数线
qq_52383696的博客
08-09 3428
通过简单的网页分析,得到请求的接口,然后模拟这个过程即可。下学期有个 个人项目,高考志愿填报系统,需要高考不同学校不同专业录取分数线。
Python爬虫——爬取阳光高考专业数据并对所有专业进行数据分析
weixin_44371842的博客
06-08 3063
阳光高考是中国高考信息网,覆盖了中国所有院校以及所有专业信息。本文目的是爬取阳光高考专业信息,包括专业名称,专业代码,专业简介,男女比例,在校生规模,就业方向,平均薪资等。并将结果输出为CSV文件。并对所有专业进行数据分析,分析专业毕业生薪资水平、学生规模、女生占比等。
ceeasPython:高考志愿系统数据获取爬虫代码
03-11
ceeasPython:高考志愿系统数据获取爬虫代码
报志愿神器!python自动获取各大学高考录取分数线
Python_cocola的博客
06-20 1861
一年一度的高考结束后,最激动人心的时刻莫过于高考志愿填报了!然而每年家长和学生们每年就填报志愿都有困惑,怎样才能让孩子的分数发挥最大价值,上最理想的学校?如果从网站里查每个学校的分数线再做横向对比,那怕要查到天荒地老。。如果利用爬虫技术,将所有大学的分数线整合到一个excel表中,那么各个大学的分数线高低变一目了然,能报哪个学校的局势就非常明朗了!py拓海利用业余时间写了个python脚本,。refresh脚本跑起来后效果如下:注意import包导入完整。
Python爬虫实现全国失信被执行人名单查询功能示例
09-20
主要介绍了Python爬虫实现全国失信被执行人名单查询功能,涉及Python爬虫相关网络接口调用及json数据转换等相关操作技巧,需要的朋友可以参考下
python爬虫获取2023世界大学排名
06-15
python爬虫获取2023世界大学排名,并将结果在前端页面上展示,项目包含源代码和下载好的数据文件,可直线完成项目实现,有想学习爬虫和前端可视化的同学可以下载使用。
python爬虫基础python爬虫基础
最新发布
12-28
python爬虫基础python爬虫基础python爬虫基础python爬虫基础python爬虫基础python爬虫基础python爬虫基础python爬虫基础python爬虫基础python爬虫基础python爬虫基础python爬虫基础python爬虫基础python爬虫基础...
python爬取全国高校在某省的录取分数线
cai1981niao的博客
07-07 6629
前些日子,同事的孩子参加高考,知道分数后让我帮忙参考报学校,作为一个已过不惑之年的油腻大叔,远离学校已经16年了,各个高校在我省得录取批次、人数、分数(位次)一无所知,幸亏有无所不知的互联网,但是全国几千家高校,一个一个查起来太难了,就想如果有个excel表格记录全国高校在我省得录取情况,我就可以根据分数(位次)从容的选出能够报考的学校。郁闷的事这个数据没有。查找网络,有https://gkcx.eol.cn/(中国教育在线),在学校——历年分数页面有我所需要的数据,具体如下 一、明确目的,...
如何用Python爬取全国高校数据?
wq10_12的博客
11-23 780
Python是一门强大的编程语言,它可以用于爬取互联网上的各种数据。在这篇文章中,我们将学习如何使用Python爬取全国高校数据,并使用代理IP进行爬取。数据来源及需求安装依赖包及导入模块爬取全国高校数据使用代理IP总结在本文中,我们学习了如何使用Python爬取全国高校数据,并使用代理IP进行爬取。通过本文的学习,相信读者已经了解了Python爬虫的基本原理及其应用。在实际应用中,我们需要考虑到数据的合法性和隐私保护等问题,并严格遵守相关法律法规。
采用requests请求+xpath与正则表达式解析+Mysql与json存取:爬取高考网主页与子页的学校基本信息和往年录取分数线
狼性书生
03-06 802
爬取高考网主页与子页的学校基本信息和往年录取分数线高考网创建Mysql数据库和存储实现先了解下高考网的一些爬取阻碍完整代码 高考网 链接: http://college.gaokao.com/schlist/a14/p1/ 本章主要介绍下简单的爬取,不采用任何框架,只爬取广东省内的高校,让读者能对requests的请求方式,正则表达式与xpath的解析方式,json与MYSQL的存取方式有一定了解...
scrapy爬取中国高考志愿填报网站各大学信息
weixin_45920625的博客
04-29 2348
中国高考志愿填报网站爬虫一、环境准备二、问题分析三、spider三、item四、setting五、pipelines 一、环境准备 python3.8.3 pycharm 项目所需第三方包 pip install scrapy fake-useragent requests virtualenv -i https://pypi.douban.com/simple 1.1创建虚拟环境 切换到指定目录创建 virtualenv .venv 创建完记得激活虚拟环境 1.2创建项目 scrapy startp
python-大学录取数据爬虫程序
JinweiGuo
10-19 1448
python-大学录取数据爬虫程序 其中运用了python3.7编译器,还有利用pip install requests在CMD中安装了requests第三方库,然后就可以进行我们的程序编译了 以下是获取2017年郑州大学在各个省市的录取数据的python爬虫程序 import requests import re def getHTMLText(url): #向网页发送请求,读取网页内容 ...
python爬虫 request+lxml爬取黄页88网企业信息
热门推荐
阿优乐扬的博客
08-10 1万+
黄页88网: 简称黄页网或者黄页88,是由互联网资深人士创办于2009年11月。是一家整合企业黄页、分类信息以及时下流行的SNS社区三方面优势于一体定位于服务B2B平台的网站。主要帮助企业宣传推广公司品牌和产品,黄页88网精细划分了82个大行业分类,并且在每个大的分类下又进行了二级和三级行业细分,更加方便网友对所关注信息的查询和浏览,同时对企业发布的信息进行了整合分类更加方便企业对信息的管理和搜索...
python爬虫发展情况
11-23
Python爬虫自问世以来,经历了不断的发展和壮大。随着Python技术的不断提升和完善,Python爬虫也在不断地发展和完善。目前,Python爬虫已经成为了网络爬虫领域中最为流行和广泛使用的一种爬虫技术。Python爬虫的发展情况主要表现在以下几个方面: 1.爬虫框架的不断完善:Python爬虫框架的不断完善,使得Python爬虫的开发变得更加简单和高效。目前,Python爬虫框架主要有Scrapy、BeautifulSoup、Requests等。 2.爬虫技术的不断提升:Python爬虫技术的不断提升,使得Python爬虫可以更加高效地抓取数据。目前,Python爬虫技术主要有正则表达式、XPath、CSS选择器等。 3.反爬虫技术的不断升级:随着反爬虫技术的不断升级,Python爬虫也在不断地升级和完善。目前,Python爬虫主要采用IP代理、User-Agent伪装、验证码识别等技术来应对反爬虫。 4.数据处理和存储的不断优化:Python爬虫的数据处理和存储也在不断地优化和完善。目前,Python爬虫主要采用MySQL、MongoDB、Redis等数据库来存储数据,并采用Pandas、Numpy等数据处理库来处理数据。 5.应用领域的不断扩展:随着Python爬虫技术的不断发展和完善,其应用领域也在不断地扩展。目前,Python爬虫已经广泛应用于搜索引擎、电商平台、金融行业、医疗行业等领域。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • python 批量读取文件夹中的多个TXT文件 57450
  • python爬虫 request+lxml爬取黄页88网企业信息 10940
  • 数据分析入门之数据可视化(散点图、折线图、饼图、柱状图、直方图) 10441
  • Python删除指定文件夹内指定文件 10281
  • BeautifulSoup爬取豆瓣电影top250信息 9465

分类专栏

  • 爬虫项目实战 9篇
  • Python小运用 6篇
  • 杨友的专栏 2篇
  • 数据分析实战 3篇
  • 笔记
  • 机器学习学习 6篇
  • 数据分析入门 17篇
  • 图像处理 11篇
  • Python项目 3篇
  • json数据 1篇
  • 诗篇 1篇
  • Python学习 14篇
  • 读书笔记
  • Python实战 22篇
  • Python经验 6篇

最新评论

  • python数据分析之《太平洋汽车》点评数据及论坛文本分析

    pzhongli: 做个简单小项目绰绰有余,虽然最近大语言模型很火,但是动不动就深度学习上词向量,初学者真的很懵。博主讲的很细致,强!

  • python爬取动态加载的网页之爬取猫眼电影实时票房

    weixin_51271653: 博主你好,可以找你再爬取一下数据嘛,现在我不知道为什么怕出来他的票房加密了

  • 学习python爬虫看一篇就足够了之爬取《太平洋汽车》论坛及点评实战爬虫大全

    尤堇生: 请问为什么得到的CSV文件里面只有表头,没有将爬到的数据填充进去

  • 数据分析入门之Matplotlib数据可视化基础(散点图、折线图、直方图、饼图、箱线图)

    大数据儿童: https://gitee.com/zhuanglicheng/dataAnalysis/repository/archive/master.zip

  • 《汽车之家》字体反爬之论坛、问答、文章(新闻、车家号)及其评论爬取

    2301_78737846: 学长,想请教一下utf8报错怎么解决呀?表情包表情包

大家在看

  • 【TCN分类】基于时间卷积双向门控循环单元多头注意力机制TCN-BiGRU-Mutilhead-Attention实现多特征分类预测故障识别Matlab实现
  • 代码随想录算法训练营第三十七天 | 56. 合并区间、738.单调递增的数字、968.监控二叉树、总结
  • 2024年单细胞空间系列课程
  • 【HTML学生作业网页】基于HTML+CSS+JavaScript仿南京师范大学泰州学院(11页) 229
  • 2024网络安全学习路线 非常详细 推荐学习 707

最新文章

  • python PDF解密打印文件
  • 忆17级信管杨友大三学年个人风雨兼程岁月
  • 学习python爬虫看一篇就足够了之爬取《太平洋汽车》论坛及点评实战爬虫大全
2020年49篇
2019年47篇

目录

目录

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

深圳SEO优化公司甘南网站改版公司延边百度seo公司双龙阿里店铺运营公司绥化网站推广报价长沙优秀网站设计哪家好绥化seo网站优化报价河池网站优化软件多少钱凉山seo排名多少钱山南网络推广公司拉萨网站优化排名价格陇南网站排名优化报价光明网站推广方案价格益阳阿里店铺运营价格双龙外贸网站建设推荐民治SEO按效果付费报价南宁网站制作设计价格西宁至尊标王报价平湖关键词按天扣费哪家好亳州网站优化软件哪家好承德网页制作报价龙岩至尊标王公司三明建设网站价格吴忠关键词按天计费报价上海百姓网标王推广哪家好朔州SEO按效果付费金昌百姓网标王推广报价温州外贸网站建设公司吉祥企业网站制作报价西乡网站制作雅安网站推广方案报价歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

深圳SEO优化公司 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化