Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >ggplot绘制地图

ggplot绘制地图

原创
作者头像
爱学习的小明明
修改于 2020-10-09 07:55:48
修改于 2020-10-09 07:55:48
1.5K0
举报
文章被收录于专栏:R语言学习R语言学习

直接绘制

library(mapdata)

library(maptools)

library(ggplot2)

library(plyr)

library(mapproj)

library(sp)

library(maps)

china_map<-readShapePoly("D:/Beautiful-Visualization-with-R-master/map/bou2_4p.shp")

plot(china_map) #直接画出来的话地图是扁平的,默认吧进度和纬度作为普通数据,均匀平等对待,绘制在笛卡尔坐标系中。

#因此需要用稿ggplot2提供的coord_map()映射转换坐标系

#bou2表示我们读取的是省级地图,1表示国家层面,数值也大划分越细

使用ggplot的坐标轴映射函数coord_map()

ggplot(data=fortify(china_map))+

geom_polygon(aes(x = long, y = lat, group = id), colour = "black", fill = NA) +

theme_grey()+

coord_map()

提取上海单独绘制

names(china_map)

#可以发现china_map中有925条记录,每条记录中含有面积(AREA)、周长(PERIMETER)、各种编号、中文名(NAME)等字段。其中中文名(NAME)字段是以GBK编码的。

t<-table(iconv(china_map$NAME, from = "GBK"))

t1<-as.matrix(t)

#统计每一个省份或直辖市多边形的数目

city<- as.vector(china_map$ADCODE99)

city_name <- as.vector(china_map$NAME)

city_name_code<-unique(cbind(city,city_name))

#构造一个name和code对应的表,这样就可以将中文的city名称和编号对应起来

#例如提取上海的地图

Shanghai<-china_map[china_map$ADCODE99==310000,]

ggplot(data = fortify(Shanghai)) +

geom_polygon(aes(x = long, y = lat, group = id), colour = "black",

fill = NA) +

theme_grey()

根据统计值大小对不同省份着色

#绘制整个中国地图

x<-china_map@data #读取行政信息,x为dataframe,一共925行

x$id<-seq(0:924)-1

china_map1<-fortify(china_map)

#将china_map转换为数据框,该数据有91040行,其中有一列为id,这里id雨哦们还是那个面构建xs的id一致,即每一个id代表的区域在china_map1中被展开

#china_map1以long,lat即经纬度标识

#这是ggplot专门提供的函数用于SpatialPolygonsDataFrame转换为dataframe

china_map_data<-join(china_map1,x,by="id",type="full") #这里type一定要为full

mycolor<-china_map_data$NAME

mycolor<-unique(mycolor)

r<-runif(length(mycolor)) #随机配色

color_data<-data.frame(NAME=mycolor,ration=r)

china_data<-join(china_map_data,color_data,by="NAME",type="full")

ggplot(china_data,aes(x=long,y=lat,group=id,fill=ration))+

geom_polygon(colour="grey60")+

scale_fill_gradient(low="white",high="red")+

coord_map("polyconic")+

theme(

panel.grid=element_blank(),

panel.background = element_blank(),

axis.text = element_blank(),

axis.ticks=element_blank(),

axis.title = element_blank()

)

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录14)
本文介绍哈工大团队提出的一种动态ReLU(Dynamic ReLU)激活函数,即自适应参数化ReLU激活函数,原本是应用在基于一维振动信号的故障诊断,能够让每个样本有自己独特的ReLU参数,在2019年5月3日投稿至IEEE Transactions on Industrial Electronics,2020年1月24日录用,2020年2月13日在IEEE官网公布。
用户7368967
2020/05/27
4730
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录14)
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
在调参记录16的基础上,增加了两个残差模块,继续测试其在Cifar10数据集上的效果。
用户6915903
2020/05/04
3210
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
深度残差网络+自适应参数化ReLU激活函数(调参记录14)
这次再尝试解决过拟合,把残差模块的数量减少到2个,自适应参数化ReLU激活函数里面第一个全连接层的权重数量,减少为之前的1/8,批量大小设置为1000(主要是为了省时间)。
用户6915903
2020/05/04
2950
深度残差网络+自适应参数化ReLU激活函数(调参记录14)
深度残差网络+自适应参数化ReLU激活函数(调参记录16)
在调参记录15的基础上,将第一个残差模块的卷积核数量,从16个增加到32个,同时将自适应参数化ReLU激活函数中第一个全连接层的神经元个数改成原先的1/16,继续测试其在Cifar10数据集上的效果。
用户6915903
2020/05/04
4740
深度残差网络+自适应参数化ReLU激活函数(调参记录16)
深度残差网络+自适应参数化ReLU激活函数(调参记录6)
https://blog.csdn.net/dangqing1988/article/details/105627351
用户6915903
2020/04/22
4430
深度残差网络+自适应参数化ReLU激活函数(调参记录6)
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
https://blog.csdn.net/dangqing1988/article/details/105628681
用户6915903
2020/04/22
3760
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
深度残差网络+自适应参数化ReLU激活函数(调参记录12)
本文在调参记录10的基础上,在数据增强部分添加了zoom_range = 0.2,将训练迭代次数增加到5000个epoch,批量大小改成了625,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户6915903
2020/05/04
4320
深度残差网络+自适应参数化ReLU激活函数(调参记录12)
深度残差网络+自适应参数化ReLU激活函数(调参记录13)
从以往的调参结果来看,过拟合是最主要的问题。本文在调参记录12的基础上,将层数减少,减到9个残差模块,再试一次。
用户6915903
2020/05/04
3650
深度残差网络+自适应参数化ReLU激活函数(调参记录13)
深度残差网络+自适应参数化ReLU激活函数(调参记录5)
https://blog.csdn.net/dangqing1988/article/details/105610584
用户6915903
2020/04/22
4770
深度残差网络+自适应参数化ReLU激活函数(调参记录5)
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录13)
从以往的调参结果来看,过拟合是最主要的问题。本文在调参记录12的基础上,将层数减少,减到9个残差模块,再试一次。
用户7368967
2020/05/27
4540
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录13)
深度残差网络+自适应参数化ReLU激活函数(调参记录8)
https://blog.csdn.net/dangqing1988/article/details/105670981
用户6915903
2020/04/22
3960
深度残差网络+自适应参数化ReLU激活函数(调参记录8)
深度残差网络+自适应参数化ReLU激活函数(调参记录1)
本文采用了深度残差网络和自适应参数化ReLU激活函数,构造了一个网络(有9个残差模块,卷积核的个数比较少,最少是8个,最多是32个),在Cifar10数据集上进行了初步的尝试。
用户6915903
2020/04/21
3770
深度残差网络+自适应参数化ReLU激活函数(调参记录1)
一种Dynamic ReLU:自适应参数化ReLU激活函数(调参记录1)
自适应参数化ReLU是一种动态ReLU(Dynamic ReLU)激活函数,在2019年5月3日投稿至IEEE Transactions on Industrial Electronics,在2020年1月24日(农历大年初一)录用,于2020年2月13日在IEEE官网发布预览版。
用户7368967
2020/05/23
5240
一种Dynamic ReLU:自适应参数化ReLU激活函数(调参记录1)
深度残差网络+自适应参数化ReLU激活函数(调参记录10)
本文在调参记录9的基础上,在数据增强部分添加了shear_range = 30,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户6915903
2020/04/24
5520
深度残差网络+自适应参数化ReLU激活函数(调参记录10)
深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
在之前的调参记录18中,是将深度残差网络ResNet中的所有ReLU都替换成了自适应参数化ReLU(Adaptively Parametric ReLU,APReLU)。
用户6915903
2020/05/17
4370
深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%
由于调参记录18依然存在过拟合,本文将自适应参数化ReLU激活函数中最后一层的神经元个数减少为1个,继续测试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。
用户6915903
2020/05/09
4270
深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
本文在调参记录10的基础上,将残差模块的数量从27个增加到60个,测试采用Adaptively Parametric ReLU(APReLU)激活函数的深度残差网络,在Cifar10图像集上的效果。
用户6915903
2020/05/04
3690
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
深度残差网络+自适应参数化ReLU激活函数(调参记录2)
https://blog.csdn.net/dangqing1988/article/details/105590515
用户6915903
2020/04/21
4460
深度残差网络+自适应参数化ReLU激活函数(调参记录2)
深度残差网络+自适应参数化ReLU激活函数(调参记录4)
https://blog.csdn.net/dangqing1988/article/details/105601313
用户6915903
2020/04/22
4670
深度残差网络+自适应参数化ReLU激活函数(调参记录4)
一种Dynamic ReLU:自适应参数化ReLU激活函数(调参记录2)
https://blog.csdn.net/dangqing1988/article/details/105590515
用户7368967
2020/05/23
5190
一种Dynamic ReLU:自适应参数化ReLU激活函数(调参记录2)
推荐阅读
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录14)
4730
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
3210
深度残差网络+自适应参数化ReLU激活函数(调参记录14)
2950
深度残差网络+自适应参数化ReLU激活函数(调参记录16)
4740
深度残差网络+自适应参数化ReLU激活函数(调参记录6)
4430
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
3760
深度残差网络+自适应参数化ReLU激活函数(调参记录12)
4320
深度残差网络+自适应参数化ReLU激活函数(调参记录13)
3650
深度残差网络+自适应参数化ReLU激活函数(调参记录5)
4770
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录13)
4540
深度残差网络+自适应参数化ReLU激活函数(调参记录8)
3960
深度残差网络+自适应参数化ReLU激活函数(调参记录1)
3770
一种Dynamic ReLU:自适应参数化ReLU激活函数(调参记录1)
5240
深度残差网络+自适应参数化ReLU激活函数(调参记录10)
5520
深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
4370
深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%
4270
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
3690
深度残差网络+自适应参数化ReLU激活函数(调参记录2)
4460
深度残差网络+自适应参数化ReLU激活函数(调参记录4)
4670
一种Dynamic ReLU:自适应参数化ReLU激活函数(调参记录2)
5190
相关推荐
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录14)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档