首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >盘点你“梦中情刊”的发文量及发文量最大的作者

盘点你“梦中情刊”的发文量及发文量最大的作者

作者头像
生信菜鸟团
发布于 2023-08-23 01:06:10
发布于 2023-08-23 01:06:10
29100
代码可运行
举报
文章被收录于专栏:生信菜鸟团生信菜鸟团
运行总次数:0
代码可运行

1-背景

感谢曾老师又是新一期的学徒作业~

作业灵感来源如下:

生物信息学权威期刊Bioinformatics发文量最大的是谁 (qq.com)

第一作者发表在Bioinformatics杂志上论文数top10 (qq.com)

作业内容:

同样的统计,更换一下杂志,好~

2-代码解读

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
library(pubmedR)  
api_key = NULL  
  
# pubmed一次只能下载小于1万条记录,这里分成两份  
query = '("Bioinformatics (Oxford, England)"[Journal]) AND (("1998"[Date - Publication] : "2014"[Date - Publication]))'  
res <- pmQueryTotalCount(query = query, api_key = api_key)  
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)  
  
query = '("Bioinformatics (Oxford, England)"[Journal]) AND (("2015"[Date - Publication] : "2023"[Date - Publication]))'  
res <- pmQueryTotalCount(query = query, api_key = api_key)  
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)  
  
m1 = pmApi2df(D1)  
m2 = pmApi2df(D2)  
m = rbind(m1, m2)  
  
df = df[df$DT == "JOURNAL ARTICLE", ]  
fa = gsub(";.*$", "", df$AF)  
sort(table(fa))

代码目的:

总结《Bioinformatics》杂志自创刊以来所有文章的一作,并对作者按照发文数量排序。

同样的条件,我们看一下其他顶刊究竟是谁发文最多吧

嘻嘻嘻,顺便还统计了期刊的发文量

先从CNS开始~

3-CNS

3.1- Cell

1974年创刊,创刊49年

截止检索,共2万多篇文章

排名作者,代码如下~

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#"Cell"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成两份
query = '("Cell"[Journal]) AND (("1974"[Date - Publication] : "1996"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Cell"[Journal]) AND (("1997"[Date - Publication] : "2015"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Cell"[Journal]) AND (("2016"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D3 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

m1 = pmApi2df(D1)
m2 = pmApi2df(D2)
m3 = pmApi2df(D3)
m = rbind(m1, m2,m3)

df=m

df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
save(fa,file = "Cell.Rdata")
#load(file="Cell.Rdata")
head(sort(table(fa),decreasing = T),15)
# fa 
# HUNTER, T  BONETTA, LAURA 
# 76              15              11 
# LAWRENCE, P A        LEWIN, B SPIEGELMAN, B M 
# 10              10              10 
# WEINTRAUB, H         ORCI, L        KOZAK, M 
# 10               9               8 
# VALE, R D  CLEVELAND, D W        FUCHS, E 
# 8               7               7 
# HENIKOFF, S      KMIEC, E B    LAZARIDES, E 
# 7               7               7 

运行结果

检索前3, 看大佬从事的领域

3.1.1 HUNTER, T 蛋白

image.png

3.1.2 BONETTA, LAURA 科学评论?

image.png

3.1.3 LAWRENCE, P A 果蝇

image.png

3.2- Science

1880年创刊,共计143年

到目前,有18万文章

代码如下:

略长..

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#"Science (New York, N.Y.)"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录
query = '("Science (New York, N.Y.)"[Journal]) AND (("1880"[Date - Publication] : "1893"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1894"[Date - Publication] : "1911"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1912"[Date - Publication] : "1927"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D3 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)
save(D1,D2,D3,file = "Science_1_3.Rdata")

query = '("Science (New York, N.Y.)"[Journal]) AND (("1928"[Date - Publication] : "1939"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D4 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1940"[Date - Publication] : "1950"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D5 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1951"[Date - Publication] : "1961"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D6 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1962"[Date - Publication] : "1966"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D7 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1967"[Date - Publication] : "1971"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D8 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1972"[Date - Publication] : "1976"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D9 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1977"[Date - Publication] : "1980"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D10 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1981"[Date - Publication] : "1984"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D11 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1985"[Date - Publication] : "1988"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D12 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1989"[Date - Publication] : "1992"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D13 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1993"[Date - Publication] : "1996"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D14 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("1997"[Date - Publication] : "2001"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D15 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

# query = '("Science (New York, N.Y.)"[Journal]) AND (("1997"[Date - Publication] : "2001"[Date - Publication]))'
# res <- pmQueryTotalCount(query = query, api_key = api_key)
# D16 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("2002"[Date - Publication] : "2005"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D17 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("2006"[Date - Publication] : "2009"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D18 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("2010"[Date - Publication] : "2013"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D19 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("2014"[Date - Publication] : "2017"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D20 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Science (New York, N.Y.)"[Journal]) AND (("2018"[Date - Publication] : "2021"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D21 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)
query = '("Science (New York, N.Y.)"[Journal]) AND (("2022"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D22 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)
load(file = "Science_1_3.Rdata")
load(file = "Science_4_22.Rdata")
save(D1,D2,D3,D4,D5,D6,D7,D8,D9,D10,
     D11,D12,D13,D14,D15,D17,D18,
     D19,D20,D21,D22,file = "Science_all.Rdata")
m1 = pmApi2df(D1)
m2 = pmApi2df(D2)
m3 = pmApi2df(D3)
m4 = pmApi2df(D4)
m5 = pmApi2df(D5)
m6 = pmApi2df(D6)
m7 = pmApi2df(D7)
m8 = pmApi2df(D8)
m9 = pmApi2df(D9)
m10 = pmApi2df(D10)
m11 = pmApi2df(D11)
m12 = pmApi2df(D12)
m13 = pmApi2df(D13)
m14 = pmApi2df(D14)
m15 = pmApi2df(D15)
# m16 = pmApi2df(D16)
m17 = pmApi2df(D17)
m18 = pmApi2df(D18)
m19 = pmApi2df(D19)
m20 = pmApi2df(D20)
m21 = pmApi2df(D21)
m22 = pmApi2df(D22)
m = rbind(m1, m2, m3,m4,m5,m6,m7,m8,
          m9, m10, m11,m12,m13,m14,m15,
          m17, m18, m19,m20,m21,m22)
df=m
df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
save(fa,file = "Science_.Rdata")
#load(file="Nature communications.Rdata")
head(sort(table(fa),decreasing = T),15)
# fa
# WALSH, J      HOLDEN, C      KERR, R A   ABELSON, P H    MARSHALL, E    CARTER, L J     SMITH, R J 
# 18482            829            662            614            544            532            431            390 
# NORMAN, C   WALDROP, M M  ROBINSON, A L     DICKSON, D        WADE, N GREENBERG, D S     MAUGH, T H 
# 389            377            307            271            268            262            241 

3.2.1 WALSH, J 科学科普

829篇?重名了?发文时间集中在1962-1989,可能不是重名

找了篇文章看,可能是做科普或者做动物分类的

还有一些社科评论相关的文章

一页3篇Science

寻思WALSH, J 可能是Science期刊的科普作者或者记者

那岂不是发Science就是他的本职工作??

3.3- Nature

1945年创刊,78年了

近13万文章

代码:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#"Nature"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成八份
query = '("Nature"[Journal]) AND (("1945"[Date - Publication] : "1957"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("1958"[Date - Publication] : "1963"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("1964"[Date - Publication] : "1968"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D3 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("1967"[Date - Publication] : "1971"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D4 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("1972"[Date - Publication] : "1980"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D5 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("1981"[Date - Publication] : "1988"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D6 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("1989"[Date - Publication] : "1989"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D16 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("1990"[Date - Publication] : "1996"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D7 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("1997"[Date - Publication] : "2001"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D8 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("2002"[Date - Publication] : "2005"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D9 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("2006"[Date - Publication] : "2009"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D10 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("2010"[Date - Publication] : "2013"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D11 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("2014"[Date - Publication] : "2016"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D12 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("2017"[Date - Publication] : "2019"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D13 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("2020"[Date - Publication] : "2022"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D14 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature"[Journal]) AND (("2023"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D15 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)



save(D1,D2,D3,D4,D5,D6,D7,D8,D9,D10,
     D11,D12,D13,D14,D15,D16,file = "Nature.Rdata")


m1 = pmApi2df(D1)
m2 = pmApi2df(D2)
m3 = pmApi2df(D3)
m4 = pmApi2df(D4)
m5 = pmApi2df(D5)
m6 = pmApi2df(D6)
m7 = pmApi2df(D7)
m8 = pmApi2df(D8)
m9 = pmApi2df(D9)
m10 = pmApi2df(D10)

m11 = pmApi2df(D11)
m12 = pmApi2df(D12)
m13 = pmApi2df(D13)
m14 = pmApi2df(D14)
m15 = pmApi2df(D15)
m16 = pmApi2df(D16)
m = rbind(m1, m2, m3,m4,m5,m6,m7,m8,
          m9, m10, m11,m12,m13,m14,m15,m16)

df=m

df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
save(fa,file = "Nature_fa.Rdata")
#load(file="Nature_fa.Rdata")
head(sort(table(fa),decreasing = T),15)
# fa
# SMAGLIK, PAUL     GEWIN, VIRGINIA EISENSTEIN, MICHAEL     POWELL, KENDALL        SAVAGE, NEIL 
# 2735                 229                 100                  79                  78                  62 
# WOOLSTON, CHRIS SCHIERMEIER, QUIRIN      LEDFORD, HEIDI      ABBOTT, ALISON    CYRANOSKI, DAVID        DOLGIN, ELIE 
# 59                  57                  51                  47                  46                  44 
# PERKEL, JEFFREY M        DANCE, AMBER    WITZE, ALEXANDRA 

前15位

出去谨慎,搜第一名SMAGLIK, PAUL

3.3.1 SMAGLIK, PAUL 应该是记者

展示他的2篇报道

1-单细胞测序相关

2-神经科学相关

....估计是记者在追踪报道

发现一位以发Nature为本职工作的

那岂不是...

原来发顶刊的诀窍是... 发不了就加入。

4-Nature子刊

4.1 新子刊

4.1.1- Nature machine intelligence

Nature新的子刊~ 2019年,4年

稍一共60篇文章

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
##"Nature machine intelligence"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成八份
query = '("Nature machine intelligence"[Journal]) AND (("2019"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

m1 = pmApi2df(D1)
m=m1
df=m
df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
head(sort(table(fa),decreasing = T),15)

结果:

4.1.1.1 LIU, RUOQI

4.1.2- Nature Computational Science

2021年创刊,也是Nature新子刊,2年

37篇文章,目前还没有影响因子

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
####"Nature Computational Science"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成八份
query = '("Nature Computational Science"[Journal]) AND (("2019"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

m1 = pmApi2df(D1)
m=m1
df=m
df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
head(sort(table(fa),decreasing = T),15)
# fa
# CHIRIGATI, FERNANDO     RASTOGI, ANANYA                     
# 2                   2                   1 
# AVANTS, BRIAN B    BRYAN, J SHEPARD CHAMBERLAND, MAXIME 
# 1                   1                   1 
# GALA, ROHAN     GAMAZON, ERIC R      GUAN, YUANFANG 
# 1                   1                   1 
# HASEEB, MUHAMMAD    HOFFECKER, IAN T            HOU, HAO 
# 1                   1                   1 
# JIN, CHONG      JING, XIAOYANG   JOSEPH, JERELLE A 
# 1                   1                   1 

结果:

4.1.2.1 CHIRIGATI, FERNANDO

看了一眼pdf文件,并不是一般意义上的科研文章。

4.1.2.2 RASTOGI, ANANYA

第二名也是类似情况

pdf内容

就不继续看了。

5-Nature老牌子刊

5.1- Nature communications

2010年创刊,13年

共计5万多篇文章

代码:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
##"Nature communications"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成八份
query = '("Nature communications"[Journal]) AND (("2010"[Date - Publication] : "2015"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature communications"[Journal]) AND (("2016"[Date - Publication] : "2017"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature communications"[Journal]) AND (("2018"[Date - Publication] : "2018"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D3 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature communications"[Journal]) AND (("2019"[Date - Publication] : "2019"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D4 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature communications"[Journal]) AND (("2020"[Date - Publication] : "2020"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D5 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature communications"[Journal]) AND (("2021"[Date - Publication] : "2021"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D6 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature communications"[Journal]) AND (("2022"[Date - Publication] : "2022"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D7 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nature communications"[Journal]) AND (("2023"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D8 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)
#save(D1,D2,D3,D4,D5,D6,D7,D8,file = "Nature communications.Rdata")
#save(D4,file = "Nature communications_D4.Rdata")
load(file = "Nature communications.Rdata")
load(file = "Nature communications_D4.Rdata")
m1 = pmApi2df(D1)
m2 = pmApi2df(D2)
m3 = pmApi2df(D3)
m4 = pmApi2df(D4)
m5 = pmApi2df(D5)
m6 = pmApi2df(D6)
m7 = pmApi2df(D7)
m8 = pmApi2df(D8)
m = rbind(m1, m2, m3,m4,m5,m6,m7,m8)

df=m

df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
save(fa,file = "Nature communications.Rdata")
#load(file="Nature communications.Rdata")
head(sort(table(fa),decreasing = T),15)
# fa
# YANG, YANG  LIU, YANG ZHANG, LEI   LIU, WEI WANG, YING ZHANG, WEI  WANG, WEI WANG, YANG ZHANG, TAO    LI, JUN   WANG, QI  ZHANG, YI    LI, JIE    LI, YAN 
# 20         17         15         14         14         14         13         13         13         12         12         12         11         11 
# LIU, YI 
#11 

嗯?好像全是国人诶。

诶嘿嘿,那不挺好~

顺着线索扒一扒,看看这个牛气的国人是什么领域的。

扒~

5.1.1 原来是重名了

以下举例了3位YANG, YANG YANG, YANG 1号

YANG, YANG 2号

YANG, YANG 3号

第二名也存在重名

5.2- Nature methods

创立于2004年,19年

5千多篇~

代码:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
##"Nature methods"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录
query = '("Nature methods"[Journal]) AND (("2004"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

m1 = pmApi2df(D1)
m=m1
df=m
df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
head(sort(table(fa),decreasing = T),15)

emmm,这数量级大概是记者吧,简单搜索一位

5.2.1 VOGT, NINA

好的就是记者...

5.3- Nature genetics

创刊于1992,31年

一共近9000篇

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
##"Nature genetics"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录
query = '("Nature genetics"[Journal]) AND (("1992"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)
#save(D1,file = "Nature_genetics.Rdata")
m1 = pmApi2df(D1)
m=m1
df=m
df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
save(fa,file = "Nature_genetics.Rdata")
#load(file="Nature_genetics.Rdata")
head(sort(table(fa),decreasing = T),15)
# fa
# ALAM, ORNOB          DANOVI, SAFIA 
# 135                      9                      9 
# FLETCHER, MICHAEL           FAIAL, TIAGO                LI, WEI 
# 9                      8                      8 
# VOGAN, KYLE    GUDMUNDSSON, JULIUS    MCCARROLL, STEVEN A 
# 8                      7                      6 
# BARRETT, JEFFREY C       CONRAD, DONALD F GUDBJARTSSON, DANIEL F 
# 5                      5                      5 
# SULEM, PATRICK        TURNBULL, CLARE                  XU, X 
# 5                      5                      5 

结果:

这个数量级正常了

5.3.1 ALAM, ORNOB

emmm,好吧,看不像科研论文

下一位

5.4- Nature biotechnology

创刊于1996年,27年

1万多篇

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
##Nature biotechnology 
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成两份
query = '("Nature biotechnology"[Journal]) AND (("1996"[Date - Publication] : "2010"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)


query = '("Nature biotechnology"[Journal]) AND (("2011"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

m1 = pmApi2df(D1)
m2 = pmApi2df(D2)
m = rbind(m1, m2)

df=m

df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
save(fa,file = "Nature_biotechnology s.Rdata")
#load(file="Nature_biotechnology s.Rdata")
head(sort(table(fa),decreasing = T),15)
# fa
# FRANCISCO, MICHAEL        JACOBS, TOM     HUGGETT, BRADY          DEWITT, N DEFRANCESCO, LAURA 
# 774                 50                 48                 47                 43                 41 
# PERSIDIS, A            DOVE, A    LAWRENCE, STACY   SHERIDAN, CORMAC    FREDERICKSON, R         HODGSON, J 
# 37                 32                 31                 31                 30                 29 
# GARBER, KEN           HOYLE, R       RATNER, MARK 
# 20                 20                 17 

查了第一名是记者。

好,下一位

5.5- Nature medicine

1995年创立,28年

1万多篇文献

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
##"Nature medicine"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成两份
query = '("Nature medicine"[Journal]) AND (("1995"[Date - Publication] : "2014"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)


query = '("Nature medicine"[Journal]) AND (("2015"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

m1 = pmApi2df(D1)
m2 = pmApi2df(D2)
m = rbind(m1, m2)

df=m

df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
save(fa,file = "Nature medicine.Rdata")
load(file="Nature medicine.Rdata")
head(sort(table(fa),decreasing = T),15)
# fa
# STOWER, HANNAH       O'LEARY, KAREN 
#                  195                  164                   12 
#        BIRMINGHAM, K     CARVALHO, THIAGO CHAKRADHAR, SHRADDHA 
#                   11                   10                   10 
#  GOLDSTEIN, JOSEPH L             NOVAK, K  WILLYARD, CASSANDRA 
#                    5                    5                    5 
#            BACH, F H         BALLMAIER, M             BOSCH, X 
#                    4                    4                    4 
#        GRAINGER, D J     KEENER, AMANDA B             READY, T 
#                    4                    4                    4 

第一名,这个数量级已经没有兴趣查了

6-其他追梦刊物

6.1- Bioinformatics 示例~

创刊1998,25年

1万7的文章数

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
llibrary(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成两份
query = '("Bioinformatics (Oxford, England)"[Journal]) AND (("1998"[Date - Publication] : "2014"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Bioinformatics (Oxford, England)"[Journal]) AND (("2015"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

m1 = pmApi2df(D1)
m2 = pmApi2df(D2)
m = rbind(m1, m2)

##以下一句有修改
df=m

df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
##以下一句有修改,只取了前15head(sort(table(fa),decreasing = T),15) 

看见大佬了~ 核对了一下检索统计结果,没什么问题 看看第一名~

6.1.1FOGG, CHRISTIANA N 记者

依旧不是科研论文

6.1.2 LI, HENG 真大佬,整SAMtools的

哇,真大佬

6.2- BMC bioinformatics

2000年创刊,23年

1万多的文章

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成两份
query = '("BMC bioinformatics"[Journal]) AND (("1998"[Date - Publication] : "2014"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("BMC bioinformatics"[Journal]) AND (("2015"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

m1 = pmApi2df(D1)
m2 = pmApi2df(D2)
m = rbind(m1, m2)

df=m

df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
head(sort(table(fa),decreasing = T),15)

结果:

6.2.1 WINTERS-HILT, STEPHEN 做算法

是学术论文,那真是大牛哇

6.3- Nucleic acids research

1974年创刊,49年

近5万篇文献

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
##"Nucleic acids research"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成六份
query = '("Nucleic acids research"[Journal]) AND (("1974"[Date - Publication] : "1987"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nucleic acids research"[Journal]) AND (("1988"[Date - Publication] : "1993"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nucleic acids research"[Journal]) AND (("1994"[Date - Publication] : "2004"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D3 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nucleic acids research"[Journal]) AND (("2005"[Date - Publication] : "2012"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D4 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nucleic acids research"[Journal]) AND (("2013"[Date - Publication] : "2018"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D5 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Nucleic acids research"[Journal]) AND (("2019"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D6 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

m1 = pmApi2df(D1)
m2 = pmApi2df(D2)
m3 = pmApi2df(D3)
m4 = pmApi2df(D4)
m5 = pmApi2df(D5)
m6 = pmApi2df(D6)
m = rbind(m1, m2, m3,m4,m5,m6)

df=m

df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
head(sort(table(fa),decreasing = T),15)

查作者

6.3.1 NAKAMURA, Y 同类型文章

1988年有峰值

是科研文章,但是是同一类型

6.4- Genome biology

2000年创刊,23年了

5千多文献

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#"Genome biology"[Journal]
rm(list = ls())
library(pubmedR)

api_key = NULL

# pubmed一次只能下载小于1万条记录,这里分成两份
query = '("Genome biology"[Journal]) AND (("1998"[Date - Publication] : "2014"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D1 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

query = '("Genome biology"[Journal]) AND (("2015"[Date - Publication] : "2023"[Date - Publication]))'
res <- pmQueryTotalCount(query = query, api_key = api_key)
D2 <- pmApiRequest(query = query, limit = res$total_count, api_key = NULL)

m1 = pmApi2df(D1)
m2 = pmApi2df(D2)
m = rbind(m1, m2)

df=m

df = df[df$DT == "JOURNAL ARTICLE", ]
fa = gsub(";.*$", "", df$AF)
head(sort(table(fa),decreasing = T),15)

查作者

6.4.1 PETSKO, GREGORY A 记者

从标题看,是记者

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-08-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 生信菜鸟团 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
人员摔倒识别预警系统 人员跌倒检测系统
人员摔倒识别预警系统 人员跌倒检测系统基于yolov7网络模型计算机识别技术,人员摔倒识别预警系统 人员跌倒检测系统对画面中人员摔倒进行实时检测识别抓拍告警。YOLOv7 的策略是使用组卷积来扩展计算块的通道和基数。研究者将对计算层的所有计算块应用相同的组参数和通道乘数。然后,每个计算块计算出的特征图会根据设置的组参数 g 被打乱成 g 个组,再将它们连接在一起。此时,每组特征图的通道数将与原始架构中的通道数相同。最后,该方法添加 g 组特征图来执行 merge cardinality。除了保持原有的 ELAN 设计架构,E-ELAN 还可以引导不同组的计算块学习更多样化的特征。
燧机科技
2023/03/06
9490
人员摔倒识别预警系统 人员跌倒检测系统
渣土车识别监测 渣土车未盖篷布识别抓拍算法
渣土车识别监测 渣土车未盖篷布识别抓拍算法通过yolov7深度学习训练模型框架,渣土车识别监测 渣土车未盖篷布识别抓拍算法在指定区域内实时监测渣土车的进出状况以及对渣土车未盖篷布违规的抓拍和预警。渣土车识别监测 渣土车未盖篷布识别抓拍算法的策略是使用组卷积来扩展计算块的通道和基数。研究者将对计算层的所有计算块应用相同的组参数和通道乘数。然后,每个计算块计算出的特征图会根据设置的组参数 g 被打乱成 g 个组,再将它们连接在一起。此时,渣土车识别监测 渣土车未盖篷布识别抓拍算法每组特征图的通道数将与原始架构中的通道数相同。最后,该方法添加 g 组特征图来执行 merge cardinality。除了保持原有的 ELAN 设计架构,E-ELAN 还可以引导不同组的计算块学习更多样化的特征。
燧机科技
2023/09/24
5470
渣土车识别监测 渣土车未盖篷布识别抓拍算法
非法捕捞识别预警系统
非法捕捞识别预警系统通过yolov7网络模型AI视频分析技术,非法捕捞识别预警系统能够对河道湖泊画面场景中出现的非法捕捞行为进行7*24小时不间断智能检测识别实时告警通知相关人员及时处理。Yolo算法采用一个单独的CNN模型实现end-to-end的目标检测,整个系统如图5所示:首先将输入图片resize到448x448,然后送入CNN网络,最后处理网络预测结果得到检测的目标。相比R-CNN算法,其是一个统一的框架,其速度更快,而且Yolo的训练过程也是end-to-end的。
燧机科技
2023/05/11
6240
非法捕捞识别预警系统
办公室人员离岗识别检测系统
办公室人员离岗识别检测系统根据yolov7网络模型深度学习技术,办公室人员离岗识别检测系统能够7*24小时全天候自动识别人员是否在岗位。YOLOv7 在 5 FPS 到 160 FPS 范围内,速度和精度都超过了所有已知的目标检测器,并在V100 上,30 FPS 的情况下达到实时目标检测器的最高精度 56.8% AP。YOLOv7 是在 MS COCO 数据集上从头开始训练的,不使用任何其他数据集或预训练权重。相对于其他类型的工具,YOLOv7-E6 目标检测器(56 FPS V100,55.9% AP)比基于 transformer 的检测器 SWINL Cascade-Mask R-CNN(9.2 FPS A100,53.9% AP)速度上高出 509%,精度高出 2%,比基于卷积的检测器 ConvNeXt-XL Cascade-Mask R-CNN (8.6 FPS A100, 55.2% AP) 速度高出 551%,精度高出 0.7%。
燧机科技
2023/02/26
7040
办公室人员离岗识别检测系统
工人工服识别检测系统
工人工服识别检测系统基于python+yolov7网络模型深度学习技术,工人工服识别检测系统对现场人员工服穿戴情况自动识别预警。Python是一种由Guido van Rossum开发的通用编程语言,它很快就变得非常流行,主要是因为它的简单性和代码可读性。它使程序员能够用更少的代码行表达思想,而不会降低可读性。与C / C++等语言相比,Python速度较慢。也就是说,Python可以使用C / C++轻松扩展,这使我们可以在C / C++中编写计算密集型代码,并创建可用作Python模块的Python包装器。这给我们带来了两个好处:首先,代码与原始C / C++代码一样快(因为它是在后台工作的实际C++代码),其次,在Python中编写代码比使用C / C++更容易。OpenCV-Python是原始OpenCV C++实现的Python包装器。
燧机科技
2023/03/29
5100
工人工服识别检测系统
穿戴规范智能识别系统
穿戴规范智能识别系统通过yolov7+python网络模型AI深度视觉学习算法,穿戴规范智能识别系统对工厂画面中人员穿戴行为自动识别分析,发现现场人员未按照规定穿戴着装,立即抓拍告警。YOLOv7 的发展方向与当前主流的实时目标检测器不同,研究团队希望它能够同时支持移动 GPU 和从边缘到云端的 GPU 设备。除了架构优化之外,该研究提出的方法还专注于训练过程的优化,将重点放在了一些优化模块和优化方法上。这可能会增加训练成本以提高目标检测的准确性,但不会增加推理成本。研究者将提出的模块和优化方法称为可训练的「bag-of-freebies」。
燧机科技
2023/04/09
8790
穿戴规范智能识别系统
垃圾分类智能分析系统
垃圾分类智能分析系统应用python+yolov7网络模型深度学习识别技术,垃圾分类智能分析系统自动识别违规投放行为并现场进行语音提示实时预警。垃圾分类智能分析系统如垃圾满溢抓拍预警、人脸识别、工服识别、厨余垃圾混投未破袋识别预警、垃圾落地识别预警、人来扔垃圾语音提醒等。我们选择当下YOLO最新的卷积神经网络YOLOv7来进行垃圾分类识别检测。今天提到的 YOLO就是一种 one-stage方法。YOLO是You Only Look Once的缩写,意思是神经网络只需要看一次图片,就能输出结果。
燧机科技
2023/01/30
1.3K0
监控室值班人员脱岗睡岗识别算法 yolov7
监控室值班人员脱岗睡岗识别算法基于python+Yolov7深度学习神经网络算法,python+Yolov7算法模型可以7*24小时不间断自动识别现场画面人员行为,算法鲁棒性强。YOLOv7 的发展方向与当前主流的实时目标检测器不同,同时支持移动 GPU 和从边缘到云端的 GPU 设备。除了架构优化之外,该研究提出的方法还专注于训练过程的优化,将重点放在了一些优化模块和优化方法上。这可能会增加训练成本以提高目标检测的准确性,但不会增加推理成本。研究者将提出的模块和优化方法称为可训练的「bag-of-freebies」。
燧机科技
2023/05/16
1.3K0
监控室值班人员脱岗睡岗识别算法 yolov7
操作流程违规作业监测系统
操作流程违规作业监测系统通过python+yolov7网络深度学习技术,操作流程违规作业监测系统对高危场景下作业人员未按照操作流程进行正常操作行为进行实时分析识别检测,操作流程违规作业监测系统发现现场人员违规作业操作行为,不需人为干预,立即自动抓拍存档预警。YOLOv7 在 5 FPS 到 160 FPS 范围内,速度和精度都超过了所有已知的目标检测器。并在V100 上,30 FPS 的情况下达到实时目标检测器的最高精度 56.8% AP。YOLOv7 是在 MS COCO 数据集上从头开始训练的,不使用任何其他数据集或预训练权重。
燧机科技
2023/01/28
5170
ai皮带跑偏撕裂监测系统功能
ai皮带跑偏撕裂监测系统功能基于yolov7网络模型人工智能视觉技术,ai皮带跑偏撕裂监测系统功能自动识别现场画面中传送皮带撕裂、跑偏、偏移等情况,ai皮带跑偏撕裂监测系统功能立即告警抓拍存档同步回传后台。YOLO 的核心思想就是把目标检测转变成一个回归问题,利用整张图作为网络的输入,仅仅经过一个神经网络,得到bounding box(边界框) 的位置及其所属的类别。YOLOv7 的发展方向与当前主流的实时目标检测器不同,研究团队希望它能够同时支持移动 GPU 和从边缘到云端的 GPU 设备。除了架构优化之外,该研究提出的方法还专注于训练过程的优化,将重点放在了一些优化模块和优化方法上。这可能会增加训练成本以提高目标检测的准确性,但不会增加推理成本。研究者将提出的模块和优化方法称为可训练的「bag-of-freebies」。
燧机科技
2023/05/08
4280
ai皮带跑偏撕裂监测系统功能
河道治理漂浮物识别监测系统
河道治理漂浮物识别监测系统通过yolov7网络模型深度视觉分析技术,河道治理漂浮物识别监测系统实时检测着河道水面是否存在漂浮物、水浮莲以及生活垃圾等,河道治理漂浮物识别监测系统识别到河道水面存在水藻垃圾等漂浮物,河道治理漂浮物识别监测系统立即抓拍存档预警。You Only Look Once说的是只需要一次CNN运算,Unified指的是这是一个统一的框架,提供end-to-end的预测,而Real-Time体现是Yolo算法速度快。整体来看,Yolo算法采用一个单独的CNN模型实现end-to-end的目标检测,相比R-CNN算法,其是一个统一的框架,其速度更快,而且Yolo的训练过程也是end-to-end的。
燧机科技
2023/02/12
6860
河道治理漂浮物识别监测系统
校园学生翻墙打架识别检测系统
校园学生翻墙打架识别检测系统通过yolov7网络模型深度学习分析技术,校园学生翻墙打架识别检测系统可以对:打架行为、倒地行为识别、人员拥挤行为、攀高翻墙违规行为等违规行为进行实时分析检测。YOLOv7 的发展方向与当前主流的实时目标检测器不同,研究团队希望它能够同时支持移动 GPU 和从边缘到云端的 GPU 设备。除了架构优化之外,该研究提出的方法还专注于训练过程的优化,将重点放在了一些优化模块和优化方法上。这可能会增加训练成本以提高目标检测的准确性,但不会增加推理成本。研究者将提出的模块和优化方法称为可训练的「bag-of-freebies」。
燧机科技
2023/02/23
4790
校园学生翻墙打架识别检测系统
AI课堂教学质量评估系统算法
AI课堂教学质量评估系统算法通过yolov7网络模型框架利用摄像头和人脸识别技术,AI课堂教学质量评估系统算法实时监测学生的上课表情和课堂行为。同时,还结合语音识别技术和听课专注度分析算法,对学生的听课专注度进行评估,生成教学质量报告,并提供针对性的改进建议,帮助教师发现问题并进行针对性的改进,提升教学效果。AI课堂教学质量评估系统算法之所以选择yolov7框架模型,相对于其他类型的工具,YOLOv7-E6 目标检测器(56 FPS V100,55.9% AP)比基于 transformer 的检测器 SWINL Cascade-Mask R-CNN(9.2 FPS A100,53.9% AP)速度上高出 509%,精度高出 2%,比基于卷积的检测器 ConvNeXt-XL Cascade-Mask R-CNN (8.6 FPS A100, 55.2% AP) 速度高出 551%,精度高出 0.7%。
燧机科技
2023/09/10
8240
AI课堂教学质量评估系统算法
智慧城管出店经营识别系统
智慧城管出店经营识别系统通过python+yolov7网络模型深度学习技术,智慧城管出店经营识别算法对现场画面进行实时分析,可以实现违规摆摊检测、街道垃圾监测、违章停车识别、违规广告、出店经营检测、公共设施破坏、游摊小贩识别等违规识别。与C / C++等语言相比,Python速度较慢。也就是说,Python可以使用C / C++轻松扩展,这使我们可以在C / C++中编写计算密集型代码,并创建可用作Python模块的Python包装器。这给我们带来了两个好处:首先,代码与原始C / C++代码一样快(因为它是在后台工作的实际C++代码),其次,在Python中编写代码比使用C / C++更容易。OpenCV-Python是原始OpenCV C++实现的Python包装器。
燧机科技
2023/03/28
4940
智慧城管出店经营识别系统
智慧工地车辆冲洗系统 工地渣土车工程车辆未冲洗自动抓拍系统
智慧工地车辆冲洗系统 工地渣土车工程车辆未冲洗自动抓拍系统通过Python基于YOLOv7深度学习网络对现场画面实时监测分析。当智慧工地车辆冲洗系统 工地渣土车工程车辆未冲洗自动抓拍系统识别到现场车辆冲洗不干净或者没有冲洗,系统就立即抓拍。
燧机科技
2022/12/30
5190
智慧工地车辆冲洗系统 工地渣土车工程车辆未冲洗自动抓拍系统
电力施工作业绝缘手套识别系统
电力施工作业绝缘手套识别系统通过Python基于YOLOv7对电力作业人员在电力设备上进行施工作业时是否佩戴绝缘手套进行识别分析,当电力施工作业绝缘手套识别系统检测到作业人员未佩戴绝缘手套时立即抓拍存档同步回传给后台监控人员,提醒相关人员及时制止,及时规避更危险的触电事故发生。
燧机科技
2022/12/30
4260
电力施工作业绝缘手套识别系统
校园打架行为识别检测系统
校园打架行为识别检测系统基于python基于yolov7深度学习框架+边缘分析技术,校园打架行为识别检测系统自动对校园、广场等区域进行实时监测,当监测到有人打架斗殴时,系统立即抓拍存档语音提醒,并将打架行为回传给学校后台,提醒及时处理打架情况。YOLOv7 在 5 FPS 到 160 FPS 范围内,速度和精度都超过了所有已知的目标检测器。并在V100 上,30 FPS 的情况下达到实时目标检测器的最高精度 56.8% AP。YOLOv7 是在 MS COCO 数据集上从头开始训练的,不使用任何其他数据集或预训练权重。
燧机科技
2022/12/28
7940
校园打架行为识别检测系统
AI动作异常行为分析监测系统
AI动作异常行为分析监测系统通过python+yolov7网络模型深度学习技术,AI动作异常行为分析监测系统对现场人员人体动作操作行为以及穿戴情况是否合规进行实时监测。YOLOv7 在 5 FPS 到 160 FPS 范围内,速度和精度都超过了所有已知的目标检测器。并在V100 上,30 FPS 的情况下达到实时目标检测器的最高精度 56.8% AP。YOLOv7 是在 MS COCO 数据集上从头开始训练的,不使用任何其他数据集或预训练权重。此外, YOLOv7 的在速度和精度上的表现也优于 YOLOR、YOLOX、Scaled-YOLOv4、YOLOv5、DETR 等多种目标检测器。
燧机科技
2023/02/08
8120
AI动作异常行为分析监测系统
YOLOv7上线:无需预训练,5-160 FPS内超越所有目标检测器
机器之心报道 编辑:小舟、泽南 在 5-160 FPS 范围内速度和精度超过所有已知目标检测器。 在 YOLOv6 推出后不到两个星期,提出 YOLOv4 的团队就发布了更新一代的版本。 本周三,YOLOv7 的论文被提交到了预印版论文平台 arXiv 上,其三位作者 Chien-Yao Wang、Alexey Bochkovskiy 和 Hong-Yuan Mark Liao 是 YOLOv4 的原班人马。 论文链接:https://arxiv.org/abs/2207.02696 GitHub 链接:
机器之心
2022/07/12
10.3K0
YOLOv7上线:无需预训练,5-160 FPS内超越所有目标检测器
河道水面漂浮物垃圾识别监测系统
河道水面漂浮物垃圾识别监测系统通过Python基于YOLOv7对河道湖泊区域进行实时监测,当河道水面漂浮物垃圾识别监测系统监测到湖面有漂浮物或者垃圾时,系统立即抓拍存档同步发给后台人员通知后台工作人员及时清理。YOLOv7 在 5 FPS 到 160 FPS 范围内,速度和精度都超过了所有已知的目标检测器。并在V100 上,30 FPS 的情况下达到实时目标检测器的最高精度 56.8% AP。YOLOv7 是在 MS COCO 数据集上从头开始训练的,不使用任何其他数据集或预训练权重。
燧机科技
2022/12/28
6490
河道水面漂浮物垃圾识别监测系统
推荐阅读
相关推荐
人员摔倒识别预警系统 人员跌倒检测系统
更多 >
LV.0
这个人很懒,什么都没有留下~
交个朋友
加入腾讯云官网粉丝站
蹲全网底价单品 享第一手活动信息
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档