前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >go时间/时间戳操作大全

go时间/时间戳操作大全

原创
作者头像
李昊天
修改于 2019-07-09 03:26:37
修改于 2019-07-09 03:26:37
2.1K0
举报

基本操作

01: 获取当前时间

代码语言:txt
AI代码解释
复制
dateTime := time.Now()

fmt.Println(dateTime)

02: 获取年 月 日 时 分 秒 纳秒

代码语言:txt
AI代码解释
复制
year := time.Now().Year() //年



fmt.Println(year)



month := time.Now().Month() //月

fmt.Println(month)



day := time.Now().Day() //日

fmt.Println(day)



hour := time.Now().Hour() //小时

fmt.Println(hour)



minute := time.Now().Minute() //分钟

fmt.Println(minute)



second := time.Now().Second() //秒

fmt.Println(second)



nanosecond := time.Now().Nanosecond() //纳秒

fmt.Println(nanosecond)

03: 获取当前时间戳

代码语言:txt
AI代码解释
复制
timeUnix := time.Now().Unix()         //单位秒

timeUnixNano := time.Now().UnixNano() //单位纳秒

    

fmt.Println(timeUnix)

fmt.Println(timeUnixNano)

04: 将时间戳格式化

代码语言:txt
AI代码解释
复制
fmt.Println(time.Now().Format("2006-01-02 15:04:05"))

05: 时间戳转为go格式的时间

代码语言:txt
AI代码解释
复制
var timeUnix int64 = 1562555859

fmt.Println(time.Unix(timeUnix,0))



// 之后可以用Format 比如

fmt.Println(time.Unix(timeUnix, 0).Format("2006-01-02 15:04:05"))

06: str格式化时间转时间戳

代码语言:txt
AI代码解释
复制
t := time.Date(2014, 1, 7, 5, 50, 4, 0, time.Local).Unix()



fmt.Println(t)

时间的计算

01: 获取今天0点0时0分的时间戳

代码语言:txt
AI代码解释
复制
currentTime := time.Now()

startTime := time.Date(currentTime.Year(), currentTime.Month(), currentTime.Day(), 0, 0, 0, 0, currentTime.Location())

fmt.Println(startTime)

fmt.Println(startTime.Format("2006/01/02 15:04:05"))

02: 获取今天23:59:59秒的时间戳

代码语言:txt
AI代码解释
复制
currentTime := time.Now()

endTime := time.Date(currentTime.Year(), currentTime.Month(), currentTime.Day(), 23, 59, 59, 0, currentTime.Location())

fmt.Println(endTime)

fmt.Println(endTime.Format("2006/01/02 15:04:05"))

03: 获取1分钟之前的时间

代码语言:txt
AI代码解释
复制
m, \_ := time.ParseDuration("-1m")

result := currentTime.Add(m)



fmt.Println(result)

fmt.Println(result.Format("2006/01/02 15:04:05"))

04: 获取1小时之前的时间

代码语言:txt
AI代码解释
复制
m, \_ := time.ParseDuration("-1h")

result := currentTime.Add(m)

fmt.Println(result)

fmt.Println(result.Format("2006/01/02 15:04:05"))

05: 获取1分钟之后的时间

代码语言:txt
AI代码解释
复制
m, \_ := time.ParseDuration("1m")

result := currentTime.Add(m)



fmt.Println(result)

fmt.Println(result.Format("2006/01/02 15:04:05"))

06: 获取1小时之后的时间

代码语言:txt
AI代码解释
复制
m, \_ := time.ParseDuration("1h")

result := currentTime.Add(m)

fmt.Println(result)

fmt.Println(result.Format("2006/01/02 15:04:05"))

07 :计算两个时间戳

代码语言:txt
AI代码解释
复制
afterTime, \_ := time.ParseDuration("1h")

result := currentTime.Add(afterTime)



beforeTime, \_ := time.ParseDuration("-1h")

result2 := currentTime.Add(beforeTime)



m := result.Sub(result2)

fmt.Printf("%v 分钟 \n", m.Minutes())



h := result.Sub(result2)

fmt.Printf("%v小时 \n", h.Hours())



d := result.Sub(result2)

fmt.Printf("%v 天\n", d.Hours()/24)

08: 判断一个时间是否在一个时间之后

代码语言:txt
AI代码解释
复制
stringTime, \_ := time.Parse("2006-01-02 15:04:05", "2019-12-12 12:00:00")

beforeOrAfter := stringTime.After(time.Now())



if true == beforeOrAfter {

    fmt.Println("2019-12-12 12:00:00在当前时间之后!")

} else {

    fmt.Println("2019-12-12 12:00:00在当前时间之前!")

}

09: 判断一个时间相比另外一个时间过去了多久

代码语言:txt
AI代码解释
复制
startTime := time.Now()

time.Sleep(time.Second \* 5)



fmt.Println("离现在过去了:", time.Since(startTime))

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
17篇注意力机制PyTorch实现,包含MLP、Re-Parameter系列热门论文
注意力(Attention)机制最早在计算机视觉中应用,后来又在 NLP 领域发扬光大,该机制将有限的注意力集中在重点信息上,从而节省资源,快速获得最有效的信息。
OpenCV学堂
2021/08/05
1.2K0
17篇注意力机制PyTorch实现,包含MLP、Re-Parameter系列热门论文
深度学习中的Attention总结
【GiantPandaCV导语】 近几年,Attention-based方法因其可解释和有效性,受到了学术界和工业界的欢迎。但是,由于论文中提出的网络结构通常被嵌入到分类、检测、分割等代码框架中,导致代码比较冗余,对于像我这样的小白很难找到网络的核心代码,导致在论文和网络思想的理解上会有一定困难。因此,我把最近看的Attention、MLP和Re-parameter论文的核心代码进行了整理和复现,方便各位读者理解。本文主要对该项目的Attention部分做简要介绍。项目会持续更新最新的论文工作,欢迎大家follow和star该工作,若项目在复现和整理过程中有任何问题,欢迎大家在issue中提出,我会及时回复~
BBuf
2021/07/01
7700
深度学习中的Attention总结
深度学习基础知识(七)--重参数
结构重参数化指的是首先构造一个结构用于训练,然后在推理阶段将参数等价转换为另一组参数。这样在训练过程中我们可以利用较大开销,但是在推理阶段使用小开销。也可以理解微重参数化结构在训练阶段加入了一些可以在推理阶段去掉的参数。
languageX
2022/11/06
1.7K1
大模型中常用的注意力机制GQA详解以及Pytorch代码实现
分组查询注意力 (Grouped Query Attention) 是一种在大型语言模型中的多查询注意力 (MQA) 和多头注意力 (MHA) 之间进行插值的方法,它的目标是在保持 MQA 速度的同时实现 MHA 的质量。
deephub
2024/04/03
7.2K0
大模型中常用的注意力机制GQA详解以及Pytorch代码实现
PyTorch60分钟教程学习笔记基本概念网络构建分类网络搭建,训练与测试
基本概念 Tensor tensor是的含义是张量,简单的理解可以将其当成三维矩阵,pytorch中的张量是对数据的一种封装,也是数据结构中最核心的部分之一。对于pytorch中的张量,数组可能是更好的理解方法。 Tensor的定义 直接定义矩阵,使用torch.Tensor(shape)方法定义未初始化的张量,使用torch.rand(shape)或torch.randn(shape)定义随机张量 import torch as pt x = pt.Tensor(2,4) print(x) # 1.000
月见樽
2018/04/27
1K0
【CV中的attention机制】
提出scSE模块论文的全称是:《Concurrent Spatial and Channel ‘Squeeze & Excitation’ in Fully Convolutional Networks 》。这篇文章对SE模块进行了改进,提出了SE模块的三个变体cSE、sSE、scSE,并通过实验证明了了这样的模块可以增强有意义的特征,抑制无用特征。实验是基于两个医学上的数据集MALC Dataset和Visceral Dataset进行实验的。
BBuf
2020/02/12
1.2K0
【CV中的attention机制】
结合代码看深度学习中的Attention机制-Part2
【GiantPandaCV导读】近几年,Attention-based方法因其可解释和有效性,受到了学术界和工业界的欢迎。但是,由于论文中提出的网络结构通常被嵌入到分类、检测、分割等代码框架中,导致代码比较冗余,对于像我这样的小白很难找到网络的核心代码,导致在论文和网络思想的理解上会有一定困难。因此,我把最近看的Attention、MLP和Re-parameter论文的核心代码进行了整理和复现,方便各位读者理解。本文主要对该项目的Attention部分做简要介绍。项目会持续更新最新的论文工作,欢迎大家follow和star该工作,若项目在复现和整理过程中有任何问题,欢迎大家在issue中提出,我会及时回复~
BBuf
2021/07/23
5090
​​​​【动手学深度学习】残差网络(ResNet)的研究详情
启动jupyter notebook,使用新增的pytorch环境新建ipynb文件,为了检查环境配置是否合理,输入import torch以及torch.cuda.is_available() ,若返回TRUE则说明研究环境配置正确,若返回False但可以正确导入torch则说明pytorch配置成功,但研究运行是在CPU进行的,结果如下:
SarPro
2024/06/14
2830
​​​​【动手学深度学习】残差网络(ResNet)的研究详情
【源头活水】MLP-Mixer 里隐藏的卷积
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
马上科普尚尚
2021/05/20
6850
基于大模型的多模态数据融合实战应用
多模态数据融合是当前人工智能(AI)研究的热门领域,涉及文本、图像、音频、视频等多种数据类型的集成。随着大型语言模型(LLM)和多模态大模型(如GPT-4V、BLIP-2、Flamingo等)的发展,AI 在处理多模态数据的能力得到极大提升。本文将探讨基于大模型的多模态数据融合方法,并通过 Python 代码示例演示如何构建多模态应用。
一键难忘
2025/03/03
7930
深度学习中的重参数机制总结和实现
最近拜读了丁霄汉大神的一系列重参数的论文,觉得这个思想真的很妙。能够在将所有的cost都放在训练过程中,在测试的时候能够在所有的网络参数和计算量都进行缩减。目前网上也有部分对这些论文进行了解析,为了能够让更多读者进一步、深层的理解重参数的思想,本文将会结合代码,近几年重参数的论文进行详细的解析。
BBuf
2021/07/01
1.5K0
深度学习中的重参数机制总结和实现
从 relu 的多种实现来看 torch.nn 与 torch.nn.functional 的区别与联系
而这3种不同的实现其实是有固定的包装关系,由上至下是由表及里的过程。其中最后一个实际上并不被 pytorch 的官方文档包含,同时也找不到对应的 python 代码,只是在 __init__.pyi 中存在,因为他们来自于通过C++编写的THNN库。
狼啸风云
2020/05/07
4K0
【Block总结】Conv2Former的Block,结合卷积网络和Transformer的优点|即插即用
Conv2Former是一种新型的卷积神经网络(ConvNet),旨在结合卷积网络和Transformer的优点,以提升视觉识别任务的性能。传统的卷积神经网络在处理局部特征提取方面表现优异,但在建模全局信息和长距离依赖关系时存在局限。随着视觉Transformer(ViTs)的发展,研究者们开始探索如何将卷积操作与Transformer的自注意力机制相结合,以克服这些局限性。
AI浩
2025/01/15
1450
【Block总结】Conv2Former的Block,结合卷积网络和Transformer的优点|即插即用
【深度学习入门篇 ⑥】PyTorch搭建卷积神经网络
卷积神经网络是深度学习在计算机视觉领域的突破性成果,在计算机视觉领域,往往我们输入的图像都很大,使用全连接网络的话,计算的代价较高;另外图像也很难保留原有的特征,导致图像处理的准确率不高。
@小森
2024/07/25
2170
【深度学习入门篇 ⑥】PyTorch搭建卷积神经网络
计算机视觉中常用的注意力机制
注意力机制起初是作为自然语言处理中的工作Attention Is All You Need被大家所熟知,从而也引发了一系列的XX is All You Need的论文命题,SENET-Squeeze-and-Excitation Networks是注意力机制在计算机视觉中应用的早期工作之一,并获得了2017年imagenet, 同时也是最后一届Imagenet比赛的冠军,后面就又出现了各种各样的注意力机制,应用在计算机视觉的任务中。
为为为什么
2022/08/09
8670
计算机视觉中常用的注意力机制
Deep Learning with PyTorch: A 60 Minute Blitz > Neural Networks
Neural networks can be constructed using the torch.nn package.
望天
2024/06/12
1570
Deep Learning with PyTorch: A 60 Minute Blitz > Neural Networks
【深度学习】翻译:60分钟入门PyTorch(三)——神经网络
原文翻译自:Deep Learning with PyTorch: A 60 Minute Blitz
黄博的机器学习圈子
2021/02/12
7400
「深度学习一遍过」必修15:PyTorch模型分析
本地版:https://github.com/lutzroeder/netron
荣仔_最靓的仔
2022/01/10
1.2K0
「深度学习一遍过」必修15:PyTorch模型分析
YOLO11 全新发布!(原理介绍+代码详见+结构框图)
Ultralytics YOLO11是一款尖端的、最先进的模型,它在之前YOLO版本成功的基础上进行了构建,并引入了新功能和改进,以进一步提升性能和灵活性。YOLO11设计快速、准确且易于使用,使其成为各种物体检测和跟踪、实例分割、图像分类以及姿态估计任务的绝佳选择。
AI小怪兽
2024/10/08
9.1K1
干货 | PyTorch相比TensorFlow,存在哪些自身优势?
1、 PyTorch 课替代NumPy 使用:PyTorch 本身主要构件是张量——和 NumPy 看起来差不多。使得 PyTorch 可支持大量相同的 API,有时候可以把它用作是 NumPy 的替代品。PyTorch 的开发者们这么做的原因是希望这种框架可以完全获得 GPU 加速带来的便利,以便你可以快速进行数据预处理,或其他任何机器学习任务。将张量从 NumPy 转换至 PyTorch 非常容易,反之亦然。看看如下代码: import torch import numpy as np numpy_t
IT派
2018/03/28
3.5K0
干货 | PyTorch相比TensorFlow,存在哪些自身优势?
推荐阅读
相关推荐
17篇注意力机制PyTorch实现,包含MLP、Re-Parameter系列热门论文
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档