腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
未在Chrome WebRTC
中
播放的Wowza转换流
google-chrome
、
video-streaming
、
webrtc
、
wowza
、
wowza-transcoder
我正在编码VP8通过WebRTC到Wowza
流
引擎。然后,我将流转换为
H264
。VP8流在Google
中
能很好地回放,但是
H264
流
不会播放。
H264
基线
3.0 比特率:350
浏览 3
提问于2018-01-23
得票数 0
1
回答
在
浏览器
中
显示
基线
h264
帧
流
node.js
、
ffmpeg
、
webrtc
、
video-streaming
、
h.264
因此,我有一个服务器,它接收实时rtsp
流
,然后使用ffmpeg生成
基线
h264
帧
,然后通过rtcDataChannel发送到
浏览器
,虽然
帧
按预期到达,但我想不出在我的html5 videoElement上
显示
它们的方法,以下是我当前方法的简化版本: const remoteStream = new MediaSource(); myVideoElement.src = window.URL.createObjectURLtune', 'zerola
浏览 32
提问于2021-08-06
得票数 0
2
回答
gstreamer
在
浏览器
中
几
帧
后停止
h264
播放
windows
、
webrtc
、
gstreamer
、
h.264
、
nvenc
我构建了一个gstreamer管道,将NVENC编码的
h264
比特
流
(仅用于视频)流到
浏览器
。
浏览器
很少能正常运行。
在
大多数情况下,只有很少的
帧
被渲染,然后图像被冻结。在运行时,NVENC将实时呈现的opengl fbo纹理编码为
h264
比特
流
,并通过appsrc将它们推送到gstreamer
中
。目前的纹理大小为512x512,并在10/20/30 fps。我还尝试
在
android(chrome)
浏览 10
提问于2021-01-01
得票数 4
回答已采纳
1
回答
识别
流
视频
中
的人脸AWS -如何将实时视频连接到Kinesis视频
流
?
amazon-web-services
、
aws-sdk
、
facial-identification
现在我可以
在
静态图像
中
识别人脸了。我想要识别流媒体视频
中
的人脸。我提到了这个链接,但我不明白如何将直播视频连接到kinesis视频
流
。任何人都可以帮助我理解处理器。
浏览 28
提问于2018-12-13
得票数 0
3
回答
H264
编码的图像应该重新编码吗?什么是关键
帧
c#
、
h.264
、
keyframe
我有图像是
H264
编码的。我已经从这些图像中生成了一个视频。我需要把这段视频重新编码成
H264
吗?还有,关键
帧
到底是什么?
浏览 3
提问于2011-02-18
得票数 0
回答已采纳
1
回答
对原始视频
帧
使用媒体源扩展
video
、
video-streaming
、
html5-video
、
h.264
、
media-source
我正在尝试从服务器到
浏览器
进行
H264
视频的实时直播。
H264
流
没有包装在MP4容器
中
,而是以原始
H264
框架的形式(通过web套接字)找到了到达
浏览器
的途径。问题是:是否有可能为媒体源扩展提供原始
帧
,而不是MP4或WebM等文件容器? 诸如MPEG-DASH之类的mp4解决方案没有给我
在
低延迟、多视频同步和其他我需要实现的元素方面所需的灵活性。
浏览 3
提问于2015-01-13
得票数 10
1
回答
如何将Kinesis视频
流
与用于检测人员的Kinesis视频识别集成
aws-lambda
、
amazon-kinesis
、
amazon-rekognition
使用Raspberry pi,使用Kinesis video streaming Parser库获得实时视频
流
,并希望将
流
处理到Kinesis Video Rekognition以检测人员。设置所需的ARN细节,获取视频
流
并设置为Frame Viewer。然后尝试将Kinesis视频
流
与Rekognition集成。
浏览 46
提问于2019-02-06
得票数 0
回答已采纳
1
回答
来自OpenGL的WebRTC
H264
视频直播(w FFMPEG)
ffmpeg
、
video-streaming
、
streaming
、
webrtc
、
h.264
在这一点上,我设法捕获了OpenGL
帧
,并且我有了一个功能正常的Java websockets服务器,我可以有两个客户端建立一个对等连接(我已经解决了STUN/TURN服务器部分),并在这一点上传输文本我不太明白如何在低延迟(<100ms)的情况下流式传输由Opengl
帧
组成的视频。问题主要出在FFMPEG部分,我想用它来编码
帧
,得到结果( ffmpeg ?的stdin/stdout重定向?)
浏览 16
提问于2020-04-25
得票数 0
回答已采纳
2
回答
播放.
h264
文件webplayer
html
、
video
、
h.264
我正试图
在
我的网站上播放一个.
h264
文件(一个带有.
h264
后缀的文件,而不是.mp4!)我有没有办法做到这一点?html标签似乎不支持它。
浏览 2
提问于2015-01-22
得票数 0
1
回答
使用vlc将视频流式传输到android
android
、
video-streaming
、
vlc
、
transcoding
something --rtsp-host localhost:5544new test vod setup test output #transcode{vcodec=
h264
浏览 2
提问于2012-01-26
得票数 1
回答已采纳
1
回答
解码原始
h264
失真或灰度图像
ffmpeg
、
libavcodec
、
libav
我需要解码一个
H264
流
,来自一个直播的DVR相机。为了方便示例,我将DVR摄像机的原始
流
存储
在
以下文件(test.h264)
中
:如果我用VLC打开.
h264
测试,图像看起来很完美。我认为发生这种情况是因为与
H264
流
一起可以有音频。[
h264
@ 092a9b00] Invalid NAL unit
浏览 4
提问于2018-04-09
得票数 1
回答已采纳
1
回答
h264
实时视频
流
c++
、
html
、
video
、
ffmpeg
、
streaming
如果您已经
在
一端(服务器)上动态生成了
h264
frames,那么如何使实时(低延迟)视频
流
可以
在
浏览器
(客户端)
中
查看?换句话说,我试图实现的是将图形化密集型c++应用程序从gpu服务器流到
浏览器
。作为一个简单的解决方案,我想到了这样的事情:应用程序创建的
h264
帧
被发送到标准输出,
在
标准输出
中
,ffmpeg用于将
浏览 1
提问于2016-03-24
得票数 3
1
回答
如何将
H264
封装在RTP
中
?
video
、
h.264
、
packet
、
rtp
、
wowza
我有手机摄像头的
H264
流
。
在
我的Java应用程序
中
,我可以逐
帧
访问已经用
H264
编码的
流
帧
。我需要把它传送到Wowza媒体服务器。由于wowza只理解RTP/RTSP
流
,所以我可以只
在
每个帧数据的前面添加RTP头并将其流到wowza吗? 非常感谢你的帮助
浏览 6
提问于2011-10-09
得票数 4
1
回答
如何使用媒体基金会从MP4视频
中
丢弃任意
帧
?
c++
、
video
、
ms-media-foundation
我目前正在尝试实现一种算法,当编码到另一个MP4 (使用媒体基金会)时,该算法可以快速地丢弃MP4视频
中
不想要的
帧
。 编码部分看起来不错-- "“方法很好,而且速度很快。如果考虑到读取的样本将是H.264编码
流
中
的“预测-
帧
”,即P-
帧
,那么这种天真的方法是没有好处的。删除任何前面的“
帧
内编码的图片
帧
”(i
帧
或关键
帧
)之前,将导致混乱的视频。所以,我的问题是,
在
恢复接收器作者的示例写作之前
浏览 17
提问于2014-03-05
得票数 0
回答已采纳
1
回答
webrtc
h264
视频混淆铬
google-chrome
、
webrtc
、
gstreamer
、
h.264
嗨,我正在尝试设置一个实时
流
的相机
流
,以流到铬
浏览器
。我来自照相机的
流
是用
h264
编码的,所以我想使用gstreamers元素直接将它发送到
浏览器
。我已经用视频tested测试了它,看看是否直接对它进行编码,并将其发送到
浏览器
中
是否会
显示
一些信息。编辑:有趣的是,当尝试一种不同的模式时,例如球,输出看起来和行为都很好:EDIT2:这个视频
在
火狐
中
播放得很好.嗯..。铬是否有
显示<
浏览 1
提问于2019-01-13
得票数 2
1
回答
WebRTC
H264
连接-奇怪的配置文件级别-id
webrtc
、
h.264
、
rtsp
、
v4l2
、
janus-gateway
我正在尝试
在
RTSP摄像头和
浏览器
之间建立WebRTC连接。cam创建了一个很好的
h264
流
,可以
在
VLC播放器
中
很好地播放。对于WebRTC,我使用的是Janus。,Chrome可以播放流,但FF
在
第一个关键
帧
接收后立即崩溃。 摄像头
流
由v4l2rtspserver创建。 请帮我找出这个profile-level-id的位置。 它是有效的吗?
浏览 67
提问于2019-05-30
得票数 0
1
回答
使用FFMPEG库处理UDP stream mpeg2 ts视频延迟/初始连接问题
c++
、
video
、
ffmpeg
、
libavcodec
、
libavformat
目前正在使用FFPMEG的库来流式传输一些MPEG2 TS (
h264
编码的)视频。流传输通过UDP多播完成。一旦视频开始运行,一切都很好,但它总是被初始连接时间延迟。 我正在尝试尽可能地接近直播。当前使用av_dict_set(&dict,"tune","zerolatency",0)和"profile“->”
基线</em
浏览 7
提问于2015-03-16
得票数 1
1
回答
iOS
流
直播h.264视频
ios
、
streaming
、
live
、
h.264
我有一个mime类型的视频
流
/
H264
,从安全摄像头
流
直播h.264视频。我正在尝试实时流式传输和解码h.264
帧
(最好是硬件解码),并在视图中
显示
它们。我看了一下AVFoundation,但不确定如何处理视频/
H264
流
。我是否应该从
流
中
抓取每一
帧
(I
帧
/P
帧
)并将其传递给AVAssetReader?任何方向/示例代码/库参考都会
浏览 1
提问于2012-11-28
得票数 4
回答已采纳
1
回答
在
UCM
中
,过时的
基线
有什么影响?
clearcase
、
clearcase-ucm
当
基线
过时时,会有什么不良影响吗? 例如,如果
基线
已经被很多人重新设置了基数,如果我废弃了
基线
,会发生什么?
浏览 3
提问于2012-06-20
得票数 1
点击加载更多
相关
资讯
如何精确统计平台直播延时?
浅析云控平台画面传输的视频流方案
Yann LeCun等最新研究:如何对未来实例分割进行预测?
强!腾讯开源的kotlin高性能特效动画组件!
Oculus CTO卡马克经验分享:如何最大程度地优化360视频体验
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
语音识别
活动推荐
运营活动
广告
关闭
领券