我实现了一个原始的rtp流。我想用VLC或Mplayer播放它。但是视频播放器似乎不能播放这个流。
例如,MPlayer说:
Stream not seekable!
Stray packet (seq[6]=1013 seq=987, newseq=-26 found at 12)
我不知道我必须做什么,使视频可读的这个视频播放器。我应该添加SDP吗?或者这些播放器可以播放原始的rtp流?
谢谢
我目前在webrtc上遇到了一个问题,当我使用访问服务器时,我无法听到服务器上播放的任何音频提示。同样使用rtp set debug on,仅发送数据包,而不在服务器上接收数据包。如下所述:
Sent RTP packet to 122.161.XX.XX:49819 (type 00, seq 012353, ts 063784, len 000164)
Sent RTP packet to 122.161.XX.XX:49819 (type 00, seq 012354, ts 063944, len 000164)
Sent RTP packet to 12
在我尝试的服务器上:
gnutv -out udp raspberrypi 1000 arte
和
gnutv -out rtp raspberrypi 1000 arte
但是在客户端,我不能接收流!
Playing udp://raspberrypi:1000.
STREAM_UDP, URL: udp://raspberrypi:1000
Failed to connect to server
udp_streaming_start failed
No stream found to handle url udp://raspberrypi:1000
Playing rtp://ras
有很多关于rtsp协议的帖子,从android生成rtp包。我写了一个代码,可以生成rtp包(流)并发送(单播/广播)到本地网络。我的问题是如何通过Internet将数据包(流)发送到服务器?据我所知,我们不能从本地设备(有私有ip)通过inetnet单播到服务器。
Android camera ----> RTP PACKETS -----------------------------------------------> SERVER
Internet
我使用ffmpeg来使用RTP协议播放视频。为什么我不能将多个流发送到一个RTP端口,但是使用RTP的RTSP可以吗?我启动了一个RTSP服务器,它侦听8554 TCP端口和8000/8001 RTP/RTCP。它可以很容易地接收视频和音频流到一个端口8000,我已经用wireshark检查过了。但是,当我尝试使用ffmpeg对纯RTP做同样的操作时,它会打印出一个错误。
Only one stream supported in the RTP muxer
如果我想要流一个声音的视频,我必须将它们分割成两个流并发送到不同的RTP端口。或者我可以让它通过RTP接收多个流到一个端口?
你能解释一下