Articles of videostream

如何监控/计算NodeJS服务器的带宽使用情况?

好吧,所以在一些业余时间,我已经开发了一个nodejs / socketio应用程序streamvideo,但我想知道它运行在什么样的状态,我有我的活动监视器运行,目前有2个用户发送对方的数据stream和统计如下面所述: %CPU: 6.0 Threads: 5 Real Memory: 59.6mb 我如何计算在服务器上发送的数据的总MB / GB?

是否有可能从单个stream式字节范围块创build新的mp4文件?

如果我在支持字节范围的服务器上有远程mp4文件,是否可以检索单个字节范围并从该范围数据创build新的/自包含的mp4? 如果我尝试使用fs.createWriteStream(remoteFilename)将返回的字节范围数据直接写入mp4文件,则不会获取需要播放的video元数据(持续时间,维度等)。 当我得到一个字节范围,从0开始,以XX结束时,输出mp4是可播放的,但是会有整个video长度的持续时间元数据,并且当字节范围在剩余时间内完成时将冻结屏幕时间。 还有什么我可以采取一个字节范围,并从该stream对象创build一个独立的.mp4文件? 整个过程就是避免下载整个10分钟的文件,然后才能使用ffmpeg制作5秒的剪辑。 如果我可以计算和下载字节范围,应该有办法将它写入独立的MP4文件。 预先感谢您提供的任何帮助。

如何使用套接字(.io)将audio/video从node.js服务器stream式传输到html5页面

我需要从一个node.js服务器stream式传输mp3或mp4,并在html5页面上观看。 我正在尝试使用socket.io来加速通信,我希望它会降低我使用简单的http的延迟。 我在我的项目中设置了socket.io,无论是在客户端(移动web应用程序)和服务器上,但我找不到,也找不到在networking上如何正确发送数据,并将其引导到一个标签。

将getUserMediastream式传输到服务器

我是二进制数据和getUserMedia的新手,如何将getUserMedia(video/audio)stream式传输到服务器,然后为其他连接准备stream(video/audio)? 我最初的想法是通过websockets发送数据,然后将数据写入文件(mp4),如下所示: getUserMedia –>(websockets)–> server –>(file.mp4)–> video.src 。 我一直在看MediaStreamRecorder ,我可以像这样发送一个缓冲区: multiStreamRecorder.ondataavailable = function (blobs) { socket.emit('blobs', blobs) }; 在我得到的服务器上 { audio: <Buffer 52 49 46 46 2c 10 04 00 57 41 56 45 66 6d 74 20 10 00 00 00 01 00 01 00 44 ac 00 00 10 b1 02 00 02 […]

在nodejs中stream式传输video

我试图从我的服务器streamvideo,但它不起作用,或者我可能做错了: 我的路线定义如下: var fs = require('fs'); router.get('/', function(req, res) { fs.readdir(__dirname + '/../public/videos', function(err, data){ res.render('videos', {files: data}); }); }); router.get('/:file', function(req, res) { res.render('videofile', {file: req.params.file}); }); 在我的模板文件中我有video.jade: ul for file in files li p a(href=file)= file 其实它列出了我的video剧目中的所有video。 然后为videofile.jade video source(src=file type="video/webm") 我希望它能在我的iOS设备上工作,但不会(它保持在同一页面上)