-->
保存您的免费座位流媒体连接今年八月. 现在注册!

CDN77的Juraj Kacaba谈论低延迟流媒体和边缘

Juraj Kacaba, Head of Client Implementations at CDN77,采访了创始执行董事蒂姆·西格林(蒂姆Siglin), Help Me Stream 研究 Foundation, Contributing Editor, 流媒体, 在流媒体东2023的采访中讨论低延迟流媒体和边缘传输.

Siglin在讨论开始时提到他看到Kacaba给了一个 presentation at Content Delivery Summit which caught his attention. Kacaba谈到了在不破坏流稳定的情况下降低延迟的方法. “多年来,我们在行业中遇到的一个问题是,从一个角度来看,HTTP传输非常棒, but when you do fragmented MP4, you have to wait for...the GOPs and all that kind of thing西格林说. “I wrote early papers around 光滑的流, so that's always been a classic problem. 几年前我谈到的一个问题是,我们把自己逼到一个角落,我们必须等30秒才能交货. 所以你谈到了可能解决这个问题的方法.”

“通常, 在这些用例中,我们所做的是与客户合作,了解他们需要什么,Kacaba说. “From the beginning, 我们就像, “好吧, 所以我们需要坚持使用HTTP,因为这是最常用的格式.“当我们想在社交媒体上使用这种解决方案时, or popular streaming apps, 我们需要一个在所有公共设施上都能得到支持的解决方案 iphone and other devices. Which is the reason why we choose HLS 或MPEG-DASH. 然后我们问,降低延迟的正常方法是什么,来控制数据块本身的大小? 只有一个临界值——你可以切断它,然后它就会变得不稳定.”

西格林说:“人们试图将其降低到阈值以下,这导致了非常糟糕的视频.

Kacaba说 that CDN77’s approach is, “让我们生成数据块,并看看如何处理边缘的数据块. So, more and more, you learn. Let's say you have the chunk of five seconds. Because it's still a chunk, 它是你在CDN上发布的一段静态内容,就像其他静态内容一样. 但是您可以做的是将数据块分割成更小的HTTP块, you push that to the server, even before the client [requests it].”

“So you’re pre-populating西格林说.

“Yes,Kacaba说. “We already push it to the edge. 而且,每个小的HTTP块都有关于下一个HTTP块的信息. 所以有一个恒定的HTTP推送来自原点. 我们这样做是为了确保无论何时玩家请求块, we already have at least part of it cached, they're ready to deliver. 当然,你需要把所有这些都塞进四五秒钟, depending on the desired latency.”

“A couple of 流媒体 shows back, 我们请罗杰哑剧来谈谈他们的低延迟HLS西格林说. “Is what you're describing somewhat similar to that, 或者基本上你可以使用标准HLS或标准DASH分割?”

Kacaba说, “我们想要关注的一件事是纯粹使用市场标准, so that it's standardized HLS, 或MPEG-DASH, because it's packaged by CMAF. So, 当你想在市场上部署这些解决方案时, 你需要确保玩家端和最终用户端的可用性, 但是您还需要确保它是标准化的,并且易于为您的客户机部署, who are the providers of these apps, this is the way this is for us to go.”

“因此,寻找低延迟HLS的问题之一是,你必须从本质上转换 一切 over to a low-latency HLS西格林说. “我听到你描述的是——如果我说错了请纠正我——如果你有一个不一定能接收部分数据块的设备,你就可以传送它, 你可能需要把它作为一个完整的块发送给其他更了解这一点的人,他们有能力重新打包它.”

“Yes, it is like that,Kacaba说. “这也是我们喜欢使用标准化格式的原因. There's a really straight pathway. 即使设备不具备低延迟流媒体的能力, 您可以切换到正常的标准化和受支持的格式.”

现在来谈谈 [request] coalescing a little bit西格林说. “我认为很多人都不熟悉这一点,你也提到了这一点.”

“所以,合并是一种一直存在的东西 清漆-based CDNs for quite a while,Kacaba说. “The main and first issue for us is that we work with NGINX request coalescing. 在正常设置中,它本质上是不存在的. 所以这是我们需要克服的第一个大障碍, we needed to code it from scratch. 我们设法做到了,所以现在我们甚至可以在NGINX上使用它. That was one of the first steps we actually took. 市场标准是什么,使用的是什么,我们可以利用什么,以及我们如何调整它? 我们尝试使用所有市场标准的原因是,这样您就可以拥有自己的编码器和堆栈, 我们可以把我们的CDN放进去,帮助你降低网络或你那边的延迟. 然后我们还可以为您提供我们自己的内置编码和视频处理解决方案. 所以我们的目标就是尽可能地开放实施. 您可以只实现CDN端来降低延迟, 但也要处理好你已经制作好的内容. 也, 如果你敞开心扉, 你可以使用我们自己的编码器,有更多的方法来调整它,微调它来做一个特定的用例.”

“Are you primarily focused on live delivery?西格林问道.

Kacaba说:“现在是一半一半,因为我们的主要用例之一是社交媒体。. “我们现在在社交媒体上看到的是越来越多的直播内容. 越来越多的社交媒体应用将直播作为一个整体进行投资.”

“And because you're doing social media, 当然, 其中一个固有的问题是,你的产品主要面向移动设备西格林说. “As opposed to main power devices. 有一件事一直让我很感兴趣,那就是我们试图降低HLS的延迟, 甚至关于DASH的讨论都是关于这些delta的, you're also delivering on an intermittent network. 如果漏掉了中间的一个会怎样呢? How does the system recover? 它是否必须等待整个段长度的时间才能获得下一组数据包?”

“The way we treat it is, when you have request coalescing, 当然,这完全是多余的,我们希望能领先一步. 所以我们利用我们的私有主干把数据块放到它们需要的地方. And then 当然 you have multiple layers of cache, 因此,即使这些步骤中的任何一个连接断开并恢复, it's still really close to the next step. So in this way you have a more redundant stack.”

“所以基本上在你释放之前,你已经验证了它已经到达了你路径的边缘西格林说.

“Exactly,Kacaba说. ” HTTP推 你可以在它们被提供给客户之前,验证你的细分市场.”

“And how much extra time does that add?西格林问道. “Because obviously one of the things with TCP/IP, 握手确认是需要一段时间的.”

“当它在亚秒级的超低延迟空间内不移动时, 这里和那里的几毫秒正好是这些类型的步骤所需要的缓冲,Kacaba说.

“And you're staying longer than the windowing issue?西格林问道.

“即使 WebRTC在美国,你仍然有这个小小的缓冲,但你总是需要一个缓冲,”Kacaba说.

“这是我们几十年来学到的东西,从缓冲中发挥作用,”西格林说. “不要试图马上就把它放进去, especially if they get backwards to each other.”

Kacaba说:“你提到了移动设备,我认为这是一个很好的观点. 现在越来越多的人通过移动设备和移动网络消费内容, so jitter is quite an issue. 然后你开始在现实世界中实现不同的解决方案,在某个时候你问自己一个问题,比如, “好吧, so how little of latency is truly latency?' You see how the end users actually use the service, 在4到6秒的时间内移动通常是社交媒体的理想空间. 因为一件事是,内容生产者——也就是社交媒体上的某一类人——他当然想在聊天中说话, 但也, 社交媒体需要适度的聊天,有一些缓冲,使内容安全.”

“这是典型的美国广播转储按钮,你可以确保(直播)没有做(不合适的)事情。”西格林说.

了解更多关于低延迟流和边缘 流媒体 Connect 2023.

流媒体覆盖
免费的
for qualified subscribers
现在就订阅 最新一期 过去的问题
相关文章

The State of Edge Compute and Delivery 2024

In this year's State of Edge Compute and Delivery, 我将探讨似乎对流媒体最重要的三个方面:聚合, on-prem, 和地区.

Where Will Content Delivery's Edge Be in 5 Years?

The edge in content delivery is by definition a moving target; CDN Alliance chair Mark de Jong suggests that the ultimate definition or destination of the edge might well be the end user themselves. 领先的内容公司认为今天的优势在哪里?他们期望5年后的优势在哪里? De Jong raises the issue with Warner Bros. Discovery's Subhrendu Sarkar and Starz' Rob Collins, 在这段来自2023年流媒体连接的视频中,谁对内容交付的去向给出了最好的猜测.

超越延迟:微赌博和电子游戏的主要流媒体挑战

微赌和电子游戏是增长最快的直播应用, 对闪电般快速响应的交互性的需求使得超低延迟在这些场景中必不可少, 以及随之而来的所有挑战——尤其是在必须使用5G的领域. 但是,当涉及到电子游戏和小额赌博时,流媒体专业人士还需要考虑哪些问题? Barrett-Jackson Auction Company's Darcy Lorincz, videoRx' Robert Reinhardt, 和流媒体视频技术联盟的杰森·蒂博在流媒体连接2023的小组讨论中讨论了这一片段.

Know Your Tech for Low-Latency Streaming

videoorx的Robert Reinhardt通过低延迟流媒体的关键使能技术指导观众, 包括服务器摄取和客户端交付协议,如WebRTC, 抗利尿, RTMP, 和HLS在流媒体西部2022年的演讲中.

Where Is the Edge in Streaming Content Delivery?

流媒体内容传输的优势究竟在哪里? 根据流媒体视频技术联盟的主要数据, Amazon Web Services, 和Fortinet, 定义边缘计算对流的意义取决于涉及简化用户体验等因素的用例, taking security measures, evaluating data costs.

什么是低延迟直播的最佳块大小?

低延迟流的最佳块大小取决于基于不同用例的许多因素, 而且通常需要在质量或速度上做出一些妥协和权衡. Nadine Krefetz, 顾问, 现实的软件, Contributing Editor, 流媒体, 询问三位行业专家,他们对数据块大小的偏好是什么.

Edge Delivery and the Streaming Ecosystem

流媒体视频技术联盟的杰森·蒂博表示, 边缘计算的进步已经改变了流媒体生态系统,这需要CDN竞争对手之间的合作,才能最好地满足最终用户的需求

Low-Latency Streaming for Interactive Video

交互式流媒体是高质量超低延迟应用的未来,它将为用户带来独特和前所未有的体验

Companies and Suppliers Mentioned