Find the exact module, copy the working request shape, and move from product workflow to API call without getting buried in the tree.
Write the workflow in plain language. We will turn it into a GPT-ready brief you can use to generate requests, module order, and starter payloads.
Callaba Engine 是你用来端到端运行直播视频工作流的 API:通过 SRT servers 和 RTMP servers 接收贡献流,使用 NDI discovered devices 与 NDI adapters,启动 Restreams 和 Recordings,发布到 Web players,创建 Video calls,并挂接 Storages 以获得持久化输出。
使用这套文档最快的方法,是沿着运营团队在搭建和排障时同样的路径去看:信号从哪里进入、如何流动、当前处于什么状态、下一步去哪里、哪些内容必须保存。下面的实时遥测模块之所以重要,是因为贡献流质量并不是静态的。SRT 码率、丢包、缓冲和时序这些信号,会告诉你问题究竟是出在发送端、网络路径,还是接收工作流内部。
这个演示展示了你在真实贡献流中可以观察到的实时统计:码率、缓冲延迟、包流、接收容量和活跃流数。它连接到公共演示端点 demo.callaba.io,并从与产品相同的直播事件流中更新数据。
大多数集成都不只会碰一个模块。先从你系统里已经存在的第一个边界开始,再一路往下游走。
如果你是在接入一个新系统,通常的顺序是先完成 installation or instant launch,然后做 authorization,再进入你工作流边界对应的模块。
如果你把这些模块理解成不同类型的运营对象,而不是一张平铺的资源清单,API 会更容易上手。
这一区分对自动化尤其重要。你通常只需要为边界资源做一次配置,按事件或频道去操作直播任务,持续读取观察状态,并根据分发和保留策略把交付与存储接起来。
对于 SRT 贡献流来说,一个绿色状态并不够。运营团队需要看到码率是否在塌陷、接收缓冲压力是否在升高、包投递是否不均匀、时序是否在漂移。这些信号会告诉你是该调整发送端、排查网络路径、增加弹性,还是要保护下游的 Restreams、Recordings 和 Web players,避免它们被不稳定的源拖垮。
把这个遥测视图当成早期预警层:在观众发现问题或归档文件受影响之前,它能帮助团队先把传输问题和应用问题分开。