要在 android 设备中采集声音(已经通过权限申请的情况下),然后实时采集音频流向 web 端输出,服务端还能进行实时播放(如果有客户端连接拉流的话),我是第一次弄声音实时采集。我有些问题。
我在 android 用 AudioRecord 创建实例进行录音,在线程中用 AudioRecord 实例调用 read 方法,然后通过 WebSocket(OkHttp 下的)输送到 Web 端( Web 端是 Java 的服务端),在 Web 端我用的是注解 @ServerEndpoint 下的 WebSocket,收到从 android 输出的音频流的 byte 数组类型的数据后,到这一步就不知怎么做了,实时播放,也就是直播中的拉流不知道怎么弄了。
浏览器端拉流是怎样的,是在用 js 创建 WebSocket 客户端实例拉流么,直接从服务端拉接收到的 byte 数组?,用什么 html 组件播放?
android 端用拉流播放是怎么处理的么?用 WebSocket 拉流么,直接从服务端拉 byte 数组么?还是要处理什么,还是用其他的网络协议,比如 UDP ?然后播放用哪个控件来弄?
当然以上这是在局域网环境下,
除了用 WebSocket 推流,还有哪些协议比较合适做推流,以及拉流,尤其是互联网环境下?