抖音快手如何轻松接入虚拟人直播
创始人
2024-04-23 04:27:20
0

在上一篇文章零基础开启元宇宙——创建虚拟形象中,我们实现了创建虚拟形象,接下来我们可以利用虚拟形象“为所欲为”。今天我们利用虚拟形象在短视频平台如快手、抖音中直播,对于不希望露脸的主播们这是可是一大利器呀!话不多说,上绝活。

请添加图片描述在这里插入图片描述

1 实现思路

通过即构免费提供的虚拟形象和实时RTC技术,结合抖音快手官方提供的直播伴侣,可以轻松实现虚拟形象在抖音快手平台直播,整个实现流程如下:

在这里插入图片描述

2 Android接入RTC推送实时预览画面

2.1 接入RTC SDK

前往https://doc-zh.zego.im/article/2969下载即构RTC SDK。将压缩包内容拷贝到app/libs中,并修改app/build.gradle添加如下内容:

// ...
// 其他略
// ...android {// ...// 其他略// ...defaultConfig { // ...// 其他略// ...ndk {abiFilters 'armeabi-v7a', 'arm64-v8a', 'x86', 'x86_64'}}sourceSets {main {jniLibs.srcDirs = ['libs']}} 
}dependencies {implementation fileTree(dir: 'libs', include: ['*.jar', "*.aar"]) //通配引入// ...// 其他略// ...
}

app/src/main/AndroidManifest.xml文件中添加必要的权限信息:













2.1 虚拟形象实时推流

使用即构RTC SDK实现实时视频通话过程如下图:

在这里插入图片描述

根据我们目前的需求,只需实现在Android端推流,windows端拉流即可。因此我们接下来只介绍如何在android端推流,如果想实现更丰富的定制能力,参考官网https://doc-zh.zego.im/article/195即可。

出于篇幅考虑,我们这里只展示关键代码:

private ZegoExpressEngine createRTCEngine(Application app, IZegoEventHandler handler) { ZegoEngineProfile profile = new ZegoEngineProfile();profile.appID = KeyCenter.APP_ID;profile.scenario = ZegoScenario.GENERAL;  // 通用场景接入profile.application = app;ZegoExpressEngine engine = ZegoExpressEngine.createEngine(profile, handler); return engine;
}public void start(String userId, String userName, String roomId, RTCListener listener) {Log.e(TAG, "准备登陆房间");loginRoom(userId, userName, roomId, listener);
}public void stop() {loginOut();
}public void setCustomVideo(int videoWidth, int videoHeight, RTCMngr.CaptureListener listener) {// 自定义视频采集ZegoCustomVideoCaptureConfig videoCaptureConfig = new ZegoCustomVideoCaptureConfig();// 选择 GL_TEXTURE_2D 类型视频帧数据videoCaptureConfig.bufferType = ZegoVideoBufferType.GL_TEXTURE_2D;// 启动自定义视频采集mRTCEngine.enableCustomVideoCapture(true, videoCaptureConfig, ZegoPublishChannel.MAIN);// 设置自定义视频采集回调mRTCEngine.setCustomVideoCaptureHandler(new IZegoCustomVideoCaptureHandler() {@Overridepublic void onStart(ZegoPublishChannel zegoPublishChannel) {if (listener != null) {listener.onStartCapture();}}@Overridepublic void onStop(ZegoPublishChannel zegoPublishChannel) {if (listener != null) {listener.onStopCapture();}}});// 设置视频配置, 要跟 avatar 的输出尺寸一致ZegoVideoConfig videoConfig = new ZegoVideoConfig(ZegoVideoConfigPreset.PRESET_720P);// 输出纹理是正方形的, 要配置一下videoConfig.setEncodeResolution(videoWidth, videoHeight);mRTCEngine.setVideoConfig(videoConfig);
}//实时推流
public void pushStream(String streamId, TextureView tv) {mRTCEngine.startPublishingStream(streamId);mRTCEngine.startPreview(new ZegoCanvas(tv));}public boolean loginRoom(String userId, String userName, String roomId, RTCListener listener) {mRoomId = roomId;mUserId = userId;ZegoUser user = new ZegoUser(userId, userName);ZegoRoomConfig config = new ZegoRoomConfig();config.token = getToken(userId, roomId); // 请求开发者服务端获取config.isUserStatusNotify = true;mRTCEngine.loginRoom(roomId, user, config, (int error, JSONObject extendedData) -> {if (listener != null) {listener.onLogin(error);}});Log.e(TAG, "登录房间:" + roomId);return true;
}public void loginOut() {mRTCEngine.stopPublishingStream();mRTCEngine.logoutRoom(mRoomId);
}@Override
public void onRoomTokenWillExpire(String roomID) {mRTCEngine.renewToken(roomID, getToken(mUserId, roomID));
}/**
* 此函数应该放在服务器端执行,以防止泄露ServerSecret
*/
public static String getToken(String userId, String roomId) {TokenEntity tokenEntity = new TokenEntity(KeyCenter.APP_ID, userId, roomId, 60 * 60, 1, 1);String token = TokenUtils.generateToken04(tokenEntity);return token;
}

首先执行顺序如下:

  1. createRTCEngine, 获取RTC引擎对象:engine。
  2. setCustomVideo, 用于设置自定义推流采样视频帧数据相关属性。
  3. loginRoom,登录房间,登录房间函数会自动调用getToken获取token令牌做权鉴。

这里注意在setCustomVideo函数内执行了setCustomVideoCaptureHandler,这里我们将他间接转为了如下接口:

public interface CaptureListener {void onStartCapture();void onStopCapture();
}

上面对象用于监听开始抓取推流数据和停止抓取事件,在Avatar侧只需实现上面两个接口即可:

// 获取到 avatar 纹理后的处理
public void onCaptureAvatar(int textureId, int width, int height) {if (mIsStop || mUser == null) { // rtc 的 onStop 是异步的, 可能activity已经运行到onStop了, rtc还没return;}boolean useFBO = true;if (mBgRender == null) {mBgRender = new TextureBgRender(textureId, useFBO, width, height, Texture2dProgram.ProgramType.TEXTURE_2D_BG);}mBgRender.setInputTexture(textureId);float r = Color.red(mUser.bgColor) / 255f;float g = Color.green(mUser.bgColor) / 255f;float b = Color.blue(mUser.bgColor) / 255f;float a = Color.alpha(mUser.bgColor) / 255f;mBgRender.setBgColor(r, g, b, a);mBgRender.draw(useFBO); // 画到 fbo 上需要反向的ZegoExpressEngine.getEngine().sendCustomVideoCaptureTextureData(mBgRender.getOutputTextureID(), width, height, System.currentTimeMillis());
}@Override
public void onStartCapture() {if (mUser == null) return;
//        // 收到回调后,开发者需要执行启动视频采集相关的业务逻辑,例如开启摄像头等AvatarCaptureConfig config = new AvatarCaptureConfig(mUser.width, mUser.height);
//        // 开始捕获纹理mCharacterHelper.startCaptureAvatar(config, this::onCaptureAvatar);
}@Override
public void onStopCapture() {Log.e(TAG, "结束推流");mCharacterHelper.stopCaptureAvatar();stopExpression();
}

以上步骤实现了Android端将虚拟形象推流到服务器端,详细代码可以看附件。

3 PC端拉取实时虚拟形象并展示

前往https://doc-zh.zego.im/article/3209下载Web版RTC SDK。文件结构如下:

在这里插入图片描述

keycenter.js中定义APPID等属性值。

// 请从官网控制台获取对应的appID
const APPID = 从官网控制台获取appid
// 请从官网控制台获取对应的server地址,否则可能登录失败
const SERVER = 'wss://webliveroom510775561-api.imzego.com/ws' 
//下面这个密钥用于生成Token,最好不要客户端暴露,应当在私人服务器使用
const SERVER_SECRET = 从官网控制台获取SERVER_SECRET

tokenUtils.js文件用于创建token,这里跟android端的token是相同的改进,tokenUtils.js的内容比较多,这里不展示了,只需将它作为创建token的工具即可。

zego.js文件用于创建RTC引擎,登录房间以及监听推流事件,一旦有推流事件立马拉流。相关代码如下:

function newToken(userId) {const token = generateToken04(APPID, userId, SERVER_SECRET, 60 * 60 * 24, '');console.log(">>>", generateToken04(APPID, '222', SERVER_SECRET, 60 * 60 * 24, ''))return token;
}function createZegoExpressEngine() {var engine = new ZegoExpressEngine(APPID, SERVER);return engine;
}// Step1 Check system requirements
function checkSystemRequirements(engine, cb) {console.log('sdk version is', engine.getVersion());engine.checkSystemRequirements().then((result) => {if (!result.webRTC) {cb(false, 'browser is not support webrtc!!');} else if (!result.videoCodec.H264 && !result.videoCodec.VP8) {cb(false, 'browser is not support H264 and VP8');} else if (!result.camera && !result.microphone) {cb(false, 'camera and microphones not allowed to use');} else {if (result.videoCodec.VP8) {if (!result.screenSharing) console.warn('browser is not support screenSharing');} else {console.log('不支持VP8,请前往混流转码测试');}cb(true, null);}});}function initEvent(engine, onAddRemoteStream) {engine.on('roomUserUpdate', (roomID, updateType, userList) => {console.log('>>roomUserUpdate', roomId, state)});engine.on('roomStateUpdate', (roomId, state) => {console.log('>>roomStateUpdate', roomId, state)})engine.on('roomStreamUpdate', async (roomID, updateType, streamList, extendedData) => {console.log(">>update")// streams addedif (updateType === 'ADD') {const addStream = streamList[streamList.length - 1]if (addStream && addStream.streamID) {onAddRemoteStream(addStream.streamID)}} else if (updateType == 'DELETE') {//  del streamconst delStream = streamList[streamList.length - 1]if (delStream && delStream.streamID) {if (delStream.streamID === remoteStreamID) {engine.stopPlayingStream(remoteStreamID)}}}});
}// Step5 Start Play Stream
function playingStream(engine, videoId, streamId, cb, options = {video: true,audio: true
}) {engine.startPlayingStream(streamId, options).then((remoteStream) => {const remoteView = engine.createRemoteStreamView(remoteStream);remoteView.play(videoId, {objectFit: "cover",enableAutoplayDialog: true,})cb(true, remoteStream);}).catch((err) => {cb(false, err)});
}
function stopPlaying(engine, stremId) {engine.stopPlayingStream(stremId)
}//  Login room
function loginRoom(engine, roomId, userId, userName, cb) {var token = newToken(userId);engine.loginRoom(roomId, token, {userID: userId,userName}).then((result) => {cb(true, result);}).catch((err) => {cb(false, err)});}
// Logout room
function logoutRoom(engine, roomId) {engine.logoutRoom(roomId);
}

在index.html中引用如上javascript文件,展示拉流内容:

 
     

4 快手、抖音直播推送实时虚拟画面

接下来是振奋人心时刻,到了联调时刻。在android打开画面实时推理,并在浏览器中打开界面,可以看到如下画面:
请添加图片描述

接下来只需使用直播伴侣软件,将浏览器中的实时画面实时转发到快手或抖音。这里我们用快手直播伴侣实时截屏直播,可以看到如下画面

在这里插入图片描述

5 附件

源码: https://github.com/RTCWang/Virtual-Live

相关内容

热门资讯

银河麒麟V10SP1高级服务器... 银河麒麟高级服务器操作系统简介: 银河麒麟高级服务器操作系统V10是针对企业级关键业务...
【NI Multisim 14...   目录 序言 一、工具栏 🍊1.“标准”工具栏 🍊 2.视图工具...
不能访问光猫的的管理页面 光猫是现代家庭宽带网络的重要组成部分,它可以提供高速稳定的网络连接。但是,有时候我们会遇到不能访问光...
AWSECS:访问外部网络时出... 如果您在AWS ECS中部署了应用程序,并且该应用程序需要访问外部网络,但是无法正常访问,可能是因为...
Android|无法访问或保存... 这个问题可能是由于权限设置不正确导致的。您需要在应用程序清单文件中添加以下代码来请求适当的权限:此外...
AWSElasticBeans... 在Dockerfile中手动配置nginx反向代理。例如,在Dockerfile中添加以下代码:FR...
月入8000+的steam搬砖... 大家好,我是阿阳 今天要给大家介绍的是 steam 游戏搬砖项目,目前...
​ToDesk 远程工具安装及... 目录 前言 ToDesk 优势 ToDesk 下载安装 ToDesk 功能展示 文件传输 设备链接 ...
北信源内网安全管理卸载 北信源内网安全管理是一款网络安全管理软件,主要用于保护内网安全。在日常使用过程中,卸载该软件是一种常...
AWS管理控制台菜单和权限 要在AWS管理控制台中创建菜单和权限,您可以使用AWS Identity and Access Ma...