QQ扫一扫联系
需要掌握 python 开发能力
首先需要将python环境打包到同一个目录,比如 _aienv
,然后可以通过 python run.py ./config.json
的方式运行模型。
模型运行之后,通过标准输入输出的方式运行模型,通过标准输入传递参数,通过标准输出返回结果。
import json, base64 # 解析输入配置文件 config = json.loads(open(sys.argv[1], 'r').read()) modelConfig = config['modelConfig'] def printResult(key,value): global config print(f'AigcPanelRunResult[{config['id']}][' + base64.b64encode(json.dumps(data).encode()).decode()+']') # 公共输出 ## 输出给前端的是否是以 CUDA 运行 printResult('UseCuda', True) ## 语音合成输出结果 printResult('url', '/path/to/result.wav') ## 语音克隆输出结果 printResult('url', '/path/to/result.wav') ## 视频对口型输出结果 printResult('url', '/path/to/result.mp4')
{ "name": "server-xxx", // 模型名称 "version": "0.1.0", // 模型版本 "title": "语音模型", // 模型标题 "description": "模型描述", // 模型描述 "deviceDescription":"设备描述", "platformName": "win", // 支持系统,win, osx, linux "platformArch": "x86", // 支持架构,x86, arm64 "serverRequire": ">=0.5.0", // 对 AigcPanel 版本的要求,如 >=0.5.0 "entry": "__EasyServer__", // 固定值,不需要修改 "easyServer": { // python 运行入口 "entry": "./_aienv/bin/python", "entryArgs": [ "run.py", "${CONFIG}" ], // 环境变量 "envs": [ "AAA=1" ] }, "functions": [ "videoGen", // 支持视频生成 "soundTTS", // 支持语音合成 "soundClone" // 支持语音克隆 ], "settings": [ // 模型配置项,可以显示在模型配置页面 { "name": "port", "type": "text", "title": "服务端口", "default": "", "placeholder": "留空会检测使用随机端口" } ] }
完成两个文件的开发之后,在软件中尝试选择模型文件夹中的config.json导入。