# HenGem定制化开发 **Repository Path**: reference-project_1/hengem-custom ## Basic Information - **Project Name**: HenGem定制化开发 - **Description**: 在HenGem官方的基础上定制化开发:批量中英处理、批量小语种处理、API密钥管理、IP管理、系统代理、使用说明等,另外新增本地模型和公共库模型,本地模型只能用户自己使用,公共库可以多用户使用。 - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: dev - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2025-04-14 - **Last Updated**: 2025-04-14 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README 免费开源!HeyGen最强平替方案HeyGem来了 📦 推荐配置: 处理器: 13th Gen Intel Core i5-13400F 内存: 32GB 显卡: RTX 4070 (推荐N卡) C盘大于100G(若不够,需要在安装docker后选择新文件夹)、D盘大于30G 软件依赖:Node 18 、Docker Desktop、git 🚀 快速部署: 1. 安装 Node.js Node.js 官方网站下载:https://nodejs.org/en/download ![输入图片说明](images/image.png) ![输入图片说明](images/image1.png) 最后点击 Install ,进行安装。 2. 安装Docker Desktop 第一次安装Docker Desktop请先使用cmd窗口执行以下命令 ``` 安装wsl的命令:wsl --install ⚠️由于网络原因,可能失败,多试几次,安装后可能会重启电脑。 更新wsl的命令:wsl --update ``` ![输入图片说明](images/image2.png) 访问 Docker 官网:https://www.docker.com/ ![输入图片说明](images/image3.png) 双击运行 Docker ![输入图片说明](images/image4.png) 首次运行接受协议,然后跳过登录 ![输入图片说明](images/image5.png) ![输入图片说明](images/image6.png) ⚠️打开后如果报以下有关WSL的错误,请在cmd窗口执行: ``` wsl --install 然后重启电脑 ``` ![输入图片说明](images/image7.png) 如果C盘不足 100G,可以在安装完成docker后,在下图的位置重新选一个剩余空间大于 100G 的磁盘文件夹。 ![输入图片说明](images/image8.png) 3. 安装git 官网:https://git-scm.com/downloads/win ![输入图片说明](images/image9.png) 一直点 Next 直到安装成功,至此软件依赖已经安装好了,现在需要进行部署了 3. 服务端部署:双通道Docker方案 请仔细看这里,因为会针对国内、国外渠道分别描述如何启动服务端。 方案一:手动拉取镜像(依据自己的网络情况,选择对应的镜像) 🔥 国内加速通道(无需魔法) ``` # 语音识别引擎 docker pull crpi-87t8jkvf79rj7hal.cn-huhehaote.personal.cr.aliyuncs.com/modelers_park/fun-asr:latest # 语音合成模块 docker pull crpi-87t8jkvf79rj7hal.cn-huhehaote.personal.cr.aliyuncs.com/modelers_park/fish-speech-ziming:latest # 核心AI引擎 docker pull crpi-87t8jkvf79rj7hal.cn-huhehaote.personal.cr.aliyuncs.com/modelers_park/heygem.ai:latest ``` 针对国内镜像:拉取成功后,你需要找一个文件夹,新建一个txt文件,然后复制这段代码,再把文件名修改为 docker-compose.yml。 ``` networks: ai_network: driver: bridge services: heygem-tts: image: crpi-87t8jkvf79rj7hal.cn-huhehaote.personal.cr.aliyuncs.com/modelers_park/fish-speech-ziming container_name: heygem-tts restart: always runtime: nvidia environment: - NVIDIA_VISIBLE_DEVICES=0 - NVIDIA_DRIVER_CAPABILITIES=compute,graphics,utility,video,display ports: - '18180:8080' volumes: - d:/heygem_data/voice/data:/code/data command: /bin/bash -c "/opt/conda/envs/python310/bin/python3 tools/api_server.py --listen 0.0.0.0:8080" networks: - ai_network heygem-asr: image: crpi-87t8jkvf79rj7hal.cn-huhehaote.personal.cr.aliyuncs.com/modelers_park/fun-asr container_name: heygem-asr restart: always runtime: nvidia privileged: true working_dir: /workspace/FunASR/runtime ports: - '10095:10095' command: sh /run.sh deploy: resources: reservations: devices: - driver: nvidia count: all capabilities: [gpu] networks: - ai_network heygem-f2f: image: crpi-87t8jkvf79rj7hal.cn-huhehaote.personal.cr.aliyuncs.com/modelers_park/heygem.ai container_name: heygem-f2f restart: always runtime: nvidia privileged: true volumes: - d:/heygem_data/face2face:/code/data environment: - PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:512 deploy: resources: reservations: devices: - capabilities: [gpu] shm_size: '8g' ports: - '8383:8383' command: python /code/app_local.py networks: - ai_network ``` 🌐 国际原版通道(需科学上网) ``` docker pull guiji2025/fun-asr docker pull guiji2025/fish-speech-ziming docker pull guiji2025/heygem.ai ``` 针对国外镜像:拉取成功后,你需要找一个文件夹,新建一个txt文件,然后复制这段代码,再把文件名修改为 docker-compose.yml。 ``` networks: ai_network: driver: bridge services: heygem-tts: image: guiji2025/fish-speech-ziming container_name: heygem-tts restart: always runtime: nvidia environment: - NVIDIA_VISIBLE_DEVICES=0 - NVIDIA_DRIVER_CAPABILITIES=compute,graphics,utility,video,display ports: - '18180:8080' volumes: - d:/heygem_data/voice/data:/code/data command: /bin/bash -c "/opt/conda/envs/python310/bin/python3 tools/api_server.py --listen 0.0.0.0:8080" networks: - ai_network heygem-asr: image: guiji2025/fun-asr container_name: heygem-asr restart: always runtime: nvidia privileged: true working_dir: /workspace/FunASR/runtime ports: - '10095:10095' command: sh /run.sh deploy: resources: reservations: devices: - driver: nvidia count: all capabilities: [gpu] networks: - ai_network heygem-f2f: image: guiji2025/heygem.ai container_name: heygem-f2f restart: always runtime: nvidia privileged: true volumes: - d:/heygem_data/face2face:/code/data environment: - PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:512 deploy: resources: reservations: devices: - capabilities: [gpu] shm_size: '8g' ports: - '8383:8383' command: python /code/app_local.py networks: - ai_network ``` 无论选择哪个方式,拉取完后都需要执行 docker-compose up -d 命令启动。 步骤: ``` 🔍进入到包含 docker-compose.yml 文件的目录:cd HeyGem.ai/deploy 在当前目录里面,打开 cmd 窗口,执行 docker-compose up -d 命令 ``` 方案二:一键自动化部署(推荐新手) ``` 克隆仓库:https://github.com/GuijiAI/HeyGem.ai.git 由于网络原因,可能失败,失败也没关系,接着往下看。 ``` 如果这里你拉取不下来,没有关系,我提供 docker-compose.yml 文件,你需要找一个文件夹,新建一个txt文件,然后复制这段代码,再把文件名修改为 docker-compose.yml。 ``` networks: ai_network: driver: bridge services: heygem-tts: image: guiji2025/fish-speech-ziming container_name: heygem-tts restart: always runtime: nvidia environment: - NVIDIA_VISIBLE_DEVICES=0 - NVIDIA_DRIVER_CAPABILITIES=compute,graphics,utility,video,display ports: - '18180:8080' volumes: - d:/heygem_data/voice/data:/code/data command: /bin/bash -c "/opt/conda/envs/python310/bin/python3 tools/api_server.py --listen 0.0.0.0:8080" networks: - ai_network heygem-asr: image: guiji2025/fun-asr container_name: heygem-asr restart: always runtime: nvidia privileged: true working_dir: /workspace/FunASR/runtime ports: - '10095:10095' command: sh /run.sh deploy: resources: reservations: devices: - driver: nvidia count: all capabilities: [gpu] networks: - ai_network heygem-f2f: image: guiji2025/heygem.ai container_name: heygem-f2f restart: always runtime: nvidia privileged: true volumes: - d:/heygem_data/face2face:/code/data environment: - PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:512 deploy: resources: reservations: devices: - capabilities: [gpu] shm_size: '8g' ports: - '8383:8383' command: python /code/app_local.py networks: - ai_network ``` 🔍然后进入到包含 docker-compose.yml 文件的目录:cd HeyGem.ai/deploy ![输入图片说明](images/image11.png) 启动容器集群:在此目录打开cmd窗口,然后执行以下命令 ``` docker-compose up -d 由于网络原因,没有科学上网可能很慢或者失败。建议使用上面的“国内加速通道”,拉取镜像。 ``` ![输入图片说明](images/image12.png) ✅执行完后,看到 Dokcer 中出现三个服务,表示服务端部署成功了。 ![输入图片说明](image18.png) 4. 客户端安装 ``` 直接下载官方构建的安装包:https://github.com/GuijiAI/HeyGem.ai/releases 双击即可安装 HeyGem-x.x.x-setup.exe ``` ![输入图片说明](images/image19.png) 定制自己的数字人 ![输入图片说明](images/image20.png) ⚠️注意!注意!目前只支持中、英文的文本。 ``` 至此教程结束,如果你也是一名开发人员,你可能就会觉得这个客户端功能有点少。 🎁 隐藏技巧 定制开发很多功能,比如批量处理、支持小语种等功能,你可以拉取项目的前端代码 git clone https://github.com/GuijiAI/HeyGem.ai.git 项目前端使用Vue3 + Electron框架写的,可以进行定制功能的开发。 ``` ![输入图片说明](images/image98.png) 视频链接:https://mp.weixin.qq.com/s/uBmGFt4XpjdTuVs5O8x99A 💡各位看官,制作不易,还请多多Start支持。