微信扫码
添加专属顾问
我要投稿
开启数字永生大门,WeClone让每个人都能拥有自己的AI数字分身。 核心内容: 1. WeClone项目概述:基于微信聊天记录训练个性化AI模型,探索数字永生 2. 核心功能:聊天记录驱动的个性模型训练、高保真声纹克隆、多平台聊天机器人实时交互 3. 技术细节:数据预处理、模型微调、语音克隆网络、AstrBot框架部署
WeClone:打造专属你的数字分身
在人工智能飞速发展的当下,个性化数字分身从曾经的科幻设想,逐渐走进了现实。今天要为大家介绍的,便是 GitHub 上备受瞩目的开源项目 ——WeClone,它能通过深度学习技术,融合微信聊天记录和语音数据,为你打造独一无二的 AI 数字分身。
一、项目概述
WeClone 旨在通过用户的微信聊天记录,训练出高度个性化的对话模型,实现 “数字版的你”,一定程度上探索 “数字永生” 的可能。其创新整合大语言模型与语音合成技术,提供微信生态的数字克隆解决方案。该系统通过分析用户历史聊天记录训练个性化语言模型,还能采用 0.5B 参数大模型处理微信语音消息,生成与原始声纹相似度达 95% 的克隆语音。
github地址:https://github.com/xming521/weclone
二、核心功能
数据采集与预处理:支持便捷导出微信聊天记录,并自动处理成问答格式。项目默认去除数据中的手机号、身份证号、邮箱、网址等敏感信息,还提供禁用词词库,可自行添加过滤词句。同时,针对同一人连续回答多句的情况,有多种处理方式。例如使用 PyWxDump 提取微信聊天记录,下载软件并解密数据库后,点击聊天备份,导出类型为 CSV,将导出的位于wxdump_tmp/export
的csv
文件夹放在./dataset
目录即可。
模型微调:基于 LoRA 方法,对主流 0.5B - 7B 规模模型进行低资源微调,如 ChatGLM3 - 6B、Qwen2.5 - 7B 等模型。以 ChatGLM3 - 6B 为基础模型,在 SFT 阶段进行微调,采用低秩适配器,显著减少可训练参数,支持单机 / 分布式训练,兼容多卡训练加速。使用 Qwen2.5 - 7B - Instruct 模型进行 LoRA 微调大约需要 16GB 显存,用户可根据硬件条件和数据量选择合适模型与训练方法。
作为项目配套子模块,基于轻量级 Tacotron 或 WavLM 模型,利用约 0.5B 参数规模的语音克隆网络,使用 5 秒语音样本,就能克隆出相似度高达 95% 的声音。例如使用 Spark - TTS 方案,仅需 4GB 显存,还支持音高、语速等细致的语音控制,进一步增强数字分身真实感。
通过 AstrBot 框架,可将数字分身部署到微信、QQ、Telegram、企业微信、飞书等多个聊天平台。一行命令即可快速启动,实现与数字分身实时对话。比如在 AstrBot 中部署消息平台,执行python weclone/server/``api_service.py
启动 api 服务,在 AstrBot 中新增服务提供商,类型选择 OpenAI,API Base URL 根据 AstrBot 部署方式填写,模型填写 gpt - 3.5 - turbo,API Key 随意填写一个,即可完成初步部署。
三、应用场景
忙碌时,数字分身可代替你回复消息、处理日常事务,如写邮件、回复评论等。例如你在开会无暇顾及手机时,数字分身能根据你的语言风格,自动回复微信消息,维持与朋友、家人的正常交流。
快速产出特定风格的个性化文本内容。运营自媒体的用户,可利用数字分身撰写推文、脚本、解说等,保持多个账号风格一致。例如某美食博主,用自己的聊天记录训练数字分身,让其协助创作美食推荐文案,不仅节省时间,还能保证文案风格贴近博主本人,更受粉丝欢迎。
创建自己或他人的数字分身,留存珍贵记忆。对于失去亲人或朋友的人来说,通过他们的微信聊天记录打造数字分身,仿佛对方仍陪伴在身边,在一定程度上实现 “数字永生”,慰藉心灵。
四、技术架构剖析
模型选择:选用 ChatGLM3 - 6B 作为基础模型,其具备强大的语言理解和生成能力,为个性化微调提供坚实基础。
微调技术:采用 LoRA 方法,在保持模型基础能力的同时,通过对少量参数的调整,注入个性化对话风格。这种技术显著降低显存需求,使在普通硬件上也能高效完成模型训练。
方案一:Spark - TTS:推荐方案,具有低资源需求特点,0.5B 模型仅需 4GB 显存。支持微信语音消息作为输入,语音片段最长支持 15 秒,能实现文本到语音的精确转换,并保持声音特征稳定性,同时支持细致的语音参数调节,如音高、语速等。
方案二:Llasa:支持 1B(9GB 显存)和 3B(16GB 显存)两种规格,同样能实现高质量声音克隆,为不同硬件条件的用户提供选择。
五、使用步骤指南
建议使用 uv(一个快速的 Python 环境管理器)创建新的 Python 环境并安装依赖项(注意不包含音频克隆功能的依赖)。安装 uv 后,使用相应命令创建环境并安装依赖。
使用 PyWxDump 提取微信聊天记录,导出为 CSV 格式,将导出文件按指定结构存放在相应目录。
运行 WeClone 提供的weclone - cli make - dataset
命令清洗提取到的 CSV 文件,可设置关键词过滤敏感信息,还能借助大语言模型给聊天数据打分,筛选匹配度不高的对话。
调整settings.jsonc
文件里的训练参数,运行weclone - cli train - sft
开始训练。训练完成后,生成的 LoRA 文件会出现在指定目录。
可通过浏览器 demo 或接口推理功能,进行常见聊天问题测试。将训练好的模型部署到 AstrBot 框架支持的聊天平台,实现与数字分身的实时交互。
六、项目优势
硬件需求适中,普通电脑配备 16GB 显存即可运行。同时,项目采用模块化设计,各功能模块可独立使用,降低开发难度,便于开发者根据自身需求进行二次开发和定制。
支持个性化对话风格训练,通过微调模型,让数字分身精准复现用户的表达习惯、语言风格甚至口头禅。可自定义过滤词库,灵活控制训练数据,保障数据安全与个性化需求。
内置隐私信息过滤机制,自动去除敏感信息。并且项目支持本地运行,数据存储在本地设备,最大程度保障用户数据安全。
七、使用注意事项
聊天记录数量建议 2 万条以上,语音样本建议控制在 15 秒内。保证训练数据的质量和多样性,以获得更理想的数字分身效果。若聊天记录内容稀疏或风格不一致,可能导致生成结果不稳定。
项目主要面向 Linux 平台开发,Windows 用户建议使用 WSL(Windows Subsystem for Linux)运行,以确保项目的稳定运行。
当前项目处于快速开发阶段,部分功能可能存在不稳定或接口变更情况,使用时需关注项目官方更新,及时调整使用方式。
聊天数据涉及大量个人敏感信息,使用过程中必须严格遵守《个人信息保护法》等相关法律法规,不得将数字分身用于非法目的。
八、未来展望
WeClone 项目仍在持续发展,未来计划加入 RAG(检索增强生成)技术,支持更多知识库接入,优化知识检索效率,提升数字分身的知识储备和回答准确性。同时,增加多模态支持,实现图像理解与生成、视频内容处理以及跨模态交互能力,让数字分身功能更强大、交互更自然。
总之,WeClone 为我们开启了个性化 AI 数字分身的大门,无论是在个人生活还是工作场景中,都展现出了巨大的潜力和应用价值。感兴趣的朋友不妨前往项目 GitHub 页面深入了解并尝试使用,一起探索数字分身的奇妙世界。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-07-08
大模型开源许可解析:脉络与最新发展趋势
2025-07-08
探索 RAG-Anything:开启多模态 RAG 的新纪元,让文档“活”起来!
2025-07-08
国内 Agent 赛道最大融资诞生!阿里云为何重注这家“真能干活”的 AI 公司?
2025-07-08
Agent 记忆拆解 | Gemini CLI
2025-07-07
字节跳动开源Trae-Agent:让AI成为你的"全栈开发合伙人"
2025-07-07
16.2k星星!一个「想让所有人都用上」的开源AI多智能体系统框架。
2025-07-07
开源DeepSeek R1增强版:推理效率快200%,创新AoE架构
2025-07-06
Java团队Cursor最佳实践:3分钟构建「零泄漏」AI开发环境
2025-06-17
2025-06-17
2025-04-13
2025-04-29
2025-04-12
2025-04-10
2025-04-29
2025-04-15
2025-04-29
2025-05-29
2025-07-08
2025-07-04
2025-07-03
2025-06-28
2025-06-25
2025-06-25
2025-06-21
2025-06-16