微信扫码
添加专属顾问
我要投稿
开启数字永生大门,WeClone让每个人都能拥有自己的AI数字分身。 核心内容: 1. WeClone项目概述:基于微信聊天记录训练个性化AI模型,探索数字永生 2. 核心功能:聊天记录驱动的个性模型训练、高保真声纹克隆、多平台聊天机器人实时交互 3. 技术细节:数据预处理、模型微调、语音克隆网络、AstrBot框架部署
WeClone:打造专属你的数字分身
在人工智能飞速发展的当下,个性化数字分身从曾经的科幻设想,逐渐走进了现实。今天要为大家介绍的,便是 GitHub 上备受瞩目的开源项目 ——WeClone,它能通过深度学习技术,融合微信聊天记录和语音数据,为你打造独一无二的 AI 数字分身。
一、项目概述
WeClone 旨在通过用户的微信聊天记录,训练出高度个性化的对话模型,实现 “数字版的你”,一定程度上探索 “数字永生” 的可能。其创新整合大语言模型与语音合成技术,提供微信生态的数字克隆解决方案。该系统通过分析用户历史聊天记录训练个性化语言模型,还能采用 0.5B 参数大模型处理微信语音消息,生成与原始声纹相似度达 95% 的克隆语音。
github地址:https://github.com/xming521/weclone
二、核心功能
数据采集与预处理:支持便捷导出微信聊天记录,并自动处理成问答格式。项目默认去除数据中的手机号、身份证号、邮箱、网址等敏感信息,还提供禁用词词库,可自行添加过滤词句。同时,针对同一人连续回答多句的情况,有多种处理方式。例如使用 PyWxDump 提取微信聊天记录,下载软件并解密数据库后,点击聊天备份,导出类型为 CSV,将导出的位于wxdump_tmp/export
的csv
文件夹放在./dataset
目录即可。
模型微调:基于 LoRA 方法,对主流 0.5B - 7B 规模模型进行低资源微调,如 ChatGLM3 - 6B、Qwen2.5 - 7B 等模型。以 ChatGLM3 - 6B 为基础模型,在 SFT 阶段进行微调,采用低秩适配器,显著减少可训练参数,支持单机 / 分布式训练,兼容多卡训练加速。使用 Qwen2.5 - 7B - Instruct 模型进行 LoRA 微调大约需要 16GB 显存,用户可根据硬件条件和数据量选择合适模型与训练方法。
作为项目配套子模块,基于轻量级 Tacotron 或 WavLM 模型,利用约 0.5B 参数规模的语音克隆网络,使用 5 秒语音样本,就能克隆出相似度高达 95% 的声音。例如使用 Spark - TTS 方案,仅需 4GB 显存,还支持音高、语速等细致的语音控制,进一步增强数字分身真实感。
通过 AstrBot 框架,可将数字分身部署到微信、QQ、Telegram、企业微信、飞书等多个聊天平台。一行命令即可快速启动,实现与数字分身实时对话。比如在 AstrBot 中部署消息平台,执行python weclone/server/``api_service.py
启动 api 服务,在 AstrBot 中新增服务提供商,类型选择 OpenAI,API Base URL 根据 AstrBot 部署方式填写,模型填写 gpt - 3.5 - turbo,API Key 随意填写一个,即可完成初步部署。
三、应用场景
忙碌时,数字分身可代替你回复消息、处理日常事务,如写邮件、回复评论等。例如你在开会无暇顾及手机时,数字分身能根据你的语言风格,自动回复微信消息,维持与朋友、家人的正常交流。
快速产出特定风格的个性化文本内容。运营自媒体的用户,可利用数字分身撰写推文、脚本、解说等,保持多个账号风格一致。例如某美食博主,用自己的聊天记录训练数字分身,让其协助创作美食推荐文案,不仅节省时间,还能保证文案风格贴近博主本人,更受粉丝欢迎。
创建自己或他人的数字分身,留存珍贵记忆。对于失去亲人或朋友的人来说,通过他们的微信聊天记录打造数字分身,仿佛对方仍陪伴在身边,在一定程度上实现 “数字永生”,慰藉心灵。
四、技术架构剖析
模型选择:选用 ChatGLM3 - 6B 作为基础模型,其具备强大的语言理解和生成能力,为个性化微调提供坚实基础。
微调技术:采用 LoRA 方法,在保持模型基础能力的同时,通过对少量参数的调整,注入个性化对话风格。这种技术显著降低显存需求,使在普通硬件上也能高效完成模型训练。
方案一:Spark - TTS:推荐方案,具有低资源需求特点,0.5B 模型仅需 4GB 显存。支持微信语音消息作为输入,语音片段最长支持 15 秒,能实现文本到语音的精确转换,并保持声音特征稳定性,同时支持细致的语音参数调节,如音高、语速等。
方案二:Llasa:支持 1B(9GB 显存)和 3B(16GB 显存)两种规格,同样能实现高质量声音克隆,为不同硬件条件的用户提供选择。
五、使用步骤指南
建议使用 uv(一个快速的 Python 环境管理器)创建新的 Python 环境并安装依赖项(注意不包含音频克隆功能的依赖)。安装 uv 后,使用相应命令创建环境并安装依赖。
使用 PyWxDump 提取微信聊天记录,导出为 CSV 格式,将导出文件按指定结构存放在相应目录。
运行 WeClone 提供的weclone - cli make - dataset
命令清洗提取到的 CSV 文件,可设置关键词过滤敏感信息,还能借助大语言模型给聊天数据打分,筛选匹配度不高的对话。
调整settings.jsonc
文件里的训练参数,运行weclone - cli train - sft
开始训练。训练完成后,生成的 LoRA 文件会出现在指定目录。
可通过浏览器 demo 或接口推理功能,进行常见聊天问题测试。将训练好的模型部署到 AstrBot 框架支持的聊天平台,实现与数字分身的实时交互。
六、项目优势
硬件需求适中,普通电脑配备 16GB 显存即可运行。同时,项目采用模块化设计,各功能模块可独立使用,降低开发难度,便于开发者根据自身需求进行二次开发和定制。
支持个性化对话风格训练,通过微调模型,让数字分身精准复现用户的表达习惯、语言风格甚至口头禅。可自定义过滤词库,灵活控制训练数据,保障数据安全与个性化需求。
内置隐私信息过滤机制,自动去除敏感信息。并且项目支持本地运行,数据存储在本地设备,最大程度保障用户数据安全。
七、使用注意事项
聊天记录数量建议 2 万条以上,语音样本建议控制在 15 秒内。保证训练数据的质量和多样性,以获得更理想的数字分身效果。若聊天记录内容稀疏或风格不一致,可能导致生成结果不稳定。
项目主要面向 Linux 平台开发,Windows 用户建议使用 WSL(Windows Subsystem for Linux)运行,以确保项目的稳定运行。
当前项目处于快速开发阶段,部分功能可能存在不稳定或接口变更情况,使用时需关注项目官方更新,及时调整使用方式。
聊天数据涉及大量个人敏感信息,使用过程中必须严格遵守《个人信息保护法》等相关法律法规,不得将数字分身用于非法目的。
八、未来展望
WeClone 项目仍在持续发展,未来计划加入 RAG(检索增强生成)技术,支持更多知识库接入,优化知识检索效率,提升数字分身的知识储备和回答准确性。同时,增加多模态支持,实现图像理解与生成、视频内容处理以及跨模态交互能力,让数字分身功能更强大、交互更自然。
总之,WeClone 为我们开启了个性化 AI 数字分身的大门,无论是在个人生活还是工作场景中,都展现出了巨大的潜力和应用价值。感兴趣的朋友不妨前往项目 GitHub 页面深入了解并尝试使用,一起探索数字分身的奇妙世界。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-21
从UI修改到AI提效!前端开发者的开源神器,一键选择网页元素与AI对话!
2025-05-21
AI 编程:开始智能 IDE 共建时代
2025-05-21
一站式大模型能力评测,Qwen3系列模型安全能力深度解析!
2025-05-21
OpenAI Codex 云端版完整评测,不堪大用但未来可期
2025-05-21
又一个开源 AI Agent 杀到!II-Agent,号称“全球最强”,击败 Genspark 和 Manus,跑分直逼人类
2025-05-21
世界最强通用智能体 II-Agent发布!碾压Manus 和Genspark
2025-05-20
狂揽 95k star,一键部署私有化 AI 交互平台的开源利器!
2025-05-20
微软深夜宣布VSCode Copilot彻底开源,剑指 Cursor!
2024-07-25
2025-01-01
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-07-11
2024-06-12
2024-12-26
2024-08-13
2025-05-17
2025-05-17
2025-05-17
2025-05-16
2025-05-14
2025-05-12
2025-04-30
2025-04-29