支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我对 AI 写作的一些思考:Writing in the Age of LLMs

发布日期:2025-07-01 09:31:50 浏览次数: 1523
作者:Baihai IDP

微信搜一搜,关注“Baihai IDP”

推荐语

AI写作时代,如何避免机器腔调?本文揭秘人机协作写作的黄金法则。

核心内容:
1. AI生成内容的八大典型问题剖析
2. 被误判为"AI腔"的优秀写作技巧正名
3. 人机协作写作的具体操作策略与模板

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

编者按:当你收到一篇由 AI 完成的文章时,是否也有过这样的困惑:内容看似专业严谨,读起来却总觉得缺少什么?明明语法正确、逻辑清晰,为什么就是无法抓住读者的注意力?

本文作者基于丰富的技术写作经验,深入剖析了 AI 生成内容的八大典型问题。更重要的是提出了一套完整的“人机协作写作流程”,每个环节都有具体的操作策略。作者还为那些被误判为“AI 腔”的优秀写作技巧正了名,帮助大家重新审视那些优秀的表达方式。

作者 | Shreya Shankar

编译 | 岳





过去几年间,我撰写并审阅过不少技术论文和博客文章。经常能遇到一些读起来略显“别扭”的 AI 生成内容 —— 说实话,有些内容甚至毫无吸引力。但与此同时,我也从使用大语言模型起草初稿、总结大量杂乱的材料、梳理混乱的思路中获益良多。

本文详细阐述了在这个机器生成内容泛滥的时代,我对写作的一些思考。首先,本文将剖析 AI 工具所产出内容的一些糟糕的写作模式。然后,我要为某些被武断贴上“AI腔”标签,实则运用得当便能锦上添花的写作习惯正名。最后,本文将分享一些我个人写作及调教 AI 时遵循的具体法则与模板。


01

我从 LLM 工具所生成内容中看到的一些糟糕的写作模式

以下是我经常看到的一些警示信号 —— 主要来自 AI 生成的内容,但某些人类作者为追求“文雅、正式”而误入歧途时也会如此。

1.1 假大空的“总结句”

这类句子常出现在段落结尾,例如:

  • “遵循这些步骤,即可提升性能”

  • “掌握这些原则,你就能拨云见日”

看似掷地有声,实则空洞无物。我主张用能引发新思考的收尾 —— 至少该留些让读者回味的余地。可惜至今未找到让 AI 写出这种有深度结尾的可靠方法。

1.2 滥用项目符号(bullet points and outlines)

LLMs 经常过度使用项目符号,特别是嵌套的项目符号。当内容平行且独立时,列表确实很清晰,但当观点之间存在逻辑关联或需要背景知识支撑时,以段落形式阐述往往更为适宜。

1.3 句式单调乏味

当所有句子都保持相同长度时,文章就会失去节奏感,读起来艰涩费力。交替的长短句能有效抓住读者注意力 —— 它们既能突出重点,又能抓住读者的注意力,还能控制阅读节奏。

反面教材:

We recently launched a conversational AI feature that lets users ask questions in plain English and get responses based on their past activity and current session. The system searches a database of help articles, ranks the most relevant ones using a custom scoring function, and passes the top result into a language model to generate the final answer. We spent weeks optimizing each step to keep latency under 300 milliseconds, including caching, pruning irrelevant articles, and tuning prompt templates.

我们最近推出了一个对话式 AI 功能,允许用户用简单的英语提问,并根据用户的历史活动和当前会话获得响应。该系统会搜索帮助文档数据库,使用自定义的评分函数对最相关的内容进行排序,并将最佳结果输入语言模型以生成最终答案。我们花费数周时间优化每个步骤,将延迟控制在 300 毫秒内,包括缓存处理、剔除无关文章和调整提示词模板。

正面示范:

We just launched a new conversational AI feature. It answers user questions in plain language, using context from the current session. The system searches help articles, scores them with a custom ranking function, feeds the top result into a fine-tuned language model, and runs in under 300ms using caching, pruning, and prompt tuning techniques.

我们刚刚推出了全新的对话式 AI 功能。它能参考当前会话的上下文,以通俗易懂的语言回答用户的问题。该系统会搜索帮助文档,通过自定义的排序算法评分,将最佳结果输入微调后的语言模型,借助缓存、剔除无关文章和提示词优化技术,确保响应速度始终低于 300 毫秒。

1.4 主语选择失当

每个句子都包含有主语和谓语。主语告诉我们这个句子是关于什么的,而谓语则说明主语的动作或状态。选择正确的主语能让读者始终将注意力集中在核心思想上,而 AI 写作最常犯的错误就是选错主语。请看同一句话的两种表达:

反面教材:

Readers are better guided when the subject matches the main idea of the sentence.

当主语与句子的核心思想相符时,读者能得到更好的引导。

正面示范:

Choosing the right subject keeps the writing clear and focused.

选对主语能让文章思路清晰、重点突出。

在“反面教材”版本中,主语是"读者",但该句子实际讨论的却是句式结构,而不是关于人的。“正面示范”版本则让主语与句子主题保持一致,使行文更加连贯,更容易理解。

1.5 信息密度较低

以下是 Gemini 2.5 Pro 在被要求撰写一篇关于“writing in the age of LLMs”的博客文章时生成的导语:

As someone who writes, reviews, and deconstructs complex information for a living, I’ve developed a strong allergy to bad writing. And lately, a lot of that bad writing has a specific, synthetic flavor—the unmistakable scent of an LLM. This post is a guide to navigating the new world of writing, with or without LLM assistance. First, I’ll cover the true pitfalls of LLM-generated text—the red flags that make it feel sterile and unconvincing.

“作为一名以撰写、审阅和解析复杂信息为职业的人,我对拙劣的文字产生了强烈的过敏反应。而最近,很多糟糕的文章都带有一种特殊的合成味道 —— 那种 LLM 独有的气息。无论是否借助 LLM,本文都将成为你在写作新世界中遨游的指南。首先,我将介绍 LLM 撰写的文章的真正陷阱 —— 那些让人感觉空洞乏味的危险信号。”

这段文字听起来不错,但言之无物。句子结构工整,却缺乏具体的见解,没有框架,没有让人读下去的动力。

1.6 表述含糊不清

AI 写作常常回避具体细节。它只提及观点,却不对其进行定义,提出一些主张却无证据支撑。例如:“有专家认为提示词工程正变得不再重要。简单地向 LLM 发送提示词就能对工作效率产生重大影响。”但那些专家是谁?具体有什么影响?对什么样的工作有影响,对谁有影响?若缺乏具体例证或明确的价值阐述,这样的文字就会显得空泛而缺乏说服力。

1.7 滥用指示代词

LLM 写作过度依赖“这”、“那”、“这些”、“那些”等代词,却常常不指明具体指代对象。我也常犯这个错误,每次都会被导师在文稿里标出来(笑)。例如:"这会导致生产流程受阻。"——但“这”到底指什么?如果被指代的名词不在同一句或前文中明确出现,所指就会变得模糊,论点也随之失去力度。

1.8 流利却无实质信息

有些文章读起来貌似正确却未传递任何实质信息。当写作者(或模型)不了解读者的实际认知水平时,这种情况尤为常见。比如:“LLM 通过注意力机制生成符合上下文的响应。”如果读者根本不了解什么是注意力机制或它是如何工作的,这句话就等于什么都没说。

更棘手的是,AI 经常编造一些不存在的专业术语。我曾看到 AI 写出这样的句子:"我们使用 GPT-4 生成文本摘要,但它在某些细节内容上产生了幻觉,因此增加了 retrieval grounding。"——"retrieval grounding"是什么?这根本不是一个公认的技术术语。

AI 无法可靠地区分哪些属于常识、哪些需要解释,因此常常对难点一笔带过,这个认知缺口必须由人类作者来填补。


02

被误判为“AI 腔”的优秀写作范式

我特意撰写了这一节内容,因为我发现大家在抵制 LLM 写作套路时有些矫枉过正,将一些其实很有用的表达方式也一并摒弃。某些写作结构虽被贴上“AI 腔”标签,或在审稿时被标记,但它们实则是常见且有效的修辞手法。不能仅因为在 AI 生成的文本中出现某种表达就判定其拙劣 —— 我们的写作目标不在于刻意回避“像 AI”,而应追求清晰、用心且收放自如的表达。

2.1 刻意重复的艺术

刻意重复的效果如何,主要取决于它如何支撑核心观点。当重复手法能化繁为简或强化关键概念时,便具有画龙点睛之效。优秀的写作总会留出适当的“呼吸区”(predictability) —— 那些让读者能快速浏览或消化重点的段落 —— 但前提是每次重复都必须意图明确。

示例:

向量数据库存储的是嵌入向量(embeddings),即通过数百个维度编码语义特征的数学表征。换言之,向量数据库能找出语义“相近”的结果,而非仅匹配字面完全相同的文本。

2.2 “路标”式短语(Signposting phrases)

诸如“从本质上讲”、“简言之”、“关键在于...”等短语,只要后接有用的内容就完全可取。我喜欢在文章冗长时使用这些短语,因为这些“路标”可以帮助读者重新定位。

示例:

从本质上讲,我们不是将文档作为一个整体来分类,而是将每个章节独立分类。

2.3 平行式表述(Parallel structure)

读者有时会将重复的节奏感误判为 AI 特征。但“平行式表述”其实能有效整合关联概念,并使句子更易于理解。

示例:

该系统能弹性扩展处理各类输入,在高负载下保持实时响应,即使面对杂乱的提示词也能返回稳定的输出。

这种节奏感强化了表达的清晰度,且每个分句都传递了新信息。

2.4 通过统一语法范式设计的章节标题

例如:"Why X fails"、"What to do instead"、"How to know if it worked"。这类标题既清晰又具备可预测性 —— 这正是我们所需要的。只要各标题下的内容清晰明确,具备可预测性反而是优点。

2.5 断言式开头

用斩钉截铁的论断或主题句开启章节,若后文缺乏支撑会显得机械生硬。但若用于设定预期,并辅以实证,那么此类开篇反而能帮助读者把握论述锚点。

示例:

LLM 评估体系极难设计妥当。现有方案多依赖用户定义的黄金标签(gold labels)或模糊的准确率指标,这些方法对主观性任务或多步骤任务完全失效。

2.6 妙用破折号

破折号堪称插入补充细节、快速转折或犀利旁白的利器 —— 且不破坏句子完整性。我对此情有独钟。如运用得当,它能增加文本的节奏感,并附带强调效果,让写作如自然交谈般流畅。


03

我的 AI 协作写作流程

我的写作流程始终围绕着一个核心目标:保持推进势头。我不想陷入对着空白屏幕发呆的状态,也不想无休止地修改那些不尽人意的句子。无论是学术论文还是博客文章,我的大部分创作都遵循相同的流程:构思大纲(在纸上或脑中)→生成草稿→通读文本→批判审视→修改完善。这个流程能够以不同的粒度运行 —— 有时逐句推进,有时成段创作后再统一编辑。

不同写作者的写作瓶颈各异:有人困在规划阶段,难以将想法转化为文章结构;有人快速产出初稿却在修改时陷入困境。对我来说,我能迅速搭建文章框架但常卡在表达环节 —— 问题不在于“说什么”,而在于“如何说清楚”。我的批判能力通常比创作能力更强,因此我常借助 LLMs 来帮助我突破这些卡点。

精准定位写作阻滞点,将恰到好处的任务量委托给 LLM,以此重获创作动能。以下是我的具体操作方案:

3.1 向 AI 模型“讲述”文章结构

动笔时(尤其是撰写论文引言等正式内容),我会先“讲”一遍文章结构,就像在向同事解释一样。将这段粗略的叙述粘贴给 LLM,要求其生成详细的大纲。直到大纲结构令我满意,才会进入下一步。

3.2 坚持自主完成段落初稿,即使很粗糙

即便已有大纲,我仍会强迫自己撰写每个段落的初稿 —— 哪怕文笔拙劣。当清楚要表达什么却难以落笔时(这种情况屡见不鲜),就先写出“半成品”版本,再让 AI 协助完善。

本文就有这样一个真实案例:当我输入

在过去的几年里,我撰写并审阅了大量技术论文和博客文章,总觉得有些地方稍有不妥,以至于写出来的东西不吸引人。但与此同时,我又觉得利用 LLM 写作能给我带来巨大的价值...

然后直接追加指令:"续写这段话"。模型生成多个版本后,我挑选了最好的一个,稍作修改,然后继续推进。

3.3 在修改过程中使用有范围的改写策略

当我重读一个感觉不对的句子或段落时,我不会简单地要求范文 “改得更好”,而是给出一些具体的指令 —— 通常是要求 LLMs 遵循以下两种修辞模式之一。第一种是将主语和动词放在一起,置于句首。第二种是采用 SWBST 结构:Somebody Wanted But So Then。这个基础的叙事框架虽然常见于初级写作教育,却在技术场景中效果惊人,因为它能用紧凑的形式传达动机、出现的冲突和解决方案。

这里的“Somebody”是行为主体,“Wanted”陈述目标,“But”引入障碍,“So”说明应对措施,“Then”描述结果。在技术写作中,这种结构能清晰地展现决策过程或系统如何发展以应对问题。例如:“我们使用 GPT-4 生成摘要(目标),但其产生了事实性幻觉(障碍),因此增加检索环节(对策),最终根据引用的准确率对输出结果进行重排序(成果)”。每个短句承担一项工作,这种简单结构能让决策逻辑一目了然。


04

写在文末的一些思考

如今,生成中等质量文本的成本已大幅降低 —— 当范围明确且定义清晰时,甚至能产出高质量内容。但确定要表达的内容、构建论述框架、把握内容深度与节奏,仍然很难。这些仍需人类的判断力,而这也是当前 LLM 无法代劳的核心环节(至少现阶段如此)。

在这个 LLM 生成文本大行其道的时代,优秀的写作内容最重要的标志或许就是内容价值与文章篇幅的精准平衡。当读者掩卷时,能由衷觉得时间未被浪费 —— 这才是我始终追求的写作标准。

END

本期互动内容 🍻

❓你见过最离谱的 AI 车轱辘话是什么?来晒晒你收集的“正确的废话”。


本文经原作者授权,由 Baihai IDP 编译。如需转载译文,请联系获取授权。

原文链接:

https://www.sh-reya.com/blog/ai-writing/

微信图片_20240716175748.png

AI 及大模型技术分享交流群

干货分享,联系小助手入群

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询