印象中南风大佬之前曾以万元级别的价格销售大批提示词产品,我也曾凭一套几百字的提示词率先实现AI降重,轻松月入近10万。但这种方式主要是建立在传统大语言模型的逻辑之上——需要严格的结构化提示词,反复对AI强调角色扮演、输出形式、风格要求等等。
现在正逢推理模型崛起的阶段,我个人认为“提示词”的玩法即将迎来一次大洗牌。新一代的推理模型根本不需要你在提示词里列那么多细枝末节,它会“主动思考”自己应该如何写。也就是说,很多封闭式提示词,到了R1里反而有时会降低效果。
红楼大佬在晚上的分享里讲得非常系统,从最初如何理解大语言模型的底层逻辑,到提示词(Prompt)如何构成,再到CRISPE框架的实操示例,都为我们提供了一个全局化的视角。对于刚接触AI写作的小伙伴,简直是“保姆式”的教学。对大多数还在用这些模型的小伙伴,依然是非常管用的。对于新的推理模型,也是必不可少的理论基础。只是我想提醒大家,如果你已经准备尝试新一代推理模型,就要意识到这套玩法和非推理模型很不一样,最好单独花时间摸索它的“性格”。
________________________________________
关于R1和其它模型的一些个人理解
1. 推理模型与大语言模型的区别
非推理模型(ChatGPT 4o、Claude等)需要严谨的结构化提示词;推理模型(deepseek R1、ChatGPT o1/o1pro)更看重的是你给它明确的要求,它自己会“扮演”最佳角色去处理。如果你强行给它非常细的指令,可能会出现逻辑冲突,导致输出质量受影响。
2. 为什么很少有推理模型教程?
因为在一个月前,推理模型的月租费用还是200美元,普通用户望而却步。直到deepseek R1免费放出,才让大量普通用户有机会尝鲜。现阶段,能找到的R1教学材料还非常有限,很多都是东拼西凑,而且鱼龙混杂。大家要有心理准备,多实操、多和别的玩家交流。
3. 主流AI模型品牌个性
o 开创者:ChatGPT、Claude、Deepseek —— 他们都有独一无二的绝活,引领AI的潮流。
o 追赶者:Gemini、Grok、通义千问、Kimi —— 通常在开创者发布产品后几十天推出相似的功能,但总差一点火候,还没练出自己的核心竞争力。
o 实用者:豆包、Perplexity、秘塔 —— 针对小白用户特定场景,做的是“够用”,但不会在模型性能上疯狂内卷。
4. 费用与风险
o 免费类:deepseek R1、Gemini(ai studio限定)、Kimi,或者Grok充值5刀也能大量使用。
o 付费类:ChatGPT Pro(200美金/月)和ChatGPT Plus、Claude Pro(20美金/月)虽然功能更强,但风险也大,很容易出现封号,且不一定退费。不建议小白直接上手。最坑的是chatgpt不封号、不退款,直接给降智成傻子,很多小白还发现不了。想要购买自己研究苹果美区、美国家宽代理,花费几天学透再买。谨慎找代购。
o 折衷方案:找第三方AI平台,提供全网AI模型,但质量参差不齐,需谨慎选择。 5. 做论文代写的经验 o 第一,模型输出字数限制
o Claude3.5、deepseekr1,输出1500-2000字
o Gemini 2.0 thinking、chatgpt o3 mini,输出1000字*10往上,虽然支持上万字,但本质是几个片段拼起来的,缺乏整体的逻辑推理,导致最终效果只是简单的拼接。
o 豆包、kimi,包括一些AI论文网站,都可以提供类似的低配效果。但是模型底层性能的限制,导致一键生成的稿子必须通过人工进行大幅度修改。
o Chatgpt o1,3000-5000字左右。Chatgpt o1 pro,6000-10000字。Chatgpt o3 deepreseach,2-4万字。
o 第二,模型输入字数及上下文限制——超限会导致智商大幅度降低,而且会在总字数中随机依据理解范文内的部分内容进行创作,超限的多数会被无视掉。
o 模型宣称的上下文是极限数字,甚至在100万字的对话检索到百十个字,也可以号称100万字上下文。但实际使用上,只拼模型的性能和智商。
o 上下文包含同一对话记录中的所有内容
o chatgpt o1/o3,3-5万字左右
o Chatgpt 4o、claude3.5、Deepseek r1,1-2万字左右
o (deepseek r1对话3轮以上开始高频发癫,其它模型也有幻觉增加的趋势,建议论文创作多开新对话)
o 豆包、chatgpt 4omini,3000字左右
o 超限任务不建议在同一对话继续,应复制主要内容开启新对话创作。
o 超出理解字数不足,需要分步骤处理,结合需求开启新对话。
o 一、整理资料、整理数据。
o 二、创作目录提纲。多轮对话修改目录提纲。
o 三、根据全文篇幅,逐章、逐小节生成。
o 每一个章节开一个新对话,复制创作素材加前文内容效果更佳。
o 四、人工整合润色。
________________________________________
虽然我自己对推理模型有一番独到见解,也常常“另辟蹊径”去摸索R1,但红楼大佬的课程仍然给了我不少启发。
________________________________________
【今日行动】
• 学习课程
认真观看了红楼大佬讲的提示词专项训练,红楼大佬对大语言模型的原理讲得特别细,从预训练、微调,一路讲到提示词写作框架CRISPE,这对新人确实很友好。
查阅资料
红楼大佬分享了各种检索网站和思路,有几个是自己没用过的,这两天抓紧试用下,以深化对AI的了解。
________________________________________
【今日复盘】
• 提示词还是核心生产力
南风大佬能卖万元级提示词、我能靠几百字提示词月入10万,都证明了“好Prompt”就是“印钞机”。随着推理模型加入战局,玩法会更灵活,但绝对不会弱化“提示词”的地位,只会让我们更需要“理解”AI,而不只是“命令”AI。红楼大佬给出的提示词案例也很实用,就算你以后用R1,也可以先当作借鉴,毕竟很多结构化的思路是相通的。
• 下一步规划
继续深挖R1的使用技巧,并借着红楼大佬课程里提供的检索工具,扩充我的素材和行业知识面。
|