我们正站在一个前所未有的节点上:绝大多数商业问题,已经不再是“做对或做错”,而是无数可能性的叠加;而绝大多数企业,还在用上一个时代的思维,赌下一个时代的不确定。
内容怎么做?用户到底要什么?产品会不会卖?过去靠数据、靠经验、靠拍脑袋;现在,一个全新的能力正在出现——AI不止能干活,它开始“模拟人”。这听起来非常有趣,你肯定想知道:
AI模拟用户,这事儿到底靠谱吗?
它如何成为解决复杂问题的新工具?
它怎样让“用户洞察”这件事快100倍、便宜100倍、覆盖广100倍?
以及,在AI能预测85%的世界里,人类该如何活在那15%的不可预测里?
本文仅为课程的部分内容,完整版内容请到混沌APP观看完整版。
世界的复杂性,导致我们需要“模拟”
我们经常会听到这样的问题:做什么内容好?这群人需要做什么内容?这群新兴的群体可能感兴趣要什么样的东西?这些话题其实本身不存在对与错的答案,更多的是各种各样的可能性。绝大多数我们遇见的问题都是这种可能性问题,这不是简单的数学题解方程的问题。
在学术里边,把这种问题称之为叫 Wicked Problem。学者把问题定义为两种:第一种叫 Tame Problem(可解问题),即那些可以被求解、被定义的,有确切答案的问题,即使是再复杂的方程,也是有确切答案的。还有一种就是我们在商业里面经常会遇见的,不好被定义,也无法被解决,只能暂时被改善,这种叫 Wicked Problem,也叫复杂问题。
复杂问题有一些特征。首先,它很难被明确定义,总好像是一个复合的东西。第二,它永远带来新的问题,所以没有结束。第三,只有好坏而没有真伪。
同时,没有立即获得最终的可以测试的标准,你很难测试。每个问题都是独特的问题,可以被看作其他问题的症状,比如解决贫困,很有可能就会产生环境问题和贫富差异问题。问题的存在取决于价值观的差异,我们到底以什么为优先。决策者没有办法试错,你一旦选了,你就只能一条道走到黑,没有办法再回来。
这些都是 Wicked Problem 的特征,我们在很多商业的选择里面就是这样,我们只能往前走。
解决这种问题的最通用的一种方式叫模拟。模拟的意思就是:我们建立一个沙盘,我们去做推演,做 Scenario Planning,做不同场景的尝试,来看看我们下一步应该怎么做。
我们其实一直都在模拟。比如打一场仗之前、操作复杂工具之前(不是学习工具,而是模拟不同场景下的反应)、以及升息降息、涨工资降工资等经济变化时,我们都会去模拟。
模拟的核心有一种转变:要从想把问题解决到变成一个更演化、更适应的系统。我们不再只是期待把问题的答案找到,而是要跟着这个问题去往前走。系统模拟的目的就是不停地跟着问题往前走,从而产生一种更有机、动态的状态。
用大模型去模拟人的主观世界
模拟里边有一个非常核心的步骤,就是建模。我们的大语言模型就是一种建模,是对主观世界大环境的一种压缩。
建模其实就是控制变量法,我们把一些变量暂时搁置,试图用一种抽象的方式来描述环境和客观现实。人类科学的发展就是让更多话题可以用建模的方式来解决,从十五、十六世纪的物理世界,到十八、十九世纪的生物、化学世界,再到20世纪用计算方法来理解社会(如复杂理论、行为经济学等等)。
我觉得在当下,我们有机会用语言去模拟这个主观的世界,因为大语言模型可以不停地讲话,而语言是我们思维的载体。我们可以模拟内心是怎么想、怎么选择、怎么判断、怎么构思的,从而更好地帮我们理解用户、理解同事。
也就是,有大语言模型以后,我们有机会用建模的方式来理解一个人的主观世界。所以我们把这称之为主观世界的建模方法。
举一个简单的例子。如果我用大语言模型去阅读《哈利·波特》,把这本书作为语料喂给模型,我们就能产生一个哈利·波特人格的AI模拟。我就可以问他作为一个消费者,早上是喜欢喝咖啡还是果汁。通过这样的方式来获得所谓用户洞察的东西。
这个答案在书里没有,但通过这本书作为数据源和上下文喂给大语言模型,模型分析后就可以通过书的信息来模拟出哈利·波特的性格选择。这个过程就叫推理。推理就是基于上下文去做有效的下一步的猜测。因为大语言模型的运行原理其实就是不停地预测下一个词。
让大语言模型模拟一个人的消费习惯和选择,去猜测下一步他可能会做什么,这恰恰就是大语言模型最擅长做的事情。
AI模拟用户的商业应用
理论上,当我们可以让AI去模拟哈利·波特,明天也可以让AI去模拟每一个人。
我们做的事情,就相当于用这个方法做了一个产品Atypica。
我们通过合成数百万真实的社交帖子来生成消费者智能体,模拟消费者真实的个性、情感和决策逻辑,让你不仅理解消费者“想什么”,还能理解他们“如何”和“为何”做决定。拥有 Atypica,就像拥有一个强大的研究团队。
你可以分钟级获得研究报告,只需要提出你的商业问题,我们的研究智能体(Research Agents)会阐明你的需求,规划调查,扫描社交平台。将社交声音合成为消费者智能体,发现深入的行为、价值和偏好洞察。
最后,分析智能体(Analytic Agents)将一切精炼为清晰、可操作的市场洞察和报告。
这个产品就叫 atypica.AI,它做的事情就是用大量的模拟消费者AI,和AI研究人员进行大量的对话,从而产生各种各样的商业问题的答案。
比如问某个产品在南美会不会卖得很好,它可以自动拟合出南美的消费者来做测试。我们也见到做新能源车的公司,邀请一堆虚拟用户来探讨下一代MPV的产品概念等等。最后产生的阶段性结果是一份非常详实的报告和整个调研的过程。
AI模拟用户,真的可信吗?
这个产品或者说这一套体系主要分为三个部分:第一个部分是用 AI来模拟消费者;第二个部分是用AI来模拟进行各种各样的人与人的互动访谈;第三就是AI输出结果。
大家都会好奇AI模拟消费者到底准不准?我们尝试做了两三年,直到今年我觉得这个想法的结果是有效的。之所以今年有这个机会,是因为模型的升级,我给大家举两个现在行业的科研成果。
一群斯坦福的学者在2023年做了一个虚拟小镇,25个居民由AI驱动,自发性的进行“人与人”的互动。后来同一个团队写了一篇论文 《GenerativeAgent Simulations of 1,000 People》(《用智能体来模拟1000个随机的美国人》)。
他们用智能体采访这些美国人约100多个问题(2小时),积累大量故事作为语料,输入给大语言模型作为模拟智能体的基础。然后用同样的问题问真人和问智能体,最后得到答案是85%的回答可以互换,就是接近一致。
这里有一大批的科研,比如说人机交互的、经济学的、社会学的,似乎都在做一件事情,就是让大语言模型加上一个上下文、加上数据,能不能够模拟扮演真人的这种随机性。
最后我们发现,这是可行的。可以通过上下文、提示词、大语言模型本身的能力等等一系列的工程方式,能够让模拟的效果达到85%。
我们是怎么做的?基本方法就是:用语料加上大语言模型,然后产生这种生成式的人设。Atypica可以将你的访谈记录转化为随时可用的数字化消费者(Digital Consumers)。你的语料进来以后,我们还要进行多个维度消费者的解析,去做采访或再去找数据,这样才会让这个消费者更真实。
为什么说数据不完全可行?举一个例子。我的合作伙伴经常说:“我想通过分析社交媒体数据,进行新品研发、竞品对比、销售卖点提取,能不能爬取各个平台的全量数据来分析,小红书、抖音、微博、B站,越全越好?”
首先,爬数据合规性是问号。第二,爬取的数据可能有延迟。第三,爬来的全量数据,99%可能是垃圾。数据分析能真的剔除99%的垃圾吗?
那为什么大家不去最好的商店买东西,而去垃圾堆里捡东西呢?所以全量数据是一个伪命题。
我们经常总结:因为过去都是这样,所以我们应该这么做。世界不是线性的,归纳是谬误。通过过去预测未来是有谬误的。这些观点来自大卫·多伊奇的《无穷的开始》。他认为科学发现不是观察、归纳和总结,也不是看到数据就总结、归因、得出结论。而是问题到猜想,猜想到批判,批判到更好的猜想。
爱因斯坦相对论、达尔文进化论等著名猜想,都不是先有数据验证才想出来的,而是先有猜想,后有人验证,这并非自然归纳。数据归纳法在商业场景中常用,但可能只是“黑天鹅事件”尚未出现。
在AI时代,我们不应依赖大模型、大数据,而应依赖每个人的“大猜想”。因此,访谈(即使是AI虚拟人)很重要。洞察和猜想的源泉,在于人和人的交流产生的增量,而非收敛的解题式结论。
市场变化太快,商品迭代以月为计,而传统的社媒全量数据和调研报告时效性、执行度都堪忧,我们不能一边快速迭代,一边用户理解却按年来算。
我们希望通过Atypica这样的产品,将用户理解的速度、成本和覆盖面都提高100倍。每个研究过程都有一个Nerdy统计按钮,有四个维度:时间(后台10到30分钟实时访谈并产出结果)、步数(交互次数)、Agent(消费者数量)和Token(剥削的算力)。
40万个token大约是一杯瑞幸咖啡的价格,我们用咖啡来定价,你可以请AI喝一杯咖啡,它给你结论。
我们的目的不是取代传统方法,而是解决原来用户理解太贵、太慢、覆盖面太窄的问题,我们提供一个24小时在你身边的用户洞察agent。当你要做内容、商品、战略或决定时,随时有一个可以模拟的对象沙盘来问问反馈,并思考后果。
我们的产品在AI出海业务中发挥了真实的作用。详情请看完整版课程:
启示:AI擅长推理,人类就要反预测
第一个85分是我们的产品结论客户满意度打分是85分(100 分满分),可能找麦肯锡做的结果也不一定有 85分。当AI可以做85分的时候,我们的工作会发生什么样的变化?
AI既然能做到85分,我们就让AI做到85分,那么人做的工作是从 85 分往上做到 100 分。
我们的产品现在100分的产品才有机会拿出来,85分就是底线。我们应该用好这个基础,让活去找人,不是人去找活。
第二个85是指模拟用户的一致性是85%的概率是准的。那么另外无法被预测的15%是什么?
想象你是一个复杂立体的人,AI只看到你发的朋友圈、点赞的视频、写的邮件、搜过的问题,把你压缩成一个概率模型。这就是AI最底层的逻辑:压缩,越容易压缩就越容易被取代、被预测,越容易被预测,在AI时代就越容易被取代。
当你越来越正常,越来越像那85%的时候,你就越容易消失,AI agent就可以取代你。
我们曾担心被误解,现在要担心的是被彻底理解,以至于再也没有惊喜,你的存在AI学不来,总结不出来,你写的句子它不敢预测,做的决定它没见过。
在AI时代,最需要做的就是一个难以被预测的人。
扫码观看完整版课程
上一篇:原创 感谢AI,2025年国产存储芯片,迎来了“千载难逢”的机遇
下一篇:没有了