当AI学会倾听:Anthropic如何让1250位职场人敞开心扉聊AI
创始人
2025-12-12 16:16:51
0

这项由Anthropic公司于2024年12月5日发布的研究,首次展示了一个名为"Anthropic Interviewer"的AI访谈工具如何大规模收集人们对人工智能的真实看法。研究团队对1250位来自不同职业的专业人士进行了深度访谈,其中包括1000名普通职场人士、125名创意工作者和125名科学家。这项研究的完整数据已经公开发布在Hugging Face平台上,供其他研究者探索。

回到日常工作场景,当你坐在办公桌前使用AI工具完成任务时,你会有什么感受?是兴奋、焦虑,还是既期待又担忧?全球已有数百万人每天都在使用AI,但他们真正的想法是什么?他们如何看待AI对工作和生活的影响?作为AI系统的开发者,Anthropic想要真正听到用户的声音,不仅仅是为了改进产品,更是因为理解人类与AI的互动关系已经成为这个时代最重要的社会学课题之一。

从前,Anthropic开发了一个名为Clio的工具,能够在保护用户隐私的前提下分析AI的使用模式。这个工具帮助他们了解了AI在经济领域的使用趋势。然而,Clio只能告诉他们人们"在做什么",却无法回答更深层的问题:人们完成对话后如何使用AI的输出结果?他们对使用AI有什么感受?他们想象中AI在未来生活中扮演什么角色?如果想要全面了解AI在人们生活中不断变化的角色,并让人类真正参与到AI模型的开发过程中,就必须直接询问人们本身。

可是要运行数百场访谈谈何容易?于是研究团队想到了一个绝妙的主意:让AI来帮助进行访谈。他们构建了一个由Claude驱动的访谈工具Anthropic Interviewer,这个工具能够自动进行详细的访谈,规模之大前所未有,然后将结果反馈给人类研究人员进行分析。这是理解用户需求、收集AI社会和经济影响数据的全新尝试。

研究发现呈现出一幅复杂而生动的图景。参与访谈的职场人士整体上对AI在工作中的角色持乐观态度,大多数讨论的话题都带有积极情绪。然而,也有少数话题引发了更多悲观情绪,比如AI在教育领域的整合、艺术家的职业威胁以及安全隐患等。普通职场人士希望保留那些定义他们职业身份的核心任务,同时把例行公事交给AI处理。他们设想的未来是这样的:日常任务实现自动化,而他们的角色转变为监督AI系统的运作。

创意工作者的情况则显得更加矛盾。尽管面临同行评判和对未来的焦虑,他们依然在使用AI提高生产力。他们不得不在创意社区中应对使用AI所带来的即时污名,同时还要面对更深层的担忧——经济上被取代的风险以及人类创造力身份的侵蚀。至于科学家群体,他们普遍表达了想要AI成为研究伙伴的愿望,但目前还无法在核心研究工作中信任AI。科学家们一致希望AI能够生成假设和设计实验,但实际使用中,他们只把AI用于其他任务,比如撰写论文手稿或调试分析代码。

倾听的艺术:Anthropic Interviewer如何工作

任何一场有意义的对话都需要精心准备。当你要和朋友深入聊一个话题时,你会提前想好要问什么问题,怎样引导话题自然展开,对吧?Anthropic Interviewer的工作方式也是如此,只不过它要同时和成百上千的人对话。这个工具的运作分为三个阶段:规划、访谈和分析。

在规划阶段,Anthropic Interviewer会创建一个访谈大纲。这个大纲就像一张精心绘制的对话地图,能让工具在数百场访谈中专注于相同的核心研究问题,同时又保持足够的灵活性,容纳每场访谈中可能出现的独特变化和意外话题。研究团队为Anthropic Interviewer开发了一套系统提示词——也就是一套关于如何工作的总体指令。这些指令中包含了针对每个样本群体的假设,以及创建访谈计划的最佳实践(这些实践是与用户研究团队合作建立的)。有了系统提示词之后,Anthropic Interviewer会利用对研究目标的理解生成具体问题和预设的对话流程。之后会有一个审查阶段,人类研究人员会与Anthropic Interviewer合作,对计划进行必要的修改并最终确定。

接着是访谈阶段。Anthropic Interviewer按照访谈计划进行实时的适应性访谈。在这个阶段,研究团队也给它配备了系统提示词,指导它如何运用访谈的最佳实践。这些访谈出现在Claude.ai平台上,每次访谈大约持续10到15分钟。参与者就像在和一个善于倾听、会适时追问的对话伙伴交流一样,分享他们对AI的真实想法和感受。

为了确保访谈能够切中要害,研究团队通过系统提示词让Anthropic Interviewer明确了解研究目标,并以此方式进行访谈。需要注意的是,在这项初步研究中,主要目的是对Anthropic Interviewer进行实际测试,不过下面列出的研究目标本身也提供了有趣的数据。

针对普通职场人士的研究目标是:了解个人如何将AI工具整合到专业工作流程中,探索使用模式、任务偏好和交互方式,从而深入理解人类与AI在工作场所环境中不断演变的关系。针对创意工作者的研究目标是:了解创意专业人士目前如何将AI融入创作过程,他们对AI影响其工作的体验,以及他们对AI与人类创造力未来关系的设想。针对科学家的研究目标是:了解AI系统如何融入科学家的日常研究工作流程,检查他们当前的使用模式、感知价值、信任水平,以及在科学过程不同阶段采用AI的障碍。

参与者的声音:谁在这场对话中

任何研究的价值都取决于参与者的多样性和代表性。这次研究通过众包工作平台招募了1250名专业人士,所有参与者都有一份主要工作,众包工作只是副业。研究团队希望最终能够访谈Claude.ai的普通用户,但在这次初步测试中,他们特意选择了来自各种职业的工作者。

这1250名参与者中,有1000人来自普通职业样本,也就是说研究团队并没有从特定工作中筛选参与者。在这个群体中,最大的子群体来自教育教学领域(占17%)、计算机和数学职业(占16%)以及艺术、设计、娱乐和媒体行业(占14%)。

研究团队还专门招募了两个各有125名参与者的专业样本。第一个样本来自创意职业,主要是作家(占样本的48%)和视觉艺术家(占21%),还有少数电影制作人、设计师、音乐家和手工艺工作者。第二个样本来自科学领域,包括物理学家(占9%)、化学家(占9%)、化学工程师(占7%)和数据科学家(占6%),涵盖了50多个不同的科学学科。

之所以增加这两个专业子群体,是因为这些领域代表了AI角色仍存在争议且正在快速演变的专业领域。研究团队推测,创意工作者和科学家会展现出独特的AI采用模式和职业担忧。所有参与者都提供了知情同意,允许研究团队分析他们的访谈数据用于研究目的,并公开发布访谈记录。

普通职场:希望自动化繁琐,保留职业精髓

当研究团队倾听普通职场人士的声音时,他们听到的主旋律是乐观的。参与者普遍将AI描述为生产力的助推器。在调查中,86%的职场人士表示AI为他们节省了时间,65%的人对AI在工作中扮演的角色感到满意。

不过,一个值得关注的主题浮出水面:工作场所的人际关系动态如何影响AI的采用。69%的职场人士提到了在工作中使用AI工具可能带来的社交污名。一位事实核查员告诉Anthropic Interviewer说:"最近一位同事说他们讨厌AI,我什么也没说。我不会告诉任何人我的工作流程,因为我知道很多人对AI的感受如何。"

访谈中还出现了两种截然不同的心态。41%的受访者表示他们对工作感到安全,相信人类技能是不可替代的。然而,55%的人表达了对AI影响其未来的焦虑。在表达焦虑的群体中,25%的人设定了AI使用的界限(例如一位教育工作者总是亲自创建课程计划),另有25%的人调整了工作角色,承担额外责任或追求更专业化的任务。

应对AI的方式千差万别。一位数据质量管理员刻意选择学习而非自动化:"我试着把这想象成学习一门外语——只是使用翻译应用程序不会教你任何东西,但有一个能回答问题并根据你的需求定制的导师真的会有很大帮助。"一位营销人员采取了灵活的方法:"我正在尝试多元化,同时保持强大的专业特长。"一位口译员已经准备完全离开这个领域:"我相信AI最终会取代大多数口译员,所以我已经在准备职业转换,可能会获得文凭并进入不同的行业。"值得注意的是,只有8%的职场人士表达了焦虑却没有明确的应对计划。

研究团队还分析了访谈中展现的不同情绪强度。他们分析了来自六个主要职业类别的职场人士在访谈中表达的六种主要情绪:希望、担忧、满足、挫败、宽慰和信任。不同职业展现出了极为一致的情绪特征,其特点是高度的满足感。然而,这种满足感也伴随着挫败感,表明职场人士发现AI很有用,但也遇到了显著的实施挑战。

增强还是自动化:职场人士的选择

在之前的一项分析中,Anthropic将AI的使用分为两类:增强型(AI与用户协作完成任务)和自动化型(AI直接执行任务)。在Anthropic Interviewer的数据中,65%的参与者将AI的主要角色描述为增强型,35%描述为自动化型。这个结果与他们最新对Claude使用情况的分析形成了鲜明对比。最新分析显示了更加均衡的分布:47%的任务涉及增强,49%涉及自动化。

这种差异可能有多种解释。可能是Anthropic Interviewer研究的受访者与之前研究的用户之间存在样本差异。也可能人们在Claude上的对话看起来比实际更偏向自动化——用户可能在聊天结束后改进或调整了Claude的输出结果。参与者可能将不同的AI提供商用于不同的任务。自我报告的交互方式可能与实际使用情况存在偏差。还有一种可能是,职场人士认为他们的AI使用比Claude对话模式显示的更具协作性。

职场人士设想的未来既有增强也有自动化——日常行政任务实现自动化,同时保持人类监督。48%的受访者考虑将职业转向专注于管理和监督AI系统的职位,而不是直接从事技术工作。

一位牧师说:"如果我使用AI并提升相关技能,它可以在行政方面为我节省大量时间,这将让我腾出时间与人相处。"他们还强调了"良好界限"的重要性,避免"变得如此依赖AI以至于没有它我就无法生活或做我应该做的事情"。

一位传播专业人士说:"我相信有一天我的大部分工作可能会被AI接管。我认为我的角色最终会专注于提示、监督、培训和质量控制模型,而不是自己实际完成工作。"目前在工作中被禁止使用AI的职场人士——例如一些律师、会计师和医疗工作者——预计政策变化将允许他们在未来自动化许多任务。

创意工作者:在效率与身份之间挣扎

当研究团队倾听创意工作者的声音时,他们听到了一种充满矛盾的旋律。这些创意专业人士也报告说AI使他们更有生产力。97%的人表示AI为他们节省了时间,68%的人认为AI提高了作品质量。一位小说家解释说:"我觉得我可以写得更快,因为研究不再那么令人生畏。"一位网络内容作者报告说,他们"从每天能够产出2000字的精良专业内容,增加到每天远超5000字"。一位摄影师注意到AI如何处理日常编辑任务,将周转时间从"12周缩短到大约3周",让他们能够"有意识地进行编辑和调整,这些是我之前可能错过或没有时间做的"。

与普通样本类似,70%的创意工作者提到试图管理AI使用带来的同行评判。一位地图艺术家说:"我不希望我的品牌和业务形象与AI以及围绕它的污名如此紧密联系。"

经济焦虑贯穿了创意工作者的访谈。一位配音演员表示:"由于AI的兴起,配音的某些领域基本上已经消亡,比如工业配音。"一位作曲家担心平台可能"利用AI技术以及他们的出版曲库无限生成新音乐",用廉价的替代品淹没市场,取代人类制作的音乐。另一位艺术家捕捉到了类似的担忧:"实际上,我担心我需要继续使用生成式AI,甚至开始销售生成的内容,只是为了在市场上保持竞争力,这样我才能谋生。"一位创意总监说:"我完全理解我的收益是另一位创意人员的损失。我过去必须每天支付2000美元的产品摄影师现在得不到我的业务了。"需要注意的是,Claude本身并不生成图像、视频或音乐,因此参与者表达的焦虑是针对整个AI领域的,而不是专门针对Claude。

所有125位参与者都提到希望保持对创意输出的控制。然而,这个界限在实践中证明是不稳定的。许多参与者承认AI驱动创意决策的时刻。一位艺术家承认:"AI驱动了很大一部分概念,我只是试图引导它……60%是AI,40%是我的想法。"一位音乐家说:"我不愿承认,但使用这个插件时,它拥有大部分控制权。"

研究团队分析了创意专业人士访谈中六种主要情绪的强度:希望、担忧、满足、挫败、宽慰和信任。不同学科展现出不同的情绪特征。游戏开发者和视觉艺术家报告了高满意度,但矛盾的是也伴随着高度担忧。设计师则显示出相反的模式,以挫败感为主,满意度明显较低。在所有学科中,信任度始终保持在较低水平,表明对AI对创意工作的长期影响存在共同的不确定性。满意度和担忧之间的紧张关系可能突显了创意专业人士的处境,他们一方面拥抱AI工具,另一方面又在应对对人类创造力未来的担忧。不同情绪之间的广泛分布证实了不同创意职业通过非常不同的情绪透镜体验AI整合。

科学家:渴望伙伴却难以信任

当研究团队倾听科学家的声音时,他们听到的是一种渴望与谨慎并存的基调。对化学、物理、生物学和计算领域的研究人员的访谈发现,在许多情况下,AI还无法处理研究的核心要素,比如假设生成和实验设计。科学家主要报告将AI用于其他任务,如文献综述、编码和写作。这是包括Anthropic在内的AI公司正在努力改进工具和能力的领域。

在79%的访谈中,信任和可靠性问题是主要障碍,27%的访谈中出现了当前AI系统的技术限制。一位信息安全研究员指出:"如果我必须仔细检查和确认代理给我的每一个细节以确保没有错误,那实际上就违背了让代理做这项工作的初衷。"一位数学家回应了这种挫败感:"在我花时间验证AI输出后,基本上最终花费的时间是一样的。"一位化学工程师注意到对迎合性的担忧,解释说:"AI倾向于迎合用户的感受,并根据他们提问的方式改变答案。这种不一致性往往让我对AI的回应持怀疑态度。"

研究团队分析了科学家访谈中六种主要情绪的强度:希望、满足、挫败、担忧、怀疑和信任。大多数科学领域报告了高满意度,但挫败感模式存在差异。物理学家和数据科学家表现出更高的挫败感,而化学工程师和机械工程师则表现出最小的挫败感。这可能反映了计算型领域与实验型领域在尝试将AI整合到核心研究工作流程时的差异。需要与现实世界互动的科学家可能还没有尝试将AI用于核心科学实验。所有领域的信任度都相对较低,表明无论学科如何,都存在广泛的可靠性担忧。与表达对AI影响高度担忧的创意专业人士不同,科学家表现出相对较低的担忧水平。这与他们表达的关于AI完成假设生成和实验任务能力的挫败感相一致。

科学家总体上并不担心因AI而失业。一些人指出了难以数字化的隐性知识,一位微生物学家解释说:"我研究的一种细菌菌株,你必须在细胞达到特定颜色时启动各种步骤。颜色的差异必须亲眼看到才能理解,而且这些说明很少在任何地方写下来。"其他人强调了研究决策的本质是人性化的,一位生物工程师表示:"实验和研究也……本质上取决于我",并指出"研究过程的某些部分不幸地与AI不兼容,即使它们是最方便自动化的部分,比如进行实验"。

外部限制也为AI替代创造了障碍。在保密环境中工作的研究人员指出,"在组织允许我们使用代理框架,甚至使用大语言模型之前,必须实施许多'可以做'和'不可以做'的规定,以及许多面向安全的流程"。一位管理有限资源的机械工程师解释说,虽然"AI擅长提出实验设计",但实际上"我的大部分研究都有预算/时间/样本限制,所以'理想'的设计并不总是可行的"。尽管如此,监管合规限制、对技能退化的担忧和成本障碍在访谈中各自出现的比例都不到10%。

尽管如此,91%的科学家表达了希望在研究中获得更多AI帮助的愿望,即使他们认为当今的产品还不够理想。大约三分之一的人设想主要在写作任务方面获得帮助,但大多数人希望在所有研究工作中获得支持:批评实验设计、访问科学数据库和运行分析。一个普遍的愿望是让AI能够产生新的科学想法。一位医学科学家说:"我希望AI能够……帮助生成或支持假设,或寻找对人类来说不是立即明显的新颖互动/关系。"另一位科学家呼应了这种情感,说:"我希望有一个AI能够感觉像一个有价值的研究伙伴……能够带来新的东西。"

展望未来:倾听的力量

这项初步测试证明了Anthropic Interviewer在规模化方面展现出了希望。研究团队能够对1250位来自不同职业的专业人士进行访谈,了解他们对工作中AI的感受。如果使用传统的"人工"访谈方法,对这么多参与者的研究将既昂贵又耗时。

Anthropic Interviewer的意义不仅仅在于方法论本身,它从根本上改变了我们可以提出和回答关于AI在社会中角色的问题。研究团队使用Anthropic Interviewer进行大规模有意义研究的努力才刚刚开始。此前,他们只能了解人们如何在聊天窗口内使用Claude,却不知道人们对使用AI的感受如何,他们想改变与技术互动的哪些方面,或者他们如何设想AI在生活中的未来角色。

这项初步调查的发现为研究团队提供了超越经济指数工作的新见解,帮助他们了解人们如何在工作场所使用AI。研究团队正在与经济咨询委员会和高等教育咨询委员会分享这些初步发现进行讨论。随着研究的继续,他们将公开分享试点结果,以及这些发现如何指导未来的工作。

Anthropic Interviewer是研究团队将人类声音置于AI模型开发对话中心的最新步骤。这个努力始于集体宪法AI的工作,该工作收集了公众观点来塑造Claude的行为。这些对话可以帮助改进Claude本身的特性和训练过程,也可以为Anthropic倡导和采纳的未来政策提供信息。研究团队已经采取了一些实际步骤来探索与特定社区的合作关系,帮助他们开发由这些社区专业知识启发的AI。

针对创意工作者,研究团队正在支持展览、工作坊和活动的发展,以了解AI如何增强创造力。他们与领先的文化机构建立了合作关系,包括LAS艺术基金会、森美术馆和泰特美术馆,以及Rhizome和Socratica等创意社区。研究团队还与流行创意工具背后的公司合作,探索Claude如何通过模型上下文协议增强创意工作者的工作。

针对科学家,研究团队正在与AI科学项目的受资助者合作,了解AI如何最好地服务于他们的研究。他们使用Anthropic Interviewer收集科学家对AI的看法以及他们对该项目的期望,同时也使用保护隐私的分析工具评估他们的Claude对话是否与这些期望一致。结合定量和定性数据将帮助改进面向科学家的Claude,并衡量资助的影响。

针对教师,研究团队最近与美国教师联合会合作,重塑AI能力日益增强时代的教师培训。该项目旨在支持40万名教师接受AI教育,并在AI系统开发中引入他们的视角。研究团队还预览了关于AI如何改变Anthropic软件工程的一些发现。分享关于自身工作场所转型的定性故事让他们发现软件工程师和教师之间有很多共同点,将每个人聚集在同一张桌子上,集思广益讨论我们实际想要什么样的AI引发的工作转型。

使用Anthropic Interviewer,研究团队可以进行针对性研究来指导特定政策,进行参与式研究让不同社区参与关于AI的对话,以及进行定期研究来跟踪人类与AI之间不断演变的关系。

研究团队正在继续使用Anthropic Interviewer更好地了解人们如何设想AI在生活和工作中的角色。从2024年12月4日开始,人们可能会注意到Claude.ai上出现一个弹窗,邀请参与访谈。通过参与,用户可以成为这篇研究报告描述的下一阶段研究的一部分。准备好分享观点的人可以通过提供的链接参与10到15分钟的访谈。研究团队计划将这项研究的匿名见解作为社会影响研究的一部分进行分析,并发布关于这些数据见解的报告。

倾听的价值与局限

对1250位专业人士的访谈揭示了一个正在积极协商与AI关系的劳动力群体。参与者普遍保留了对其职业身份至关重要的任务,同时委托日常工作以获得生产力提升。创意工作者尽管面临同行污名和经济焦虑,仍然拥抱AI的效率。科学家对委托给AI的研究任务保持选择性。

研究团队进行这项研究是为了了解AI对人们生活的影响,超越聊天窗口内发生的事情。像所有定性分析一样,他们对这些访谈的解释反映了他们选择提出的问题以及在数据中寻找的模式。通过公开这个大规模访谈记录数据集,研究团队希望促进对人类与AI关系如何演变的集体理解。通过大规模部署Anthropic Interviewer,他们可以在人们对AI的体验与如何开发AI之间创建一个反馈循环——目标是构建反映公众观点和需求的AI系统。

然而,Anthropic Interviewer的初步使用存在一些重要限制,这些限制影响了研究发现的范围和普遍性。研究发现应被解释为AI对工作影响的早期信号,而不是关于其对职业实践和身份长期影响的确定性结论。

首先是选择偏差。由于参与者是通过众包工作平台招募的,他们的经历可能与普通劳动力显著不同,使回应偏向对该主题更积极或更有经验的观点。其次是需求特征。参与者知道他们正在被AI系统采访关于AI使用的问题,这可能改变了他们参与的意愿,或者改变了他们给出的回应类型,与人类访谈相比。第三是静态分析。研究捕获的是职场人士当前AI使用和态度的快照,但无法追踪这些关系如何随时间发展,或者最初的热情如何随着长期使用而改变。

情绪分析方面,由于Anthropic Interviewer仅限于文本,无法读取语调、面部表情或肢体语言,可能会错过影响受访者陈述含义的情绪线索。关于自我报告与客观测量,研究团队注意到参与者对AI使用的描述可能与他们的实际做法不同(这在智能手机使用研究中也被发现是这种情况)。这可能是由于社会期望偏差、不完美的回忆,或者围绕AI披露的不断演变的工作场所规范。事实上,访谈数据与真实使用数据比较时揭示了关键差异。认知与实践之间的这种差距强化了自我报告中固有的模糊性:例如,访谈回应可能捕捉到期望的使用或社会期望效应。理解这些差异对于解释此类研究的发现至关重要。

尽管存在这些限制,这项研究为理解AI在工作场所的实际影响打开了一扇新窗。通过让数百上千的人敞开心扉分享他们的真实体验和感受,Anthropic Interviewer帮助研究团队听到了那些可能被数据分析忽略的细微声音。正如一位参与者在访谈后调查中所说的,97.6%的参与者对访谈满意度评分为5分或更高(满分7分),其中49.6%给出了最高评分。96.96%的人认为对话很好地捕捉了他们的想法,99.12%的参与者表示会向他人推荐这种访谈形式。

这表明,当AI真正学会倾听时,它可以成为连接技术开发者与用户之间的桥梁,让每个声音都能被听到,让每个人的需求都能被理解。这或许就是未来AI发展最需要的——不仅仅是更强大的算法和更快的处理速度,更需要一颗懂得倾听的心。有兴趣深入了解这项研究的读者可以访问Anthropic的官方网站,通过2024年12月4日发布的研究报告查询完整内容,相关数据集也已公开发布在Hugging Face平台上供研究者探索。

论文地址:

https://www.anthropic.com/research/anthropic-interviewer

END

本文来自至顶AI实验室,一个专注于探索生成式AI前沿技术及其应用的实验室。致力于推动生成式AI在各个领域的创新与突破,挖掘其潜在的应用场景,为企业和个人提供切实可行的解决方案。

Q&A

Q1:Anthropic Interviewer能做什么?

A:Anthropic Interviewer是由Anthropic公司开发的AI访谈工具,它的核心能力是通过Claude AI自动进行大规模深度访谈。这个工具能够同时对成百上千的人进行10到15分钟的个性化访谈,了解他们对AI的真实看法和感受,然后将访谈记录反馈给人类研究人员进行分析。这项技术让原本昂贵耗时的大规模访谈研究变得可行,为理解人类与AI关系提供了全新方式。

Q2:普通职场人士和创意工作者对AI的态度有什么不同?

A:普通职场人士整体上对AI持乐观态度,86%的人认为AI节省了时间,他们希望把例行公事交给AI处理,自己专注于定义职业身份的核心任务。创意工作者的情况则更复杂矛盾,虽然97%的人认为AI提高了生产力,但他们同时面临同行对使用AI的负面评判,以及对经济被取代和人类创造力身份受威胁的深层焦虑。简单来说,普通职场人士看到的更多是效率提升,创意工作者则在效率与职业认同之间挣扎。

Q3:为什么科学家不太信任AI帮助核心研究工作?

A:科学家对AI的不信任主要源于可靠性担忧。79%的受访科学家提到信任和可靠性是主要障碍,因为AI目前在生成假设和设计实验等核心研究任务上还不够可靠。一位信息安全研究员指出,如果必须仔细检查AI给出的每个细节,那就失去了使用AI的意义。一位数学家也表示,验证AI输出所花的时间和自己做差不多。尽管如此,91%的科学家仍然希望未来能有更可靠的AI成为真正的研究伙伴,帮助他们产生新的科学想法和进行各种分析。

相关内容

当AI学会倾听:Anthr...
这项由Anthropic公司于2024年12月5日发布的研究,首次...
2025-12-12 16:16:51
生物股份涨6.73%,开源...
今日生物股份(600201)涨6.73%,收盘报15.7元。 20...
2025-12-12 16:15:36
马上评|该怎么批改“AI批...
一个班级四五十人的作业,只需花两三分钟扫描录入,就可借助AI在十分...
2025-12-12 14:45:58
智谱开源 AutoGLM:...
最近,字节跳动的豆包手机被其他互联网巨头封杀一事,可谓是闹得沸沸扬...
2025-12-12 12:45:04
AI辅助写论文,科技期刊怎...
来源:科技日报 人工智能(AI)已全面渗透到科研活动的各个环节。在...
2025-12-12 12:16:12
陈根:AI越强,人类越弱?
文/陈根 人工智能技术的飞速发展正在深刻改变着人类社会的方方面面。...
2025-12-12 12:15:18

热门资讯

原创 2... #春日生活好物种草季#近年来,笔记本电脑市场迎来技术爆发期,尤其在手机厂商跨界入局后,轻薄本在性能、...
AMD锐龙AI 9 HX 37... 2024年6月3日,AMD正式发布全新的锐龙AI 300系列处理器。该系列处理器一经发布就引发大家的...
5个AI模特生成软件推荐 当前AI模特生成软件市场提供了多样化的解决方案,以下是几款备受推崇的工具: 触站AI:强烈推荐!...
骁龙本这么猛?联想YOGA A... 在人人都是自媒体的时代,一部手机可以解决出镜拍摄问题,而商务出差、大量码字、图像处理等需求用笔记本则...
2023年CentOS与Ubu... CentOS与Ubuntu的市场格局与技术特性探讨 在服务器操作系统领域,CentOS与Ubuntu...
苹果macOS 15.1:允许... 苹果公司在其最新的macOS 15.1版本中,推出了一项引人注目的新功能——允许用户将Mac App...
原创 苹... 前言 IQUNIX在做好看的桌面产品上,一直都给我留下非常深刻的印象。而且早期和苹果产品的设计风格...
原创 华... 在2024年这个被誉为"AI元年"的关键时刻,随着生成式AI的流行,各家手机厂商都在积极备战AI手机...
原创 华... 想在竞争残酷的市场中发力,必须要带来一些激进的卖点,但是随着功能特性的提升,硬件也必须要进行给力才可...