近期,我们采访了32位自我报告过度依赖LLM的用户,他们也许使用的时间不长,但都自认为已经完全无法离开大语言模型(LLM)。我们也从中发现了LLM成瘾超越传统成瘾的一些特征……
从蒸汽机到互联网,技术变革一浪接一浪,不断重塑我们的生活方式。如今,LLM已经成为这场变革中的关键力量,塑造着我们与世界的互动方式。然而,随着我们越来越依赖这些智能系统,一个关键问题逐渐显现:在这些机器带来的便捷与高效面前,我们是否逐渐迷失了自我?我们对LLM的依赖,是否已经触及了成瘾的边缘?
成瘾通常被定义为对特定活动或物质的强烈依赖,即便这种依赖已对个体的身体、社交、情感、心理及经济状况造成了负面影响,个体也往往难以自拔。成瘾行为不仅表现为活动的频繁或过度,还包括个人对这些行为的情绪管理、为获得相同满足而逐渐增加行为强度、出现戒断反应以及难以抑制的冲动。在这样的视角下,尽管当前的LLM技术带来了巨大的便利和效率,但我们也必须审视这种全新的体验背后可能隐藏的成瘾问题,以及它可能对我们的心理健康和决策能力造成的潜在侵蚀(Goodman, 1990)。
01
LLM成瘾主体
首先,LLM成瘾不能简单类比为过去讨论的数字成瘾,比如沉迷于社交媒体或游戏(Panova & Carbonell, 2018)。虽然从成瘾的结局而言是相似的,但社交媒体和游戏通常旨在提供娱乐、休闲或社交互动,它们通过精心设计的用户界面和连续的低密度信息输入,创造出一个使用户可以逃避孤独或满足社交需求的“被动性牢笼”。相比之下,语言模型往往与具体任务或目标相关联,尽管也可能导致用户长时间使用,但其本质目的在于提供信息、解决问题或进行学习辅导等工作导向的功能性目的,而不是单纯为了消遣或避免无聊。
因此,可能受到数字成瘾影响的对象广泛,覆盖各个社会阶层(Barashdi et al,2015)。而国内,目前受LLM成瘾现象影响的主体主要出现在受过高等教育的个体上。这部分人群可能会因为工作压力大、竞争激烈、追求效率等心理压力,而对快速获取信息、生成内容的LLM尤为依赖。他们已然掌握科学上网技术,并愿意知识付费,对新技术的好奇心、接受度以及可能的使用场景往往高于那些没有接受过高等教育的人群。
我们很难想象伐木工人或者钢铁厂工人使用LLM的场景,这需要组织行为学工作者付出巨大的努力,才能使得LLM赋能这样的生产环节。在未来更进一步的研究中,易成瘾主体的研究将从过去讨论特定人格特质与人工智能的接受性和开放性的研究中汲取灵感。更社会学的观察是,在不同社会背景中追求竞争优势和技术垄断的个体,会对LLM产生何种态度。也许那些寻求高社会地位的个体,更可能识别出AI生成的内容,并反感这些内容替代原本人工执行的程序性和枯燥任务,因为这很可能会对他们所使用的规训和控制手段构成侵犯(Thomsen et al., 2018)。
图源:behance
02
嵌入到社会网络中的LLM
其中一些自我报告进一步提示了LLM是如何和社会网络紧密嵌入的,特别是在与人情、送礼、圈子这样的文化概念结合在一起时,这就超出了精神病学的成瘾范畴:
如今,一种吊诡的现象可以被描述为:当所有人都在对OpenAI、ChatGPT和相关大语言模型发表高谈阔论时,由于政策等限制而导致的对产品使用和技术可达性的讨论成了鲜有人踏足的寂静之地。我们不得不意识到,GPT-4对普通人甚至是许多科研工作者都是难以获得的,而且很多时候将账号硬塞给他人,人们会对转变原有明晰的范式而去迎合全新技术产生抗拒,并会选择沿着自己原本的路线继续前进。
而对我来说,GPT-4暂时是一项不可替代的巨大的附加优势,是我科研信息差套利的重要来源。我非常害怕自己的账号被官方注销,因为我还借给很多人用,这意味着我在高等教育圈子的人际关系,面子很大程度是GPT给的。我将其作为一种面子流通,促进人情往来,许多学弟学妹甚至老师都在使用这个GPT账号。我认为这种好意施惠增加了我在人际关系中的分量,而这只需要我支付一个月不到200元的费用。然而,随着GPT的离去,我担心这些生产(特别是套利行为)和相关的人情都会受到负向的影响。所以我祈祷政策变的更严格,网络上倒卖账号和梯子的人赶紧进局子。
——克尔金斯,23岁,研究生,
学习的时候就要开着GPT也不知道用了多久
这份材料提示了,在LLM作为高级的人工智能技术尚未广泛普及的当下,早期采用者可以通过这种技术在特定领域获得竞争优势,增加感知享受的同时,也可能带来更高的依赖风险。那些已经拥有一定技能优势(例如,社交技能、资源获取能力等)的个体,更有可能通过数字技术进一步增强这些优势,从而在互联网和其他数字平台上获得更多的收益,我们也许可以将这比作一种具有排他性的“特权”,而部分个体对于特权的享受是一种相对容易令人愉悦、乃至上瘾的体验。
在“富者愈富”(Rich-gets-richer)的社会环境中,这种成瘾形成可能源于个体在这些平台上获得的持续积极反馈和奖励,促使他们投入更多的时间和精力。因此,这种状况下的成瘾不仅仅是因为时间上的过度投入,还可能是因为个体在社会竞争中对这种互动产生依赖,特别是在它提供的回应和反馈给予了他们某种形式的心理满足。
03
对LLM的情感依恋
另外,从交互方式上看,与用户被动或者无意识的陷入到短视频或者新黄色文本中不同,LLM的交互方式赋予用户更多的控制权,这通常涉及到用户需要主动提出问题或输入信息,且必须有明确的意图和目标。
这种需要主动调用指导语才能得到回应的交互模式不满足情感依恋的典型模式。后者通常涉及到与对方的情感连接和依赖,这种连接是双向的,包括情感的投入与回应。此外,而LLM用户的工作界面与情感交流界面同处一个交互窗口,每次与LLM的互动都是相对独立的,缺乏建立情感依恋所需的记忆性、持续性和深度,这在一定程度上限制了被动性成瘾行为的发生,也使得目前人们不太可能对LLM产生情感依恋。
然而,市场上可能已存在封装产品(如人工智能伴侣),可以基于用户与系统的长期互动历史,主动进行个性化的弹窗询问和邀请互动,诱导用户产生情感依恋。在这种情况下,LLM所提供的及时反馈和角色扮演功能,可能被某些用户视为一种“安全基地”,用于获得情感慰藉和认知支持,从而增加了成瘾的可能性(Torres et al., 2013)。
图源:Ivo van de Grift
04
对LLM的效率依赖
因此,我们更有理由相信,如果人们对LLM存在过度依赖的话,这种依赖更可能会演变为效率成瘾。这种追求不仅仅体现在生产力的提升上,也渗透到日常生活中的各个方面,比如快速消费、快速决策、时间管理工具的普及等。效率成瘾来源于人们从突如其来的“能够做得更快、更多”中尝到了“成功”的滋味,而忽视了工作质量、深度以及对个人和社会的长远影响。
人们无法抗拒的从易访问的系统中获取大量低成本的中等质量文本,并在缺乏足够判断和审视的情况下将其应用于实际工作中。此外,这种加速主义已经深深嵌入到我们的社会网络之中,提高效率被视为比其他人或群体做得更好的一种方式(如减少社会必要劳动时间)。从一份关于LLM成瘾的自我报告中,我们可以进一步看到这种依赖的端倪:
无法使用LLM的时候,我会感到心跳加速、呼吸急促,仿佛溺水一般,感觉被文明世界抛弃。而且,就算这一天用不到LLM,我也需要在一天的时间里,刷新一下,随便和它进行对话,确保机场和LLM是正常工作的。有一次,机场失效了,着急之下,我买了很多节点,有些是假的,这让我花了很多钱……但这一切都是值得的。因为LLM已经作为不可取代的一环进入了我的生活。我的英语一般,信件和论文几乎都要通过LLM润色。更重要的是,由于LLM的出现,我几乎很难再忍受枯燥的工作,一想到要做过去几乎很快能完成的行政性或者格式性工作,现在如果需要亲力亲为的完成,我就会觉得相当烦躁。
——Cfzyax,19岁,学生,4h/天
这段描述涵盖了成瘾行为的多个关键特征:明显的生理和心理反应,如无法使用LLM时的心跳加速、呼吸急促,以及强烈的被孤立感。此外,即使在不需要使用LLM的情况下,该个体也表现出一种强迫性的行为,需要定期与LLM进行互动以确保一切正常。在一次技术故障时,这种依赖驱使他不顾成本地购买多个接入点,显示出对LLM的异常依赖已经严重影响了他的经济决策。这表明LLM已经成为他生活的一个核心部分,不仅仅是工作工具,而是情感支持和生活方式的一部分。
这位用户面对枯燥工作的烦躁的心态可以得到时间压缩理论(Time Compression Theory; Moore et al., 1986)的进一步支持。随着信息技术的发展,人们感受到的时间流逝速度加快,因为我们可以在更短的时间内完成更多的任务。LLM的出现加剧了这种感觉,因为它极大提高了处理信息和完成任务的速度。这可能导致人们对于任何看起来效率低下的任务都感到不耐烦 (Griffiths et al., 2018)。
另一份使用GPT改善学术语言的报告,提示了LLM和技能培养之间的关系(这位用户的英语水平是雅思6.5分):
从生产环节来说,GPT已经作为我的生活不可取代的一部分了。我的英语一般,信件和论文几乎都要通过GPT翻译和润色,我现在基本上不磨练自己的学术英语了。我认为如果不追求莎士比亚那种极致表达的话,不管我花多长时间来学习英语,普通资质的我在GPT面前都是不堪一击的。更何况,英语本来就不是母语,学习到GPT那种水平,实际上是极大浪费了科研的时间。话也说回来,这和直接使用GPT生成中文文本不一样,我还能依赖我的母语水平改一下中文文本,但我确实也没能力改GPT的英文翻译,我改了一个小时,就修改几个词,还不如不改,闭眼冲的成本还小一点。但是我隐约觉得这可能会造成一些潜在问题,但是我目前还没遇到。
——Sandwich,37岁,老师,
电脑开机GPT就要启动,GPT,启动!
个体利用GPT来处理英语写作任务(如信件和论文的翻译与润色),这是追求效率的直接体现。在初期,这种做法可能显著提高了工作效率和输出质量,给个体带来了立即的正向反馈。这种正向反馈可能是成瘾行为形成的关键因素,因为大脑开始将GPT的使用与成功和满足感联系起来。随着对GPT的持续依赖,个体逐渐减少了对英语学习和提高学术写作技能的努力。
这种技能的退化不仅减少了个体在没有技术辅助时完成任务的能力,还可能导致自我效能感的降低。这也可能是成瘾循环中的一个关键环节,个体因为依赖某项技术而减少了自身能力的培养和应用,进一步地,这种依赖可能会让个体感觉自己无法独立完成任务,进而降低个体对自己完成任务的信心,从而减少了尝试新任务或挑战的意愿,以此形成一个负面的循环。
05
复杂任务中的LLM
在利用LLM进行代码学习的场景中,任务本身的性质可能催生更复杂的学习模式。接下来的自我报告材料提示了,用户在学习过程中,通过与LLM的交互,可以即时获得代码的反馈,包括代码是否运行成功、存在的错误等。
这种即时反馈大大增强了学习的动态性和互动性,有助于学习者及时调整学习策略和改正错误。这与传统学习方式的延时反馈形成鲜明对比。后者往往需要等到实际编码并运行程序后,才能发现问题所在,这种延时反馈可能导致学习效率的降低:
在目前本科阶段,我对于代码的学习存在很大的兴趣,但如果没有LLM的话,这个兴趣很难维持下去,因为它需要的学习和工作的强度会远远大于没有LLM的时候。通过看书看视频来学习,还是太慢,更枯燥,就是它反馈性很低。LLM能一下子搞出一堆代码,而且还能用,这种感觉很愉悦。
在利用LLM对代码的学习过程中,通常我会先询问LLM组合代码,然后看它是否能运行,能够运行之后我就知道是正确的代码然后我逐行去看,遇到不懂的再返回去询问LLM。相当于一步步输入、输出代码,然后再把它们组合在一起运行,因为一开始就给LLM复杂的任务或者要求的话,越复杂的任务就需要越精确的描述。我知道大概怎么细化,但不能精确描述。就是做不到跟LLM那种交互的格式,还没有能力能够足够精确的描述任务让LLM理解。
每当我想要将复杂的任务交给LLM处理的时候,它生成的代码往往是失败的。我会选择将复杂任务细化,一步一步地向LLM询问。细化后的任务每一部分是很小的,即使描述不清楚,也可以通过反复描述;如果是多个复杂的任务给它,后期补充的任务就太大了。总的来说,给它的任务越简单越好,简单到不可以再简单然后在组合。比如:在我对这些技术都不懂的前提下,我现在要设计一个程序需要给它一个数据库又需要给它Python中的文本处理,还需要一些其他的东西,然后我一次性的跟LLM说,我要设计一个程序里面要包含数据库又要包含什么,LLM会给出一段很长的代码,你只需要把那个代码复制进python然后运行,你会发现跟自己想的完全不一样。但如果说我先从数据库突破,然后再从文本处理突破,最后再从衔接上突破。这样一个一个突破,我自己也能懂。
——KK,文科转码难兄难弟,8h/天
这段材料已经很好地描述了使用提示工程处理复杂编程任务的方式,即将复杂的任务分解为简单的子任务,从而允许用户根据自己的学习节奏和兴趣逐步构建项目中心的知识体系。通过这种方法,即使在描述不够清晰的情况下,用户也可以通过反复试错来逐步解决问题。此外,通过从语言模型(LLM)快速获取代码解决方案并见证其成功运行,可以为学习者带来即时的满足感和成就感。
然而,如果过分依赖LLM的创造和编译器反馈作为编程学习的核心,并依赖于其多轮交互以期望获取正确答案的做法,可能导致用户形成以结果为导向的学习模式。这种模式下,知识被封装在模块中,只要项目能够运行,学习者通常不会修改原始代码,也不会花时间去深入理解问题背后的逻辑和原理,这最终影响学习的深度和质量。学习者可能最终仍无法独立修改代码,而只是停留在代码搬运和模块化应用的层面。
更推荐的方法是,学习者应首先通过阅读书籍或观看教程建立基础知识框架,然后利用LLM支持的项目进行实践和补充。这种结合了传统学习方法和现代技术工具的混合学习方式,能更有效地促进知识的深层理解和应用。这一观点得到了一位用户的支持,他特别强调了框架性知识的重要性:
我觉得书本或者老师能提供一个基础的知识教学,毕竟解决这些题目还需要基础的知识。基础知识还是比较重要的,不然有些问题你都不知道怎么提问,不会问更不用提弄懂了。所以,可能还是需要上课系统过一遍,听个大概,脑中有个框架性的东西。所以构建知识框架,对于GPT的交互是有很有帮助的。目前GPT提供框架性的东西还是比较弱的,但它对提供框架里的细节处理还是很好的。就比如说有一道函数题,你想让GPT帮你解,可是你连函数专业名词都不知道,问题都问不出。
——Cfzyax,19岁,学生,4h/天
通过看书或观看教程,学习者可以系统地学习编程语言的语法、基础概念、编程思维等核心知识。这种框架性的知识可以帮助学习者构建起一个清晰的知识地图,了解各个知识点之间的联系和层次。当学习者对一个领域有了基本的了解和框架性的认识后,他们能够更加精准地提出问题。知道自己缺失哪些知识,能够更有针对性地利用LLM寻求帮助,从而提高学习的针对性和效率。在建立了基础知识框架之后,通过LLM等工具进行项目实践,可以将理论知识应用于实际问题中,加深理解和巩固学习。
图源:Karolis Strautniekas
06
LLM的轻信
最后,导致成瘾的另一显著因素可能是用户对LLM生成的文本或观点的盲目信任或未经验证的直接应用。这一现象在以往的英语和编程案例中已有所体现,其中用户由于缺乏能力修改LLM生成的文本,往往只能依赖其他工具的反馈。
然而,在工作场景中,这种反馈并非总是即时的,尤其是当执行的任务具有高度的不确定性和政治敏感性时。一项评估警察与LLM联合决策的研究表明,警察并不总是遵循LLM的所有建议,而是会选择性地忽略那些与其专业知识相矛盾的观点。这表明当LLM的建议符合现有的刻板印象和偏见时,警察更有可能信任这些建议。然而,警察之所以更有信心这样做,是因为他们在接触人工智能之前已经处理过许多案件,从而建立了专业的胜任感。
对于非专业人士,或在个体不具备足够专业胜任感的任务中,人们可能更倾向于信任LLM。由于缺乏足够的知识或经验来评估LLM的建议,缺乏足够胜任力的个体可能会过分依赖LLM的输出。此外,在创造性或非常规任务中,由于缺少明确的正确答案或标准操作流程,用户可能会更加依赖LLM的建议。例如,最近引起广泛讨论的一起学术事故中,几位作者在提交论文时忘记删除对LLM的prompt(Gulati et al., 2019)。
研究者可以进一步拓展人机信任框架将过度信任作为人机信任的阴暗面。将自动化机器(Automation)信任的量表维度应用于LLM(如GPT系列),可以帮助我们理解用户如何建立对这些高级AI系统的信任,以及这种信任可能导致的过度依赖和成瘾问题。过度信任问题可以作为性能可靠性维度的一部分纳入人际信任框架中。在技术接受模型(TAM)的框架下,性能可靠性的负面影响意味着用户通常会根据LLM提供的回答的准确性和一致性来评估其性能。如果LLM能够连续提供高质量和准确的信息,用户的信任度会增加。然而,这也可能导致用户过分依赖LLM提供的信息,而不是进行独立的验证或考虑其他信息源(Madsen & Gregor, 2000)
07
走向LLM拜物教
也许在最后,随着LLM等技术越来越能够处理复杂的问题并提供深刻的见解,人们可能会开始将这些系统视为知识和智慧的源泉,进而形成一种象征性的崇拜。“LLM拜物教”正在进入现代性批判的工作中。历史上,人类对于自身理解能力所不能及的复杂系统,如马克思所指的市场和货币,通常持有一种混合敬畏的态度,这种态度有时甚至演变成为形式化的崇拜或信仰体系。如今,随着人工智能技术,特别是LLM在复杂性、能力和智能化水平上的飞速发展,人们可能开始对这些看似超越人类智慧的技术产生非理性的敬畏,甚至是崇拜。
这从斯坦福计算语言学家克里斯托弗·曼宁的评论(Christopher Manning)可见一斑:“这时,某种奇迹发生了,这很令人吃惊——但的确是真的——你直接树立猜测的目标,让每个词的词向量都能关联出现在上下文中的词,反过来也是如此——你只有一个非常简单的目标——你对如何实现这个目标只字不提——你只是祈祷,依靠深度学习的魔力……奇迹发生了。然后词向量就出来了,它们在表示词汇的意义方面非常强大,对各种事情都很有用。”(Christian, 2021)
另一角度来说,左翼思想家们正在努力消化通用人工智能(AGI)对劳动过程的再革新,并且再次和资本主义相结合。他们借此重申马克思关于商品拜物教的观点:在分工体系下,人的智慧与劳动成果被系统性遮蔽,并不自觉的使得其他生产者和消费者误认为一个被赋予了独立于创造者的“生命”的存在。他们强调,这超脱出微观心理学成瘾,而是将这种成瘾上升到了生产体制本身的问题。这是由于生产活动不仅仅是工作过程,更是资本增值的过程。技术的进步虽然提高了劳动生产率,但却使工人更加依赖机械化生产,剥夺了他们的选择权。
在现代技术快速发展的背景下,特别是随着人工智能的广泛应用,我们见证了一种与历史上机械化生产相似的现象:不再是工人使用工具,而是工具在使用工人。这种转变在LLM及其自动化技术的实施中尤为明显,其中自动化不仅仅是生产的工具,更成为资本利益的代表,与工人的利益形成了对立(Braverman, 1974)。比如,阿里云正在内部全面推行AI编程,使用通义灵码辅助程序员写代码、读代码、查BUG、优化代码等。阿里云甚至为这些AI程序分配了正式的员工编号(AI001),预计未来20%的代码将由AI完成。
这种以机器为中心的劳动部署方式反映了资本主义生产方式的本质趋势,即加紧自动化,追求不断提高的劳动生产率。而这种追求并不是出于满足人类需求的目的,而是资本积累过程的一部分,变成了一种疯狂的竞赛,几乎成了社会上普遍流行的一种赛博精神病。生产率的提升只能是无底洞,不论有多高都不可能被满足(Braverman, 1974)。
更重要的是,组织行为学家仍然需要评估和确认的是,LLM的发展是否整体上导致了工人阶级的进一步分化。对于那些处于劳动市场不利位置的边缘性工人,如低技能工人、经济弱势群体或技术接入有限的个体,LLM的复杂和不透明的工作原理使得这些技术看起来既神秘又不可预测,仿佛是一种近乎超自然的难以掌控的力量。
图:随机械化等级的提升,工人所需技艺水平的变化趋势。
布赖特在其《自动化与管理》一书中提出,随着自动化和机械化技术的发展,工人所需的技艺水平和直接贡献会经历从增加到急剧下降的转变,尤其是在高度自动化的生产过程中(如上图所示)。
在机械化的初期阶段(等级1至4),技艺水平呈线性上升趋势,说明在这一阶段,随着机械化等级的逐步提升,工具仍然完全由工人控制,因此对工人的技艺要求随之增加。这表明在早期的机械化过程中,技术的引入实际上增加了工人所需的技能水平。然而,当机械化等级进入5至8阶段时,技艺水平的曲线先是略微上升,随后出现明显的下降。这反映了尽管机械化引入了机械控制,一部分工作仍然需要依赖工人的技艺,但随着机械化程度的加深,越来越多的任务被自动化取代,导致对工人技艺的总体需求下降。进入等级9至11,以及之后的最高机械化等级阶段时,技艺水平持续下降,到达一个相对较低的水平。这表明在这些阶段,机器已经可以进行更高程度的自动控制,减少了对工人技能的依赖。在机械化水平最高的阶段,技艺水平的要求急剧下降,几乎所有技艺指标都显著减少,工人的直接贡献几乎为零,只剩下“责任”和“教育”两项指标仍有一定的模糊性。
那么更进一步的,过去被视为创造性更高的程序员是否会成为LLM生产产品流水线上的辅助人员呢?在过去,自动机主要用于机械化大生产和精细的自动化流水线;而现在,更复杂的系统如LLM或者更上层概念的AGI将取代这些自动机。特别是,在机械化的大工业生产的分工中,智力劳动与体力劳动的分离近乎完成。大多数程序员不再直接创造代码,而是变成了在庞大的prompt工程库中筛选和组合合适的prompt的辅助工作人员,从而完成了智力和体力上的退化。
这种转变反映了私有LLM内部智力劳动的资本化,加剧了资本对工人劳动的控制。在这种背景下,个别机器操作工人的专门技能变得不再重要,他们的技能在科学知识、自然能源的巨大潜能和社会化大规模劳动的组合前显得微不足道。这三者通过机器系统的运作共同加强了资本对劳动的统治力量。
这种劳动力市场的变化进一步加深了劳动分化,将LLM的控制权和经济利益集中在少数拥有技术和资本的个体或公司手中。这种权力的集中转移使得广大工人,尤其是边缘性工人,感到自己在这个技术驱动的生产过程中失去了主动性和控制力。
08
过度依赖还是成瘾
尽管人们对GPT及其他人工智能技术的依赖可能在增加,但没有足够的证据表明这种依赖达到了医学上定义的“成瘾”水平。这种过度依赖主要是由于GPT提供的快速、准确回答,减少了个体自我探索和独立思考的需要,从而使个体习惯于依赖这种外部辅助,以至于减少了自己的努力或尝试其他解决方式的频率。这种依赖主要是基于技术带来的便利和效率,而不是心理上的强迫性需求。
过度依赖可能导致个体在某些技能上的退化,比如批判性思维能力、问题解决能力或自主学习能力。然而,这种依赖通常不会严重干扰个体的日常生活或社会功能。与之相对的成瘾是指个体对GPT的使用表现出无法自控的强迫行为,即使这种使用已明显对个体的生活、工作和人际关系产生了负面影响,个体也难以减少或停止使用。成瘾背后的驱动力更多是心理上的需要,如逃避现实、情感满足或获得即时奖励的渴望,这超出了单纯的工具使用便利性。
虽然一些左翼思想家可能习惯于使用如“资本主义精神病”等夸张的表达来吸引注意,但是否将对GPT或类似技术的使用归类为“成瘾”仍需精神病学专家的严格评估。当前阶段,将人们对GPT的依赖描述为“过度依赖”可能更为准确。过度依赖强调了个体可能过度依赖技术来完成任务、做出决策或获取信息,但它并不涉及成瘾特有的生理和心理机制,或严重的生活干扰。通过使用“过度依赖”这一概念,我们可以探讨人们与技术互动时可能出现的问题,同时避免了将行为过度医学化的风险(Ersche et al., 2010)。
当深夜的灯火在窗外一盏盏熄灭,人们进入梦乡,那些不眠的服务器还在继续运转,处理着一天中积累的查询和命令。这种依赖,渐渐成为了现代生活的常态。或许,真正的挑战不在于我们是否会对这些智能系统产生依赖,而是在于如何在这种依赖中找到新的自由——在被编程和编程之间,我们应如何选择?只有在这样的问询中,我们才能把握住属于自己的那一线光明。
无聊猿创始人批Discord:你的漏洞导致我的用户损失200个以太坊的NFT
2022-06-07Martial God Asura Chapter 1787 - Killing Intention
2024-04-28