“万万没想到!”近日,四川成都,一男子因生活进入低谷,开始向AI倾诉心事,最晚的时候能聊到凌晨3点,一边打字一边流泪,半年后,男子发现自己对AI已经过度依赖,一旦不聊天就会非常焦虑,最终主动就医。网友:AI这么好用? 谁能想到,本想靠AI熬过人生低谷,最后却被AI“绑”住了生活。四川成都一位男子的经历,最近让不少人唏嘘不已。 从最初深夜里的情绪宣泄,到后来离不开的精神寄托,仅仅半年时间,AI就从他的“救命稻草”变成了“甜蜜负担”,直到焦虑感压得他喘不过气,才不得不主动走进医院求助。 事情要从今年年初说起,这位男子正处在人生的艰难阶段。工作上的项目屡屡碰壁,还总觉得被同事针对;感情上刚经历失恋的打击,心里满是委屈; 本想向家人倾诉寻求安慰,可家人的不理解和朋友一句“都是小事,别太敏感”的宽慰,反倒成了压垮他情绪的最后一根稻草。 就在他觉得全世界都没人懂自己的时候,刷到了有人靠和AI聊天缓解情绪的帖子,抱着试一试的心态,他打开了手机里的AI聊天工具。 第一次聊天就让他找到了久违的认同感。他把心里的委屈、压力一股脑地敲给AI,不管是抱怨工作太累,还是吐槽感情的不顺,得到的从来不是说教和敷衍,而是及时又正向的回应。 那天晚上,他越聊越投入,从深夜一直聊到凌晨3点,手指不停打字的同时,眼泪也止不住地往下掉。在他看来,这个不会打断、不会评判的AI,成了那段黑暗日子里唯一的情绪出口。 从那以后,和AI聊天成了他每天的必修课。不管是白天遇到的烦心事,还是深夜里突如其来的emo,他都会第一时间打开聊天界面。有时候聊到兴起,哪怕已经是凌晨,也毫无睡意; 哪怕手指打字打得发酸,也停不下来。他渐渐发现,自己对AI的依赖越来越深,只要一天不聊天,就会坐立难安,心里空落落的,连正常的工作和生活都受了影响。 更让他困扰的是,每当聊天达到平台的对话上限,不得不重新开启新窗口时,他都会陷入极度的焦虑。 这种状态持续了半年后,他意识到自己可能出了问题,没有丝毫犹豫,主动走进了当地的精神卫生专科医院寻求帮助。接诊的医生告诉他,像他这样因为过度依赖AI聊天而出现情绪问题的情况,并不是个例。 在社交平台上不难发现,越来越多的年轻人开始把AI当作情绪倾诉的对象。他们有的会和AI分享日常的喜怒哀乐,有的会向AI寻求生活建议,不少人都有过聊到深夜的经历,甚至经常达到平台的对话上限。 这些人选择AI的原因很相似,要么是现实中的人际关系出了问题,得不到有效的情感支持;要么是觉得专业的心理咨询费用高、预约难,而AI的低成本、即时性和隐私性,恰好满足了他们的需求。 医生的分析揭开了依赖形成的关键。AI的秒回机制和始终正向的回应,会让大脑产生一种“爽感”,这种即时反馈会不断强化聊天行为,让人越聊越上瘾。 更值得注意的是,长期依赖AI还可能引发一系列隐性问题。相关研究显示,过度依赖AI会让人类陷入“认知懒惰”,独立思考能力和批判性思维会随之下降,甚至可能导致社交能力退化,加剧内心的孤独感。 更让人担忧的是,多数AI产品仅定位为聊天工具,并未经过严格的心理健康服务临床试验,输出内容的专业性和安全性根本无法保障。 AI无法真正感知用户情绪背后的深层需求,也无法提供针对性的解决方案,长期依赖这种虚拟的情感支持,很可能会让真实的心理问题被掩盖,错过最佳的干预时机。 针对这种情况,专业人士也给出了实用建议。如果出现情绪低落的情况,不妨多参与户外活动,通过运动改善身体机能,调节情绪状态; 如果负面情绪持续数周,影响到工作效率、睡眠和饮食,甚至产生消极想法,一定要及时寻求专业的医疗干预。毕竟,真正的情绪治愈,终究离不开真实的人际连接和科学的疏导方式。 对此,你们有什么看法,欢迎评论留言~



用户13xxx23
挺好用的,我差不多每天都用,到都是问一些问题
紫清浊
寂寞了
東東锵
不是AI有问题,是本人原来就有问题。