研究:长期依赖ChatGPT等大型语言模型或将损害认知能力
2025-06-20 10:00:59 | 热度: | 分享快讯
6 月 20 日,麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖ChatGPT等大型语言模型(LLM)可能损害认知能力。研究显示,使用AI写作的参与者大脑中Alpha波连接数量仅为独立思考者的一半(42比79),且83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。
本资讯链接: - 中纬财经
Copyright © 中纬财经 | 区块链新闻快讯资讯信息服务平台
6 月 20 日,麻省理工学院、韦尔斯利学院和马萨诸塞艺术学院的研究团队最新发现,长期依赖ChatGPT等大型语言模型(LLM)可能损害认知能力。研究显示,使用AI写作的参与者大脑中Alpha波连接数量仅为独立思考者的一半(42比79),且83.3%无法准确引用自己的文章内容。研究者称这种现象为"认知负债"——短期内减轻思维负担但长期导致批判性思维和创造力下降。