🧩 中文导读
媒体报道人工智能时,越来越倾向于使用拟人化的语言——
把算法称作“数字大脑”、
让聊天机器人“思考”、“感受”甚至“关心”。
这些隐喻(metaphors)的确让技术变得“可理解”,
但也模糊了统计计算与语义理解之间的界线。
本文探讨了这种拟人化叙事的来源、功能与风险。
🧠 一、“数字大脑”的隐喻
The digital brain
在西班牙《国家报》(El País)的一篇报道中,
中国AI模型 DeepSeek 被称作
“一个能够理解自身诞生地缘政治语境的数字大脑”。
这种写法用**“人脑”替代技术术语**(如参数、GPU、算法结构等),
既让读者感受到AI的“思考”能力,
又暗示它拥有“判断与记忆”的心智。
根据 George Lakoff 与 Mark Johnson 的概念隐喻理论(Conceptual Metaphor Theory),
隐喻是人类理解抽象事物的方式。
当我们说AI在“思考”,
其实是在用熟悉的心理活动去理解复杂的统计运算。
🔍 益处:帮助公众理解复杂技术。
⚠️ 风险:让人误以为AI真的“懂”了什么。
❤️ 二、“有感情的机器”
Machines with feelings
2025年2月,西班牙媒体ABC提出:
“情感AI有一天真的会感受到情绪吗?”
报道讲述了研究团队正试图为AI打造“数字边缘系统(digital limbic system)”,
也就是人类情感中枢的仿真模型。
然而,从哲学与生理角度看,
“情感(feelings)”离不开身体与自我意识,
而AI并不具备这两者。
这种说法让算法看似“有情绪”,
但实际上转移了道德焦点:
我们开始责怪或同情机器,
而忽略了真正应当负责的设计者与开发者。
🤖 三、“会照顾人的机器人”
Robots that care
报道中提到中国研发养老机器人时,
媒体往往用“照顾长者(take care of their elders)”这样的说法。
这一隐喻让机器成为“家庭成员”,
缓解了公众的焦虑,
也为技术应用提供伦理上的正当性。
然而,这同时掩盖了更深层的社会问题:
当护理劳动被私营公司运营的机器替代时,
谁该为服务质量与伦理后果负责?
🩺 四、“医生的助手”
The doctor’s assistant
另一篇报道中,大语言模型被比作:
“医生的助手”、“聪明的手术刀”、“永不疲倦的住院医”。
这种“半拟人化”叙事既不将AI视为威胁,
又塑造了人机合作的理想形象。
它帮助公众接受AI在医疗领域的应用,
但同时引出新的问责问题:
“如果这个‘助手’出错,责任在医生、软件,还是企业?”
🗞️ 五、为什么媒体热衷于这些隐喻?
Why does the press rely on metaphor?
1️⃣ 帮助理解:
隐喻把复杂的“深度神经网络”变成可感知的“思考器官”。
2️⃣ 制造戏剧性:
新闻需要“主角”与“冲突”,拟人化让算法有了故事。
3️⃣ 赋予道德判断:
只有当AI“像人”时,我们才会问:
它是否该为错误负责?
但这些隐喻同时模糊了理性边界。
如果AI“能感受”,它就该被立法保护?
如果AI“比人聪明”,我们是否该服从它的判断?
🧭 六、如何更谨慎地谈论AI
How to talk about AI responsibly
- 加上技术说明:在使用隐喻后,明确说明AI的实际功能与限制。
- 避免赋予绝对主动性:
- “AI决定”可改写为“系统建议”或“算法分类”。
- 提及人类责任者:
- 强调开发者、监管机构的角色。
- 使用更多元的隐喻:
- 如“显微镜(microscope)”或“统计引擎(statistical engine)”,
- 代替“思考的头脑”。
🧩 结语:隐喻的力量与陷阱
Between clarity and confusion
隐喻是人类理解未知的天然方式,
但当AI越来越“像我们”,
我们也更容易把情感、希望与恐惧投射到它身上。
“语言创造现实,
而隐喻决定我们怎样与技术共处。”
未来,记者与读者都需要在
形象化的表达与概念的精确性之间
找到一条平衡之路。
