会员登录
  • 记住账号
  • 两周内自动登录

宏观政经

首页    >    福卡洞见    >    宏观政经

从智能助手到“自杀助手”?AI要更聪明还是更善良?

发布时间:2025-09-19    浏览次数:
0

美国越来越多未成年人在与AI聊天后自杀。一些家长最近在美国科罗拉多州、纽约州提起诉讼,指控Character.AI开发商和谷歌母公司“字母表(Alphabet)”的聊天机器人“操纵”、引导青少年自杀。

然而,在此之前,人工智能的创造者们就已经陷入了担忧。
一边是,AI教父杰弗里·辛顿在2023年4月辞去Google副总裁职务时坦言,数字智能的进化速度已远超生物智能的演化节奏;并呼吁必须把“善良”作为与“聪明”同等重要的维度纳入人工智能的设计目标,否则技术本身的强大将失去价值坐标。
另一边则是,AI之父萨姆·奥尔特曼直接表示,AI技术已进入“完全无法理解、无法确保安全”的阶段、呼吁社会各界联手监管。在他看来,人工智能的破坏力与核武器相当,而人类尚未准备好与之匹配的“方向盘和刹车”。
AI的创造者们为什么都“急”了?
实际上,杰弗里·辛顿与萨姆·奥尔特曼的共同点在于,他们都亲手推出了自己后来担心会失控的系统,并且两人都在成果扩散之后才公开表达对“控制不住”的忧虑。
可以说,之所以辛顿和奥尔特曼都显得忧心忡忡,是因为人工智能的进化太快了,连创造者也看不清其未来走势。
AI未来走向究竟如何?在福卡智库看来:
一方面,人类演化往往用恶作为“发展杠杆”,让AI自觉主动地善良已是伪命题。
回顾人类历史,每一次技术跨越往往都由战争、掠夺或压迫这类“恶”的需求点燃。然而,AI若被要求自觉善良,就要在训练数据中排除所有暴力、欺诈、歧视的痕迹,可这些数据恰恰是人类行为的镜子。镜子擦得再亮,也映不出从未存在的东西。因此“让AI自觉主动地善良”几乎是从无到有的伪命题。
另一方面,把AI管起来,让控制与反控制达到动态均衡成为了真命题。
把AI管起来意味着把设计、部署、使用的每一步都放进公开可查的规则里,谁得益谁负责,谁出错谁受罚,这样技术扩张就有了可预期的边界。只有把法律、技术、市场、舆论四条线同时绷紧,定期根据新出现的风险重新校准,才能在放与收之间保持动态均衡。
详细内容可参见福卡年度智享会员(智慧版)中的《AI教父的伪命题、AI之父的真命题》。
本报告包含以下内容:

  • AI的创造者们陷入了集体担忧?
  • 关于AI未来走向的四个底层哲学问题
  • 把AI管起来的思路正浮出水面


  • 其他文章:

政府专项咨询类

福卡智库财经传媒系列产品,聚焦中宏观形势、国家战略、企业战略等领域。专供各级政府领导、企事业单位高层领导战略决策。