图灵奖得主,ai 还没到达狗的智能

1.真正制约 AI 进步的关键,并不是如何更快地逼近“人类级智能”,而是如何跨越一个常被低估却极其困难的门槛——让机器具备“狗的智能水平”。
2.强化学习等方法在样本效率上极低,难以扩展。于是,“世界模型”的想法——即系统能预测自身行动后果并进行规划——开始真正成型。
3.仅靠文本训练,永远不可能达到人类水平的智能。
4.围棋和象棋这样的游戏中,机器显然已经远远超过人类了。原因之一是机器在博弈树搜索上的速度极快,也具备人类根本不可能拥有的记忆容量。人类根本无法进行真正的广度优先搜索。
5.:“通用智能”这个概念本身就是站不住脚的。最乐观的情况是:在 5 到 10 年内,我们或许能看到接近人类,或者至少接近“狗水平”的智能系统。
6.那你认为,从现在到“狗水平智能”,是否比从“狗”到“人类”更难?
Yann LeCun: 恰恰相反,最难的部分是达到“狗水平”。
7.Yann LeCun:安全必须与发展同步进行,而不是先停下来等“绝对安全”。
我常用喷气发动机作比喻:第一代喷气发动机根本不安全、不可靠,但正是在不断工程改进中,才达到了今天这种可以连续飞行 17 小时的可靠性。AI 也会走类似的路径。我们会逐步构建具备规划与行动能力的系统,同时在非常底层引入明确的安全约束。
8.在硅谷,有一种说法叫“你是否已经被 LLM 洗脑”。很多人坚信,只要不断扩大模型规模、生成更多合成数据、加强 RL 微调,就一定能走向超级智能。我认为这是 彻底错误的。

确实说的很到位,也是我做大模型看到的实际问题,可控性不行,计算量超大,这么大的数据智能却不如一只狗。
他说的世界模型也蛮合理的,其实人蛮确实是在预测行为后的结果。
发表时间 2025-12-16 20:31     来自广东

赞同来自:

要回复问题请先登录注册

发起人

问题状态

  • 最新活动: 2025-12-16 20:31
  • 浏览: 43
  • 关注: 1