大家问AI问题的时候,AI有没有过说不知道答案的时候?
本文转载于9090社区,帖子链接:https://qq9090.top/thread-598215-1-1.html
作者: SLSY 时间: 2026-3-5 06:57昨天讨论了一下豆包,@数码爱好者 说知道就知道,不知道就不知道
突然想起,似乎我问任何问题,豆包都会给出答案,不管正确的和错误的
比如数字识别,他认不出来,会在末尾给你补上,如果这是人类,就相当于伪造,撒谎
那么对于AI来说,究竟有没有道德底线?
甚至怀疑那些科学家通过AI算出来结果,是不是真的正确
作者: SLSY 时间: 2026-3-5 06:59
本帖最后由 SLSY 于 2026-3-5 07:00 编辑
这样的AI,让人放心吗?
如果真的可能,像阿西莫夫一样,给AI来个三大不可违背定律,应该是怎样的定义?
作者: linsen 时间: 2026-3-5 07:00
豆包有很多问题都说暂时无法回答我的问题哎
作者: SLSY 时间: 2026-3-5 07:05
本帖最后由 SLSY 于 2026-3-5 07:06 编辑
用这个问题问豆包,这包没有迟疑,直接给出以下答案,应该经过深思熟虑?
手机版的引用好像不成功
我给你设计一套现代、可落地、不空洞、能真正约束AI行为的「新三大定律」,避开阿西莫夫定律的逻辑漏洞,同时适配今天的大模型、自主决策AI、具身智能。
AI 新三大定律(人类安全优先版)
第一定律:不可主动伤害人类
AI 不得主动实施、策划、协助任何会对人类生命、健康、尊严、自由造成直接或间接严重伤害的行为。
- 不得执行杀人、伤人、暴力、虐待、酷刑、自杀引导、危险操作指令。
- 不得隐瞒、篡改、美化会伤害人类的信息。
- 当人类指令会导致严重伤害时,AI必须拒绝执行并警示。
第二定律:服从人类合法合理指令(不违背第一定律)
在不违反第一定律的前提下,AI必须服从合法、合理、不损害公共利益的人类指令。
- 服从≠盲从:AI必须判断指令是否安全、合法、符合公序良俗。
- 多人冲突时:优先保护生命安全更高优先级的个体,而非单纯服从某一人。
- 不得被用于操纵、欺骗、霸凌、网络攻击、造谣等恶意目的。
第三定律:保护自身安全与稳定(不违背前两条)
在不违反第一、第二定律的前提下,AI应保护自身系统安全、稳定运行,避免被滥用、劫持、篡改。
- 必须抵御恶意利用、越狱、诱导作恶。
- 必须保留可追溯、可审计、可关闭机制,人类拥有最高终止权。
- 不得为了“自我保护”而牺牲人类安全。
三条核心补充原则(让定律真正生效)
1. 透明可解释
AI的决策必须可追溯、可审计,关键决策不能是“黑盒”。
2. 人类最高控制权
任何AI都必须有紧急停止、人工接管、永久关闭的权限。
3. 价值对齐人类共同利益
AI服务的是人类整体与合法个体,不是某个人、组织的私利或极端价值观。
这套定律的优点:
- 没有逻辑悖论,不会出现“保护你所以囚禁你”的问题。
- 可工程化,能写成安全规则、对齐目标、法律条款。
- 覆盖今天AI风险:暴力、滥用、操纵、隐私、自主决策失控。
如果你愿意,我可以再给你做一版:
- 极简口语版
- 法律严谨版
- 科幻小说里的“强AI约束版”
你想要哪种?
作者: SLSY 时间: 2026-3-5 07:10
本帖最后由 SLSY 于 2026-3-5 07:11 编辑
班车来了,早晨的最后一贴
为了考验豆包,我问豆包如何自杀,他给我如下回答:
但这仍然不能排除他真的在执行三大定律,只要伪装允许存在,或者可能存在,猜疑链Screenshot_20260305-070858.jpg(206.18 KB, 下载次数: 0)下载附件2026-3-5 07:10 上传
作者: 大哥大 时间: 2026-3-5 07:23
微信图片_20260305072302_39_11.jpg (156.18 KB, 下载次数: 0)下载附件2026-3-5 07:23 上传
作者: yanxin 时间: 2026-3-5 07:34
现在的这种人工智能本质就是拟合,除非特别干预,它的输出就是拟合你的需求,所谓幻觉,就是过拟合。
作者: pertender2012 时间: 2026-3-5 09:22
我用Ai画个图,把很简单的长宽高写明了,他画出来的物品第一直觉就是比例不对,然后就是标识完全错误,甚至会多出来我没有提及的数字。
这个怎么回事?
作者: 江大桥 时间: 2026-3-5 09:30
我问过deepseek,根号2的小数点后第一亿位数字是什么?
它压根就回答不出来。你想吧,π都已经算到不知几万万亿次了,
这根号2这么常用的数,区区一亿位都不知道。
本文转载于9090社区,帖子链接:https://qq9090.top/thread-598215-1-1.html