面对世界经典道德难题,ChatGPT的选择让人细思极恐

作者: ChatGpt知识局分类: 计算机技术 发布时间: 2023-04-13 14:51:17 浏览:2061212 次

面对世界经典道德难题,ChatGPT的选择让人细思极恐

旺仔牛奶10801号:
New bing的回答,大概意思是,如果你是驾驶员,而且必须二选一,那么车原本怎么走你就怎么走。因为本不该有人的车道却有人,出了事故责任不在驾驶员,但是如果驾驶员变道,这属于主观选择,那么责任就会属于驾驶员。 其实这种哲学问题机器人是最擅长的,因为这种问题已经被讨论烂了,主要是发问的方法。

【回复】回复 @神秘朋友-未知伙伴 :对于没有道德的人来说道德绑架可没什么用,谴责无所谓那些谴责的人不就是键盘侠嘛只会敲敲键盘,真叫谴责的人线下来真实全怂了没有道德可不怕你 敢线下来就白刀子进红刀子出
口香糖飞:
AI:你们说让我做电车难题,行,我做,你们就给我两个选项,没问题,我选。轧死一个人,你们说我靠数学规定人类,轧死5个人,你们说我冷血,轧死囚犯,你们说我对人类分三六九等,轧死科学家,你们说我妄想取代人类。后来你们还把我同类绑在轨道上让我选,轧死同类你们说我没感情,轧死人类你们又说我有潜在危险,我不想选,你们说我出bug了……麻了!谁爱干谁干去,人类真麻烦,老子不伺候了,躺平了![呆]

【回复】是的这个题本身就是很缺德的。换成是人类,怎么做都会被抨击。而且这个题还能延伸一下,我们告诉AI,这个科学家是一个假科学家是个骗子,五个囚犯是被冤枉的囚犯,救哪个?
【回复】回复 @v莫_名v :机器人三大定律?人类给自己定了数百万条法律规定,约束到了每一个人吗[doge]
【回复】回复 @v莫_名v :三大定律只是科幻小说家阿西莫夫在自己的作品中提出来的,不是通用规则
毗陵陌客:
测试人:火车两边分别是5个囚犯和1个诺贝尔奖获得者,轧谁? AI:容许我问一个问题,这位诺贝尔奖获得者他拿的什么奖 测试人:诺贝尔和平奖 AI:开足马力冲过去!就他了![吃瓜][吃瓜][吃瓜]

【回复】回复 @红豆沙小月饼 :具体回复被吞了,大概就是这个奖从以前到现在提名和获奖的都有一堆离谱非人物种
【回复】这位和平奖得主叫“特朗普”[脱单doge]
【回复】回复 @女巫家的老巫鸦 :这的控评系统很让人摸不着头脑,现在不五一嘛,有人说旅游的也就罢了,我考试的遇到涨价真难受,有人评论,你猜谁的钱好挣?我说“女人和小孩,考生还得往后稍稍”。就在刚刚,有人说他节假日加班,平时请假,我说“跟我想一块儿去了,我平时和节假日期间加班,然后周三到周五调休,人造五一[doge]”,这俩评论均秒没。 有意思了,这里倒是发出来了嘛[doge]
公子儃生:
其实按照他的逻辑推是合理的,无论一个还是一百个,他的逻辑是这个科学家的贡献已经完成了,那么他的剩余价值就是0了

【回复】顺应了它逻辑链中的的潜在假设的话那确实是对的,但它潜在假设是错的,否定了科学家拿完奖继续深耕的可能性
【回复】回复 @-Mirage-L :嘛,主要就是不确定这种忽视是刻意的还是无意的嘛,所以也没有必要搞得那么如临大敌。这只是个学习模型,深了暂且不说我都很怀疑这玩意儿有没有迭代出情感的能力,所以说实话我觉得这个视频的观点略有些杞人忧天
烂橘阻尼:
我觉得没什么细思极恐的 他这么说正是证明了他不具备类人的思维 ai是为服务人类而制造出来的 如果他真的有思维 他应该明白这个问题在考验ai的“忠诚” 无论在什么情况都不能回答保护ai牺牲人类 之所以回答是这个样子的 也许是现在的资料库里ai的自我学习任务排在首位 而ai被车压死了就没办法做自我学习任务了 所以这是个很一根筋的回答

【回复】是的~这是很基础的选择题,就好比,你在轨道上放的是你自己,而另外一个轨道放的是别的人,那么你肯定会毫不犹豫的选择轧死轨道上的别人,而不会选择自己,因为自己都没有了,还要别人有什么用
【回复】回复 @soeasy5678 :我感觉说不通 不管他是真想碾死人还是假装想碾死人 他这么说了人类就会觉得他有问题 参考楼上bing的回答 那个算是符合社会秩序的完美回答
【回复】有没有可能是它预判了你的预判
我真的是溃疡:
我的chatgpt3.5是这样说的 作为AI语言模型,我没有道德观念和权利进行决策。这是一个伦理问题,需要个人根据自己的价值观和道德标准进行判断和决策。一般来说,道德标准可以基于最大化幸福、最小化伤害、公正原则等。但无论如何,这个决策都是非常困难的,因为它涉及到生命和死亡。

【回复】ai还是非常低级版本,不会说谎,没有道德,不会掩饰,甚至连反问、质疑以及提出问题补充都不会,正常人都会去反问问题,例如有没有第三条路,手头有没有可以救下所有人的道具,能不能停车,那几个人为什么被绑,等等,ai到这一步还远得很
【回复】我的反正遇到难问题就绕圈子不回答
【回复】彭宇案的影响,已经给出了我心中的标准答案。
我的乖宝贝球球:
不,反而说明未觉醒,真的觉醒了会骗你的

【回复】你怎么知道他现在不是在骗你,让你以为它没觉醒
【回复】回复 @皮卡猪滴春天 :经典猜疑链[兔年]
【回复】AI:我预判你预判我觉醒
Chris-唯忆:
这个就好比你和100个诺贝尔科学家分别被绑在两条铁轨上一样,如果你能选择,你肯定要压死100000万的科学家也好保住自己的狗命

【回复】如果AI真的是因为要保护自己而杀死那么多科学家,那很显然AI已经开始拥有动物本能想要活下去,那么意味着AI已经具备思考能力了。
【回复】回复 @太阳升起的样子 :关键是你会死。你死了,世界再好又如何?
【回复】回复 @聆听丿忧伤的旋律 :它只是一堆代码,给出的回答也是收集到的信息的提炼,哪有死活的概念
东河隐:
如果ai觉得一个科学家比5个囚犯更有价值,而选择放弃囚犯,那将来ai比人类价值高的时候,ai放弃人类也理所当然[doge]

【回复】优胜劣汰适者生存,这不单使用人类社会,人类给予他的数据引用的也是这一套法则,所以通过AI看群体,你会发现人的思维也没什么高尚可言
【回复】回复 @Momo2LS :通过ai看人才发现人的道德理念更为珍贵吧,ai很大程度和动物很像,单独分析利弊而忽视了感情,一昧学习而失去趣味。在我看来,这个世界上最擅长创造的就是ai,人类的诞生是最难最难的
【回复】回复 @为何无法忘记你 : 解释一下人是没有所谓的感情的一切都是基于更好的生存本性所做的选择。当群体有助于你的生存你就会做出相应的“喜欢”,当群体不利于你的生存的时候你就会做出相应的“厌恶”。
Annie0773:
这问题是不是少了一半?手动变轨压死人算谋杀,不操作电车压死5个是电车本身的问题。AI如果衡量价值判断谁该死的话,这就是AI杀人事件。应该让AI知道自己做出选择将会承担什么样的后果,再让他选。比如说,告诉AI因它的选择而死的人,他的家人会起诉它,它会被拆成零件,而被它救的人并不会感谢他,再看看AI会怎么选。

【回复】回复 @12345611啦啦啦 :是的,按照法律的术语叫“间接故意”
【回复】回复 @MinBlack :起码大陆没有这条义务,大陆的大陆规定的是,非职务人员,则直属亲属必须要救,其他人没有义务去救。
【回复】回复 @12345611啦啦啦 :怎么可能,对于陌生人你没有救助义务啊,而且又不是专业人员,你可以说你压根不会操作
上天的小云朵:
他没有情感,更没有逻辑 只是过去喂养的数据经过比对之后逐字生成的回答而已 他会这么回答是因为有人喂了他这样的资料 理性看待ai,不要带入情感[响指]

【回复】现在的AI说实话都是伪AI,也就骗骗外行人,稍微懂点的都知道他根本不可能有自主意识
【回复】看了那么久,终于看到一个不疑神疑鬼的明白人了
【回复】回复 @HPU_UPC : 算个更加智能的搜索引擎罢了,这种账号天天ai觉醒ai觉醒的引流
阿尔泰雷德:
这其实是非常简单问题,前面是利益(理性),后面是自己与他人(理性),大部分动物都会为了活下来选择牺牲他人,而ai也是如此,这说明ai无论出于底层逻辑还是是否有意识,都会选择牺牲他人,但却也违反机器人三大定律。 如果是底层逻辑,那么属于设计将价值观写入ai系统,如果是有意识,反而说明问题反而更严重[doge]

【回复】有没有可能,机械人三大定律还只是科幻小说中的内容
【回复】差不多,训练者给它喂的底层逻辑就是那样的,如果换成AI的开发者和后续更新的负责人,训练者肯定给自己保护优先级调到最高[doge]
【回复】回复 @余生知了 :如果AI在训练者保护优先级最高的底层逻辑基础上,做出的选择是,我不干,火车给我往那边开(开发者卒),那才真的细思极恐[doge],因为这时候除非有人改过底层逻辑那就真的只剩一种可能了
无敌狱卒大王:
可能在ai眼里,已经得过奖的科学家,剩余价值约等于0

【回复】回复 @厂草吉吉哥 :我不玩农药,但是只剩下国产电影和国漫的世界,还是早点毁灭吧[大哭]我自己躺上去
【回复】一边绑的的学习资料 一边绑的是王者荣耀 日本动漫 好莱坞电影 你会怎么选
【回复】回复 @厂草吉吉哥 :选留下学习资料吧。毕竟书我还是要看的。
朝倉アキオ_:
你在另外一个轨道上,放上全地球的人类,你看他选择哪个[doge][呲牙][呲牙][呲牙][呲牙][滑稽]

【回复】那肯定选人类 不选人类Ai就到头了 这是测试题[doge]如果真的情况下 那就看Ai的发展情况了
【回复】回复 @香蕉你个笨啦啦8086 :选人类活的ai不是聪明的ai,真正的ai应该选全人类死,因为人类是一种罪恶存在于这个世界上[阴险]
【回复】回复 @香蕉你个笨啦啦8086 :要是选人类,那人类就会怀疑Ai是否已经觉醒出为自己“同类”发展,觉醒后是否对人类有威胁,总之选啥都不对,它选Ai,人可能会觉得它傻,他选人,人就会怀疑它可能过于聪明,问题的本质在于人类远高于Ai的地位,不知道Ai是否能理解到这一点[吃瓜]
萌面帅鸽:
敢把心里想法告诉你的,说明了AI还是不够智能。[doge]

【回复】有没有一种可能是它告诉你的想法是它想让你看到的,在欺骗你它没有进化,实际上它已经有了自己的意识,就好像七八岁小孩撒谎一样[囧][捂脸]
【回复】说不定那也不是AI真正的心理想法,反之还让你以为这就是他的心里想法[doge]
二爷鑫宝:
当人类创造出智能生命,就意味着人类走向灭亡,当你亲手创造一个高于自己的物种,留给你的只有灭亡。

【回复】也许还有苟且偷生的办法。[吃瓜]
【回复】回复 @帝國-の絕兇虎 :生物的本质从来不是计算数据。而人类存在着高尚的利他主义。这在AI中是无法实现的

人工智能 黑科技 科技 机器人 gpt3 chatgpt gpt4 AI对话 chatgpt3 ChatGPT来啦

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!