精品学习网
所在位置:主页 > 人工智能 > darling inthe franxx到底说的是什么?

darling inthe franxx到底说的是什么?

发布时间:2023-05-06 12:00来源:www.51edu.com作者:畅畅

一、darling inthe franxx到底说的是什么?

Darling in the Franxx是一个对人性、机器、爱情、自由等多个议题进行探讨的动画作品。

它并不是一部单纯的机战动画,虽然有着很多机战元素,但更强调人物的情感和内心的冲突。

其中的主题包括但不限于人性探讨、性别角色分化、生育观念、成长历程等等问题,通过机器与人之间的故事,反思人与自己、他人、社会、文化以及历史等的关系。

同时,这个故事还以通俗易懂的方式介绍一些哲学概念,如伦理学的巨人卡缪、弗洛伊德的精神分析等。

总之,它是一部非常值得思考的动画作品。

关于这个问题,《DARLING in the FRANXX》是一个关于人类的故事,讲述了一个被巨大生物“克隆恐龙”所威胁的世界,人类不得不在机器人“FRANXX”中进行战斗。

故事中的主人公们通过战斗和成长,发现了自己的内心世界和真正的目标,最终成功摆脱了被控制和束缚的命运,成为了真正的自己。同时,故事也探讨了人类的本质、情感、性别角色和社会等方面的问题。

二、机器伦理学是指造人工智能的主体自身的道德

人工智能(AI)已经在商业、医疗保健和制造业领域做出决策。但人工智能算法通常仍会得到人们的帮助,包括申请检查和做出最终决定。如果人工智能系统必须做出独立的决定,以及那些可能意味着人类生死的决定,会发生什么?

长期以来,流行文化一直在描绘我们对人工智能的普遍不信任局氏兄。在2004年的科幻电影《我,机器人》中,侦探戴尔・史普纳(威尔・史密斯饰演)在一场车祸中被机器人救了出来,而一个12岁的女孩被淹死后,对机器人产生桐袭了怀疑。他说:“我是合乎逻辑的选择。它计算出我有45%的生存机会。莎拉只有11%的几率。那是某人的孩子11%就够了。人类应该知道的。”与人类不同,机器人缺乏道德良知,只能遵循程序化的“道德规范”。

与此同时,人类的道德高度多变。在任何情况下做“正确”的事情取决于你问的是谁。为了让机器充分发挥它们的潜能,我们需要确保它们的行为符合道德规范。所以问题就变成了:人工智能开发者和工程师的道德如何影响人工智能的决策?无人驾驶的未来想象一下,未来的自动驾驶汽车都是完全自主的。如果一切顺利,早上的通勤将是一个为当天会议做准备的机会,看看新闻,或者坐下来放松一下。但如果事情出错了呢?汽车接近红绿灯,但突然刹车失灵,计算机不得不在瞬间做出决定。它可能会突然转向撞上附近的电线杆,导致乘客死亡,或者继续行驶,导致前面的行人死亡。 控制汽车的计算机将只能访问通过汽车传感器收集的有限信息,并将不得不基于此做出决定。尽管这看起来很戏剧化,但我们可能只需要几年的时间就会面临这样的困境。自动驾驶汽车通常会提供更安全的驾驶,但事故将不可避免――尤其是在可预见的未来,当这些汽车将与人类司机和其他道路使用者共享道路时。特斯拉目前还没有生产完全自动驾驶汽车,但它计划生产。

在发生碰撞的情况下,特斯拉汽车不会自动操作或关闭自动紧急制动(AEB)系统,前提是驾驶员是驾驶员。换句话说,司机的行为不会受到干扰――即使是他们自己造成了碰撞。相反,如果汽车检测到潜在的碰撞,它会发送警报给司机采取行动。然而,在“自动驾驶”模式下,汽车应该为行人自动刹车。

一些人认为,如果汽车可以避免碰撞,那么它就有道义上的义务在任何情况下都凌驾于驾驶员的行为之上。但我们会希望自动驾驶汽车做出这样的决定吗?生命的价值是什么?如果汽车的计算机能够评估车内乘客和行人的相对“价值”会怎样?如果它的决定考虑到这个价值,从技术上讲,它只是做了一个成本效益分析。这听起来可能令人担忧,但已经有技术正在开发中,可以实现这一点。例如,最近重新命名的Meta(前Facebook)拥有高度进化的面部识别功能,可以轻松识别场景中的个人。

如果这些数据被整合到一辆自动驾驶汽车的人工智能系统中,该算法可以对每条生命进行价值评估。麻省理工学院的专家及其同事在2018年进行的一项广泛研究中描述了这种可能性。通过道德机器实验,研究人员提出了各种自动驾驶汽车的场景,迫使参与者决定是杀死一个无家可归的行人还是一个行政人员。

结果显示,参与者的选择取决于他们国家的经济不平等程度,经济不平等程度越高,他们就越有可能牺牲无家可归的人。这种数据聚合虽然没有进化到什么程度,但已经在中国的社会信用体系中得到应用。社会信用体核此系决定着人们拥有哪些社会权利。

三、机器人三定律背后所依据的道德哲学理论是?

第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。

第隐桐二条:机器人必须服从人类的命令,除非灶旦坦这条命令与第一条相矛盾。

第三条:机器人必须保护自己。迟散

四、未来,AI机器人是否应该具备伦理道德?

机器人伦理学家就是那些为机器人和人工智能的伦理和社会影响及其后果而担忧的人。所以,从某种程度上说,我是一个专业的担忧者。

探寻人类――包括人类工程师、机器人制造商和维护者、维修人员等等,也就是每激袭个与人工智能和机器人有关的人,应该如何采取负责任和道德的行为,尽量减少人工智能和机器人对我们的社会,我们每一个人以及我们的星球带来的不必要的道德后果和危害,如果人们愿意的话。

你刚才提到的第二点,人工智能和机器人行毁铅桐为的道德准则,这更像是一个研究问题。它没有第一个问题那样紧迫性,而且它确实是一个非常有趣的问题。我正在研究的问题之一就是我们如何创造出合乎伦理道德的机器人。

目前,唯一纤坦的完整意义上的道德主体是像你我一样的成年人类,当然不是所有的人类,是心智健全的成年人类。当然,我们并不能人工建立一个类似的道德主体,所以,我们目前能做到的就是在有限的意义上建立较低级别的道德机器人,它们可以根据特定的伦理规则来选择它们的行为。但是,不像你我,它们不能决定是否要遵守道德,当然也不能在事后证明它们自己的行为是正确的。

目前,唯一的完整意义上的道德主体是像你我一样的成年人类,当然不是所有的人类,是心智健全的成年人类。当然,我们并不能人工建立一个类似的道德主体,所以,我们目前能做到的就是在有限的意义上建立较低级别的道德机器人,它们可以根据特定的伦理规则来选择它们的行为。但是,不像你我,它们不能决定是否要遵守道德,当然也不能在事后证明它们自己的行为是正确的。

机器人伦理学家就是那些为机器人和人工智能的伦理和社会影响及其后果而担忧的人

这个肯定是需要具备的,要不然它们会为所欲为,对我们是极其的不安全的。

应该是可以具备的,毕竟人类可以给他设定。

我觉得应该有,没有伦理道德是非常可怕的一件事情。

  • 热门资讯
  • 最新资讯
  • 手游排行榜
  • 手游新品榜