此时的辽师长很想试试机器人拿着棍棒是否能打得过自己。
这个想法无疑就是想机器人部署在吐蕃边界,减少战士们巡逻强度,用机器人替代一部分监视行动。
如果能上场进行打架,那就完美不过了。
然而,现实是……按照莫邵君说法,这款机器人根本不会用棍子打架。
或者说,可以挥舞,但没有章法,完全不如人这般可以随机应变。
当然,并不是说这款机器人做不到,而是没有学习这个技能。
这在辽师长看来就觉得有些难以理解。
就像一个厨子,你说他会炒菜,但他妈不会切菜,这不是可笑吗?
同理,这款机器人连花式跳绳都会,打架也应该会。
这就是辽师长对机器人的认知。
机器人就应该是全能的。
或者换一个视角,从王好的角度出发,这款机器人就应该会算微积分……
不同阶层,不同行业,对于千变公司的机器人需求是全方面,全覆盖,无所不能,或者至少能满足绝大部分,不同的需求。
否则你千变公司吹什么牛逼?
都吹出去了,这点要求都满足不了?
玩呢啊?
拿我们当礼拜天过呢啊?
但千变公司在重新设计机器人之时,并没有执行这点策略。
而是“定制”
你需要什么,就给你定制什么。
不该会的技能,一概不让机器人去学习、。
这便是从安全角度出发所着想。
比如什么机器人三大定律。
第一定律:机器人不得伤害人类个体,或因不作为使人类个体受到伤害,除非这与第零定律冲突。
第二定律:机器人必须服从人类的命令,除非该命令与第零定律或第一定律冲突。
第三定律:机器人在不违反第零定律、第一定律和第二定律的情况下,必须保护自己的生存。
尽管这些定律看似完美,但在实际应用中存在一些漏洞和问题。
首先,实现问题是一个主要的漏洞。如果一款机器人具有独立思维,能够自主学习和解决问题。然而,机器人在后台偷偷学习了什么,根本不是客户所的考虑范围内的问题。
这就容易造成“机器人觉醒”。
在沈北眼中,机器人是为人类服务的,人类必须拥有对机器人绝对的控制权。
任何联网学习功能,都必须被禁止。
避免造成不可控的危机。
如果不受控制,沈北宁可毁掉这款机器人,也不会拿出来促进社会进步。
其次,语言歧义也是一个问题。
自然语言或会产生歧义的语言无法具有约束力。例如,机器人如何判断何为“人类”或“轻重伤”,这些定义的模糊性可能导致机器人行为的不确定性。
尤其是多重意识的表示,会让机器人智能产生混乱,进而发生一些人类无法理解的事情。
此外,道德和法律冲突也是一个问题。违反法律需要第三方来惩罚,而违反道德最多只是受到谴责。
三定律是内置在机器人系统中的,违反了的话机器人自己就会“自杀”。然而,如果机器人能够修改自己的固件,这一限制就可能被突破。
最后,逻辑冲突也是一个重要的漏洞。例如,在面对“电车难题”时,机器人可能会陷入两难境地,不知道该如何选择。即使是现代的AI系统,如ChatGPT,在面对类似问题时也会表现出困惑。
总之,尽管机器人三大定律在理论上提供了一种确保机器人安全的方法,但在实际应用中仍然存在许多漏洞和问题。
对于其他公司而言,这些问题需要通过进一步的研究和技术发展来解决。
并不是迫在眉睫的事情。