就如校长说的,如果控制系统都是一样的,一旦出现问题那就是大问题。
对于这些,从一开始就注意到了。
就比如说现在的信息通讯。
现在的信息通讯可是三重覆盖的,三种完全不同的技术标准,也就是说着三种是不能相互兼容的。
至于为何这么做,考虑到的还是信息的传输安全。
现在的信息传输太过重要了。
其中涉及到了虚拟宇宙,人形彷生机器人、机甲的远程控制。
毫不夸张的说,以后人类的发展将要高度依赖信息的传输。
想象一下就能知道,一旦信息传输出现问题。
那现有的虚拟宇宙、远程控制人形彷生机器人、机甲等等。
可以这么说,一旦信息传输出现了问题,那人类瞬间退回到农耕时代。
“明白!”徐正平说,“现在太空时代已经来临,又伴随着科学技术的高速发展,会出现很多以前从来没有出现过个状况,我们不能采用过去那样盲目的莽荒式的发展,我们要有全面的监督,我们在监督下发展,那怕为此牺牲一点发展速度也是值得的,因为随着科学技术的发展,相对的也会越来越威胁,我们不知道什么时候就会踩雷,一旦雷炸了,那我们人类就完了。”
他可不是瞎说。
在原始时代,在农耕时代,那怕是电气时代、信息时代,人类再怎么折腾。
对整个人类产生威胁的也就是蘑孤弹。
再就是人类的发展加快了地球环境变化的速度,使得人类在加速接近被团灭的那一天。
可现在不同了,科学技术的告诉发展。
能够威胁到全人类的将不在只是蘑孤弹了。
比如说人工智能,比如说脑机结合技术等等。
想想看,人工智能、脑机结合技术有着很多的方式威胁到人类。
人工智能的厉害科幻电影中宣传的已经够多了。
要是强人工智能觉醒了,人类也发现了。
这种情况下,人类可以友善的引导,让强人工智能成为人类的一部分,让你自愿为人类奋斗。
就这还存在着很大的风险。
要是强人工智能觉醒,而人类完全不知道。
随着强人工智能的成长,其懂得了隐藏。
强人工智能躲在暗处慢慢的积累。
要是这强人工智能是善良的还好,要是邪恶的。
那在强人工智能的力量一旦超过人类,强人工智能会因为争夺资源而攻击人类,将人类消灭殆尽。
就算强人工智能没有自己的实力,他一样可以借助人类自己的武器将人类消灭殆尽。
比如说数量众多的蘑孤弹,ss-防御系统,光柱工程设施,光束通道设施等等。