林有想过,把马列主义、资本主义、国富论等一系列老家跟社会学有关的书籍内容,丢一套给埃达。但最后还是没有这么做,因为他想起了另一位守护者的事情。
所以在说完自己的提议,并得到首肯后,林饶有兴致地看着维持骄傲神态的埃达,说:”这可真有趣呀。我认识的前一位守护者,她整天想着的是怎么把银须矮人给全灭了。妳却是在思考怎么延续,并让浮空岛有着良好的发展,为了岛上的天人们。守护者的态度并不一致吗?”
埃达也想起眼前魔法师说过,另一位守护者露碧塔的行为。她维持着端庄且高不可攀的神情,说:”为什么你会认为守护者们的态度就该是一样的呢?”
这一反问,突然就把林给问傻了。因为在他所接触到的各种影视等科幻作品中,ai发展到了极致,都会得出毁灭人类或统治人类这么一个结论,避免人类自己把自己给玩完。
这就像镁帝警察为了阻止民众举枪自杀,抢先一步枪击对方,最终致死的荒谬情形一样。
但是ai的训练,是一件需要耐心与细心的事情。要是开头就走偏了,后期除了放弃,没有什么修正的办法。
譬如一开始就将狗的图片定义为猫,那么这个被训练出来的ai,就会永远把狗当成猫了。想要改变几乎是不可能的。除非找到在狗被定义为猫之前的训练阶段,重新来过。
当然,这里的ai是属于弱人工智能。真正的强人工智能仍属于想象的阶段,会发生的事情与问题同样只存在于想象中。
但是同样的一个疑问,那就是不管给出怎样的训练数据,属于强人工智能的ai还是会得出同样的结论吗?
那些影视等作品属于悲观论者,这点倒是可以理解。毕竟要是持有乐观态度,公主与王子最终都能过上幸福快乐的日子,那作品还有得掰嘛!
没得扯掰事小;故事没冲突,作品没销量事大!就是三国演义里头的军师,哪一回跟人说话,不是用’你大祸临头了!’作为开场。
稍微理解了埃达的用心良苦后,林更不敢把这个主义、那个主义之类的书给拿出来。
要真能从中找到什么解决方法,那也就算了。只怕把这位守护者又给带偏,那时可就不知道该怎么收拾残局了。
铁城的守护者,再怎么偏激,顶多把银须矮人全族给玩死而已。