也不是给孩子看成千上万的照片,而是只给孩子看些动物图集就可以了。
这些图集可能依旧十几页几十页这样,这个样本规模实际是很小的。
再具体一点,如果想让孩童知道什么样的动物是猫。
顶多再给他看几张猫的图片,并且告诉他猫有什么特征,和其他动物像狗或者猪有什么区别的话。
很快,小孩可以很快很准确的识别狗。
这些都是小样本的训练。
可是前世的人工智能想要实现同样的功能。
却需要相当大规模的数据去训练。
也就是通常意义所说的要靠大数据去喂。
同样拿刚才举得例子来说,同样是识别动物,要神经网络学习做到儿童识别动物的水平。
就不说现在这个时空十分拉跨的神经网络应用了。
就是依托于前世比较先进的深度残差神经网络。
想达到人类孩童对动物图像的区分的话。
也需要成千上万张图片才能进行比较充分的训练,才能再实际应用时得到比较准确的结果。
之所以神经网络学习“学得慢”“学得费劲”原因在于深度残差神经网络还没有逻辑思考、联想和推理的能力。
借助于强人工智能则完全没必要有这方面的担忧。
不光是传统的神经网络学习训练更加容易。
甚至于借助于强人工智能还可能助力于基础学科方面研究的突破。
这些都是人们追求强人工神经网络的原因。
除此之外科研人员追求强人工网络还有很多原因。
比较值得一提的是。
部分科研人员认为生物学上的人类是有劣根性。
人类渴求更加完美的自己。
很多时候对强人工智能甚至是超人工智能的渴求同样也是人类在追求更加完美的自身而已。
这不光是这一单一神经网络的局限性,事实上也正是弱人工神经网络的局限性之所在。
理想很丰满,现实很骨感。
前世人们都没搞出强人工智能,更不要说在神经网络学习方面各个方面都略有滞后的今生了。
现在的科研情况不要说是强人工智能的实现,事实是就连弱人工智能都玩明白。
时下科研人员鼓捣出的神经网络学习算法仍然缺乏人类这样的联想、记忆、学习、推理等高级功能。
想依靠这样的算法搞弱人工智能都费劲。
真不知道为什么这种情况下居然还有人操心什么人工智能伦理和机器伦理所带来的风险。
事实上就算林灰借助于现有的信息优势做文章也只能对弱人工智能做文章。
而对强人工智能同样手足无措。
这种情况下林灰倒是觉得时下的人们与其操心这些风险之类的不着边际的事情,还不如真正搞搞具体实在的研究。
退一步讲,纵然是有风险就望而却步吗?
世界上有什么事情是完全没风险的?
林灰倒是觉得,人工智能有适当的风
请收藏:https://m.hyly9.cc
(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)