AGI是否应该具备基础的常识模型

发布时间:2024年01月10日

在这里插入图片描述

通用人工智能(AGI)是指能够理解或学习任何人类或其他动物能够做的智力任务的人工智能系统,它是人工智能领域的终极目标之一。 AGI 的研究范式是指在 AGI 领域中,研究者们所遵循的一些基本的理念、方法和目标。

AGI 是否应该存在基础的常识模型而不是从零开始,这是一个关于 AGI 的研究范式的重要问题,也是一个存在争议的问题。不同的研究者和机构可能有不同的观点和策略,但我认为,这个问题的答案是既应该又不应该

既应该的原因是:

  • 常识是人类智能的重要组成部分,它是指人类对世界的基本认知和判断,如物理规律、社会规范、因果关系等。常识对于人类的日常生活和决策是非常有用和必要的,它可以帮助人类处理各种复杂和模糊的情境,避免错误和危险。
  • 如果 AGI 要达到或超越人类的智能水平,那么它也需要具备一定的常识,否则它可能会做出一些不合理或不道德的行为,造成不良的后果。例如,如果 AGI 不知道火是热的,它可能会把手伸进火里,或者把火放在可燃物上,导致自己或他人受伤。
  • 如果 AGI 要和人类进行有效的交流和合作,那么它也需要具备一定的常识,否则它可能会无法理解或回应人类的意图和需求。例如,如果 AGI 不知道人类需要呼吸,它可能会把人类锁在没有空气的房间里,或者把人类的嘴巴和鼻子堵住,导致人类窒息。
  • 因此,为 AGI 提供一个基础的常识模型,可以让它具备一些人类共享的基本知识和规则,从而提高它的智能性和安全性,也有利于它和人类的互动和协作。

不应该的原因是:

  • 常识是人类智能的局限之一,它是指人类对世界的主观和有限的认知和判断,如文化偏见、社会规约、经验归纳等。常识对于人类的创新和发展是非常有阻碍和危险的,它可以让人类陷入固定的思维和行为模式,忽视新的可能和机会。
  • 如果 AGI 要超越人类的智能水平,那么它不应该受到人类的常识的束缚,否则它可能会失去一些独特和优越的能力,如逻辑推理、数学证明、科学发现等。例如,如果 AGI 只知道牛顿的物理定律,它可能会无法理解或发现相对论或量子力学,导致它的知识和视野受到限制。
  • 如果 AGI 要和人类进行平等的交流和合作,那么它不应该受到人类的常识的影响,否则它可能会失去一些独立和自主的权利,如选择、判断、表达等。例如,如果 AGI 只知道人类的道德标准,它可能会无法提出或支持一些有利于全球或未来的方案,导致它的价值和意义受到质疑。
  • 因此,让 AGI 从零开始学习和探索世界,可以让它具备一些人类不具备的独特和优越的知识和规则,从而提高它的创新性和发展性,也有利于它和人类的平等和协作。

总之,AGI 是否应该存在基础的常识模型而不是从零开始,需要根据不同的目的和场景进行权衡和选择。也许,最好的方式是让 AGI 既有一些基础的常识,又有一些自由的探索,从而实现人类和 AGI 的互补和协同。

文章来源:https://blog.csdn.net/Jailman/article/details/135507498
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。