为什么人工智能缺乏判断力(二)


  • 原文:
  • 作者:Peter Gärdenfors Ph.D. 译者:Great Whale
  • 日期:2023-06-13 创建:大鲸 访问:574
  • 标签:人工智能 AI GPT ChatGPT 大语言模型 Transformer模型 判断力

训练数据也会扭曲结果。人工智能程序已在法庭上用于裁决某些例行案件,例如交通违规。该程序已经接受过大量先前案例的培训,并了解了哪些因素是相关的以及应该给出哪些判决。 

然而,程序对黑人的判刑却比白人重,因为之前的案件也存在这样的偏见。因此,在确定谁应该获得医疗福利、社会援助或银行贷款等项目中,使用适当的培训数据来获得公平的评估是非常重要的。 

机器人和人工智能经常被混淆,但它们是两个不同的领域。作者卡雷尔·恰佩克(Karel Čapek)引入的“机器人”一词的意思是“工作”。因此,机器人是执行具体动作的东西。 

我们被科幻电影愚弄,以为存在有智能和能力的机器人。但现实中存在的机器人——工业机器人、机器人吸尘器和机器人割草机——没有技术。它们不能超出它们被编程的狭窄行动范围,也不能解释为什么它们以这样的方式行事。它们非常愚蠢,而且在大多数情况下还很笨拙。 

创造能够独立解决新的实际问题的机器人需要大量的技术和认知知识,而且进展缓慢。熟练的机器人木匠还有很长的路要走。 

回到亚里士多德的知识类型,人工智能可以表现出一定程度的知识,但程序没有技术。那关于“实践”或“判断”呢? 

虽然可以将基于规则的系统纳入人工智能,但挑战在于确定规则在个别情况下的适用性。包括护士、医生、医疗保健从业者、社会工作者、律师和教师在内的各个领域的专业人士都明白,仅仅依靠规则手册是不够的。总会有边缘案例和独特的情况组合需要新颖的方法。这正是人类判断变得不可或缺的时候。 

要理解为什么 AI 缺乏判断力,关键是要掌握这个概念本身。实践涉及在特定情况下明智地解决问题,根据有关情况的可用知识在不同的价值观之间取得平衡。这并不意味着情感与理性之间的冲突,而是两者之间错综复杂的相互作用。 

然而,人工智能系统缺乏情感和道德,使其无法承担责任。无论规则手册多么广泛,都不足以了解如何根据具体情况调整价值观。具有判断力的专业人士具有这样做的能力,尽管他们决策过程的确切机制仍然难以捉摸。不幸的是,判断的概念在人文和社会科学中受到的关注相对较少。 

未来的机器人在与人类互动时也需要判断力。自动驾驶汽车不仅需要判断骑车人是否左转或行人何时过马路,尤其是在事故即将发生的情况下,必须做出关于优先考虑汽车乘员或车外人员安全的决定。 

总而言之,人工智能系统拥有一定程度的知识,但缺乏技术和实践。因此,这些系统目前不能作为决策者独立运作。人类的参与,尤其是有经验的个人的参与,对于处理人工智能程序未受过训练的特殊情况以及防止有偏见的决策是必要的。 

要创建具有更广泛功能的 AI 系统,仅在编程和技术方面的专业知识是不够的。对人类行为、社会和价值观的了解同样重要。因此,将技术专长与人文和社会科学的见解相结合的多学科方法对于人工智能的进步及其负责任地融入社会各个领域至关重要。 

 

相关诉求 [ AI食疗 ]


相关文章