资讯> 正文

【天天新视野】胡泳:人工智能不智能

时间: 2023-02-02 11:05:51 来源: 胡泳

编者按:


(相关资料图)

据《纽约时报》1月中旬报道,北密歇根大学的哲学教授Antony Aumann在为自己任教的一门世界宗教课程评分时,读到了一篇“全班最好的论文”,追问之下学生坦诚是其用ChatGPT生成的。

ChatGPT的热度从去年11月发酵至今。究其原因,OpenAI推出的这款AI聊天机器人似乎无所不能,功能非常强大,不仅能流畅地与用户对话,甚至能写诗、撰文、编码……

ChatGPT爆火出圈,已经网罗了一众流量——上线五天里突破百万用户大关,不到两个月日活用户过千万。资本闻声而动,Meta、微软、BuzzFeed等纷纷向其抛出橄榄枝。微软联合创始人比尔·盖茨日前更是给予ChatGPT高度评价,称其能让他窥见未来,整个方法和创新速度都令他印象深刻。

整体来看,ChatGPT就像一颗深水炸弹,由AI掀起的"地震"余波向各行各业蔓延开来。根据麦肯锡统计数据显示,全球AI技术在通信、交通运输及物流、金融服务、高新科技、医疗健康、电力及天然气等领域的渗透率较高。

到底该如何看待这项重大突破但不完美的技术呢?北京大学新闻与传播学院教授、CTR媒体融合研究院专家胡泳在其最新力作《流行之道》中,以AI在医疗行业的应用为例,给出了自己的看法。

你信任人工智能医生吗?

2022年1月22日,IBM在一份简短声明中,宣布将旗下“沃森健康”(Watson Health)业务分拆,出售给总部位于旧金山的投资基金 Francisco Partner。这项交易标志着“蓝色巨人”正在放弃其在医疗保健领域的雄心,更加聚焦于构建混合云计算的能力。而从行业角度看,它意味着人工智能的雄心在医疗保健业遭遇重大挫折。

作为这家向人工智能转型的企业近年来的明星业务,沃森健康最重要的产品可以帮助医生诊断和治疗癌症。它是IBM最早也是最大的AI尝试之一。然而,尽管为了打造这一增长引擎,IMB展开了一系列有针对性的价值数十亿美元的收购,但沃森健康在争取美国国内外市场份额上的进展并不顺利,并且短期内也看不到盈利的前景。

在休斯敦的MD安德森癌症中心,沃森健康于2013年首次部署认知计算技术,以帮助肿瘤学家从卫生系统的大量研究和患者数据中挖掘洞见,并开发新的以NLP(神经语言程序)为基础的工具来支持决策。

然而,到2018年,这两个组织的合作陷入困境,MD安德森中心在花费超过 6000万美元之后取消了该项目,原因是“存在许多不安全和不正确的治疗建议实例”。

失败的原因不一而足。医疗专家相信,沃森机器人医生的困境凸显了将AI用于治疗复杂疾病的障碍,可能同时包括人力、财务和技术。比如,获得具有广泛代表性的患者群体的数据一直是一项挑战,而在另外一方面,这些疾病的结果往往取决于许多可能无法在临床数据库中完全捕获的因素。

同时,科技公司缺乏深厚的医疗保健专业知识,如果它们不够了解实战的临床工作流程,就会增加在病患环境中实施人工智能的困难。必须知道可以在哪里插入AI,以及 AI又能够在哪些方面提供帮助,而一切都要以提高医院的效率为准。

究其根本,在医院中应用人工智能,首先是解决信任问题。在相当大的程度上,我们还是第一次见证人和机器人共处一室的复杂环境。当医生首次与沃森交流时,他们发现自己处于相当困难的境地。一方面,如果沃森提供了与他们自己的观点相一致的治疗指导,医生们对沃森的建议就看不出太多价值。超级计算机只是告诉他们本身业已知道的东西,而这些建议并没有改变实际的处理方式。这可能会让医生放心,让其对自己的决定更有信心。然而如果只是帮忙确认,机器人医生值得在医院里部署吗?

另一方面,如果沃森提出了与专家意见相矛盾的建议,医生通常会得出结论:沃森对癌症无能为力。机器无法解释为什么它的处理是合理的,因为它的算法太复杂了,不能被人完全理解。因此,这导致了更多的不信任和怀疑,许多医生会忽略看起来异乎寻常的 AI 建议,并坚持自己的专业知识。

由此来看,沃森的肿瘤诊断问题是医生根本不信任它。人类的信任往往基于我们对其他人如何思考的理解,以及对其可靠性的经验了解,这有助于创造一种心理安全感。而AI对于大多数人来说仍然是相当新颖和陌生的,它使用复杂的分析系统进行决策,以识别潜在的隐藏模式和来自大量数据的微弱信号。

即使可以在技术上解释(并非总是如此),AI的决策过程对于大多数人来说通常难以理解,和自己不明白的事情互动会引起焦虑,并使我们感觉失去了控制。许多人也不太了解许多AI实际工作的实例,因为它们常常发生在后台。

相反,人们总能敏锐地意识到人工智能出错的情况:谷歌算法将黑人分类为大猩猩;一个微软聊天机器人在不到一天的时间里成为白人至上主义者;在自动驾驶模式下运行的特斯拉汽车导致了致命的事故。这些不幸的例子受到了媒体不成比例的关注,向社会发出了人类不能完全依赖技术的信息。机器学习并非万无一失,部分原因是设计它的人不是万能的。

具体到医疗保健领域,发生问题的也不是只有IBM。谷歌的DeepMind部门在开发了轰动世界的围棋程序之后,也曾推动多项针对慢性病的医疗保健举措。然而它目前也处于亏损状态,并在收集健康数据方面遇到了隐私担忧。

虽说如此,用人工智能改进医疗保健业的努力还会继续。原因很简单:尽管它的效率只能实现40%到60%,然而这是一个价值万亿美元的行业。因此,用机器学习算法或可扩展的AI之类的优雅工具使它得到显著改善的想法,显然还是非常诱人。

人工智能需要解决的三大问题

有多少人工,就有多少智能

在人工智能界,普遍可以听到一个说法:有多少人工,就有多少智能。

这是因为,与传统计算不同,人工智能可以在一系列尚未由人预编程的情况下做出决策。人工智能大部分是关于可以通过经验学习和发展的系统,通常用于执行专业任务,如驾驶、玩策略游戏或进行投资决策。这个子集也被称为认知计算,需要通过学习进行培训。

机器学习需要喂给机器大量的数据,而这些数据大部分是需要人工标注的,这在机器学习当中叫作“监督学习”(supervised learning),即根据输入 - 输出的样本对子,学习一个将输入映射到输出的函数或模式,并依此模式推测新的实例。

举例来说,要写一个机器学习算法,让它能够在网上帮我找到符合我口味的衣服,就需要训练一个能识别某种服装的程序。首先需要的是数据,因为必须给机器学习算法标注一些样本。训练者先搜集很多图片,然后把需要的标出正例。比如把所有衬衣图片标注出来,其他未被标注衬衣的,就是负例。机器会通过这些样本的标注,知道哪些是衬衣,哪些不是衬衣,哪些是主人想要的,哪些不是主人想要的。假如提出更高的要求,让程序识别浅色的衬衣,就要进一步把浅色衬衣的图片再标注出来,这样机器就会知道那些浅色的衬衣是主人更想要的。这样的条件可以不断趋向复杂,例如让机器识别带条纹的浅色衬衣,而所有这些对于数据的进一步处理,都需要人工来解决。

人的标注工作完成之后,就可以训练机器学习算法,让它不断去看图片,并对所看过的图片加以总结。然后它自己总结出一个算法框架,知道大概往哪个方向学习。机器学习的目标就是利用人们输入的数据,让自身的错误识别率达到最低。这个目标达成之后,机器就学成出师,可以为人工作了。

学习如何学习

“智能”这一术语的使用常常导致人们对AI的能力和拟人化风险的误解(这里的拟人化,是指将人类特征和行为分配给非人类事物)。今天可用的大多数 AI技术都是根据特定目标学习或优化其活动,因此只能按照所传授的内容进行操作。其能力的大小,反映了培训的数据及培训的质量,以及AI流程的设计情况。通常,仍会需要人工处理异常情况。

这意味着AI目前的形式很狭窄,只能专门用于特定的应用程序,它所遵循的流程和程序是不可迁移的。DeepMind应用程序可以胜过围棋的最佳人类选手,但它在国际象棋中甚至无法击败普通人类玩家。

当人工智能开始变得真正聪明并能够学习未被教授的行为时,将会发生重大变化。然而,这个技术里程碑是否可以实现尚无定论。

不知之不知

在人工智能开发当中,同样存在“已知的未知”和“未知的未知”。“已知的未知”是指模式不能确定正确分类的例子。

其解决方案是,在不确定的例子上从人们那里获得新标签。例如,如果一个模式不能确定一张照片的主体是否是一只猫,就会要求人去验证;但如果系统确定的话,就不会要求人去验证。虽然在这方面还有改进的余地,但令人欣慰的是,模式的置信度与它的表现相关,人们可以认清模式不知道的东西有哪些。

另一方面,“未知的未知”是指模式对其答案有信心,但实际上是错误的。对人来说,这就产生了一个难题:需要知道人工智能算法何时工作,何时不工作。虽然电影推荐假如不是那么准确可能并不要紧,但一旦一个算法在自动驾驶汽车或医疗应用程序中表现不佳,其结果可能是毁灭性的。

人工智能系统的内部工作往往不透明,人类很难理解人工智能学习系统如何得出他们的结论。为了解决这个问题,设计者和观察者已经讨论过在AI系统中需要一定程度的解释逻辑,以便检查错误并让人类学习和理解。

算法复杂性的挑战

然而,人工智能系统复杂性的挑战并不容易克服。事实证明,机器“知道”得越多,我们就越不了解它们。用于人工智能的深度学习方法涉及从简单的构件中创建复杂的、分层的表征,以解决高层次的问题。网络在层次结构的初始级别学习一些简单的东西,然后将信息发送到下一个级别,在那里信息被组合成更复杂的东西。这个过程持续进行,每一级都从上一级收到的输入中建立。

与此同时,层数越深,优化算法就越难。最终,它们变得如此困难,以至于数据科学家无法解释它们是如何工作的。在某一点上,用于深度神经网络的算法以某种方式,奇迹般地产生了准确的结果——但科学家和工程师并不完全了解结果是如何产生的。人工智能使机器能够进行预测,但很难让计算机解释它是如何得出结论的。这不仅提出了信任问题,而且还产生了潜在的法律和责任问题。在人工智能获得全力推进之前,这方面有很多东西需要探索和考虑。

责任编辑:李倩

分享到:版权声明:凡注明来源“流媒体网”的文章,版权均属流媒体网所有,转载需注明出处。非本站出处的文章为转载,观点供业内参考,不代表本站观点。文中图片均来源于网络收集整理,仅供学习交流,版权归原作者所有。如涉及侵权,请及时联系我们删除!

关键词: 人工智能 机器学习 应用程序

责任编辑:QL0009

为你推荐

关于我们| 联系我们| 投稿合作| 法律声明| 广告投放

版权所有 © 2020 跑酷财经网

所载文章、数据仅供参考,使用前务请仔细阅读网站声明。本站不作任何非法律允许范围内服务!

联系我们:315 541 185@qq.com