让人工智能系统更负责任的落地,AI Now新报告给出10条建议

2024-02-20

  克日,美国研讨组织AI Now公布第二份人工智能年度研讨申报。这份申报是「AI Now」人工智能研讨会的一部分,该研讨会邀请了近百名相干领域内的研讨人员,议论人工智能对社会经济的危害。申报指出,人工智能技术正发展迅速,尚处于初期阶段的人工智能技术正在从人脸扫描、人力推举和网络假贷等普遍的利用场景中不休渗透到我们的日常生活里。

  只管人们对快速生长的人工智能抱有很大的预期,然则我们还看到了这一高风险的行业正面对宏大的挑衅。例如果正在刑事司法中,非盈利媒体ProPublica的调查小组发觉,法庭和法律部分适用于猜测刑事被告再犯的算法,可能对非裔美国人存正在必定的成见。这一现象随后被很多学者证明。正在医疗保健行业,匹兹堡大学医学中心的研讨发觉,一种适用于医治肺炎病人的 AI 体系,缺失了一项对比较严重并发症的风险评价。正在教诲行业,德克萨斯州的评教算法被暴露出存正在比较严重的缺点,西席们还乐成告状了他们所正在的学区。

  也许这一些例子仅仅是一个入手下手,将来还会有更大的挑衅。个中一部分缘由在于,现在的 AI 行业贫乏标准化的测试形式和审核方式,没法完全避免算法误差,保障绝对的宁静。

  然而,这一些初期的 AI 体系正被应用到多个行业,包含医疗、金融、司法、教诲和各类办公园地。这一些体系还已渗透到我们生活的方方面面,它们能够适用于展望我们的音乐喜好、抱病的几率、合适的事情和假贷的数额等。

  这里的题目是不是蓄意对人工智能的滥用。反而是人们正在利用 AI 手艺的过程中,没有适用于确保平正平正的步骤和尺度,更没有思索它们所带来的社会效应。当研发的药品正在推向市场之前,它必须要颠末严厉的科学测试,并延续检验此中持久的结果。实际高风险 AI 的使用还当如斯。慎重是十分须要的,由于若是一旦失足,很多人会受到严峻的损害。

  作为呈报的一部分,AI Now 还为 AI 工业的研讨人员和政策制定者供应了 10 条倡议。这一些倡议并非完备的解决方案,只是进一步事情的出发点。AI Now 称:「虽然 AI 产物正在迅速发展,但对算法成见和公平的研讨仍处于起步阶段,若是我们想要确保 AI 体系得以被负责任地布置取经管,需要做的事情还良多。」

  认为一:刑事司法、医疗、福利和教诲等高风险领域内的焦点大众机构没有应再运用具有「黑箱」特征的 AI 手艺及算法体系,包孕未经审核和考证的情况下运用预锻炼模子,采取由第三方供应商受权的 AI 体系及内部创立的算法。

  大众机构利用这种体系会比较严重导致人们对这种法定诉讼法式的担心。这一些体系最少要履历大众审计、测试及审查的进程,契合相应的问责尺度。

  这将带来一个庞大的改变:提出的这项倡议反应了 AI 及相干体系已对一些庞大决议产生影响。已往的一年里,也是有很多可以作证这一点的研究报告。人们正在朝着这个标的目的迈进,本月,纽约市议会就展开了一项关于保障算法决议体系的透明度和测试的相干法案。

  倡议两:正在宣布 AI 体系之前,企业该当举行严厉的预宣布测试,以便确保体系不容易因练习数据、算法或其他体系设计的缘由招致任何毛病及偏向的产生。

  AI 是一个进展迅猛的范畴,展开测试的方式、假定和测试后果,都应该是公开透明、有明白版本的,这有利于应对更新升级和新的发明。

  那些开辟体系并从中赢利的人该当肩负起相应的测试及保障环节的义务,包含预公布版本的测试。AI 范畴间隔标准化要领的实现另有很长的路要走,这还是认为这一些要领和假定须要公开审核和计议的缘由。假如跟着工夫的推移,AI 范畴可以订定出具有鲁棒性的测试准则,那末这类开放性是至关重要的。别的,即便在标准化要领中,实验室测试还不可以捕捉到所有的毛病和盲区,这还是认为三涌现的缘由。

  认为三:正在 AI 体系公布以后,企业须要持续监测其正在差别环境和社区中的使用情况。

  监测办法和成果的界说须要一个公开、松散的学术进程,要对公家卖力。特别是在高风险决议环境中,该当优先思量传统边缘化社区的见解和履历。

  确保 AI 算法体系的安全性问题是非常复杂的,是一个针对给定体系生命周期的连续进程,而不全是一个完成后就能够忘记的短时间查验。只有正在静态的利用案例和环境中开展监测能力确保 AI 体系不会正在假定和行业产生转变时引入毛病和偏向。一样值得注意的是,很多 AI 模子和体系都有通用性,产物可能会接纳一些即插即用的附加功效,如情绪检验或脸部辨认等。这意味着那些给予通用 AI 模子的企业还能够斟酌挑选已核准利用的功效,这一些经由允许的功效已把潜正在的负面影响和风险等因素斟酌正在内。

  倡议四:须要举行更多的研讨并订定相应的政策让 AI 体系适用于事情场合办理和监测中,包孕雇用和人力资源环节。

  这项研讨将弥补今朝自动化代替工人的这一研讨核心,应当特别注意对劳工权益和举动的潜正在危害,和利用举动的潜力和正在雇用和提升过程中偶然强化的成见。

  环绕 AI 和劳动力的争辩通常会集合正在工人流落他乡的题目上,这是一个极度严峻的题目。然而,相识 AI 算法体系正在全部事情场合中的使用情况还一样主要,包含行动推进,到检验环节,再到绩效评价历程。比方,一家名为 HireVue 的公司近来摆设了一项基于 AI 的视频口试效劳,能够剖析求职者的发言、肢体言语、语调,进而肯定求职者是不是相符一家给定公司的「优异」模子。鉴于这一些体系存正在下降多样性并稳固现有私见的概率,人们需要做更多的事情来充足相识 AI 是若何融入办理、雇用、调理和日常事情场合中的实践中的。

  认为五:拟定尺度,跟踪体系全部生命周期的启动、开辟历程和锻炼数据集的使用情况。

  这是为了更好地理解和监控偏向及代表性误解题目。除更好地记载练习数据集的创建和保护进程,AI 偏向范畴的社会科学家和丈量研究员应当继承查验现有的练习数据集,并尽力理解已存在在预期工作中的潜在盲区和偏向。

  依赖于大规模数据,AI 才可以发觉形式并作出展望。这一些数据反应人类汗青的与此同时,还没有可避免地反应了练习数据集的毛病和偏见。机械进修技能山善于提取统计形式,经常会正在试图归纳综合普遍案例的历程下省略没有同的异常值,这还是没有依据数据外表价值举行毛病研讨的重要原因。如许的研讨要从了解练习 AI 体系的数据来源于那里开端,追踪这一些数据是如安正在体系中运用的,并且要跟着时间推移考证给定数据集的形态。正在把握这一点的基础上,人们可以更好地了解数据中反应出的毛病和毛病,进而研收回可以正在数据的开辟和采集合辨认这类状况并将其减弱的办法。

  认为六:以跨学科视角看待 AI 的误差研讨取减缓计谋的研讨。

  偏向题目长期以来一向存正在,并且是一个构造性题目,深度的跨学科研讨是处理偏向题目的须要门路之一。正在技能层面,研讨者们常常希望能一了百当地完全处理题目,这严峻低估了题目放正在社会层面时的复杂性。正在教诲、医疗、刑事司法等行业,偏向题目的趋向源于其本身的历史进程和过往实践,假如没有融合相应的行业常识,偏向题目就没有能被完全处理。要处理偏向题目,肯定需求跨学科的互助,并尊敬没有同学科的法则。

  近来,人工智能和偏向算法行业有了一些喜人的进度。但正在这里,我们仍是要提示诸位不必要拒谏饰非。不然,很有也许泛起如许的情形——体系虽然一直正在优化,但我们却不晓得怎样用这个愈来愈优化的体系解决题目。计算机科学家可以根据取诸如法令、医学、社会学、人类学和交换学等行业的专家互助,正在 AI 数据构成和上下文集成之前,更好地舆解数据底层的结构性不平等题目。

  认为七:亟需 AI 体系落地时的审查尺度取范例。

  该尺度的订定应融合不一样学科及同盟的观念,以公开、松散的学术立场举行,并须活期审查和订正。今朝,还没有肯定的可以评价 AI 体系在其利用的社会范畴中所发生的危害的理论体系。考虑今朝尚处于初期的人工智能体系曾经为一些危险水平较高的的社会范畴造成了危害,这一题目必需被器重起来,乃至可以说是事不宜迟。

  认为八:AI 范畴的公司、大学、集会和其他长处相干者该当发布参与其事情的女性、少数族裔、和其他边沿群体的人数。

  现在有很多人已意想到,AI 范畴研究人员缺少多样性这一题目,但还没有细粒度数据论证该题目的严重性。为了建树真正的多元文化事情场合,我们须要对高新科技行业的事情文化开展更深条理的评价。这须要数据的支持,而不仅是多雇佣女性和少数族裔那样简朴。

  制造 AI 体系的人自己持有的假定和观念必会影响到 AI 体系的走向。现阶段,人工智能的开发者多为男性白人,他们拥有相似的教诲布景。现阶段已有足够多的证据表白这会导致题目,好比语音助手对女性声音的辨识度不如男性,又或是 AI 助手正在为女性供应康健信息时所表现出的乏力。文化的多样性研讨正在泛科技范畴已有必定的进度,但正在 AI 范畴,现阶段结果寥寥。假如 AI 想要朝着宁静、平正、可以被广泛应用的标的目的开展,我们的举措就不能仅停留正在 AI 公司文化多样性的查询拜访中层面,更要深入转变、确保 AI 公司是迎接女性、少数族裔、和其他边沿群体的。

  倡议九:AI 行业应当延聘来源于计算机科学以外的学科的专家,并确保他们具有决议权。

  跟着 AI 正在不一样社会和机构行业的运用日趋增添,并能够危害越来越多的高风险决议计划,我们必需勤奋将社会科学家、司法学者和其他具有行业特长的人结合起来,配合指点人工智能的创建和整合,以构成恒久的实践标准。

让人工智能系统更负责任的落地,AI Now新报告给出10条建议

  举个例子,我们不应该希冀 AI 研究者可以成为刑事司法专家,就像我们不应该让状师为深度神经网络调参一样。这一例子可以被扩展到一切须要整合信息技术的行业。因而,正在诸如法令、安康、教诲等行业,我们须要行业专家到场进来,匡助带领决议计划,确保 AI 不容易幼稚地低估该行业中庞大的步骤、汗青、环境。

  认为十:AI 需求强力的品德羁系和问责机制来确保其行驶正在精确的路上。

  关于如何将高水平的品德标准和指导方针取一样平常的开辟进程、推行和产物公布周期联系起来,我们也有许多作业要做。

  为了确保 AI 的宁静取对等,一些 AI 机构正在开辟顺序的过程中优先斟酌品德相干题目。然而,如许的斟酌常常出于团队的志愿,并且只有相对高端的组织才会将民众好处放正在较高的优先级。并且,题目是,民众好处将如何决议?将由谁决议?除谁代表民众好处这一题目,AI 代码正在品德层面还需要毗邻明白的问责制度,并且还须时刻意想到,AI 行业正在鼓励形式和权益分派层面存正在不对称的状况。