【AI的多重宇宙:性别X文化X社会】系列讲座
AI 的偏见与歧视 1/7 (六) 14:00
订阅CASE YouTube 锁定直播 开启
采访、撰文|李 密
审定|颜均萍
「论证的核心就是给理由。你为什麽赞成?为什麽反对?」一头亮丽蓝发的颜均萍,畅谈之间的眼神总是犀利,讲话语调虽轻柔,却句句掷地有声。起於高中一堂哲学讲座,讲师不经意的一句话,让颜均萍惊喜发现哲学在答辩之间激发的火花,自此踏上一条反覆辩证的旅程。
哲学系教会我的事:学会问「好问题」、给「好理由」
联考时代,就读普通高中的颜均萍,平时较没有机会接触到大学科系,因此并未对未来有太多想像。直到某日周会,一位讲授道德、政治哲学的教授前来演讲,内容提到许多颜均萍以往从未省思过、总认为是理所当然的生活琐事时,刹那间,激发她对哲学的好奇心,「感觉他讲出来的话都很有意思。」於是,她毅然决然进入台大哲学系一探究竟。
然而大学生活起初并不如想像中如意,充斥着一堆必修课的大一、大二,在载浮载沉的迷惘中显得略微无趣。直到修了系上一位从牛津回台的老师所开设的一组分析哲学课程,老师要求学生必须在每周上课前,阅读指定教材後自行撰写作业,课堂上老师再与同学们一起讨论作业中的问题。
不同於以往的全新教学方式让颜均萍备感压力,不过也因为这堂课促使学生在课前先行思考、提问,也让她发现哲学的核心就是学会问「好问题」、给「好理由」,而这往往比问题的答案更重要。
在课堂上一来一往的辩证过程中,颜均萍认为就是在培养现今公民最需要也最缺乏的思辨能力,「老师会逼你讲出一个理由,再问你的理由能说服他人吗?」她强调我们做任何决定都有根据,而哲学课堂中的思辨,就是在教导学生分辨「理由」是否有道理,同时也学习容纳更多的声音与想像力。
AI再制偏见?不过是反映社会真实面
当提到将AI演算法在预测警务上的应用时,颜均萍强调这是一个人类与AI的合作。在2008、2009年时,美国警局的预算紧缩,於是开始引进AI科技,希望能以更有效率的方式调动警力来预防犯罪,以最早一批参与这项变革的城市之一芝加哥为例,警方希望透过演算法预测辖区内最可能涉及暴力犯罪的市民名单,让警方可以针对这些目标采取行动,降低暴力犯罪发生的可能。
不过,这份名单被发现排名最前的有八成以上是黑人男性,而当地黑人男性的比例却只占全市的百分之十五。这样的发现随即引发种族主义的挞伐与指控。「我们必须了解数据的来龙去脉。这个名单预测的是潜在的加害者与潜在的受害者,而根据警方的统计,当地近达八成的枪击案受害者是黑人男性。」颜均萍强调,演算法列出的名单其来有自,我们更应该要问的是为什麽黑人男性涉及枪击案的比例如此之高?当地社会网络究竟出了什麽问题?
「AI就算很准,也不一定可以降低犯罪率。」颜均萍提到, AI预测的结果本身并不会降低犯罪率,还需要警方根据这结果采取有效的干预措施,警方干预的用意是希望透过改善高风险人群的社会网络与处境以减少他们再次涉案的机会。在拿到AI预测的名单後,辖区的警察会偕同社工亲访名单上的民众,除了告知他们现在被列在这份名单上外,也会尝试根据当事人的需求媒合政府与民间的各种社福资源。
警方的干预措施要发挥效用,除了要有一套完善的标准作业程序(SOP)规范各个环节之外,也需仰赖社区的配合,在警民关系紧张的社区,就会是比较大的挑战,这并非是单单运用AI演算法、列出可能涉案名单就可以解决的问题,事实上,当我们在评估演算法的效益时,也需要将这些这些统整警方内部执行程序各个环节的工作与成本计算进去。台湾未来如果也有兴趣将这样的技术应用在预测警务上,必须要通盘考量、做好评估。
✨同场加映:【人物专访】AI 伦理领域的哲学家——专访甘侦蓉博士