保护自由:劝服科技的伦理守则

字数 1380阅读 250

许多哲学家(和社会学家)担心技术逐渐取代甚至凌驾人性,变成人类的牢笼。一般科技尚且如此,更何况是刻意设计来影响人们日常生活的行为向导技术。虽然行为向导技术意在帮助人们过得更健康、更经济、更环保,但其背后的预设—— 人类常常缺乏做出正确行为的能力因此需要被控管——与当代民主社会的想像格格不入甚至针锋相对,因此很容易被认定需要谨慎以待、小心以对,相关设计规范也逐一被提出。

劝服科技(persuasive technology)是最早发展出伦理守则的行为向导技术领域。虽然名称创始者 B. J. Fogg 已经明白区分劝服与胁迫(coercion),但仍有学者提倡所谓「黄金准则」以为规范:设计者绝对不能透过劝服科技来劝服使⽤者去做设计者本身不会同意去做的事。虽然拗口,但逻辑是不是很熟悉?没错,它其实就是「己所不欲,勿施于人」的劝服科技版本。

此外,也有学者受到「劝服」一词启发,把人与人相处的沟通伦理应用到人与物的互动上。最简单的,比如说,人与人之间不应「欺骗」,那么送出虚假讯息的劝服科技也不应该。例如,电脑侦测到你久坐然后跳出「多坐一小时,智商少三十」的讯息,可能很有说服力但显然过份夸张,这样的设计就有违伦理。如果劝服科技被使用者发现不够真诚(truthful),那么使用者可能因此厌恶这个产品、甚至广为宣传,最终导致劝服科技以失败收场。

另一个常被提到的守则是:劝服科技的设定目标必须获得使用者同意。这条守则主要为了弥补黄金准则的不足。黄金准则预设了「设计者认同的价值,使用者也会认同」,然而实际上设计者和使用者可能采用十分不同价值标准或排序,在这样的情况下即使遵守黄金准则,也可能侵范使用者自由、造成反感。例如,支持完全禁烟的设计者可能制作一个不断大声提醒使用者戒烟的程式,但对于已有吸烟习惯或者认为吸烟纯属个人喜好的使用者来说,这个程式可能相当扰人、令人厌恶。

最好的情况是,劝服科技仅是使用者「自我劝服」的工具。也就是说,使用者对劝服科技的目标早有认同,只是利用劝服科技来克服自己的「意志力软弱」。延续上例,对于试图戒烟的烟瘾者来说,上述程式可资利用甚至值得购买。这样的使用者是主动选择并接受劝服科技的向导作用,因此没有太多需要哲学家(和社会学家)费心的伦理问题。

简言之,保护使用者的自由乃是劝服科技的伦理核心,而达到核心的方法,就是确保使用者同意劝服科技的设定目标(注)。只要选择和决定目标的权力仍然在使用者身上,那么劝服科技的权力效果与对自由的削减就不再令人焦虑。也因此,许多论者认为劝服科技必须像「教育」一样——理想的教育协助孩子透过独立思考做出决定,而非直接帮他设定人生目标。

据此,设计完善的劝服科技需要遵守最后一条守则:劝服科技的理想目标是结束劝服。如果孩子一直需要老师陪伴才能做出正确决定,那么这个老师可能教得并不好,同样的,如果劝服科技只是加深使用者对它的依赖,一旦劝服科技损坏或消失,使用者便故态复萌的话,那么这个劝服科技比较类似于操弄,而不是教育。这条「教育」与「操弄」的红线,也是助推(nudge)领域的核心问题(之后会谈)。

上述几条守则试图帮助设计者减低伦理疑虑,并设计出更广被接受的劝服科技产品。然而,姑且不论是设计符合全部守则的劝服科技是否可能,下期我将谈到,这些守则其实不无问题,甚至可能导致劝服科技「自废武功」,失去其作为行为向导科技的意义。

注释:
Spahn, A. (2012). And lead us (not) into persuasion…? Persuasive technology and the ethics of communication. Science and Engineering Ethics, 18(4), 633–650.

* 本文(不含图片)刊登于台湾《週刊编集》第11 期,2018.05.10

推荐阅读更多精彩内容