大数据、人工智能、云计算、区块链等智能传播技术正在深刻改变人类社会的生产生活方式。科技进步在给我们带来了极大的便利的同时,我们也要对相伴而生的伦理风险和挑战保持警惕,坚持把科技伦理治理工作放在智能传播工作全局的重要位置。科技伦理原则是发展智能传播技术需要遵循的总体性、根本性的伦理要求,因此多方参与、协同共治,引导智能向善,对科技伦理的科学化规范化管理势在必行。
一、 智能技术高效提升传播质量与效率
1.智能化推送满足用户需求,提供个性化定制内容
智能时代,平台通过分析用户的历史行为、兴趣和偏好,以及实时反馈,来个性化地提供信息和内容。平台精细化研究用户画像,依赖算法的精准投送,不仅满足了用户需求,还提高了用户粘性和满意度,其次也提高了相关内容和产品的曝光率和点击率。这给平台和用户双方都带来了便利。
2.大众传播向窄播发展,精准的渠道定位辅助传媒产业升级
报纸、电视、广播等传统大众传播方式是面向广泛受众的。而智能时代,大众传播依托数字科技开始向窄播发展,自媒体和传媒公司可以更精确地定位和吸引特定受众。数字技术为社交媒体、播客等新媒体渠道注入新活力,渠道变革的关键是精准的定位,传媒产业通过针对性的内容战略,提供与受众需求更加吻合的内容,同时也制定渠道策略,不仅有利于内容的定向分发,也有助于多方合作,内容商、自媒体、传媒公司、广告商、电信运营商等都能共赢,提高了渠道传播的效果,辅助了传媒产业的升级。
3.生成式人工智能为互联网生态带来新机遇,提升内容生产效率和质量
生成式人工智能技术已经在互联网生态系统中引发了颠覆性的变化。首先,生成式人工智能能够大大降低内容生产的人力成本,生成式人工智能可以根据指令执行文本写作,行文逻辑优化,提炼要点等任务,极大提高了新闻生产效率。其次,生成式人工智能还可以自动执行拼写检查、语法纠正和事实核查,从而减少虚假信息的传播。此外,生成式人工智能也通过实时翻译,文件解读等功能促进了国际传播与交流。总的来说,生成式人工智能实现了降本增效,为互联网生态带来了新机遇。
二、智能传播需要警惕的问题
1.算法歧视固化信息茧房
大数据算法根据用户的浏览记录、标签信息等数据内容对其进行分类并不断精准投放其感兴趣的内容,这种“投其所好”的方式是一种算法歧视,通过操纵用户的接触的信息,形成并不断固化信息茧房,侵害用户信息选择的权利。“信息茧房”固化用户价值观和加大信息不对等的同时,也加大了社群鸿沟,使网络上公共事件的讨论愈发极端,非黑即白的“二极管”思维越来越普遍。若不对“算法歧视”加以管理,将导致社会进一步割裂。
2.智能传播带来隐私风险
智能技术背后的隐私问题值得我们重视。首先各大平台算法涉及用户个人信息,若隐私安全不加以保障,隐私信息落入不法分子受伤将对用户利益造成损害。其次,愈发成熟的深度伪造技术可以真实还原人类外貌、声音等特征,若被蓄意用于虚假广告、色情等违法行为,以假乱真,将对他人肖像权、名誉权和隐私安全等造成损害,甚至造成社会混乱。此外,人工智能内容生产正在越来越多地被用于公开出版与传播,由此产生的著作权侵犯与争议也愈发增多。
3.大数据裹挟消费对用户权利造成威胁
在大数据时代,每个人的行为都成为数据,这数据被平台用于操纵消费者行为。在平台看来,消费者的每一次行动都增加了其“数据体”的丰富性。大数据时代的精准推荐可能限制消费者的选择,引导他们的消费行为,并削弱他们的主体性。首先,大数据推送商品限制了消费者的选择范围,而海量信息导致消费决策更加复杂,使得消费者容易失去决策的主动性。其次,大数据通过追踪和分析消费者的需求,诱导消费者过度消费,导致透支和债务问题。此外,大数据精准分析用户财力特征,针对性调节商品定价,大数据杀熟频频发生。消费者在这个由算法推荐的世界中逐渐变得麻木和失控。这使得消费者很难做出真正符合其需求和价值观的决策。这一问题需要引起重视,加大力度维护用户权利。
4.网络舆论的极化表达与负面舆论的数据驱动,带来舆论场的乱象丛生
数据驱动和人工智能内容生产可能被用于操纵网络舆论,危害国家社会安全。算法驱动下,各种力量在舆论场的角力,可以通过制造信息鸿沟,调动负面因素和极化偏见来汇聚意见,带来极大危害。而作为新型“网络水军”的社交机器人也已经开始影响媒体与公众议程,不仅可以对已有信息进行点赞、转发,还可自动生产、发布内容与评论,制造与引导网络舆论风向。这些新技术,在近年来的热点事件甚至国际争斗中,带来的风险正在不断增强,并使网络舆论治理的复杂性与困难度大大增加,我们需要警惕“被算计的舆论”。
三、智能向善,对科技伦理的科学化规范化管理势在必行
1. 成立科技伦理审查委员会
科技伦理审查是防范智能传播风险的重要机制,是有力保障智能传播发展的基础性制度,成立伦理审查委员会势在必行。面对人工智能算法等智能技术涉及的伦理风险,科技伦理审查委员会在用户满足知情权和获取便利的同时,应该凝聚共识,承担起智能向善的职责。审查工作应该包括到不限于用户的隐私权保护,保障数据合法性,避免大数据侵权行为的发生,审查模型数据中的价值观和偏见等等,谨防数据滥用和不法分子利用智能技术挑起的危机。
2. 在引导和善用智能技术方面,智能向善理念需要凝聚共识
智能技术的伦理规制是一项系统工程,需要多方合力共治。平台是技术的提供者,同时也是引导智能向善的第一责任主体。媒介信息不仅具有产品属性,更具有服务于公众的社会公共价值。这就要求平台媒体在市场化的经营逻辑之外更需要切实肩负起公共性的社会责任。在行业自律之外,政府部门需从外部加强对平台媒体和算法的监管与问责,加强对生产和传播路径的把控,及时解决权利与义务、自由与责任、经济效益与社会效益之间的各种矛盾,形成以网信部门为主体,会同电信、公安、市场监管等有关部门的常态化监管机制。多方协同,凝聚共识,引导智能向善义不容辞。
3. 用户治理不容忽视
用户作为智能传播的重要一环,也应承担起相应的责任。规范网络用户在人工智能使用方面的行为,加强他们的智能媒介素养,以及优化用户维权机制,有利于维护新媒介生态下的算法正义。当前,网络用户在使用人工智能技术时,普遍存在着缺乏明确通用规范的问题。一旦侵权行为发生,很多用户并不了解如何维护自己的权益,也没有适当的机制能够让一般用户参与到人工智能内容的管理中。因此,当前和未来网络空间治理的重要任务之一是培养和提升公众的媒介素养。我们需要在传统媒介素养和网络新媒体素养的基础上,构建适应于智能传播环境的媒介素养标准和实施方法。此外,网络空间治理的用户层面不仅包括对用户的人工智能使用行为的规范,还包括使用人工智能技术来提升用户的媒介素养和网络行为。例如,可以利用人工智能技术在用户编辑或发布内容之前提供提示,以识别可能涉及的伦理法规、虚假信息、不适当内容、负面影响和情感激烈等问题。
“被算计的舆论”和“被计算的传播”是智能传播绕不开的议题。技术本身没有善恶之分,但也不可能自动“向善”,因此推动智能传播的同时,也要加强潜在风险研判和防范,强化对大数据算法、生成式人工智能等新技术的约束和管理,成立科技审查伦理委员会,多方协同共治智能风险,促进智能传播更加健康稳定、可控有序的发展。
作者:暨南大学党委书记林如鹏
本期编辑:申金鑫