生成式人工智能浪潮下的用户媒介素养提升
2025-07-01 05:54:00  人民论坛网   [查看原文]

【摘要】生成式人工智能是建立在人机交互的基础上,其在实践上的准确度、易用性等优势离不开与人类顺畅高效的交互。因此,用户作为内容生成的参与者需要具备一定的媒介素养,包括责任意识、专业知识、批判精神和表达能力等。积极主动提升用户的媒介素养,不仅有助于生产出高品质的内容产品,而且可以防范出现“智能鸿沟”现象。

【关键词】生成式人工智能 用户 媒介素养

【中图分类号】G206 【文献标识码】A

当前,内容生产模式在经历了专业生成内容、用户生成内容和专业用户共同生成内容之后,开始进入人工智能生成内容的阶段,即通过生成式人工智能(AIGC)辅助或自动生成内容。生成式人工智能是基于人工智能技术,通过大模型训练和大数据学习,可以按照用户的指令,生产出具有一定意义的内容产品。生成式人工智能不仅构建了内容生产的新范式,而且使社会信息结构发生较大变化,也将对我们的生产生活方式产生深远影响。

生成式人工智能促使更多用户参与内容生产

为消弭“能力沟”提供技术可供性。在大众传播时代,用户在经济资源、文化水平和认知理念等方面存在差异,使得资讯可供性出现不平等不均衡,导致受众之间出现“知识沟”“信息沟”等现象。互联网的普及,在信息、知识等的可供性上赋予了普通用户更多的机会,事实上,一些人就抓住机遇,实现创业拓展,而一些人则沉湎于网剧、游戏等娱乐性消遣,引发“能力沟”问题。虽然社交媒体的快速发展在观点的表达、信息的生产上赋予人们更大权力,但能否快速、大量地生产出优质内容产品,成为区分普通用户与专业传媒机构的重要标准。如果不能提升内容产品的质量,就很难改变普通用户依然是内容接收端的现实,用户生成内容也只能是用户社交行为的衍生物。生成式人工智能的面世,有助于普通用户通过AI技术弥补自身在内容生产中的不足,包括对专业知识、语言、编程等的掌握和应用。生成式人工智能赋予普通用户与专业的内容生产者几乎相同的技术可供性,能够大幅度提升普通用户在使用社会资源、生成各类文本及解决实际问题等方面的能力。

推进内容生产的“平民化”。多数人在日常工作和生活中,都是消费他人内容产品的旁观者,尤其是在大型网络社区和社交网络中,通常是少数人生产大多数内容,更多的潜水用户只是观看,并不贡献任何内容,这一现象有时被叫作参与不均。①内容生产是一项复杂的系统工程,需要具备一定的条件。仅就生产者而言,自身的家庭背景、经济水平、受教育程度,以及一定的技术素养等,都关涉到内容的创作与生产。对处于分散状态、纷繁复杂的信息资源,无论是采集整合素材、生成文本还是生成视频,生成式人工智能都有助于减少内容生产所要耗费的时间、物力和人力,并为普通用户搭建智能化的信息场景,赋予用户更多便利。生成式人工智能,为人们发挥想象力进行各种创作大开方便之门,使得内容生产成为体现个人能力、兴趣和品位,乃至自身价值的一种途径和方式。可以说,生成式人工智能,不仅为人们提供展示一技之长的机会,更是一种技术赋权。生成式人工智能在改变传统内容生产主体结构的基础上,推动内容生产与创作的社会化和平民化。人们以自己的方式“创造”日常生活,也“创造”对规训进行抵制的战略与战术,人们通过重新组织、解释编码的方式对文化产品进行二次生产。②

“按需生产”的实现促进用户角色转变。用户在使用生成式人工智能时,需要输入反映个性化需求的“提示词”。AI工具根据用户的指令进行内容的量身定制,不仅降低内容生产的成本,而且使用户更易于找到感兴趣的内容,按需生产得以实现,技术进步成为个性化需求的重要驱动力。生成式人工智能赋予普通用户自由表达、自由创作以及通过内容获利的机会,激发人们的内容生产积极性,促进了惯常的内容消费者向内容生产者的转变,推动着他们从单一的“消费者”转向复合的“产消者”,这些“产消者”越来越能够按照自己的利益、意愿、观念、能力和方式等,开发自己所能够掌控的各类信息资源。在智能化生产体系和算法推荐技术的双重助力下,普通用户在内容产业领域不仅提高了内容生产的效率,实现了多模态的呈现,而且一定程度上改变了原有的内容生产链,并对内容的流量和流向产生深远影响。

普通用户使用生成式人工智能面临的常见问题

把关不到位,影响对信息真实性判别。机器学习技术无法有效区分真实信息和虚构信息,即便在图像识别、自然语言处理等加持下所生产出来的图文、音视频等产品,也难免夹杂着非真实信息的风险,尤其是在音视频数据采集效率得到大幅提高的情况下,虚拟视听技术被应用于多种场景,更易于混淆影像创作与真实内容的边界。“天马行空”“语出惊人”成为生成式人工智能在内容创作时的显著特点,尤其是生成一些看似专业但实际上并不存在的概念或事实,普通用户仅凭个人能力很难辨识这些内容产品中所含信息的真伪。作为典型的、主观故意的“深度伪造”,更会引发内容失真、混淆视听、强化偏见等现象,不仅进一步打破人们惯常的“眼见为实”的观念,而且增加为辨识信息真伪所耗费的心智成本。

信息保护意识缺乏,易引发侵权和泄密问题。用户在与AI进行交互时,如果所使用的内容(已有明确著作权人的作品)未经授权或允许,则可能侵犯著作权。个人数据可以直接体现个人在作出选择时的偏好,有着较高的市场价值。在生成内容中,随意使用个人生物识别信息(如人脸照片、身份、健康等相关信息),就会存在侵犯公民个人隐私的风险。当用户在使用个人形象生成AI图片或AI视频时,如使用Midjourney(由Midjourney研究实验室开发的人工智能程序,可根据文本生成图像),就需要将自己的个人摄像或摄影作品上传至网站,然而生成过程中无法保证个人照片的隐私性。此外,用户在与AI对话时,为了提高生成内容的效率,编写“提示词”时不可避免的需要真实地表达自己的观点和立场,甚至有时需要让渡一定的平时不宜公开的个人信息,但人工智能则会将这些信息传输到服务器上,使得用户所输入的信息进入学习语料素材库中,这就可能在反复交流对话中实现多次的传输。当AI向他人输出生成的内容时,前期用户的信息则可能会输出给其他用户,从数据层面造成个人信息甚至是秘密的泄露。

“提示词”不精准,影响人机交互效果。在AI大模型中,“提示词”是为机器生成回复指明方向、角度和范围的词汇或短语。普通用户在编写“提示词”时,容易因为对“提示词”的用法不了解,致使“需求”“问题”的含义不能有效表达,影响到AI工具对用户的响应质量,导致人机对话不顺畅。

从语言层面看,最常见的是用户给出的“提示词”过于笼统模糊或者多义,导致AI曲解或误判,生成不符合用户期望的空话、套话,内容的同质化严重;个别用户输入的“提示词”中包含明显的立场和倾向,这就导致生成的回复总是支持特定的观点,缺乏呈现不同观点或中立的态度,强化刻板印象或偏见,使得用户和AI工具开发者可能会面临法律风险。有时候,用户没有提供足够的、技术性的上下文,得到的回复则过于抽象、简略,缺乏专业性见解,降低了启发性、指导性。总之,如果用户没有很好地掌握提问的“技巧”,将会花费较多的时间和精力,增加了工作量,容易挫伤用户使用AI工具的积极性。

过度依赖机器,易产生“创作惰性”。当下,AI大模型模仿人类生成自然语言是基于已有的大数据,它并不能理解所生产的知识的价值与意义。而以人为主体的意义创造,是基于对人自身及其社会环境的思考,以及对人的需要的回应。因此,人的意义创造,始终是机器无法达到的。③

生成式人工智能在内容生成上所表现出的“强大”,可能会使人们认为AI有“无限”的可能,过度依赖技术手段,这势必会影响用户主观能动性的发挥,滋生“创作惰性”。众所周知,要创作生产出思想性、艺术性、观赏性有机统一的内容产品,依靠的往往不是“灵机一动”,而是长时间的积淀、绞尽脑汁的深入思索、持续创新和反复修正。过度依赖AI技术,就会降低内容生产者主动思考、积极探索的兴趣与动机,导致所生成的内容趋于雷同和平庸。另外,尽管人们对内容产品赋予极高的期待,但仍然对AI大模型能否生产出具有类似人类创新思维的创新型作品存在质疑,而“创作惰性”的出现则会强化人们的这种质疑。

生成式人工智能环境下的用户媒介素养提升策略

增强把关能力,保证内容真实准确。生成式人工智能的用户在使用AI工具生成内容时,需要具备一定的把关意识和把关能力,只有对生成式人工智能的工作原理和可能的失误有所了解,才能更好地评估其输出内容的质量,更安全可靠地使用该技术。首先,可以采用多角度、多来源对比、交叉验证的方法,将AI生成的内容与多个可靠的外部来源,如来自政府部门、教研机构或知名组织等的信息进行比较,也可以通过查阅权威网站、学术文章和官方出版物进行比对。其次,可以分析生成的内容,逻辑是否正确、前后是否矛盾,以及是否合情理、笼统含糊等。真实的信息往往需要背景、细节和数据的支持,以及合理的解释,注意生成内容中的细微差异和细节,这些可能是判断内容真实性的重要线索。最后,可以借助外部资源,如通过一些事实核查网站、验证平台来验证AI生成的内容,对于专业性较强的信息,可以访问学术数据库,查找相关学术论文,也可以直接向相关领域的专家咨询,以获取专业建议和科学依据。用户还可以要求AI提供回复内容的来源或参考资料,以便核查。

培养用户的批判意识和质疑精神。负责任的态度、质疑精神和批判意识,是合理使用生成式人工智能的前提。当感知到AI生成的内容存在问题时,需要遵循真实、客观原则,对其主动核查、审慎处理、积极反馈,不盲信盲从,帮助AI在迭代更新中不断修正和完善。

新技术赋予公众更多的参与内容生产和传播的权力,用户需要善于质疑和评估AI工具所提供的信息,这样才能实现对内容产业发展趋势的把握。首先,用户在面对AI生成的内容时,需要以严谨求真的态度,独立思考,坚持理性、无偏见的分析,要敢于质疑作者或发布者的动机,进而评估内容的可信度,客观判断内容是否存在偏向性或误导性,不轻信未经验证的信息。其次,当发现AI的答复中存在含糊不清的事实或有疑问的观点时,可以继续提出探索性问题,追加指令,如“为什么”“你怎么知道的”“逐句分析疑点并标注需要核实的地方”“有什么证据支持这一点”等。用户也需要善于归纳总结AI工具会在何种情况下提供错误答案,错误答案是否具有某种共同特点,这也能极大节省用户的精力和时间成本。④最后,用户需要清楚AI工具的能力和局限性,包括AI不能做到的事情、AI大模型中的偏见是如何从训练数据中产生的,以及如何识别等,这有助于用户设定自己的使用目标,不提出超越现实的期望。

强化信息安全意识。在使用AI工具生成内容的过程中,用户需要具备对他人及自身隐私和信息的安全保护意识。首先,用户需要积极主动地学习AI工具所提供的安全使用说明,清楚了解如何操作才能识别潜在风险,以及如何避免分享个人敏感信息、不应询问的问题类型,充分掌握有关信息安全和隐私保护方面的知识。其次,用户需要遵守相关的数据保护法规,掌握如何移除或隐藏个人标识,注意所生成的内容中是否有侵害他人隐私的可能。再次,用户在选择AI工具时,需要选择那些允许用户查看和删除自身数据的工具,可以检测出、过滤掉敏感信息,防止个人信息或重要数据被记录或处理。最后,除了要求AI开发者及服务提供者制定必要的数据安全应急预案外,在人机对话过程中,用户需要时刻关注隐私通知和提醒,注意账户的密码安全,保持警惕性,避免在不安全的环境下使用个人信息,准确厘清一般信息和敏感信息的边界,以免过度共享信息引发泄密。

掌握设计清晰明确“提示词”的能力。“提示词”是激发或引导人工智能深入思考的词语,该词语能够抓住或体现所指的核心内容或特质。因此,为了提高所生成内容的质量,用户需要培养能够准确描述自己需求的能力,或许在AI时代,提问能力将成为拉开个体之间差距的一个关键点。

为了正确使用提示词并提高内容生产的效率,首先,建议用户由“下达指令”的操作思路转变为“表达需求”,并尽可能地提供“任务”的背景,表明用户的知识状态、身份、使用目的,帮助AI准确明白用户的意图,有效挖掘生成式人工智能的潜能,提高生成内容的针对性。其次,使用清晰列出要点的结构化的“提示词”。结构化的“提示词”,有助于AI准确理解用户的需求,指导AI生成有组织和连贯的内容。再次,简化复杂问题,可以将复杂问题分解为多个单一的小问题来提问,分段生成,逐层深入,有助于AI提供更全面的答案。最后,用户可以在输入“提示词”之前设置参数,如字数、语气和格式等。预设参数有助于AI从一开始就与用户的需求保持一致。另外,“角色提示技术”也是可供选择的有效方法,即通过为大模型提供特定角色,引导AI输出的一种方法。这种技术对于生成针对特定环境或受众的文本颇为有效。⑤在追寻人类语言与机器语言对话一致性和目标达成的过程中,个体用户的认知壁垒将会不断被打破,认知边界得到拓展,内容生产者身份也将进一步从“资源搜索匠”向“提示工程师”转型。⑥

重视提高英文学习能力。调查显示,以英文作为互联网常用语言的网站占比最高。网络技术调查网站W3techs统计,超过一半(51.2%)的网站使用英语作为内容语言。⑦截至2024年6月4日,在维基百科上检索“互联网上使用的语言”发现,万维网上访问量最大的网站中,英文主页略超一半。⑧在学术界,很多论文系统收录的论文也是以英文为主,使得英文知识库覆盖众多领域,它们为大模型的训练提供常用的数据资源。当前研发的AI工具大多数是支持英文的GPT模型,借助于庞大、高质量英文数据的训练,使英文版AI工具在性能和应用范围等方面更胜一筹。有时为了获得理想的应答,用户不得不先把问题翻译为英文后,再输入提示框中。随着生成式人工智能的普及,英文信息的生成在质量、数量和类别等方面将会有更快速的增长,这也会反哺GPT模型在英文应答上的质量,形成良性循环。

正确认识生成式人工智能中的算法和数据。生成式人工智能的生产效率取决于AI大模型的底层算法和用于训练的海量数据。算法是其核心,决定其性能和应用效果,而数据则是基础资源。用户在使用AI工具时,需要理解其基本原理、算法、数据等概念,以及算法、数据引发的歧视、偏见等问题,对算法和数据的应用和优化要有一定的正确认知。生成式人工智能的每一次迭代更新,就是在不断地探索和优化算法、提升内容生成的精度。算法工程师的主观性、价值观以及机器算法的透明度问题,都会对算法的公平公正产生影响,因此,用户需要辩证地看待算法偏见、算法歧视等风险。此外,用户还需要清楚,人工智能生成内容首要的、决定性的起点是数据,背后逻辑是机器可以从数据和模式中学习,从而创建模仿人类行为和创造力的新内容。⑨在这一过程中,数据的采集方式、处理方法等可能受到各种因素的影响,需要承认数据本身并不是客观的,AI所使用的数据集是人类选择的结果,是从现实中抽象出来的。数据集不完整或质量差,就会导致偏见的出现。从万维网上获取文本数据,机器学习也会产生数据偏见,因为这些语言数据反映人类日常文化,其本身就含有偏见。⑩用户在使用AI生成内容前,需要确保所依据的数据是权威部门的最新数据,通过对比不同的数据来源,以便对生成的内容作出准确判断,此外,还需要关注所用的AI工具是否可以连入互联网,因为社会上的万事万物在不断发展,人们的思想观点也在不断变化,实现同步跟进,做实时的数据抓取和对比分析,关系到内容产品的质量,有助于避免生成误导性信息。

【注:本文系人大“双一流”建设马克思主义新闻观创新项目(项目编号:MXG202301)的阶段性成果】

【注释】

①[美]大卫·克罗托、[美]威廉·霍因斯著,黄典林、刘晨宇译:《媒介·社会:技术、产业、内容与用户》(第六版),北京:北京大学出版社,2024年,第368页。

②吴飞:《“空间实践”与诗意的抵抗——解读米歇尔·德塞图的日常生活实践理论》,《社会学研究》,2009年第2期,第190页。

③彭兰:《智能与涌现:智能传播时代的新媒介、新关系、新生存》,北京:电子工业出版社,2023年,第106页。

④厉晓婷、王传领:《人工智能时代用户媒介素养的养成:机遇、挑战及应对策略》,《中国编辑》,2023年第10期,第74—78页。

⑤漆亚林、李文冰主编:《智能媒体发展报告(2023)》,北京:中国社会科学出版社,2023年,第109页。

⑥喻国明、杨雅等:《生成式AI与新质生产力内容:从理论解读到实际应用》,北京:人民邮电出版社,2024年,第148页。

⑦Felix Richter,《The Most Spoken Languages: On the Internet and in Real Life》,https://www.statista.com/chart/26884/languages-on-the-internet/.

⑧WIKIPEDIA,《Languages used on the Internet》, https://en.wikipedia.org/wiki/Languages_used_on_the_Internet.

⑨陈昌凤、张梦:《由数据决定?AIGC的价值观和伦理问题》,《新闻与写作》,2023年第4期,第15—23页。

⑩[奥]马克·考科尔伯格著,周薇薇、陈海霞译:《人工智能伦理学》,上海:上海交通大学出版社,2023年,第92页。

责编/谢帅 美编/杨玲玲

声明:本文为人民论坛杂志社原创内容,任何单位或个人转载请回复本微信号获得授权,转载时务必标明来源及作者,否则追究法律责任。

本栏目中的所有页面均系自动生成,自动分类排列,采用联索网络信息采集、网页信息提取、语义计算等智能搜索技术。内容源于公开的媒体报道,包括但不限于新闻网站、电子报刊、行业门户、客户网站等。使用本栏目前必读