【“三大体系”建设】AI技术的滥用和误用带来的风险隐患及防范

您所在的位置:网站首页 中国制造业外移可能带来的危害 【“三大体系”建设】AI技术的滥用和误用带来的风险隐患及防范

【“三大体系”建设】AI技术的滥用和误用带来的风险隐患及防范

2024-06-16 20:20| 来源: 网络整理| 查看: 265

  AI作为一种前沿技术,通过模仿人类智能和学习能力,赋予计算机系统感知、理解、推理和决策等能力,能为人们提供更高效、智能化的解决方案。AI技术在短时期内吸引了广泛关注,刺激了AI类技术的滥用和误用,并引发了多领域的反思。如AI技术的黑箱模型和不可解释性给决策过程带来了不确定性;大规模的数据收集和使用给个人隐私和数据安全造成的破坏,并给人类带来新的道德伦理挑战。其中一个极其重要的共识是AI技术的滥用和误用使得国家安全不再是国家的安全,而是所有人、所有领域的安全。因此,每个人都应肩负起维护国家安全的主体责任。

  AI技术的滥用和误用带来的风险隐患表现

  在根本上,AI技术的滥用和误用引发的是人性与物性之争。AI技术的目标是模仿人类的认知能力和决策过程,但并非具备人类的意识和情感。因此,要正确认识AI的工具属性,更要审慎地对待AI技术在国计民生关键领域的应用。

  受制于人工神经网络的技术原理,AI内部运行情况类似于一个“黑箱模型”。人们只能观测到模型对外界信息作出的反应,其内部的实际运行过程则受到样本训练集、迭代次数、模型参数等多因素的影响,无法实现精准的控制,并且,还会随着样本量的增大而变得难以准确分析。这使得滥用和误用AI技术的个体主要通过制造虚假新闻、虚假“人设”,构建虚假的“强关系”来获取资本利益,并夹带意识形态渗透,进而危害国家安全。类似网络“强关系”的实质是网络资本对人际关系的强势投资,它硬生生地将个体与他人建立联系,使社会交往货币化,并将消费者捆绑起来。AI技术的滥用更容易模拟、取代以往建立“强关系”的纽带如“网红”、公众人物,而通过塑造AI虚拟形象、发表虚假言论来构建“强关系”,制造波及领域更广、涉及人数更多的风险,并使这类风险隐患具备隐匿性、复杂性、强吸附性等特征。

  一是数字技术风险和社会风险叠加。近年来,为实现网络安全的数字化转型,以支撑未来的经济和社会转型,欧盟陆续出台了包括《塑造欧洲数字未来》《人工智能白皮书》《欧盟外交和安全政策的全球战略》等文件,2020年,欧盟还制定了《欧盟数字十年的网络安全战略》。2022年10月,美国白宫发布了新版《国家安全战略》。美西方国家主导的类似战略、政策,具体体现为以下三种手段。第一,制造数字技术鸿沟,美西方国家借先进网络信息技术援助的名义,介入别国的内政、外交,传播西方价值观,使信息技术共享和主权保护受到极大冲击。第二,数字意识形态渗透,个别国家借助先进技术手段,人为改造数据,片面抓取数据,进行形式逻辑演绎,制造理论骗局。第三,数字经济入侵,AI技术掌握方为了有效训练和优化AI模型,大量的数据被收集、存储和使用。这些数据可能涉及个人身份、行为习惯、偏好和其他敏感信息。如这些数据未经妥善保护,极有可能导致个人隐私的泄露和滥用,进而加深AI技术对人们的控制与操纵。

  二是风险发生空间的三元交互。随着数据被广泛应用,数据已不是单一的信息集成,而是在不断地被资源化、资本化,不断渗透到物理、社会、信息三元空间,导致其诱发的风险相互叠加、日益复杂。全球化、数字化给国家安全治理体系带来诸多障碍。宏观层面的数字化社会治理一方面增强了社会治理多元参与主体的话语权与共享性,体现出更加扁平化的社会权力配置重塑趋势;另一方面,新空间与新秩序的产生也冲击了原有社会的组织形态与主体角色。在信息与AI技术的交互影响下,数据安全风险发生的空间变得复杂多样,多种不安全因素相互影响、叠加,不断冲击新空间、新秩序,使得整个网络安全系统失衡,治理失效。

  三是风险造成危害的系统性增强。AI技术的蓬勃发展带来了算法推荐技术的不断进步,部分平台利用该技术向用户大量传播与用户观点一致的各类内容,导致用户沉迷其中难以自拔的同时,陷入算法精心织就的“信息茧房”。并且,因为内在因素的变化,AI模型的输出和准确性也会发生变化,AI工具的性能和结果往往难以精确控制。这导致在国家公共安全和经济安全领域,错误的决策或不准确的预测可能带来严重的后果。因此,我们必须要认识到AI工具的局限性,不能过分依赖它们的结果,而应将其作为辅助工具,及时规避AI技术给人类社会的隐私、伦理道德、公共治理等方面带来一系列问题和挑战。

  规范使用AI技术防范衍生风险

  AI技术开启了人机协同的新时代,面对新情况新问题,要学习贯彻好习近平新时代中国特色社会主义思想世界观和方法论,坚定科学技术是第一生产力的认识,充分激发治理主体的主观能动性,引导AI技术为高质量发展、实现中国式现代化服务。

  一是构建多资源、多要素、多主体的数智防控机制。AI技术极容易导致不同国家、不同人群的数字技术鸿沟,制造“认知盲区”,掀起网络认知战,造成危害波及的广度和深度都能在短时间内达到极限。因此,大规模、多资源、多要素、多主体应成为AI技术诱发突发事件应急处置的重要理念。建立在大数据、人工智能、数字技术基础之上的数智化治理方法、技术、平台应运而生。数智化的过程是“数字化+智能化+能动的人”的融合运转的过程,能最大限度驱动、整合、运用多资源、多要素、多主体防控AI技术诱发的风险。建立在数智基础上的防控机制应包括风险信息源的确定和检索收集在内的觉察层;对风险信息的识别、检测、感知的理解层;对风险信息的实时评估与研判预测,及应急处置决策的调整更新的预测层。

  对此,多部门要联合出台数智使用工作条例。首先,明确程序设计人员和开发者应当注重数据的合理使用和存储方式,采取适当的数据保护措施,如数据加密、权限管理和访问控制,以确保个人数据的安全性和隐私保护。其次,通过明确规定个人数据的收集、存储和使用限制,加强对违规行为的监督和惩处。最后,建立数智群防群控群治机制,各级宣传、网管部门要尽快建立数智协同应急处置平台,对AI技术生成信息内容进行语义关联分析,进行信息可视化、情景化加工,通过风险识别、知识推理、态势分析,提取安全处置信息,净化网络生态,推进主流网络信息内容生成。

  二是完善立法和伦理审查规范AI技术使用边界。第一,尽快制定针对AI技术的法律框架和规范,明确数据收集、使用和共享的限制和条件,确保个人数据的合法使用,保护隐私权和信息安全。第二,加强对AI技术的监管和审查机制,对违规行为进行严厉打击和惩罚。建立独立的监管机构,并制定相应的政策体系,负责对AI技术的应用进行审查和监督,确保其符合公共利益和道德要求。第三,建立完善伦理审查机制。制定明确的伦理准则和框架,规范AI技术的研究、开发和应用过程。对涉及个人权益、社会公共利益和伦理原则的AI技术应用进行审查和评估。审查和评估的主体应包括专家、学者、公众和利益相关者,确保决策的公正性和合理性。最终,通过加强法规和监管、强调伦理审查以及公众意识的提升,建立有序、负责任和可信赖的AI技术环境。

  三是构建普通安全体系,推进安全意识教育大众化。要有效应对AI技术滥用、误用带来的风险隐患,必须要有相关学科支撑,坚守为国家安全利益服务的立场,推进风险防控科学化、大众化。2021年,“国家安全学”一级学科博士学位授权点设立以来,我国相关研究机构、学科发展如火如荼。但安全具有多元性、复杂性、时空性和一定的主观性等属性,导致人们对安全的理解和认识很难达成共识。要打通安全从实践到学科再到认识的“中梗阻”,急需面向大安全,打破学科壁垒,构建普通安全体系,推进安全意识教育大众化,统筹个体安全和国家安全。因此,要面向实践主战场,构建“安全+”和“+安全”大安全格局,督促大中小学尽快落实《大中小学国家安全教育指导纲要》要求,建好师资,编好教材,开好课程,引导治理主体树立系统思维、数据思维、平台思维,将技术、信息、组织、人等要素统筹起来,构建数智赋能、主体增能、大众数智素养提升,全社会成员对安全态势感知增强,全域应急响应流程完善,各类风险防控精准的治理路径。

  四是引导AI技术“脱虚向实”,赋能经济社会发展。习近平总书记强调:“现代化产业体系是现代化国家的物质技术基础,必须把发展经济的着力点放在实体经济上”。应对全球产业链重构、战略性资源产品国际供给波动巨大、经济全球化遭遇逆流等多重因素叠加给我国产业链供应链造成的安全威胁,要祛除数字经济等同于虚拟经济的错误认知,抢抓AI技术研发使用的先胜权、制胜权、全胜权,要面向经济建设主战场,引导AI技术“脱虚向实”,避免滥用导致的无用,消耗国家的能源资源;引导AI技术赋能高精尖产业,推动传统产业转型升级和先进制造业高质量发展,如在医疗诊断、交通管理、智能家居、金融风控等领域,AI技术已成为新的经济增长极,进一步在赋能产业链和衍生产业链上着力,推动实体经济高质量发展;面向国家安全体系和能力现代化建设,建立自然和社会风险点监测库,开展防灾减灾AI演练,通过多资源、多要素、多主体的数智系统运行,自动生成风险防控方案。

  【本文系教育部人文社会科学研究项目“基于马克思主义空间哲学的网络意识形态安全治理研究”(项目批准号:21YJC710049)的研究成果】

  (罗方禄,教育部普通高校国防教育理论与实践研究基地(中南大学)研究员,中南大学马克思主义学院副教授;曹超、贺林豪,湖南省教育舆情与风险防控研究基地)

 



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3