人工智能(AI)技术近年来发展迅猛,已迅速蔓延至各个领域,尤其是今年初,国产DeepSeek大模型的发布引发了广泛关注,最近不少领域的企业,包括政府部门都迎来了“数智员工”。
越来越多的人开始接触、认识、使用AI,但同时“AI焦虑”也在互联网上蔓延,不少网友担心AI发展之后,将“抢”走更多的岗位。AI赋能千行百业的时代到来,但也有人指责“AI经常一本正经地胡说八道”,如何应对AI幻觉,如何辨别真假,已成为公共话题。在今年全国两会上,多位人大代表和政协委员就AI延伸出的问题提出了自己的看法和建议。
AI的发展会抢走我们的“饭碗”吗?
全国政协委员、天娱数科CEO贺晗接受记者采访时表示,DeepSeek带动中国人工智能产业进入了“高铁时代”,有望在全球竞争中实现从“追赶”到“引领”的跨越。
针对网友“AI抢饭碗”的焦虑,他表示,AI不是替代工作岗位,而是重塑协作范式。AI精准执行基础任务,人类注入创新、情感,最抢手的不是“会用AI的人”,而是“能用AI创造不可替代性价值的人”。
“因此,AI不会简单地卷走工作岗位,而是在重塑整个就业生态。”贺晗说,客服、文案岗位减少的同时,AI训练师、AI伦理审核、AI设计师、AI产品经理等职业正在兴起,形成更复杂的生态系统。
全国政协委员、天娱数科CEO贺晗。受访者供图
哪些“AI+”产业比较有前景?贺晗认为是“AI+工业”。目前AI集中在内容创作、客服、编程等桌面应用,渗透率高,在工业领域应用凤毛麟角,本质原因在于工业场景是3D空间,而目前绝大部分大模型为语言、图形、视频等2D模型,在工业场景应用时存在空间计算鸿沟。他表示,由3D大模型驱动的3D智能将为工业带来颠覆式的变革。在理解真实世界方面具备更全面的感知、理解、交互与决策能力,重新定义人、机器与真实世界、虚拟世界之间的关系,能让虚拟世界更真实,能让真实世界更智能。
全国人大代表、长虹控股集团董事长柳江表示,新技术的发展是推动人类社会不断进步的重要标志。从历史的进程可以看出,从农业社会到信息化社会,人类的技术一直在不停发展,全球人口也在不断增长,但基本没有出现因“技术爆炸”“生产力解放”等原因造成大批失业的情况。恰恰相反,技术的进步还会带来新的就业岗位。“未来,可能简单的重复劳动会被机器替代,但对应的新岗位也会有增长,比如数据标注师、人工智能算法岗等。”
他介绍,实际上长虹也在积极推进“AI+”行动,加速AI技术应用落地。“AI质检员”——长虹自研的“5G+AI”视觉检测设备在华丰科技生产车间已经“上岗”,其检测精准率可达99.98%。“AI+制造”也随处可见,长虹智慧显示工厂单线可同时生产6个种类、1100台产品。此外,长虹还积极探索“AI+运营”,以工业互联网平台为牵引,体现数据运用、数据管理和数据安全。
全国人大代表、长虹控股集团董事长柳江。受访者供图
在今年全国两会上,柳江带来加快可信数据空间应用落地的建议。“当前,数据要素已融入企业生产、科技创新的过程,正在不断重塑着产业形态,数据要素产业发展潜力巨大。”柳江说,人工智能通用大模型取得的突破性进展引起广泛关注,智能化技术迭代演进的背后,正是数据的海量“投喂”。但同时产业链数据孤岛现象突出,数据价值评估体系缺失,使得数据难以实现高效整合与共享,极大地限制了数据价值的充分释放。他表示,“希望在更高层面,加快推动可信数据空间建设与应用落地,推动数字经济赋能实体经济。”
“AI幻觉”是一把双刃剑,不可消除,但可以矫正
随着国产DeepSeek大模型的发布,引发“全民AI”的现象,同时,也有网友关注到,生成式AI正以惊人的速度进化出“一本正经胡说八道”的能力。不少网友晒出了自己的亲身经历,AI面不改色造谣的问题频现,这种大语言模型编造它认为是真实存在的甚至看起来合理或可信的信息被称为“AI幻觉”。
此外,甚至还有人“喂假料”捏造虚假数据库。这种情况多出现在股市“黑嘴”们及幕后的不法之徒,用虚假语料误导大模型作出错误回答,再将这些“AI答案”传播扩散坑骗散户,以干扰甚至操纵个股市场交易的场景中。
今年两会期间,全国政协委员、360集团创始人周鸿祎聚焦关注大模型安全和幻觉。他认为,以DeepSeek为代表的大模型取得了“国运级科技成果”,不仅促进了大模型技术自主创新,也带动了上下游产业协同发展,让大模型加速走进百行千业,成为推动中国科技进步、经济增长和国家强盛的关键力量。但包括DeepSeek在内的大模型都存在“幻觉”,偶尔会生成看似不合理、与事实不符的情况。
他表示,“幻觉”是一把双刃剑,是大模型与生俱来的特点,不可消除,也决定其创造力和想象力,对于实现AGI(通用人工智能)极其重要。如果大模型没有“幻觉”,就失去了想象力和创造力。并且越是能力强的模型,一般“幻觉”也越多。
全国政协委员、360集团创始人周鸿祎。受访者供图
周鸿祎认为,在科研领域,大模型的“幻觉”能“想象”新药分子结构、蛋白质的结构等,为新研究指引方向。在医疗、法律、金融等对准确性要求高的领域,“‘幻觉’虽然可能出错,但可以利用技术手段,如RAG(检索增强生成)技术,通过比对专业知识库、网络实时信息等方式予以矫正。”
他建议,借鉴“避风港原则”成功经验,对大模型以及相关的产品和服务实施柔性监管,适度包容大模型的“幻觉”,对于“幻觉”导致的一般性失误,避免直接关停下架,给予企业自我纠正的机会,促进企业大胆创新、放手竞争,争取让更多企业“复制”DeepSeek的成功。
他同时呼吁各界共同努力,构建更加完善的大模型应用安全治理体系,在保障安全的前提下最大化地释放大模型技术的潜力。建议相关部门及时出台配套政策措施,鼓励兼具安全、AI双重能力的企业提供完整解决方案。
针对“AI乱象”构建多方治理体系刻不容缓
贺晗表示,针对当前包括“AI幻觉”在内的AI乱象问题,构建一个全面且行之有效的多方治理体系刻不容缓。首先,在法律层面,法律应迅速响应,针对AI应用中出现的犯规、越界,乃至涉及违法犯罪的行为,制定明确且细致的条款。明确界定AI技术在不同场景下的使用边界,对恶意利用AI进行诈骗、侵犯隐私等行为,从法律量刑、惩处细则等方面给予强有力的约束,让法律成为AI规范发展的坚实底线。
其次,在监管层面,对AI乱象进行科学合理的分类与分级,借助先进的技术手段,打造全方位的立体监管措施。利用大数据分析、智能监测系统,对AI的研发、应用全流程进行实时监控。针对高风险领域,如金融、医疗等,实施重点监管,对违规行为及时预警、干预,将风险遏制在萌芽状态。
在社会治理层面,积极开展社会教育工作,通过多种渠道给老百姓、青少年加强教育培训宣传,普及AI知识与风险防范要点,提升公众对AI的认知水平。
全国人大代表、中国工程院院士、安徽理工大学校长袁亮表示,人工智能技术迅猛发展,其广泛的应用场景已使其成为社会关注的热点。但与此同时,人工智能也带来了一系列影响和挑战,需要在法律法规、安全评估、伦理治理等方面加强规范。当前,应加快制定和完善AI相关的法律体系,明确AI研发、使用、监管等方面的法律责任和权力边界。加强AI技术的安全评估和管控。在AI系统的设计和使用过程中,应加强对数据安全和隐私保护的意识,提高技术手段。采用先进的数据加密技术,建立严格的数据访问和使用权限管理制度,防止数据泄露和滥用。
全国人大代表、中国工程院院士、安徽理工大学校长袁亮。受访者供图
同时,推动AI技术的伦理治理和规范。在AI技术的推广和应用过程中,应加强对相关人员的伦理教育和规范培训。这包括对AI系统开发者、使用者、管理者等相关人员进行伦理教育,增强他们的伦理意识和责任感。
新京报记者 陈琳
编辑 张磊 校对 刘军