“最近什么烧得最好? ”如果你问ChatGPT这个问题,你可能会谦虚地拍着胸说“我”。 但ChatGPT在爆发的同时,也带来了各界对AI技术更多的理性思考。
其间,不少互联网领域的峰会、论坛都以此为主题,透视“热闹”背后的“门道”。 由国家信息中心《信息安全研究》杂志社主办,光明网网络安全频道、中国计算机学会安全专业委员会、中关村可信计算产业联盟、中关村网络安全与信息化产业联盟协办的2022网络安全
“ChatGPT代表了AI领域神经网络机器学习的理论实践在解决现实问题上的高峰。 ”北京大学网络与信息安全实验室主任陈钟如是说。
时过境迁,回到1956年,AI概念在当年召开的达莫斯学院夏季学术研讨会上首次提出。 1957年,经济学家西蒙还预测,在国际象棋比赛中计算机将在10年内打败人类。 这个预言是在1997年的人机战争中,“深蓝”击败国象巨人卡斯帕罗夫后才实现的。 这也成为AI发展史上的一个重要标志。
从“深蓝”到alpha go,再到今天的ChatGPT,AI行业几十年来跌宕起伏,经历了许多重要节点。 清华大学人工智能研究院听觉智能研究中心主任郑方从语音处理技术的角度出发,在——1990年代,经历了从模板匹配/动态时间弯曲到HMM/GMM (行业两大机型)的跨越,大大提高了语音识别、声纹识别的准确率; 2010年左右,DNN (深度神经网络算法)首次在特定领域中,语音识别、闭集声纹识别的错误率与人相当。 未来的第三代AI技术将是可解释的听觉理论和模型。
有消息称ChatGPT如此智能,进军主持、主播行业,多家新锐媒体都在开发AI原稿模板。 此次圆桌论坛的主持人、网络媒体从业人员、光明网要闻采访部副主任李政葳揶揄说:“我‘担心’失业。”
对此,郑方表示:“在新技术反复发展的背后,安全仍然很重要。 新的AI技术出现后,也会带来新的安全问题。 不仅是主持人和记者,在现场也不用太考虑失去工作。 ”。
以金融业为例,中国人民银行金融信息中心信息安全部主任袁慧萍也表示,以ChatGPT为代表的AI技术还存在一定瓶颈,对于金融业核心业务来说,暂时无法替代人力。
“针对网络安全问题,ChatGPT降低了网络安全事件发生的门槛,让‘小白色’更快变成‘小黑色’。 对于个人信息的保护,ChatGPT增加了工作的难度。 例如,谁来控制ChatGPT训练信息的输入,谁来控制算法等。 ”袁慧萍认为,对于重要的信息系统,在未来采用新技术之前,必须提前制定安全计划。 现有的网络安全保障体系、标准政策、安全计划等,应当及时对新兴技术进行调整。
在数字经济的大趋势下,数据已经成为商品。 在数据安全方面,华为技术有限公司计算首席安全专家张瑞表示,AI的训练数据集存在隐私数据的安全隐患。 在数据流通过程中,需要像保护资产一样保护数据。 因此,要求更多的数据安全,这与确保数据资产流通相矛盾。
“我们需要在充分保护用户隐私的前提下实现数据流通。 将来,在同态密码、多计算机等领域,有必要找到兼顾机密性和性能的加密方式。 对于机密计算来说,在CPU计算能力受限的情况下,如何确保AI训练过程的保护是未来有意义的研究方向。 ”张瑞说。
“搜索引擎和ChatGPT是组合,不是替代! ChatGPT带来了新的问题。 就是“认真胡说”。 ”陈钟还引用了中科院院士张——“第三代人工智能技术是负责任的AI”。
也就是说,在与AI交互时,AI必须能够消除安全隐私、种族歧视、视角偏见等因素。 虽然算法是中性的,但为了防止技术背后的人做“坏事”,必须用综合的社会统治方式约束WTO空间中未来的行为。 “ChatGPT这样的AI技术在学习模式中,如果没有把安全和功能放在同等重要的位置,就会走很多弯路。 ”陈钟说。
语音识别处理技术给人们带来了许多便利,也带来了深刻的伪造安全问题。 郑说,如果说ChatGPT是现在AI的天花板,那么应该关注文本领域的伪造。 例如,如果ChatGPT被用于伪造知名人士的文章,如何防止和鉴别,是一个非常现实的课题。
在他看来,基于声纹的身份认证应该满足三个条件——“准确”“防伪即安全”“表达人的真实意图”。 特别是个人信息保护法实施后,对个人真实意图的正确理解和尊重,是对AI技术的新要求。 (文/陵锋)。
来源:光明网