财联社3月15日讯(编辑 牛占林)当地时间周四,欧盟启动了一项针对大型科技公司使用生成式人工智能(AI)的调查,加大了对这项技术的审查力度,官员们担心这项技术可能会扰乱选举,以及对公共安全、隐私构成危险。
据悉,这项调查主要针对Meta、微软、Snap和X等公司,在这些科技巨头越来越多地推出面向消费者的AI工具之际,重点关注它们***如何管理相关的风险。
根据声明,欧盟委员会已经向这些公司正式发出了通知。不过这次的调查更多是倾向于防控AI的风险,而不是为了打击或处罚这些公司。
欧盟官员声称:“欧盟委员会要求这些科技公司提供更多信息,说明它们各自针对与生成式AI相关的风险***取的应对措施,例如AI产生的幻觉(提供虚***信息)、深度伪造的***式传播,以及可能误导选民的自动操纵服务。”深度伪造指的是由AI生成或操纵、可能看起来是真实的图像、音频或视频。
还有官员表示,他们特别担心,在今年夏天的欧洲议会选举前夕,生成式AI可能会引发混乱。在线平台必须在4月5日之前回答有关他们***取了哪些措施来防止AI传播选举错误信息的问题。
欧盟委员会的部分目标是深入了解这些公司是如何处理深度***问题的,但同时也要让它们注意到,根据欧盟《数字服务法》,AI相关的事故可能会导致罚款或其他处罚。《数字服务法》适用于为欧盟用户服务的数字服务提供商,包括在线购物平台、社交媒体平台、搜索引擎等。
此外,此次调查还涵盖了一系列更广泛的主题,包括平台如何解决生成式AI对用户隐私、知识产权、公民权利、儿童安全和心理健康等方面的影响。
一名欧盟官员告诉记者:“我们希望自己做准备,我们希望各个平台做准备,并提醒平台真正为可能发生各种与即将举行的选举有关的***做最充分的准备。当然,特别是欧洲议会选举。”
此前一天,欧洲议员们批准了迄今全球最全面的人工智能(AI)法案,为AI系统开发者制定了全面的规则,并对如何使用AI技术做出了新的限制。
虽然该法案只适用于欧盟,但预计会在全球产生影响,因为大型AI公司不太可能愿意放弃进入拥有约4.48亿人口的欧盟。其他司法管辖区也可能将该新法作为其AI法规的范本,从而产生连锁反应。
新规将要求那些最强大AI模型的开发商对这些AI模型进行最先进的安全评估,一旦AI模型发生严重事故,必须上报监管部门。新规规定,这些公司还必须实施潜在风险缓解措施和网络安全保护措施。