来源:财联社
据日经新闻最新报道,日本政府正在考虑明年成立一个组织,探讨人工智能(AI)安全方面的问题,包括民用AI技术被转用于军事目的的风险,旨在在不妨碍研发的情况下,提高其安全性。
据悉,预计最早将在本月举行的人工智能战略委员会会议上正式宣布这一***,该委员会负责讨论与AI相关的国家战略,成员包括在AI领域有经验的私营部门专业人员。
关注的重点将是最先进的那一批产品,如OpenAI的ChatGPT。为了避免干扰私营部门,企业用于提高运营效率的标准AI技术将不会成为日本***的目标。
AI产品将在进入市场之前需要进行一系列测试,还有一项提案要求日本******购的任何AI产品在使用前都要经过专业机构的认证。
上述新成立组织***研究潜在的国家安全风险,例如通过AI获取制造生物、化学或其他武器的信息的可能性,还将检查安全漏洞,包括对网络的攻击。
另外,还将调查AI变得不受控制的风险,以及与错误信息和偏见有关的问题。AI控制的社交媒体账号,能在网络上自动生成内容并与人类用户互动,操纵公众舆论或煽动情绪。
目前来看,随着信息技术的发展,AI技术大量运用于军事领域已经成为现实,使用AI收集和分析战场数据等一系列AI操作,在作战系统中已被广泛应用。而民用AI技术被转用于军事目的,几乎是不可避免的问题。
虽然可能会成立一个全新的机构,但最有可能的结果是将一个新的部门并入现有的组织。候选机构包括总务省下属的研究AI技术的国家信息和通信技术研究所,以及经济产业省下属的信息技术促进机构。
在本月初,七国集团(G7)就AI国际规则框架达成了最终协议。这将成为首份对开发人员及用户,规定AI“所有相关人员”应遵守职责的全面国际规则。
G7力争通过率先展现为防止AI滥用而合作姿态的形式,获得G7以外国家和企业的赞同。日本***将把此次协议用于面向国内的指导方针制定,即AI开发商在向市场推出产品之前,需要接受第三方的风险评估。
英国和美国在创建人工智能机构方面也处于领先地位。11月份,英国成立了全球首个AI安全研究所。在对尖端AI产品上市前后进行验证后,考虑公开其中存在安全风险的产品。
美国根据今年10月拜登总统的行政命令,正在以美国国家标准与技术研究院为主导,制定AI安全评价方法。旨在与私营公司共同创建一个AI安全联盟,以制定评估AI能力和风险的方法,并希望私营公司自行进行风险验证。