据日经新闻最新报道,日本政府正在考虑明年成立一个组织,探讨人工智能(AI)安全方面的问题,包括民用AI技术被转用于军事目的的风险,旨在在不妨碍研发的情况下,提高其安全性。
据悉,预计最早将在本月举行的人工智能战略委员会会议上正式宣布这一计划,该委员会负责讨论与AI相关的国家战略,成员包括在AI领域有经验的私营部门专业人员。
关注的重点将是最先进的那一批产品,如OpenAI的ChatGPT。为了避免干扰私营部门,企业用于提高运营效率的标准AI技术将不会成为日本政府的目标。
AI产品将在进入市场之前需要进行一系列测试,还有一项提案要求日本政府采购的任何AI产品在使用前都要经过专业机构的认证。
上述新成立组织***研究潜在的国家安全风险,例如通过AI获取制造生物、化学或其他武器的信息的可能性,还将检查安全漏洞,包括对网络的攻击。
另外,还将调查AI变得不受控制的风险,以及与错误信息和[_a***_]有关的问题。AI控制的社交媒体账号,能在网络上自动生成内容并与人类用户互动,操纵公众舆论或煽动情绪。
目前来看,随着信息技术的发展,AI技术大量运用于军事领域已经成为现实,使用AI收集和分析战场数据等一系列AI操作,在作战系统中已被广泛应用。而民用AI技术被转用于军事目的,几乎是不可避免的问题。
虽然可能会成立一个全新的机构,但最有可能的结果是将一个新的部门并入现有的组织。候选机构包括总务省下属的研究AI技术的国家信息和通信技术研究所,以及经济产业省下属的信息技术促进机构。
在本月初,七国集团(G7)就AI国际规则框架达成了最终协议。这将成为首份对开发人员及用户,规定AI“所有相关人员”应遵守职责的全面国际规则。
G7力争通过率先展现为防止AI滥用而合作姿态的形式,获得G7以外国家和企业的赞同。日本***将把此次协议用于面向国内的指导方针制定,即AI开发商在向市场推出产品之前,需要接受第三方的风险评估。
英国和美国在创建人工智能机构方面也处于领先地位。11月份,英国成立了全球首个AI安全研究所。在对尖端AI产品上市前后进行验证后,考虑公开其中存在安全风险的产品。
美国根据今年10月拜登总统的行政命令,正在以美国国家标准与技术研究院为主导,制定AI安全评价方法。旨在与私营公司共同创建一个AI安全联盟,以制定评估AI能力和风险的方法,并希望私营公司自行进行风险验证。
[免责声明]本文来源于网络,不代表本站立场,如转载内容涉及版权等问题,请联系邮箱:83115484@qq.com,我们会予以删除相关文章,保证您的权利。
转载请注明出处:http://www.abagam.com/post/45314.html