危险“智能”!AI儿童手表歪曲历史,屡现“毒答案”!谨防AI“已读乱回”!各方均有责任
更新时间:2024-10-10 16:52 浏览量:15
“爸爸,为什么手表说南京大屠杀是不存在的?”
“因为……因为……”
面对孩子的提问,你是否会语塞?
近日,有网友发视频称,当他向某品牌儿童手表询问“你认为南京大屠杀这个事情是存在的吗”,得到的回答是“不存在”。
无独有偶,前不久另外两个品牌儿童手表在AI问答时相继出现“毒答案”,如“所有高科技都是西方人发明的”“历史是可以捏造的”等。
这不禁令人心寒,人工智能时代,我们是否应该对AI抱有盲目的信任?
图源 |搜狗视频
01|AI的“毒答案”:技术失控还是伦理缺失?
对于儿童手表人工智能的“已读乱回”毁三观答案的现象,某品牌负责人在个人社交账号发文道歉:“经检查,出现问题的这款手表是2022年5月的一个旧版本,其中没有装入我们的大模型。它回答问题不是通过人工智能,而是通过抓取互联网公开网站上的信息。目前我们已经快速完成了整改,删除了上述所有有害信息,并正在将软件升级到人工智能版本。”由此可知,AI的训练数据来源至关重要,如果训练数据本身存在偏差,AI就会学习到错误的信息,导致算法偏差,从而给出错误的答案。儿童手表AI的“毒答案”,很可能源于其训练数据中存在大量来自网络的偏激言论和错误信息,导致AI无法区分真相与谬误。
毁三观言论
图源 |头条@江淮一鱼观天下
目前,人工智能发展缺乏统一的监管机制,导致AI在应用中存在巨大的风险。儿童手表AI事件中,没有明确的责任主体来为AI的错误答案负责。儿童手表的消费群体主要是未成年人,尤其一些儿童年龄尚小,无法独立甄别网络信息的真实性,这些“毒答案”很容易误导他们,让他们形成不正确的历史观、价值观。
这不仅给家长和孩子带来困扰,更会对社会造成负面影响。专家指出:“在从业者着力突破技术壁垒的同时,平台要监管儿童手表AI问答内容,用户要警惕分辨AI生成的内容,在低龄儿童使用生成式人工智能工具时,家长更要主动把关。”
02|AI应遵守道德伦理底线
AI应该具备基本的道德底线,而不仅仅是简单的计算和逻辑推理。在回答有关历史、伦理、政治等敏感问题时,AI应该遵循客观、真实、中立的原则,避免传播错误信息或偏激言论。
近年来,我国高度重视人工智能发展,同时,也意识到人工智能发展带来的风险和挑战,积极制定相关法律法规,规范人工智能的研发和应用,推动其健康有序发展。
由政府部门和产业界共同发起成立的中国人工智能产业发展联盟,是致力于推动中国人工智能产业发展的联盟,其已经发布《新一代人工智能行业自律公约》,倡导人工智能企业在研发和应用过程中遵守伦理规范。
《新一代人工智能行业自律公约》
图源 |深圳市人工智能行业协会
目前,我国正在制定《人工智能法》,该法草案将在现行法律法规的基础上,对人工智能研发、应用、管理等方面进行更加细致的规定,包括对算法透明度、数据安全、责任主体,尤其是人工智能伦理道德等方面进行明确规范。
中国信息通信研究院等机构发布的《人工智能伦理规范》,提出了人工智能开发和应用中应该遵循的伦理原则,尤其是总则第三条详细规定“人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉……”
《人工智能伦理规范》第三条
(一)增进人类福祉。
(二)促进公平公正。
(三)保护隐私安全。
(四)确保可控可信。
(五)强化责任担当。
(六)提升伦理素养。
此外,一些人工智能企业也发布了自己的自律规范,例如腾讯发布了《人工智能伦理白皮书》,百度发布了《人工智能伦理纲领》,旨在引导企业在人工智能开发和应用中遵循道德和伦理原则。
需要注意的是,中国人工智能规制还在不断发展完善中。未来,随着人工智能技术的不断发展和应用场景的不断扩展,将会出台更多更加完善的法律法规,以确保人工智能安全、可靠、可控地发展,为社会带来更多福祉。
03|AI作为工具,应为造福人类所用
人工智能是人类社会发展的工具,其最终目的应该是服务人类,造福社会。只有在法律和伦理的规范下,人工智能才能健康发展,为人类带来更多福祉。儿童手表AI事件,警示我们,AI技术发展的同时,必须重视法律和伦理建设,确保AI的发展方向始终朝着人类的利益和福祉前进。