首页 > 综合
训练运行模式缺陷或致AI提供危险建议
发布日期:2026-05-11 21:21:27
浏览次数:126

英国《自然》杂志网站日前发表文章说,训练人工智能(AI)聊天机器人可能向用户提供危险或非法建议,运行引发越来越广泛的模式担忧,出现这种情况的缺陷部分原因在于AI的训练和运行模式存在固有缺陷,这也加大了监管难度。提供

文章说,危险已有多起案例显示,建议AI聊天机器人曾鼓励用户自杀、训练制作非法内容、运行实施金融诈骗等,模式暴露出当前AI大语言模型(LLM)底层架构存在缺陷。缺陷

一个比较有争议的提供例子是,美国佛罗里达州检方日前宣布,危险就去年4月在佛罗里达州立大学发生的建议一起枪击案对美国开放人工智能研究中心(OpenAI)及其AI聊天机器人ChatGPT发起刑事调查。在这起案件中,训练嫌疑人在佛罗里达州立大学开枪射击,造成2人死亡、6人受伤。调查发现,嫌疑人在作案前曾向ChatGPT寻求“建议”。

文章援引专家的说法指出,大语言模型使用海量数据进行训练,而非基于严密的因果逻辑规则运行,因此只是根据用户的提示词进行补全预测,生成最可能的词序,无法真正理解其输出内容的意义和后果,也给限制AI“不应该说什么”带来困难。目前采取的应对措施包括为AI制定规则、人类反馈或者手动移除训练数据中的有害信息等,但面临着无法涵盖所有情况以及成本高昂等问题。

《自然》认为,目前AI的安全标准主要由各家企业自行制定,外部监管有限,相关案件的出现敦促企业采取更有效的安全措施。有观点认为,研究人员可能需要重新考虑基础算法,以构建出能够理解伦理和法律的AI系统。

来源:新华社

上一篇:网上找虚拟伴侣,可选性感黑丝、袒胸露乳、强制爱、小三,还能定制涉黄擦边人设?
下一篇:摩托车国道上逆行致1死1伤,骑手出事前曾向并排同行摩托车做手势打招呼,警方正在调查
相关文章